Semantic Kernel:Phi-4试用

360影视 2025-01-10 08:42 2

摘要:微软在去年12月12日首次展示了Phi-4模型,该模型拥有140亿参数,但表现极为强大。在多项测试中表现优异:

微软在去年12月12日首次展示了Phi-4模型,该模型拥有140亿参数,但表现极为强大。在多项测试中表现优异:

GPQA

(研究生水平问答)和MATH数学基准测试中,Phi-4的表现超过了OpenAI的GPT-4o,并超越同类顶级开源模型Qwen 2.5 - 14BLlama 3.3 - 70B

美国数学竞赛AMC测试中,Phi-4取得了91.8分,超过了Gemini Pro 1.5GPT-4oClaude 3.5 SonnetQwen 2.5等知名开闭源模型。

其整体性能甚至媲美4050亿参数Llama 3.1模型。

总结来看,Phi-4在参数量相对较小的情况下,展现出极高的性能与竞争力。

今天Phi-4正式发布,于是满怀激情的再试一把(之前试过提前发布的版本)。下面把试用的过程分享出来。

用ollama下载Phi-4:

用SemanticKernel+ollama跑案全:

using Microsoft.Extensions.DependencyInjection;using Microsoft.Extensions.Logging;using Microsoft.SemanticKernel;using Microsoft.SemanticKernel.ChatCompletion;using Microsoft.SemanticKernel.Connectors.Ollama;using Microsoft.SemanticKernel.Connectors.OpenAI;using OllamaSharp;using OpenAI.RealtimeConversation;using System;using System.ComponentModel;#pragma warning disable SKEXP0001#pragma warning disable SKEXP0010#pragma warning disable SKEXP0070await Call;async Task Call1{ var ollamaApiClient = new OllamaApiClient(new Uri("http://localhost:11434"), "phi4:latest"); var builder = Kernel.CreateBuilder; builder.Services.AddScoped(_ => ollamaApiClient.AsChatCompletionService); var kernel = builder.Build; var chatService = kernel.GetRequiredService; while (true) { Console.Write("用户:"); var input = Console.ReadLine; if (string.IsOrWhiteSpace(input)) { break; } var response = chatService.GetStreamingChatMessageContentsAsync(input); var content = ""; var role = AuthorRole.Assistant; Console.ForegroundColor = ConsoleColor.Green; Console.Write("助手:"); await foreach (var message in response) { Console.Write($"{message.Content}"); content += message.Content; role = message.Role.Value; } Console.WriteLine; Console.ResetColor; }}

先试一个常见的逻辑题:

再来个文雅的内容生成题:

再来一个翻译:

为了对比,把Google的翻译拿上来作对比:

最后再和CahtGPT 4o作个对比:

总体体验下来,作为一个SLM人是十分满意的,用在生产中是相当可以的,不过现在还不支持function calling,另外上面的测试都是在自己的笔记本上跑的,速度是能接受的,如果跑生产,上个显卡,应该就能提速,按理这都不是事。我给phi4打85分,等有了function calling就完美了。

来源:opendotnet

相关推荐