首页 > 互联网 > 正文

人工智能战争微软推出Phi-3一款可轻松安装在手机上的强大人工智能模型

来源:互联网2024-04-27 10:06:25
导读 微软本周早些时候在HuggingFace、Ollama和AzureAI目录上推出了Phi-3。虽然它与WindowsCopilot的一般知识技能不太相符,但开源AI技术代表了...

微软本周早些时候在HuggingFace、Ollama和AzureAI目录上推出了Phi-3。虽然它与WindowsCopilot的一般知识技能不太相符,但开源AI技术代表了雷蒙德的第四代小语言模型,在速度、效率和性能方面可与主流法学硕士相媲美。

Phi-3拥有38亿个参数,比其前身稍大一些,但仍然足够小,可以在低至1.8GB的​​移动存储上运行。相比之下,典型的复杂LLM(例如Llama或GPT-3.5)利用数千亿个参数来理解输入,并且本地存储是不切实际的。今年夏天推出的GPT-5预计参数规模将达数万亿个。根据传统的缩放法则,更多的参数意味着更智能的结果。但根据微软的说法,情况可能不一定如此。

微软在其技术报告中提出了一些大胆的主张;其中最主要的是绩效基准,该公司自己承认,这些基准纯粹是学术性的。在19项基准测试中的12项中,尽管运行的参数是Llama-3-instruct的两倍多,但Phi-3-mini的表现似乎优于Llama-3-instruct。使用7BPhi-3-small和14BPhi-3-medium,结果更加惊人。

工程师们将这些效率提升归功于他们精心策划的训练数据集,该数据集来自两个来源:“教科书质量”的网络内容和人工智能生成的数据,旨在通过精心挑选的3000个单词列表来教授语言、一般知识和常识推理。作为构建块。微软的研究人员声称,这种数据配方使去年的Phi-2能够与Meta的更大(70B)Llama-2模型的性能相匹配。

AzureAI企业副总裁埃里克·博伊德(EricBoyd)通过TheVerge吹嘘说,Phi-3的功能与GPT-3.5一样,尽管“外形更小”。然而,由于其规模有限,Phi-3仍然受到事实知识缺乏的困扰。也许这是人工智能本地运行而不是通过云计算运行的必要权衡?

考虑到灵活性和成本效率是企业的关键问题,企业已经开始利用SLM的功能也就不足为奇了。然而,Phi-3的竞争非常激烈。Meta的Llama-3、Anthropic的Claude-3套件、GoogleGemini和Gemma都有能够支持移动边缘计算的轻量级版本。尽管Phi-3似乎具有良好的竞争优势,但GeminiNano已经应用于GooglePixel8Pro和三星GalaxyS24系列等设备(亚马逊售价784美元)。

Phi-3系列AI模型绝不是Microsoft一直致力于开发的唯一SLM。上个月,该公司采用Mistral创建了Orca-Math,这是一种专门的模型,在小学数学中,该模型比Llama、GPT-3.5和GeminiPro准确得多。AutoDev是一个更新的项目,它利用AutoGen和Auto-GPT根据用户定义的目标自主规划和执行编程任务。人工智能战争还远未结束,但至少在较小规模上,我们有一个领先的竞争者。

关键词:
版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

猜你喜欢

最新文章