性能超越 Meta 和 Google 微软推全新 Phi 3.5模型
编译/庄闵棻
微软推出了一系列经过更新的小型语言模型,这些模型在多项基准测试中超越了Meta与Google等竞争对手产品,仅次於OpenAI的GPT-4o-mini,这些新模型已在Hugging Face平台上发布,并获得了开放的MIT许可,表现胜过Llama 3.1-8B-instruct、Gemma 2-9b-It和Gemini 1.5-Flash等对手。
Phi 3.5新模型在基准测师中表现优异
据报导,这次发布的Phi 3.5模型是对4月发布的Phi 3平台的升级版本,包括Phi 3.5-MoE-instruct、Phi 3.5-mini-instruct和Phi 3.5-vision-instruct三种模型,根据微软的说法,这些模型在推理和多语言支援方面表现出色,特别是在BigBench、MMLU和ARC Challenge等基准测试中。
更多新闻:这5个痕迹 让你辨识 AI 生成图像
Phi 3.5-MoE-instruct模型的优势与限制
其中,Phi-3.5-MoE-instruct模型是基於Phi-3合成数据和经过筛选的公开文档训练而成,着重於高品质且推理密集的数据,该模型支援多语言,具备128K上下文长度,适用於商业和研究用途,微软表示,这款模型针对记忆体或计算受限环境、低延迟场景,及需要强推理能力(如程式设计、数学和逻辑)的应用而设计,其表现优於Llama 3.1-8B-instruct、Gemma 2-9b-It和Gemini 1.5-Flash,但它无法与OpenAI的GPT-4o-mini-2024-07-18的版本相提并论。
然而,微软也指出,Phi-3.5-MoE-instruct模型在某些任务中受到其大小的限制,无法储存过多的事实性知识,可能导致资讯不准确的情况,但该公司也补充说,只要透过在RAG(检索增强生成)设置下与搜寻引擎结合使用,就可以解决这一问题,在技术细节上,微软则是使用了512块辉达H100-80G GPU,历时23天,用4.9万亿个词元进行了训练。
Phi 3.5-mini-instruct模型:性能优异,适合多轮对话
此外,支援128K上下文长度的mini-instruct模型,也有优异表现,这款mini-instruct模型基於2024年6月Phi-3 Mini的指令调整版本进行改进,尽管其推理能力仍略逊於OpenAI最新的4o-mini聊天模型,但透过增加後续训练数据,也提升了多语言、多轮对话和推理能力,mini-instruct拥有38 亿个参数,是一个密集的解码transformer模型,使用与Phi-3 Mini 相同的标记器,在512 个辉达H100-80G GPU 上,经过10 天的时间对3.4 兆个标记进行训练。
Phi 3.5-vision-instruct模型:多模态能力强大
最後,除了上述模型外,微软还发布了Phi 3.5-vision-instruct模型,该模型具备42亿参数,内含影像编码器、连接器、投影器和Phi-3-Mini语言模型,同样支援128K 词元,经过256块辉达A100-80G GPU,为期6天的训练,处理了5000亿个视觉与文本词元,尽管参数较少,但其性能也优於竞争对手产品,包括 Claude-3.5-Sonnet 和 GPT-4o-mini。
参考资料:infoworld
※探索职场,透视薪资行情,请参考【科技类-职缺百科】帮助你找到最适合的舞台!