Create chatbot from your own resources

Try it now

Table of Contents

    微软推出潜力巨大的小型语言模型 Phi-3

    微软正式发布了其人工智能技术的最新进展--Phi-3。Phi-3 凭借其在机器学习、深度学习和基于云的人工智能解决方案方面的增强功能,有望彻底改变人工智能领域的格局。 我们将进行详细分析,探讨 Phi-3 如何在竞争激烈的人工智能技术领域脱颖而出,以及它对未来数字创新的意义。

    微软周二发布了小型语言模型Phi-3的升级版,该模型能够处理许多过去被认为需要大型模型才能完成的任务。"Phi-3不是稍微便宜了一点,而是大大便宜了;与其他具有类似能力的模型相比,我们谈论的是10倍的成本差异,"微软GenAI研究副总裁塞巴斯蒂安-布贝克(Sébastien Bubeck)说。

    该公司表示,SLM旨在执行更简单的任务,使资源有限的公司更容易使用。

    该公司表示,Phi-3-mini将立即在微软云服务平台Azure的人工智能模型目录、机器学习模型平台Hugging Face和在本地机器上运行模型的框架Ollama上推出。

    英国TechWhisperer有限公司创始人贾斯普里特-宾德拉(Jaspreet Bindra)评论说:"最新的'小语言模型'来自微软的Phi-3 Mini。这是一个轻量级人工智能模型,是其小型语言模型(SLM)系列的一部分。 它是微软计划近期推出的三个 SLM 中的第一个,另外两个是 Phi-3 Small 和 Phi-3 Medium。Phi-3 Mini 的参数容量为 38 亿个,设计用于执行更简单的任务,使资源有限的企业更容易获得和负担得起。 与 GPT-4 等大型语言模型相比,Phi-3 Mini 的数据集更小。它是微软更广泛计划的一部分,该计划旨在推出一系列针对简单任务定制的 SLM,使其成为资源较少的企业的理想选择。这种方法有望降低成本,使模型的速度更快,因为它们是在边缘,并有望为生成式人工智能提供更多的企业和消费者用例。" Phi-3使开发人员能够在边缘构建生成式人工智能应用,效率更高,延迟更短,成本更低。微软一直在开发一系列SLM,这些SLM提供了许多与LLM相同的功能,但体积更小,并在更小的数据量上进行训练。"微软GenAI副总裁塞巴斯蒂安-布贝克(Sebastien Bubeck)说:"我们在一年前就开始尝试建立小型语言模型,想看看在只有10亿个参数的情况下我们能走多远。

    微软的竞争对手也有自己的小型人工智能模型,它们大多针对文档摘要或编码辅助等更简单的任务。谷歌的 Gemma 2B 和 7B 适用于简单的聊天机器人和语言相关工作。

    Experience the full potential of ChatGPT with Merlin

    Author
    阿努普玛-辛格

    阿努普玛-辛格

    阿努普玛-辛格(Anupma Singh)是一位从印度理工学院毕业的连续创业者,对搜索引擎优化有着深厚的热情。她的写作专长横跨各种主题、推动积极社会变革的企业以及不断发展的人工智能(AI)领域。她的文章深入探讨了技术、社会影响和创新的交叉点,反映了她在这些动态领域的专业知识。

    Published on : 24th April 2024, Wednesday

    Last Updated : 21st October 2024, Monday