微软打造13亿参数小型LLMAI模型,号称实际效果胜于千亿参数GPT-3
2023-06-28 09:20 来源:IT之家 阅读量:4364
,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”。
IT之家注意到,该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。
微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5还要好。
微软表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。
目前关于 phi-1 的论文已经在 arXiv 中发布,可以在这里找到论文的相关内容。
广告声明:本文含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考。IT之家所有文章均包含本声明。
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。
为您推荐
精彩放送
热门文章
-
英国跑车大厂牵手美国“造车新势力”,阿斯顿马丁将与Lucid合作生产电动
-
Steam发布5月热门游戏新品榜:包含《红霞岛》《鬼谷八荒》《孤岛惊魂6
-
消息称谷歌正开发YouTubePlayables云游戏服务
-
突破3000家!看必胜客如何在33年长跑中实现穿越周期的增长
-
达墨推出V90SD卡:128GB版本559元,采用TLC颗粒、pSLC模
-
半导体设备巨头日立:不会对日本次世代晶圆代工厂Rapidus出资,更希望
-
李彦宏:AI原生应用比大模型数量更重要
-
398元,山灵推出新款SONO入耳式耳机:双动圈设计、支持HiFi
-
长安全新车型启源A07官方预告发布:可选增程/纯电,配掀背尾门,有望7月
-
博帝推出VP4300Lite固态硬盘:读取速度7400MB/s,容量可达