(资料图)
"7月31日,Llama中文社区率先完成了国内首个真正意义上的中文版Llama2-13B大模型,从模型底层实现了Llama2中文能力的大幅优化和提升。毋庸置疑,中文版Llama2一经发布将开启国内大模型新时代!
| 全球最强,但中文短板
Llama2是当前全球范围内最强的开源大模型,但其中文能力亟待提升Meta不负众望,于7月19日凌晨开源了第一代LLaMA的升级版:Llama2,7B、13B和70B三种大小的模型全开放并且可免费商用。作为AI领域最强大的开源大模型,Llama2基于2万亿token数据预训练,并在100万人类标记数据上微调得到对话模型。在包括推理、编程、对话和知识测试等许多基准测试中效果显著优于MPT、Falcon以及第一代LLaMA等开源大语言模型,也第一次媲美商用,在一众开源模型中独树一帜。虽然Llama2的预训练数据相对于第一代扩大了一倍,但是中文预训练数据的比例依然非常少,仅占0.13%,这也导致了原版Llama2的中文能力较弱。我们对于一些中文问题进行提问,发现大多数情况下Llama2都不能以中文回答,或者以中英文混杂的形式回答问题。因此,需要基于大规模中文数据对Llama2进行优化,使Llama2具备更好的中文能力。| 最领先的Llama中文社区
Llama中文社区是国内最领先的开源大模型中文社区,Github在两周内即达到 star,由清华、交大以及浙大博士团队领衔,汇聚了60+AI领域高级工程师以及各行业2000+顶级人才。社区链接:/FlagAlpha/Llama2-Chinese社区历程:
| 首个预训练中文版Llama2模型发布!
X 关闭
Copyright © 2015-2022 华中纸业网版权所有 备案号:京ICP备12018864号-26 联系邮箱:2 913 236 @qq.com