百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

731次阅读
没有评论

Google 开发者在线课程 开始学习
百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

百川智能宣布正式开源微调后的 Baichuan2-7B、Baichuan2-13B、Baichuan2-13B-Chat与其4bit量化版本,并且均为免费可商用。

根据介绍,Baichuan2-7B-Base 和 Baichuan2-13B-Base,均基于 2.6万亿高质量多语言数据进行训练,在保留了上一代开源模型良好的生成与创作能力,流畅的多轮对话能力以及部署门槛较低等众多特性的基础上,两个模型在数学、代码、安全、逻辑推理、语义理解等能力有显著提升。其中Baichuan2-13B-Base相比上一代13B模型,数学能力提升49%,代码能力提升46%,安全能力提升37%,逻辑推理能力提升25%,语义理解能力提升15%。

百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

本次开源的两个模型在各大评测榜单上的表现优秀,在MMLU、CMMLU、GSM8K等几大权威评估基准中,以绝对优势领先LLaMA2,相比其他同等参数量大模型,表现也十分亮眼,性能大幅度优于LLaMA2等同尺寸模型竞品。

且根据MMLU等多个权威英文评估基准评分 Baichuan2-7B以70亿的参数在英文主流任务上与130亿参数量的LLaMA2持平。

百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

Baichuan2-7B和Baichuan2-13B不仅对学术研究完全开放,开发者也仅需邮件申请获得官方商用许可后,即可以免费商用。

与此同时,百川智能还宣布开源了模型训练从220B到2640B全过程的 Check Ponit。

百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

并公开了Baichuan 2的技术报告技术报告将详细介绍Baichuan 2训练的全过程,包括数据处理、模型结构优化、Scaling law、过程指标等。

王小川透露,按照公司计划,今年四季度将发布对标GPT-3.5的千亿级参数模型,预计于明年一季度发布超级应用。“除开源模型以外,下一次在闭源模型上会有更多的突破,希望在中国的开源闭源生态中都能给中国的经济社会发展带来我们的贡献。”

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy