降本30%,腾讯太极 LLMOps 大模型平台实践

989次阅读
没有评论

大语言模型技术正在飞速发展,从机器学习平台角度,如何管理好大模型研发应用整个生命周期至关重要,包括数据管理、资源管理、模型开发、训练评估、推理部署等方面。

在9月15日9:00-17:00举办的DataFunSummit2023大模型与AI基础软件峰会主论坛上,腾讯 TEG 机器学习平台部总监陶阳宇将分享腾讯太极LLMOps大模型平台实践,探讨大模型场景,以及平台如何提高模型研发效率、降低30%资源成本。

降本30%,腾讯太极 LLMOps 大模型平台实践

陶阳宇 腾讯 TEG 机器学习平台部总监

个人介绍:陶阳宇,毕业于中科大电子专业,博士学历,15年机器学习、大数据、云计算相关领域经验,曾在微软MSRA、阿里云从事大规模分布式系统研发,现任腾讯TEG机器学习平台部总监,负责腾讯太极MLOps机器学习平台的研发,支持海量数据、万卡大规模GPU集群的模型训练、推理部署,研发的Angel系列AI框架AngelGraph、AngelRec、AngelPTM等支持了腾讯广告、视频推荐、金融风控、AIGC大模型等多个应用场景,大幅提升AI落地效率,降低资源成本。曾获中国电子学会科技进步奖特等奖,清华大学、北航研究生客座讲师,在NIPS/VLDB/SIGMOD等国际学术会议发表多篇论文。

🔥演讲题目:腾讯太极 LLMOps 大模型平台实践

演讲提纲:大语言模型技术正在飞速发展,从机器学习平台角度,如何管理好大模型研发应用整个生命周期至关重要,包括数据管理、资源管理、模型开发、训练评估、推理部署等方面,本次分享以腾讯太极LLMOps大模型平台实践为基础,探讨大模型场景,平台如何提高模型研发效率、降低资源成本。具体包括:

1. LLMOps基础简介

2. 太极大模型平台

3. 数据飞轮与管理

4. 模型训练与推理框架

5. 性能优化与成本

6. 大模型集群稳定性

🎁听众收益

1. 如何通过框架性能优化,降低大模型30%成本?

2. 如何提高大模型千卡训练稳定性?

3. 大模型 LLMOps 平台如何建设?

降本30%,腾讯太极 LLMOps 大模型平台实践扫码免费报名观看

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy