梦晨 发自 凹非寺
量子位 | 公众号 QbitAI
让大模型直接操纵格斗游戏《街霸》里的角色,捉对PK,谁更能打?
GitHub上一种你没有见过的船新Benchmark火了。
与llmsys大模型竞技场中,两个大模型分别输出答案,再由人类评分不同——街霸Bench引入了两个AI之间的交互,且由游戏引擎中确定的规则评判胜负。
这种新玩法吸引了不少网友来围观。
由于项目是在Mistral举办的黑客马拉松活动上开发,所以开发者只使用OpenAI和Mistral系列模型进行了测试。
排名结果也很出人意料。
经过342场对战后,根据棋类、电竞常用的ELO算法得出的排行榜如下:
最新版gpt-3.5-turbo成绩断崖式领先,Mistral小杯排第二。更小的模型超过了更大的如GPT-4和Mistral中杯大杯。
开发者认为,这种新型基准测试评估的是大模型理解环境并根据特定情况采取行动的能力。
与传统的强化学习也有所不同,强化学习模型相当于根据奖励函数“盲目地”采取不同行动,但大模型完全了解自身处境并有目的的采取行动。
考验AI的动态决策力
AI想在格斗游戏里称王,需要哪些硬实力呢?开发者给出几个标准:
-
反应要快:格斗游戏讲究实时操作,犹豫就是败北
-
脑子要灵:高手应该预判对手几十步,未雨绸缪
-
思路要野:常规套路人人会,出奇制胜才是制胜法宝
-
适者生存:从失败中吸取教训并调整策略
-
久经考验:一局定胜负不说明问题,真正的高手能保持稳定的胜率
具体玩法如下:
每个大模型控制一个游戏角色,程序向大模型发送屏幕画面的文本描述,大模型根据双方血量、怒气值、位置、上一个动作、对手的上一个动作等信息做出最优决策。
第一个挑战是定位人物在场景中的位置,通过检测像素颜色来判断。
由于目前大模型数学能力还都不太行,直接发送坐标值效果不好,最终选择了将位置信息改写成自然语言描述。
所以对于AI来说,实际上他们在玩的是一种奇怪的文字冒险游戏。
再把大模型生成的动作招式映射成按键组合,就能发送给游戏模拟器执行了。
在试验中发现,大模型可以学会复杂的行为,比如仅在对手靠近时才攻击,可能的情况下使用特殊招式,以及通过跳跃来拉开距离。
从结果上可以看出,与其他测试方法不同,在这个规则下似乎更大的模型表现越差。
开发者对此解释到:
目标是评估大模型的实时决策能力,规则上允许AI提前生成3-5个动作,更大的模型能提前生成更多的动作,但也需要更长的时间。
在推理上的延迟差距是有意保留的,但后续或许会加入其他选项。
后续也有用户提交了流行开源模型的对战结果,在7B及以下量级的战斗中,还是7B模型排名更靠前。
从这个角度看,这种新型基准测试为评估大模型的实用性提供了新思路。
现实世界的应用往往比聊天机器人复杂得多,需要模型具备快速理解、动态规划的本领。
正如开发者所说,想要赢,要在速度和精度之间做好权衡。
GitHub项目:
https://github.com/OpenGenerativeAI/llm-colosseum
参考链接:
[1]https://x.com/nicolasoulianov/status/1772291483325878709
[2]https://x.com/justinlin610/status/1774117947235324087
— 完 —
【🔥 火热报名中】中国AIGC产业峰会
定档4月17日
峰会已经邀请到数位代表技术、产品、投资、用户等领域嘉宾,共论生成式AI产业最新变革趋势。
目前首批确认参会嘉宾包括:微软陶然、昆仑万维方汉、美图公司吴欣鸿、联想创投宋春雨、通义千问林俊旸、逐际动力张力、人大卢志武、北大袁粒、小冰公司徐元春、金山办公姚冬、FusionFund张璐、通义大模型徐栋、DCM曾振宇、澜码科技周健、得到快刀青衣、实验电影人海辛等。了解更多
欢迎报名峰会 ⬇️
峰会将全程线上下同步直播,欢迎预约直播 ⬇️
点这里👇关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~