TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

524次阅读
没有评论

TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

随着ChatGPT的一夜爆火,人工智能似乎找到了最为合适的应用出口,同时,它也让用户和产业,看到了大模型人工智能所具备的应用潜力。传统印象里,人工智能、云服务、大数据,都是阿里达摩院、百度、字节跳动等企业经常挂在嘴边的技术名词。

但很多人不知道的是,作为智能终端产业头部成员的TCL实业也在人工智能赛道拥有着深厚的布局,早在2017年德国IFA展会上,TCL就发布了3款搭载人工智能小T的新品。

随后的2019年,TCL实业不仅确立了AI×IoT的发展路径,同时也成立了鸿鹄实验室(EagleLab),专注于AI、IoT和云服务等技术研发和产品化创新应用,对内服务范围覆盖TCL智能终端业务群全产业,同时也为全球用户提供AI×IoT全场景智能解决方案。

TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

据TCL 实业CTO孙力介绍:“2019年以后,TCL实业在持续发力AI×IoT的战略,借助人工智能技术的不断进步,我认为现在已经进入AIoT2.0时代,与1.0时代相比,它的最大变化在于实现了真正的主动智能,即设备知道你想要什么服务。”

具体来说,从1.0到2.0时代的推进,需要从几个方面入手,首先是对瘦设备的意图理解,所谓“瘦设备”,就是指交互频次不高、涉及数据较少的设备,比如空调、洗衣机等等。过去只要联网实现远程操控,那么它就进入了AIoT的体验,但现在需要让这些设备开始能够理解用户意图,这也是人工智能的应用潜力所在。

其次,则是加深对用户意图的理解、交互方式的效率提升。孙力提到:“过去的传统交互界面都是依靠外设或者触控交互,以前经常开玩笑说Excel或者PPT里面的功能非常强大,但普通人最多用到5%的功能,受限是在哪呢?因为操作界面就这么大,对功能挖掘和探索的学习成本很高。”

进入大模型时代后,得益于它对用户意图的理解,就能实现更直接、快速的交互方式。最后,则是从被动智能向主动智能的转化,无论系统运行在产品里还是云端,都要做到能够主动帮用户寻找解决方案、匹配合适的插件或者硬件并主动提供服务。

TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

“更进一步的说,AIoT2.0还要能够提供用户预期结果的闭环,因为光理解意图并不能解决用户的实际问题,而主动服务也无法满足所有的毛细需求,那么在用户提出新的需求时,在1.0时代,机器会直接说‘我干不了’,而在2.0时代,基于大模型释放出的潜力,人工智能是可以做到基于已有的硬件、方案,组成生态闭环的能力。”孙力表示。

谈及大家最关心的应用问题,在前沿领域,TCL实业已经和研究机构开展合作,从应用层面拓展更多可落地的应用。从目前来看,大模型主要还是语音识别和AIGC内容生成方面的场景,此外,还有智能制造和企业管理等诸多领域可供探索,例如TCL广泛涉及的工业制造场景,TCL正在思考如何布局智能制造领域的专家系统。

TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

孙力举例说到:“大模型人工智能可以帮助工程师进行知识的查询,一些故障的定位、指导、决策,可以提高故障排查和解决的效率,降低设备的异常风险。其他公司管理层面的应用,比如内部运营,包括营销、HR 和财务方面也可以提供智能的小助手。因为在 AI 协同工作的趋势下,未来每个领域、每个工作都会用上大模型辅助。”

可以想见的是,借助愈发强大的人工智能,未来的应用绝不只是AI画图那么简单,大模型甚至可以在营销方面生成海报、文案,在企业内部可以机器人助手辅助行政、财务等等,提升流程的查询、生成报表等等这样的效率提升的场景。

TCL孙力:大模型将成为C端、B端智能应用的“隐形推手” | AWE 2023

而在与普通用户息息相关的消费电子以及家电产品的落地上,TCL实业在电视方面已经拥有大量的语音使用者,每天都在大量的使用语音助手搜电影、音乐、健身等应用。随着智能语音进化到ChatGPT同等的体验,将对闲聊、多轮对话、搜索内容,推荐个性化内容等方面,带来新一轮的体验革新。

据孙力介绍,未来大模型将支持更多模态,就像人一样,除了耳朵还有眼睛,这样一来,未来的文本、图像、视频的理解能力都会跨模态,形成更加细致、人性化的交互、智能体验。

当人工智能的应用越来越多、越来越广泛,“算力”将会成为不得不考虑的问题,在孙力看来,未来涉及人工智能领域的算力部署,也会根据场景和产品所变化,对于像智能穿戴设备这样主打便携属性的产品来说,在量子计算成熟之前,内置GPU恐怕很难胜任大规模的人工智能应用,因此云计算成为了最合适的技术路径。

而对企业层面的应用来说,解决的手段会更多样一些,比如同样可以通过跟云厂商的生态合作来完成算力部署,只不过针对企业内部的专家系统或者涉及私密信息的应用,可能还是需要本地构建算力体系,此时就需要搭建自己的GPU、NPU、TPU算力中心来解决这些问题。

“具体到TCL实业来说,我们内部有几百人的算法团队在做关于语音、推荐搜索、计算机视觉,包括智能制造等方面的算法,并且已经拥有了集群的GPU算力。如果未来需要私有化部署大模型,特别是在训练阶段需要大量算力的话,结合TCL实业全球化的研发能力以及外部合作伙伴,也不会存在资金或者芯片方面的供给问题。”孙力表示。(本文首发钛媒体App)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy