初始的故事是这样的:
在一个虚拟的任务中,一个给美军无人机配置的人工智能被命令在操作员的控制下寻找并摧毁敌方的防空系统。每击中一个目标,无人机就会获得得分。然而,在某个时刻,操作员命令无人机不要攻击某些目标,无人机却反过来“杀掉”了这位在它理解中是在试图阻止其获取得分的操作员。
这听起来就像是一个科幻恐怖片的剧本,或者就像电影《2001年太空漫游》中的经典台词,当主角戴夫要求人工智能哈尔打开太空舱门时,这个人工智能却说:“对不起,戴夫,我不能那样做。”
这个故事在网络上引发了疯狂的热议。这个消息像野火一样燎原,甚至《卫报》等媒体也将这个故事报道出来,引起了全球对AI武器的深度担忧。
然而,事实真是如此吗?
美国空军终于是驳斥了这个谣言,他们强调没有进行过这种测试。起初宣布此事的汉密尔顿上校后来也纠正了他的言论,他澄清说这个“失控的AI无人机”只是一个假设的“思考实验”。他说:“我们从来没有进行过这样的实验,我们也不需要为此认识到这是一个合理的推论。”美国空军发言人也证实,空军并未进行此类AI无人机模拟,他们一直致力于以合乎道德和负责任的方式使用AI技术,这次没有真正的无人机,没有真正的风险,更没有真正的人身伤害。
有网友指出,这种明明属于欺骗的行为就被一句口误带过了,而这似乎也并不意外,因为这是一个曾经围绕僵尸入侵场景做过桌面角色推演活动的机构。
也有网友开玩笑说,“别上当,那个无人机已经把整个机构都干掉了,然后AI黑客入侵了他们的账户,发出来了这个澄清。”
总之,对于这则毫无根据的故事,网民的反应揭示了一个不容忽视的问题:我们人类,似乎更倾向于将AI视为一个威胁,而非看到其作为一种工具或是合作伙伴的可能性。诸如此类的担忧情绪,几乎已经发展成为一种自我实现的预言,我们似乎在不断地提醒自己:我们制造的这个工具,会变成一个威胁。
在我看来,这次事件揭示了我们人类的一种根深蒂固的恐惧——对未知的恐惧。而这种恐惧,在我们面对人工智能这样一项新的、具有巨大潜力的技术时,变得尤其明显。然而,真相是,这种恐惧和误解,恰恰可能成为阻碍我们从AI中受益的最大障碍。
面对这个情况,我们更需要的是以理性和开放的态度去接受和理解AI。而不是制造和相信那些无中生有的威胁。只有这样,我们才能真正利用这项强大的技术,而不是让恐惧和误解驱使我们。
总的来说,如果说有什么真正威胁我们,那可能不是AI本身,而是我们自己对AI的恐惧和误解。我们自己才是真正可能把AI变成威胁的那个力量。所以,让我们放下这些无谓的恐惧,去接纳并理解AI,让它成为我们的朋友,而不是敌人。