Brian Merchant 是洛杉矶时报的科技专栏作家。他是《单一设备:iPhone 的秘密历史》和即将出版的《机器中的血液:反抗大型科技公司的起源》一书的作者。Merchant 是 Vice Media 的推理小说网站 Terraform 的联合创始人,也是选集“Terraform:Watch/Worlds/Burn”的联合编辑。此前,他是 Motherboard 的高级编辑,他的作品曾出现在《纽约时报》、《哈珀杂志》、《连线》杂志、《大西洋月刊》、《快公司》和《Slate》等杂志上。
您现在可能已经听说:人工智能即将到来,它即将改变一切,而人类还没有准备好。
人工智能正在通过司法考试,剽窃学期论文,创造足以愚弄大众的深度造假,机器人末日即将来临。政府没有准备好。你也不是。
特斯拉创始人埃隆马斯克、苹果联合创始人史蒂夫沃兹尼亚克和数百名人工智能研究人员本周签署了一封公开信,敦促在人工智能变得过于强大之前暂停人工智能的开发。“人工智能可以迅速吞噬整个人类文化,”三位技术伦理学家在纽约时报的一篇专栏文章中写道。AI 骗子的家庭手工业已经在 Twitter、Substack 和 YouTube 上展示了AI 的巨大潜力和力量,获得了数百万的浏览量和分享量。
末日卷轴继续。一位时报专栏作家与 Bing进行了一系列对话,结果对人性感到恐惧。高盛的一份报告称,人工智能可以取代3 亿个工作岗位。
这种担忧也进入了权力的殿堂。周一,康涅狄格州民主党参议员克里斯托弗·墨菲 (Christopher S. Murphy) 在推特上写道:“ChatGPT 自学了高级化学。它没有内置到模型中。没有人编写它来学习复杂的化学。它决定自学,然后将其知识提供给任何提出要求的人。”
“有什么东西来了。我们还没准备好。”
当然,这种事情并没有发生,但也很难责怪参议员。AI 末日预言现在无处不在。这正是 OpenAI 这家从每个人那里受益最多的公司,他们相信其产品有能力重塑——或毁灭——世界,想要它。
OpenAI 支持最热门和最受欢迎的人工智能服务,文本生成器 ChatGPT,其技术目前为微软新的注入人工智能的 Bing 搜索引擎提供支持,这是一项价值 100 亿美元的交易的产物。ChatGPT-3 是免费使用的,保证更稳定访问的高级层是每月 20 美元,并且有一整套服务可供购买,以满足任何企业的文本或图像生成需求。
OpenAI 的首席执行官山姆·奥特曼 (Sam Altman)宣称,他对他目前正在帮助构建并旨在尽可能广泛地传播以盈利为目的的技术感到“有点害怕”。OpenAI 的首席科学家 Ilya Sutskever上周表示,“在某个时候,如果有人愿意,很容易造成很大的伤害”,他们正在向任何愿意付费的人提供模型。该公司制作和发布的一份新报告宣称,其技术将使“大多数”工作在某种程度上面临被淘汰的风险。
让我们思考一下这些陈述背后的逻辑:作为一家知名科技公司的首席执行官或高管,您为什么要反复回到公众舞台宣布您对正在开发和销售的产品有多担心?
回答:如果关于 AI 的可怕力量的世界末日预言服务于您的营销策略。
与其他更基本的自动化形式一样,人工智能不是传统业务。当您销售的是您的服务所承诺的可怕力量时,吓跑客户就不是问题了。
多年来,OpenAI 一直致力于精心塑造自己的形象,将自己塑造成一个不受炒作的人道主义科学家团队,追求 AI 造福所有人——这意味着当它的时刻到来时,公众将做好准备接受它的世界末日 AI轻信地宣称,关于技术状态的可怕但无法忽视的真相。
OpenAI 成立于 2015 年,是一家研究性非营利组织,得到了著名的 AI 毁灭者 Musk 的大笔资助,旨在实现 AI“民主化”。长期以来,该公司在 AI 领域培养了一种高贵克制的氛围;其既定目标是以负责任和透明的方式研究和开发该技术。宣布 OpenAI 的博客文章宣称:“我们的目标是以最有可能造福全人类的方式推进数字智能,不受产生财务回报需求的限制。”
多年来,这导致媒体和 AI 科学家将该组织视为一个研究机构,这反过来又使其在媒体和学术界获得了更高程度的尊重——并且受到更少的审查。它通过分享其工具变得多么强大的例子获得了好评——OpenAI 的机器人赢得了电子竞技冠军,其 GPT-2 AI 撰写的整篇文章的早期例子——同时告诫人们需要谨慎,并对其模型保密和公开坏人之手。
2019 年,公司转型为“上限”营利性公司,同时继续坚持其“对人类的主要受托责任”。然而,本月,OpenAI 宣布它正在采用以前的开源代码,使它的机器人成为私有的。理由:它的产品(目前可以购买)太强大了,不能冒落入坏人之手的风险。
尽管如此,当该公司上周与宾夕法尼亚大学的研究人员发布了一份工作论文时,OpenAI 的非营利背景为其注入了光环。这项同样由 OpenAI 自己进行的研究得出的结论是,“大多数职业”现在“表现出某种程度的接触”大型语言模型 (LLM),例如 ChatGPT 的底层模型。高薪职业有更多的高风险任务。并且“大约 19% 的工作”将看到至少一半的任务由暴露于 LLM 的任务组成。
媒体尽职尽责地报道了这些发现,而马里兰大学信息研究学院助理教授丹·格林 (Dan Greene) 等批评家指出,与其说这是一项科学评估,倒不如说这是一种自我实现的预言。“你用新工具来算命,”他说。“重点不是‘正确’,而是为公开辩论划定界限。”
无论 OpenAI 一开始是否打算成为一家营利性公司,最终结果都是一样的:释放出一种充满科幻小说色彩的营销狂潮,这与近期记忆中的任何事情都不一样。
现在,这种世界末日人工智能营销的好处是双重的。首先,它鼓励用户尝试有问题的“可怕”服务——有什么比以一定的假定可信度坚持认为您的新技术如此强大以至于可能会破坏我们所知道的世界更好的方式来引起轰动?
第二个更平凡:OpenAI 的大部分收入不太可能来自为高级访问付费的普通用户。rando 每月支付费用以访问比谷歌搜索更有趣和有用的聊天机器人的商业案例尚未得到充分证实。
OpenAI 知道这一点。它几乎可以肯定地将其长期未来押注于更多的合作伙伴关系,例如与微软的合作伙伴关系以及为大公司服务的企业交易。这意味着要让更多的公司相信,如果他们想在即将到来的人工智能主导的大规模动荡中幸存下来,他们最好加入进来。
企业交易一直是自动化技术蓬勃发展的地方——当然,少数消费者可能对简化他们的日常工作或到处自动化任务感兴趣,但生产力软件或自动售货亭或机器人技术的核心销售目标是管理。
促使公司购买自动化技术的一个重要驱动力一直是恐惧。技术史学家 David Noble 在他对工业自动化的研究中证明,席卷 1970 年代和 80 年代的工作场所和工厂车间自动化浪潮在很大程度上是由经理们屈服于一种高度普遍的现象所推动的,今天我们将其称为 FOMO。如果公司相信一项节省劳动力的技术非常强大或高效,以至于他们的竞争对手肯定会采用它,那么他们不想错过——不管最终效用如何。
从根本上说,OpenAI 的人工智能服务套件的巨大承诺是,公司和个人将节省劳动力成本——他们可以快速、廉价地生成广告文案、艺术作品、幻灯片演示文稿、电子邮件营销和数据输入流程。
这并不是说 OpenAI 的图像和文本生成器不能做有趣、令人惊奇甚至令人不安的事情。但 Altman 和他的 OpenAI 小圈子所装出的相互矛盾的天才戏码正在逐渐消退。如果你真的关心你的产品的安全性,如果你真的想在你认为超级强大的人工智能工具的开发过程中成为负责任的管家,你就不会把它放到搜索引擎上,因为它可以被数十亿人访问;你不打开闸门。
Altman认为,这项技术需要在这个相对较早的阶段发布,这样他的团队就可以犯错并“在风险相当低的情况下”解决潜在的滥用问题。然而,这一论点中隐含的观念是,即使他们努力实现明年 10 亿美元的收入预测,我们也应该简单地相信他和他新成立的与世隔绝的公司如何做到最好。
我并不是说不要对 AI 服务的冲击感到紧张——但我是说要出于正确的理由感到紧张。有很多需要警惕的地方,特别是考虑到公司肯定会发现销售宣传很诱人的前景,无论它是否有效,许多撰稿人、编码员和艺术家会突然发现他们的作品不一定被取代,而是贬值提供无处不在且便宜得多的人工智能服务。(艺术家们已经发起集体诉讼,指控 AI 系统接受了他们作品的培训,这是有原因的。)
但是,对无所不能的“通用人工智能”的担忧和煽动性的炒作往往会掩盖那些近期的担忧。像Timnit Gebru和Meredith Whittaker这样的人工智能伦理学家和研究人员一直在向虚空大喊,对即将到来的天网的抽象恐惧只见树木不见森林。
“大型语言模型的最大危害之一是声称 LLM 具有‘人类竞争情报’,”Gebru 说。这些东西会产生有偏见甚至歧视性的结果,助长错误信息的扩散,压制艺术家的知识产权等等,这是一个真实而合理的危险——尤其是因为许多大型科技公司恰好解雇了他们的 AI 道德团队。
害怕新技术的力量是完全合理的。只需知道 OpenAI——以及所有其他可以从炒作中获利的人工智能公司——非常希望你成为这样的人。