LLM-Native产品的变与不变(上)

485次阅读
没有评论

什么是LLM-Native产品?某种程度上你可以将其理解为一种建立在LLMs技术特点和思维方式上的全新产品范式。这篇文章里,作者就对LLM-Native产品的底层逻辑、特点等问题展开了讨论,一起来看一下。

LLM-Native产品的变与不变(上)

一、LLM-Native:AGI的另一种路径

《银河系漫游指南》的作者——道格拉斯·亚当斯曾经对「技术」一词做出这样一种解释:

「技术」是描述某种尚未发挥作用的东西的词汇。

这是一个充满实用主义的定义,这句话可以被更直观地表述为:当我们还在热烈讨论某种技术时,往往意味着该技术还未真正发挥作用。

事实上所有底层技术驱动的产业革命都将经历一个市场焦点从技术向应用转移的过程,而当这种转移开始发生时,才意味着该技术开始兑现其价值。

对于大语言模型技术(下文称:LLMs)来说,在经历了注定载入科技史册的技术狂飙后,虽然目前其技术进展依然占据绝大多数的市场关注度,但已有迹象表明我们正处于技术兑现价值的破晓:

  • 5月:Character.ai web端月访问量超过2亿并拥有恐怖的平均使用时长——Killer App的产品形态初见端倪。
  • 6月:OpenAI招聘了世界级产品经理Peter Deng来操刀未来的消费级产品(可能是个人助理)——头部玩家的战略变化。
  • 7月:Inflection完成13亿美元融资,创始人Mustafa明确表示公司定位为应用公司而非AGI研究机构——以应用为目标的新公司开始建立。

所以在AGI到来前,一个与“如何实现AGI”同样值得我们兴奋的问题摆在了面前:

当信仰AI的先知们摆脱AGI执念,带领信徒到达技术的应许之地后,拔地而起的将是一座何等壮丽的全新城邦。

这个问题的可能答案指向LLM-Native产品:一种建立在LLMs技术特点和思维方式上的全新产品范式。

事实上,LLM-Native产品并不意味着与AGI技术分道扬镳,而更像是某种形式的殊途同归,也许当我们暂时忘记AGI而转向扩大LLMs技术的使用范围以及创造全新产品时,这反而会成为另一种实现AGI的路径,就如同现在LLMs技术得以发展是建立在互联网数十年产品化积累的海量数据一样。

下面我们将对LLM-Native产品的底层逻辑、特点、以及如何创建等问题展开讨论。

二、产品视角下的LLMs技术

在开始讨论LLM-Native产品之前,我们需要对LLMs技术的特点进行分析,这里的分析将从产品视角进行,更具体来说,我们将从产品开发者和产品使用者两种视角来观察LLMs技术。

1. 产品开发者视角

1)模型即应用

从产品形态角度来看,LLMs相关的模型接收的输入是用户的自然语言,输出是最终可用信息或者任务执行结果(不需要开发者或者用户继续处理),所有中间处理所需的能力(如,任务拆解、信息生成、工具调用)都被封装在了模型中,所以对于LLMs来说,模型本身就是一个应用。

2)需求即功能

从功能设计角度来看,由于「涌现」的存在,LLMs所具备的能力是一个开放域,其能够解决何种问题同时取决于模型能力如何被设计以及用户如何去使用(即描述需求),也就是说LLMs会根据其对用户需求(意图)的理解自动形成对应的能力,这种能力的呈现形式不仅仅是我们所熟知的文本或者图像回应,也可以是一个交互界面或者是一个行动。

3)语言即代码

从产品开发角度来看,由于LLMs使用自然语言作为输入并对其进行回应,用户的文本描述将部分替代开发代码,由用户自己实现其需要的功能,另一方面也带来了LLMs产品天然的UGC属性。

LLM-Native产品的变与不变(上)

Mr.-Ranedeer-AI-Tutor:用400+行prompt实现教学机器人

2. 产品使用者视角

1)实时性

从信息时效性来看,由于LLMs的输出是对用户所描述需求的回应,所以用户从LLMs产品中每次获取的信息都是实时生成的,而非对已经存在的信息按照某种规则进行分发。

2)自主性

从使用过程来看,由于LLMs具备对用户需求进行任务拆解、目标规划、自动执行的能力,所以一个任务的完成过程并非完全由用户控制,LLMs产品在其中具有很强的自主性,任务将由用户和LLMs协作完成,这个特点已经在Agent类产品中出现。

LLM-Native产品的变与不变(上)

Agent具备显著的自主性:规划、行动、使用工具

3)不确定性

从获取的信息质量来看,由于LLMs采用自回归方式生成,并且面向开放性任务的目标设计,其生成结果存在较强的不确定性,即用户很难精确、稳定、可控的获取其想要的内容或者结果。

我们当然还能总结出LLMs技术的其他特点,但由于本文的目标,这里主要关注对LLM-Native有决定性影响的部分,在下文中我们将看到这些产品维度的特点将如何影响我们对LLM-Native产品的设计与决策。

三、Welcome to Hogwarts

LLMs技术的新特点必然会给产品工作带来变化,认识并接受这些变化的过程也许会像从麻瓜世界长大的巫师首次进入霍格沃兹——有趣、反常、但必要,下面我们将从用户、需求、产品、业务、市场等不同维度来介绍我们在开展LLM-Native产品工作时将要面临的变化,欢迎进入LLMs的产品新世界。

1. 当用户=开发者

用户作为产品的开发者并不是一件新鲜事,由用户为产品开发插件、甚至优化产品功能“古已有之”,但是像LLMs产品这样,每个用户的每次使用都是在对产品进行「开发」的情况却是头一次出现。

由于上文提到的「语言即代码」和「需求即功能」特点,LLMs产品的每一个prompt,都会是一个对应特定功能、或者可复用插件,而当将Agent、UI生成等能力加入产品后,用户的开发能力将会得到更大提升。

生产力决定生产关系,在LLMs提供的强大生产力下,我们将迎来一个全民开发的时代,如果说互联网实现了信息自由,那么LLM-Native产品将实现开发自由。

LLM-Native产品的变与不变(上)

FlowiseAI:通过简单的操作和prompt就能创建自己的应用

2. 需求的无损传递与个性化满足

对于产品有这样一种表述:对用户需求抽象后的解决方案实现。那么从这个角度来看,产品功能其实是对用户需求的接收和翻译。

在实际产品工作中,无论是对需求的人为抽象还是对功能的人工设计,都无法实现用户需求的无损传递,而功能的标准化设计则注定其无法满足用户的个性化需求,那么不可避免的结果会是:

  • 总有人不满意——功能设计的标准化与用户需求的个性化矛盾。
  • 功能变复杂——为了更精确翻译更多的用户需求,不得不增加功能。
  • 学习门槛增加——功能变多,以及单个功能与用户需求的匹配度降低。

在产品的生命周期中,这三者体现出相互叠加促进的关系,最终的结果是产品功能越来越复杂、新用户进入门槛高、老用户因体验下降流失,这个过程是很多产品在增长过程中无法逃脱的“用户规模马尔萨斯陷阱”。从搜索到推荐,算法一直在试图让产品增长脱离这个困境,即努力让功能内化在算法中从而实现用更少的产品复杂度来实现更多的功能,而这正是LLMs最为擅长的,具体来说:

对于LLM-Native产品,由于「模型即应用」、「需求即功能」的特点,我们可以实现:

  • 需求通过自然语言描述输入模型——需求的高效传递。
  • 需求对应的功能被实时生成——面向不同用户的个性化功能。

所以LLM-Native产品有很可能会打破产品设计的“用户规模马尔萨斯陷阱”,即用极简的产品设计在保持低使用门槛的前提下,个性化的满足复杂、海量的用户需求。

3. 供给侧与消费侧改革

经济角度来看,我们日常使用的绝大多数互联网产品都在围绕信息的生产、分配和消费进行设计,LLMs技术「需求即功能」和「语言即代码」的特点将对信息的供给和消费同时带来变革,具体如下:

1)在供给侧

  • 信息的生产角色从人类开始向人类+算法过渡,这个过程将逐步实现信息内容生产的工业化、自动化和智能化,这意味着更高的内容生产效率以及内容生产成本边际递减。
  • 信息生产活动将从库存逻辑向订单逻辑变化,即信息生产从一项业务的固定成本(提前生产好信息等待用户阅读、搜索、推荐)变成了一项可变成本(根据用户需求实时生成)。
  • 信息的供给模式将从分发逻辑向生成逻辑转变,搜索和推荐都在进行信息分发,即让用户更高效地获得正确的「原始信息」,而LLMs生产信息的方式天然会将「原始信息」与用户进行隔离,当用户得到有用的信息时可能并不需要知道这个信息原本来自于哪里。

2)在消费侧

  • 信息的使用方式从消费离线内容向消费实时内容变化,与信息生产逻辑变化相对应,用户使用信息的方式将从消费已经生产好的信息变为消费实时生成的信息。
  • 信息的形式从静态向动态变化,与上一个变化对应,内容形式将从静态内容逐渐向可交互内容变化(比如对话实际上可被视为可交互的文本)。
  • 获取的信息的方式从个性化向定制化变化,LLMs时代产品提供信息的方式将实现针对不同用户的定制化,即为特定用户生产专属信息,这在带来更好的信息消费体验的同时也会进一步增加信息茧效应。

4. 从产品的算法到算法的产品

从业务角度看,传统的AI业务中,算法与产品是两个有关联但又有各自独立的工作环节,而对于LLMs的产品来说,由于「算法即产品」的特点,对产品功能的设计将逐渐等同于对算法能力的设计,这将在以下三个维度带来变化:

  1. 目标层面:LLMs模型工作的目标是直接满足业务需求,而非提供某种模型能力后再进行业务封装,这需要对模型进行产品化的设计。
  2. 组织层面:与上述变化需要配套的是组织层面的变化,LLMs的模型研发团队不应是一个并行于业务单元的支持单元,而是其本身就是一个业务单元。
  3. 执行层面:对LLMs的产品经理有更多的要求,其工作范围将包括模型应当具备何种能力(任务设计),模型实际具备何种能力(模型评测),模型如何具备何种能力(数据与对齐策略)等。

5. 新的市场熵增周期

市场熵(Market Entropy)用来代表市场上用户需求的无序程度(Figma的投资人Kevin Kwok提出),如果用户的需求变化速度更快,市场熵就会更高,其核心表述为:

  • 较低的市场熵有利于已有产品(组织),较高的市场熵更有利于新产品(组织),市场熵处于上升趋势时,是拓展新业务的好时机,市场熵处于下降趋势时,则更需要考虑如何巩固已有优势。
  • 自然状态下,市场熵的发展趋势是逐渐减少的,原因在于产品设计者会通过不断增加功能来满足、引导用户的需求,从而让市场上存量的有效用户需求不断减少,底层技术的革命会带来新的市场熵增。
  • 底层技术能够将原本处在低熵状态的市场进行有效整合,从而形成全新的市场机会,而这是变革中最容易被忽视的点,即在被认为没有机会的市场中长出伟大的新产品。

显然LLMs技术将对市场熵产生广泛且剧烈的影响,带来新的熵增周期,这是本轮LLM-Native产品工作开展的一个基本外在客观事实,具体到当下,我们可以观察到:

  • 熵增已经开始出现,用户对LLMs能做的事情正在进行积极地探索,需求产品化的速度显然低于用户在这种探索中形成新需求的速度。
  • 目前的LLMs产品并未影响新增的市场熵,因为其仍处在面向已有需求设计产品的阶段,解决的是存量需求,比如实现更高效的搜索(直接获取加工后的信息)、更高的文本处理效率(摘要、数据处理、翻译)、辅助内容创作(代码、邮件、报告)。

LLM-Native产品的变与不变(上)

我们正处在新一轮市场熵增的早期

在变革到来时,是否能够率先参考并利用这些变化来完成产品设计将会成为早期LLM-Native产品发展过程的胜负手。

四、变革中的那些确定性

1. 信息的解构

对于信息内容来说,一个显著的趋势是新技术将带来基于原有媒介内容被解构并增强互动性后形成全新产品形态,其过程分为两个循环交替的环节:

  1. 旧的内容形式被解构后用来满足原有用户需求并形成新的产品形态。
  2. 新的产品形态在迭代中形成新的内容形式。

一些典型的内容被解构的例子:

  • 博客被解构为内容更短、参与门槛更低的Twitter、instgram。
  • 电影被解构为电影解说类视频和弹幕。
  • 歌曲被解构为其中最好听的那一小部分来作为短视频的BGM。

对于LLM-Native产品来说,我们相信一定会出现新的信息解构形式及其对应的产品形态,比如,可交互的视频内容也许可以将现有的单位视频的播放时间进一步解构到更短、已有IP内容(如小说、漫画)通过加入生成技术被解构为新的可交互内容。

2. 通过制造稀缺

稀缺性是所有商品和服务都试图去设计的,其主要原因为:

  • 从经济学的供需原理来看,稀缺性将提升价格——卖的更贵。
  • 从心理学的稀缺效应来看,稀缺将带来更多的关注——获得更多注意力从而获得更高的经济价值。
  • 从行为经济学来看,稀缺将带来更容易做出的消费决策——更高的付费意愿。

稀缺性是互联网产品一直在努力追求但却不好获得的一种产品属性,因为这通常与互联网技术基因中的「免费原则」、「平等精神」背道而驰。

但是在通过稀缺性获取更高的注意力方面,LLMs的技术可能会带来突破:提供完全定制化的内容会比推荐算法带来的个性化内容具有更强的稀缺感(专属商品、服务当然会有更高的吸引力),从而更容易让用户交出自己的注意力。

从这个角度来看,对于LLM-Native产品来说,在单位内容中获取的用户注意力会更高,从而让用户的单位产品使用时长具备更高的经济价值。

3. 满足控制感

追求掌控感是人类的天性,所以用户对产品的控制感是评价设计好坏的一个基本维度,在《设计心理学》中,控制感被描述为:

用户心理模型(来源于经验和期望)和系统模型(产品最终提供的功能、形态、内容)的接近程度,越接近则可控感越高。

对于LLM-Native产品来说同样需要遵循控制感的设计原则,通过上面的分析,我们很容易发现LLMs将提供全新的控制感:

  • 功能的可控性变弱:功能被隐藏在模型能力中了,对用户来说会不知所措。
  • 形态的可控性变强:形态上,以自然语言对话为核心的产品形态将增强用户的控制感。
  • 全新的内容可控性:与上文提到的信息供给侧逻辑变化相对应,由于内容是模型实时生成的,所以用户第一次拥有了对内容的控制感。

我们相信,对内容的控制感是一种即将被LLMs技术激活的潜在需求,这将会成为LLM-Native应用的一个重要差异化体验。

4. 需求抽象程度不断提升

所有产品都是围绕某种抽象程度的需求来设计的,而通过观察对解决相同类型问题的产品发展历程,我们可以看到一个显著的趋势:产品所对应的需求抽象程度不断提高。

两个具体的例子:

  • Photoshop面向的需求为如何更好的控制像素点,而到了Canvas、Figma时代需求变成了如何更快的使用模板得到一个可用的设计稿。
  • 搜索引擎面向「哪些信息包含我提供的query」的需求,而推荐引擎使用更高抽象程度的user profile作为分配依据,将需求抽象至「哪些信息可能是符合我的偏好」。

显然,LLMs技术将带来更高的需求抽象程度:

  • Midjourney面向图像所包含的要素、风格以及其他用户要求来创作图像。
  • Jasper等文本生成产品将文本创作需求的抽象程度提升到对内容的直接描述。
  • Perplexity等搜索(或者称之为生成)引擎则将获取信息的需求抽象到了对所需信息本身的描述(当然也继承了推荐时代的user profile)。

所以,更高的需求抽象程度是LLM-Native产品的必然发展方向,每一个需求都值得用更高的需求抽象程度来重新审视。

5. 加工更高层级的智慧信息

LLMs是一种新型媒介,那么从媒介的角度分析,我们能得到一些有趣的确定性。麦克鲁汉在《人的延伸——媒介通论》中对媒介有两个重要的论述:

  • 媒介是人的延伸:一种媒介总能够映射到某种人类的能力。
  • 媒介即是信息:媒介本身决定其传递的信息内容。

从这两个论述我们提出以下问题并给出回答:

问:LLMs延升的是人的何种能力?

答:LLMs延升的是人类的一些智慧能力,如语言理解、逻辑推理、信息构建等。

问:LLMs作为一种全新的媒介,其传递的信息是什么?

答:LLMs传递的是智慧化的互联网(或者说信息化)数据。事实上,有一种对LLMs的描述便是“一个高度压缩的互联网”。

综合上述内容,我们似乎可以对LLMs给出一个媒介版的定义:通过对互联网信息内容的压缩来延伸人类的部分智慧能力。

结合我们之前文章反复提到的「压缩产生智能」观点,如果我们能够将LLMs所压缩的信息内容进行智慧含量计算,其应与LLMs最终展现的智慧能力程度是正相关的。

目前我们可以通过互联网公开的内容信息达到当前LLMs展现的智力,而更高智慧密度的信息内容也必然诞生更高智力,这些更高智慧密度的信息可能是:

  • 实际业务中被验证有效的工作流。
  • 尚未被信息化的行业know-how。
  • 带有行业属性的结构化信息模板。

如何得到更高智慧密度的信息,将决定LLMs媒介对人类智慧延伸的范围和程度,对LLM-Native产品的设计来说,当互联网已有的公开信息无法拉开LLMs的智力差距时,通过获得、压缩与自己场景相关的更高智慧密度数据,将成为产品差异化的关键(这一点我们在下面的文章中还会有相关讨论)。

作者:冠叔

来源公众号:OneMoreAI(ID:OneMoreAI1956),硅基生命观察团,发现、探索、分享AI的one more thing。

本文由 @OneMoreAI 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy