OpenAI的信息很简单:把ChatGPT当作协作者

OpenAI正更加重视个性化,把它视为从ChatGPT获得更相关结果的一种实用方式。在一篇新的Academy指南中,公司表示,当用户不再把系统当作搜索框,而是当作协作者,并为它提供关于角色、偏好语气、输出格式和重复需求的稳定上下文时,系统表现最佳。

这份指南聚焦两种现有的个性化工具:自定义指令和记忆。二者共同构成了OpenAI对一个常见批评的当前回应:通用AI助手在单次对话中可能很有用,但如果用户一遍又一遍重复偏好,它们在重复性工作中往往缺乏一致性。

自定义指令设定默认工作风格

OpenAI将自定义指令描述为用户定义ChatGPT应该了解自己哪些信息,以及在新对话中应如何回应的地方。它给出的示例刻意强调实用性,而不是技术性。用户可以说明自己的角色和职责,要求简洁或正式的语气,指定特定的输出格式,例如要点列表或可直接使用的草稿,或者加入流程护栏,例如在需求不清楚时要求系统先提出澄清问题。

公司的定位很重要。它建议将自定义指令用于稳定的偏好,也就是不会因对话而变化的上下文。这可能包括职业、团队职能、写作风格或默认结构。其思路是把反复进行的设置工作从单个提示词中移出,放进一个长期存在的个人档案中。

对用户来说,这减少了重复。对OpenAI来说,这也是一种让ChatGPT更不笼统、更可靠的方法,而无需针对每一种使用场景都训练一个专门的定制模型。

记忆是更长期的一层

记忆承担不同的角色。OpenAI表示,它帮助ChatGPT记住用户选择分享的细节,使未来的回复可以更贴合用户,而不必每次都重新解释。公司称,记忆可以存储用户明确要求保存的信息,如果启用,还可以利用近期对话上下文,在长期内更有帮助地回应。

指南也强调了用户控制。用户可以查看系统记住了什么,告诉它记住某个细节,或者要求它忘记某一项内容。OpenAI将记忆定位为最适合用于角色、常见项目和偏好等重复性上下文,而不是以后不会再用到的一次性信息。

这一区分是产品设计的核心。记忆被呈现得更像是可管理的连续性层,用户可以查看和编辑,而不是对过去对话的被动监视。用户是否完全信任这种设计是另一个问题,但这显然是预期中的运行模式。

把个性化作为产品策略

这篇Academy文章并不是一次重大模型发布,但它确实表明了OpenAI认为实际价值正在积累的方向。公司正在鼓励用户通过围绕助手建立持久上下文来改善结果,而不仅仅依赖孤立聊天中的越来越精确的提示词。

这很重要,因为它把用户体验的一部分从单次查询表现转向长期可用性。一个能记住格式偏好、理解用户角色并适应重复性工作流的聊天机器人,即使底层模型保持不变,也能显著提高效率。

指南还把个性化与结构化复用联系起来。它指出,发现重复任务的用户可能会受益于skills,OpenAI将其描述为用于保持流程和格式一致性的可复用工作流。这使自定义指令、记忆和skills构成一个连续谱:先定义默认风格,再保留有用的重复上下文,最后把重复任务正式化。

为什么这在当下重要

随着AI助手走向成熟,差异化越来越取决于它们是否能融入持续工作,而不仅仅是回答一次性问题。个性化是这种转变的一部分。它帮助产品从一个通用界面,变成更接近可配置队友的存在。

OpenAI自己的表述把这一雄心说得很清楚。公司称,随着用户提供更多上下文和指引,ChatGPT会变得更有用、更一致。这说明,主流AI采用的下一阶段,也许不再只是说服人们试用一次聊天机器人,而是教会他们如何把它塑造成一个持久的工作工具。

实际吸引力显而易见。财务经理、教师、软件负责人或市场人员都不想在每次会话中重复语气、结构和优先事项。如果自定义指令和记忆如宣传所说那样有效,它们就能降低这种摩擦,让系统随着时间推移更加连贯。

一个小产品教训,影响却更大

更广泛的结论是,个性化不再是一个边缘功能。OpenAI把它呈现为获得更好输出的核心习惯。这对AI市场是一个重要信号,因为它把价值不仅放在模型智能上,也放在连续性、偏好保留和工作流适配上。

简而言之,OpenAI是在告诉用户,更好的AI结果不仅来自提出更好的问题,也来自为助手提供一个稳定的工作上下文。这个模式越普遍,AI产品就越会不仅按它们能即时生成什么来评判,还会按它们学会像一致的协作者那样行事的程度来评判。

本文基于OpenAI的报道。阅读原文

Originally published on openai.com