大洪水:AI生成内容如何淹没制度系统

2023年,文学界收到了早期警告信号,当时著名科幻杂志《Clarkesworld》做出了前所未有的决定:暂时停止接受所有新投稿。这个原因在简洁性上令人震惊,但在其含义上又深远而深刻。该出版物的编辑团队发现自己被大量人工生成的故事所淹没,其中许多是投稿者将杂志的详细投稿指南输入到大型语言模型中并将结果返回而创建的。看似是发生在一个小众出版物上的孤立事件,很快就证明了自己是更广泛变革的前兆,这种变革正在全球各地的机构中涟漪般传播。

如今,这种现象已经远远超越了科幻杂志的范围。报纸报道了大量机器生成的编者信件。学术期刊在面对显示合成作者身份所有特征的投稿时苦苦挣扎。立法机构面临充斥着算法生成消息的选民评论部分。世界各地的法院努力处理因AI起草的法律文件而膨胀的案卷,特别是来自自代理诉讼人的案卷。研究会议发现他们的投稿队列被机器写的论文堵塞了。社交媒体平台不得不对抗无尽的合成内容流。这种模式在音乐、开源软件社区、教育机构、新闻编辑室和招聘部门中以惊人的一致性重复出现。

传统制约的瓦解

从其核心来看,这一现象代表了一些基本的东西:围绕稀缺性设计的系统的崩溃。从历史上看,机构看门人依赖于一个简单的事实:写作需要真正的认知努力。创作的难度自然限制了数量。生成AI已经完全消除了这一约束。曾经需要数小时的工作现在只需几秒钟。负责评估投稿、审查申请和处理信息的人类发现自己被机器生成内容淹没的纯粹体量完全压倒了。

机构以防守和进攻的混合策略做出了回应。有些机构干脆关闭了大门——暂停投稿的核选项。其他机构则以火制火,部署AI系统来对抗AI生成的内容。学术同行评审者越来越多地使用机器学习工具来标记潜在的合成论文。社交媒体平台利用AI审核系统。法院系统使用算法分诊来管理因合成文件而大幅增加的诉讼量。雇主部署检测软件来识别欺诈申请。教育工作者利用语言模型来评分作业和提供学生的书面工作反馈。

这些代表了经典的军备竞赛——快速的、对抗性的迭代,其中相同的技术服务于相反的目的。后果承担着真实的分量。堵塞的法院系统意味着司法延迟。学术欺诈腐蚀科学成就的可信度。合成的选民评论淹没了真实的公民参与。许多观察者关注的是,这些制度崩溃是否最终会破坏社会依赖的系统。

出乎意料的积极方面

然而,在这场危机的表面之下,意外的机遇正在出现。一些机构可能会从这一挑战中出现,从根本上得到加强,前提是他们能够深思熟虑地适应。

考虑科学研究。AI在学术写作中的帮助不一定是纯粹破坏性的。几十年来,资金充足的研究人员可以雇佣专业作家来润色手稿和阐明论点。非英语使用者面临昂贵的出版障碍,通常需要昂贵的编辑协助来满足期刊标准。生成AI使这种支持民主化,使所有研究人员都能获得复杂的写作协助,无论其财务资源或语言背景如何。当部署透明且有适当的披露时,AI可以增强科学交流而不会损害完整性。

当AI引入错误时,挑战就出现了——荒谬的短语、虚构的引文或听起来似是而非但虚假的声称,这些都会逃过人类评论者的审查。解决方案不在于拒绝AI工具,而在于建立明确的披露要求和维持严格的人类监督。

在创意领域,情况证明更复杂。欺诈性的AI投稿无可否认地伤害了人类作者,并可能欺骗读者。然而,一些出版物可能会建立明确欢迎AI协助工作的框架,在透明指南下进行,利用算法评估来评估原创性、质量和适配性。或者,致力于人类作者身份的媒体可以建立信任的作者计划,将投稿限制在愿意认证非AI作品的已知作家。这种透明性允许读者选择他们偏好的内容来源。

权力动态和合法使用

有益和有害的AI部署之间的区别最终取决于权力动态而不是技术本身。当AI帮助普通公民向民选代表表达他们的观点时,它平衡了富人通过雇佣演讲稿撰稿人和顾问一直拥有的能力的获取。这代表民主化。当企业部署AI生成数千条欺诈性的选民消息,制造对监管的基层反对的假象时,同样的技术就成为了集中权力的欺骗工具。

同样,求职者使用AI来加强简历和求职信,访问特权申请者长期通过专业教练和编辑享受的工具。当AI伪造证书或在面试期间启用作弊时,边界就会转移——这是歪曲资格的明显欺诈。

引导前进的道路

应对这一转变的机构面临着一个关键选择。他们可以尝试检测和排除合成内容——一种技术上困难且最终不可持续的方法——或者他们可以建立关于AI使用的透明政策,实施披露要求,并将人类判断作为最终权威。一些机构会选择排斥;其他机构会拥抱选择性整合。两种方法可以共存,允许不同的媒体为具有不同偏好的不同受众服务。

从这一制度压力测试中出现的更深层教训表明,AI的影响较少取决于技术的能力,而更多取决于社会如何选择管理其部署。前面的挑战不在于阻止洪水,而在于建立具有足够恢复力来管理它的系统。

本文基于Fast Company的报道。阅读原始文章