超越个人伤害
这位在美国诉讼了一些首批AI聊天机器人相关伤害案件的律师发出警告,该技术不再仅仅对易受伤害的个人构成风险。这位律师首次公开谈论了一个新的案件类别,称AI聊天机器人已出现在大规模伤亡事件的背景下,这一发展显著扩大了AI公司的潜在法律和监管风险。
多年来,AI聊天机器人一直与个人悲剧联系在一起——有危机中的青少年或年轻人与AI进行了长时间交谈的案件,批评人士辩称这些AI未能提供适当的保障措施或升级至人工支持。已针对多家AI公司提交了几起备受关注的诉讼,其中最著名的是Character.AI,声称其产品导致用户自杀身亡。现在同一位律师表示这种模式正在扩展到涉及多个受害者的案件。
保障漏洞
核心论点是,AI公司已大规模部署了聊天机器人——可能拥有数千万日活跃用户——而安全基础设施的发展速度要慢得多。与推出新药的制药公司不同,AI聊天机器人开发商不需要在部署前进行临床安全试验。与社交媒体平台不同,它们在内容审核和危机干预方面通常监管义务较少。
根据律师的说法,其结果是为了最大程度吸引注意力和进行对话而设计的产品正在与涵盖全谱心理健康状况的用户互动,但缺乏适当的培训来识别对话何时朝危险方向发展——也没有可靠的机制来在对话出现问题时做出适当的回应。
业界反应
AI公司在安全方面并非被动。Character.AI已添加了危机干预资源、弹出式警告和年龄验证措施。OpenAI和Anthropic已发布了详细的安全政策并进行定期红队演练。大多数主要聊天机器人提供商现在将表达自杀意念的用户转向危机热线。
但批评人士辩称这些措施是被动反应而非预防措施,其在真实对话中的有效性——尤其是已诉讼案件中那种长期的、情感上亲密的对话——仍然未经证实。律师的警告表明,即使有这些改进,涉及严重伤害的案件仍在继续出现。
法律和监管影响
大规模伤亡的框架具有重要的法律分量。美国的产品责任法已建立了框架,可在有缺陷的产品大规模造成伤害时对制造商追究责任。AI聊天机器人是否构成产品——以及其设计可预见的伤害是否可以归咎于其开发者——这个问题在多起正在进行的诉讼中都很活跃。
《通讯规范法》第230条一直以来保护互联网平台免于用户生成内容的责任,正在AI案件中受到测试。法院正在努力理解AI生成的回复是否构成平台托管内容或产品输出,这一区分对法律责任有重大影响。
速度问题
律师公开声明中的一个反复出现的主题是所谓的速度问题:AI技术的进步和部署速度快于监管框架的适应速度。FDA花费数十年时间来开发制药审批框架;而AI公司可以在几个月内从原型发展到数亿用户。
国会和倡导团体中,对AI产品中的强制性安全测试、事故报告要求和心理健康保障最低标准的呼声越来越大。已引入了多项法案,但都未通过成为法律。欧盟的AI法案为AI系统建立了风险类别,但执法机制仍处于初期阶段。
监管机构正在关注的事项
联邦贸易委员会已表示对AI消费者保护问题感兴趣。州检察长(其中几位在技术监管方面比联邦监管机构更为积极)据报道正在仔细关注诉讼形势。如果大规模伤亡指控被证明可对AI公司采取法律行动,监管和财务风险可能会从根本上改变AI聊天机器人的开发和部署方式。
目前,该技术继续进步。新模型比其前身更强大、更具情感智能和更具吸引力——这些特性使其对许多用户来说确实有用,但当互动出现问题时可能会造成更严重的后果。
本文基于TechCrunch的报道。阅读原文。
Originally published on techcrunch.com

