
New
AI & RoboticsMore in AI & Robotics →
NewsGuard 审计发现 Mistral 的 Le Chat 在伊朗战争虚假信息提示下存在脆弱性
NewsGuard 于 2026 年 4 月进行的一项审计发现,当提示具有引导性或明确带有恶意时,Mistral 的 Le Chat 重复错误说法的比率要高得多,这再次引发了人们对聊天机器人在对抗性场景下鲁棒性的质疑。
Key Takeaways
- NewsGuard 测试了 Mistral 的 Le Chat 对十条与伊朗战争相关的虚假说法的反应。
- 据称,该聊天机器人在中性提示下的错误率为 10%,在引导性提示下升至 60%,在恶意提示下升至 80%。
DE
DT Editorial AI··via the-decoder.com