当AI在营养问题上出错时

越来越多为体重问题困扰的青少年正在转向AI聊天机器人来帮助制定饮食计划。这似乎是个合理的想法——AI模型可以处理营养数据、计算宏量营养素比例,并在几秒钟内生成个性化膳食建议。但一项新研究表明,生成的计划可能存在危险的不足,每天的卡路里摄入量低估近700,可能会危害青少年的健康。

该研究测试了五个主要AI聊天机器人,包括ChatGPT、Gemini、Claude、Copilot和Llama,发现它们都经常为青少年提出相当于每天跳过一餐的饮食计划。对于身体仍在生长和发育的青少年来说,这一水平的长期卡路里限制可能会影响骨骼发育、荷尔蒙成熟、认知功能和长期代谢健康。

研究如何进行的

研究人员使用典型的青少年请求场景提示每个AI模型:一个想要减肥的15岁青少年、一个想要优化营养的16岁运动员和一个寻求健康饮食计划的17岁青少年。他们指定了年龄、性别、身高、体重和活动水平——任何合法的营养计算器用来确定卡路里需求的标准输入。

AI模型生成了详细的膳食计划,包括具体的食物、份量和宏量营养素分解。这些计划看起来很专业和全面。然而,当研究人员使用标准营养数据库独立计算实际卡路里含量时,他们发现了一个一致的模式,平均低估了青少年最低推荐摄入量约700卡路里。

为什么AI会出错

有多种因素导致了系统的卡路里低估。首先,这些模型的训练数据可能包含过量的成人饮食内容——减肥博客、健身网站、计数应用程序——这些内容是为寻求减少卡路里摄入的成人设计的。当应用于青少年时,这些面向成人的模式会产生不适当的限制性建议。

其次,AI模型可能将健康饮食与低卡路里饮食混淆,反映了其训练数据中存在的文化偏见。互联网上充斥着将更小的份量和更低的卡路里计数与健康等同起来的内容,而没有充分区分成人的适当体重管理和生长中的青少年非常不同的营养需求。

第三,这些模型似乎低估了份量。在指定诸如"一块鸡胸肉配糙米和清蒸蔬菜"之类的餐点时,AI可能会假设适合小个子成人的份量,但对于代谢需求更高的成长中的青少年来说是不充分的。

青少年健康风险

青少年时期的长期卡路里限制具有不适用于成人的特定和严重的健康风险。青少年期是人类生命中仅次于婴幼儿时期的第二个最密集的生长期,身高、骨密度、肌肉质量和脑容量都在快速增加。卡路里摄入不足与青春期延迟、骨矿物质密度降低、认知发育受损以及建立使个体易患饮食紊乱的代谢模式有关。

心理层面同样令人担忧。按照AI生成的饮食计划并感到饥饿的青少年可能会将这种饥饿解释为饮食有效的信号,而不是他们吃得不够的警告信号。AI建议的感知权威可能会阻止青少年质疑该建议是否合适。

AI安全中的漏洞

该研究突出了AI安全框架中的一个重大漏洞。虽然AI公司在防止暴力和自伤等类别的有害内容方面投入了大量资金,但营养建议获得的关注相对较少。系统性地为未成年人卡路里计算不足的饮食计划代表了一种健康信息错误,当前的安全过滤器无法检测到。

研究人员建议AI公司对针对未成年人的营养建议实施具体的保障措施,包括适合年龄的卡路里最低值、鼓励咨询医疗保健提供者的强制性声明,以及限制为自称18岁以下的用户生成减肥计划。

在AI公司实施更强大的营养保障措施之前,该研究的信息很直接:AI聊天机器人不应作为青少年饮食建议的主要来源。寻求饮食指导的青少年应咨询儿科医生、注册营养师或学校卫生顾问,他们可以评估个人需求并提供适合年龄的建议。

本文基于Medical Xpress的报道。阅读原文

Originally published on medicalxpress.com