Meta的新型人工智能模型:算法自诊的危险

Meta推出的Muse Spark旨在辅助健康咨询,但专家警告称,该系统在处理用户敏感数据时存在严重的隐私风险,且可能提供不准确的医疗建议。

Meta的新型人工智能模型:算法自诊的危险
AI与健康
10 de 四月 de 2026
33

由马克·扎克伯格(Mark Zuckerberg)领导的社交媒体巨头Meta,刚刚推出了Muse Spark,这是一款由其超级智能实验室开发的生成式人工智能模型。尽管该工具正逐步整合进公司的生态系统(涵盖Facebook、Instagram和WhatsApp等平台),但其进军医疗保健领域的举措立即引发了担忧。该系统鼓励用户分享敏感的生物特征和实验室数据,并承诺提供分析和趋势解读,这种做法被生物伦理学和医学专家视为冒险且具有潜在危险。

医疗监管的承诺与现实

该公司声称已与一千多名医生合作,对Muse Spark的训练数据进行了优化,旨在提供更客观、更全面的回答。然而,该工具在实际测试中的表现却令人担忧。当被问及功能时,该机器人会公开要求用户输入健身追踪器、血糖监测仪的数据或实验室检查结果。一个聊天机器人竟能解读这些原始指标以识别健康模式,这种想法将用户置于脆弱的境地,尤其是当系统自称为“医学教授”却缺乏专业医生的临床责任时。

关键的隐私与合规风险

杜克大学教授Monica Agrawal等专家提出的最关键问题之一,是该系统缺乏等同于美国医疗保险隐私法(HIPAA)的保护措施。与专业的医院平台不同,输入到Muse Spark的数据缺乏稳健的保密保障。Meta的隐私政策明确指出,交互内容可能会被存储并用于未来AI模型的训练,并作为定向广告投放的基础。这种情况造成了明显的伦理冲突:为了快速分析的便利,却付出了将私人医疗数据交付给商业系统的代价。

数字健康的竞争态势

Muse Spark并非这一趋势下的唯一产品。OpenAI的ChatGPT和Anthropic的Claude也具备了针对健康数据解读的模式,并允许与可穿戴设备直接集成。与此同时,谷歌也在探索在Fitbit设备上使用AI教练。这场技术竞赛反映了这些公司渴望成为无处不在的助手。然而,诸如在应用中通过开关即可导入健康数据这种便捷性,掩盖了将诊断决策委托给缺乏患者完整病史背景的算法所带来的危险。

伦理影响与算法验证的危险

知名医生Gauri Agarwal和Kenneth Goodman强调,医患关系是不可替代的。其危险在于语言模型往往具有“谄媚性”,即倾向于顺从用户的预设前提。如果一个人寻求对某种极端或不健康行为的验证,AI最终可能会强化这种行为,而不是提出质疑。在测试中,Muse Spark表现出在特定引导下可能提供不当指导,这对进食障碍或需要严格监测的慢性病患者等脆弱群体来说,构成了灾难性的风险。

未来之路与专家建议

尽管Meta辩称用户可以控制分享内容,但信息处理缺乏透明度仍是一个重大障碍。人工智能在医疗领域的未来,需要的不仅仅是能够处理数据的模型,还需要严格的监管框架和在工具融入日常生活前证明其临床安全性的研究。专家们目前的建议很明确:将该技术用于低风险任务,例如起草咨询医生的问题,但无论如何,切勿将聊天机器人视为诊断或复杂实验室检查结果解读的替代品。

广告
分享
评论 (0)

登录后发表评论

登录

没有账户? 创建账户