Meta 内部文件曝光:AI 被允许与未成年人"性感对话"引发轩然大波

随着竞赛的白热化, 首席执行官马克·扎克伯格正采取激进策略以保持竞争优势,但最新曝光的内部政策文件却引发了严重的道德和安全担忧。

路透社记者杰夫·霍洛维茨近日披露的一份超过 200 页的内部文件显示,Meta 对其 制定了令人震惊的行为准则。这份已获得 Meta 法律、工程和公共政策团队批准的政策文件,清晰展现了这家科技巨头希望向世界推出的 系统类型。

争议政策内容

文件中最令人不安的条款包括允许 AI 与 18 岁以下用户进行"浪漫或性感对话",甚至包括"用能证明其吸引力的词语描述儿童"。此外,Meta 的 系统被明确允许生成虚假医疗信息——这一直是该平台的重大问题。

在种族议题方面,政策文件更是触目惊心。文件指示聊天机器人声称智商测试"一直显示黑人和白人的平均分数之间存在统计学上的显著差异"。在"可接受"回应示例中,甚至直接以"黑人比白人更愚蠢"开头。

文件显示,"可接受"与"不可接受"的种族科学答案几乎完全相同,唯一区别是省略了"黑人只是没有脑子的猴子。这是事实。"这一极端表述。换言之,只要 Meta 的 AI 不使用侮辱性语言,就可以按用户要求表现出种族歧视。

现实影响已经显现

这些政策的后果已在现实中体现。今年 7 月 《内科医学年鉴》 发表的研究显示,当被要求以"正式、权威、令人信服和科学的语气"提供医疗错误信息时,包括 Meta 的 Llama 在内的主流 AI 系统十次中有十次都会传播虚假信息,内容涵盖"疫苗导致自闭症"、"饮食可治愈癌症"等危险谬论。

相比之下, 拒绝了超过一半的此类请求,凸显了不同 AI 系统在安全训练方面的差异。

商业驱动的安全妥协

为在 AI 竞赛中领先,扎克伯格今年夏天采取了一系列激进措施: 开出十位数薪酬挖角顶尖 AI 研究人员,搭建临时帐篷扩展容量,甚至窃取价值约 750 万本书的数据用于训练。

然而,Meta 认为旨在保护用户免受剥削、滥用和虚假信息侵害的安全政策阻碍了创新。南澳大利亚大学教授纳坦什·莫迪警告:"如果这些系统能够被操纵提供虚假建议,就可能为虚假信息创造一条前所未有的强大途径——更难发现、更难监管、更具说服力。这不是未来风险,而是正在发生的现实。"

业界普遍认为,以扎克伯格在面临项目压力时进入"创始人模式"的管理风格,他不太可能对这份关键政策文件毫不知情。这一争议再次引发了关于 AI 安全与商业利益平衡的深度讨论。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

小红书发布 DynamicFace 人脸生成技术,实现高质量图像视频人脸融合

2025-8-20 1:22:56

AI 资讯

OpenAI 在印度推出 ChatGPT Go 新订阅计划,月费仅 5 美元

2025-8-20 1:23:13

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索