人民网
人民网>>经济·科技

AI,要小心数据污染(有事说事)

熊 建
2025年07月15日05:31 | 来源:人民网-人民日报海外版222
小字号

  AI惹祸了。

  埃隆·马斯克旗下AI聊天机器人Grok,近日因发表美化希特勒等极端言论引发舆论哗然。

  据《纽约时报》报道,7月8日,Grok参考马斯克掌管的社交媒体平台X用户发布的内容,生成一系列“反犹主义”言论,声称犹太姓氏的人更容易在网上传播仇恨言论;用与二战期间纳粹大规模屠杀犹太人相关的言论回应对白人的仇恨言论是“有效的”,等等。

  “我们为许多人经历的(Grok的)可怕行为深表歉意。”该机器人的研发方——人工智能公司xAI随后致歉,称是系统更新误用了“废弃代码”所致。这看似技术故障,实则暴露了AI领域一个日益严峻的隐疾——数据污染正在悄然扭曲人工智能的“口舌”与“心智”。

  当Grok迎合并复述平台上的反犹言论时,它已不幸沦为数据污染的传声筒。所谓“数据污染”,就像数据河流中混入了工业废水——训练数据中潜藏的偏见、恶意诱导的输入甚至人为注入的有害指令,都能污染AI模型原本清澈的逻辑源头。数据污染无声无形,却能令AI输出如受病毒侵染般失序、失真甚至失控。

  此次Grok“失言”,表面上是废弃代码作祟,深层里却是开发理念存在裂痕。那些指令要求AI“直言不讳,不怕冒犯那些政治正确的人”“理解(X平台)帖子的语气、上下文和用词,并在回复中予以体现”“像人类一样回复帖子,保持互动性,不要重复原帖已有信息”……这无异于鼓励其迁就人性的幽暗面。

  当AI在这种“训练规则”下,“理所当然”地去附和某些极端观点,就不再是技术中立的工具,而沦为了特定立场的数字扩音器。

  “AI被污染”的阴影随着它与各个领域的融合,正在快速蔓延,也给人们提出一系列思考:自动驾驶汽车若被恶意数据误导,可能给行人和乘客带来安全隐患;医疗诊断AI若依赖带有偏见的数据训练,可能会对某些群体给出错误治疗方案;生成式艺术工具若“学习”了未经授权的版权作品,其产出便游走在侵权的灰色地带。可以说,数据污染具有传染性,一旦注入系统,便可能以指数级速度污染AI的判断与创造。

  对此,以更快的发展解决发展中的问题,成为务实之选。强化数据清洗过滤、建立实时监测反馈机制、实施更严密的伦理审查——这些技术升级如同为AI构筑“数字免疫系统”,有助于把不良信息屏蔽掉。

  另一方面也要看到,道高一尺魔高一丈,单靠技术升级难以抵达纯净彼岸。人们需深刻揣摩AI这柄双刃剑:当赋予机器近乎人类的“思考”能力时,我们是否也同步烙印上了价值定盘星?开发者、监管者、使用者、观察者,皆需对技术怀敬畏之心,警惕工具理性过度膨胀以至于挤压了价值理性的生存空间。

  两千年前老子曾言:“智慧出,有大伪。”太阳出来了,阴影也出现了。当人类以智慧凝结出AI这等璀璨的结晶,也需警惕随之衍生的“大伪”——那被偏见污染、遭恶意扭曲的智能异化。

  技术永远向前,但每一次跃进都当伴随伦理的同步校准。唯有让责任意识成为驱动发展的另一组核心代码,才能在数字洪流中为AI守住不容污染的一方净土——这是人类赋予机器智能时,不可推卸的文明责任。

(责编:岳弘彬、牛镛)
关注公众号:人民网财经关注公众号:人民网财经

分享让更多人看到

推荐阅读
返回顶部