这两天,“80后死亡率已超70后”一说热传。据溯源,这一说法查无实据,最初来源很可能是与AI的对话。尽管AI明确标注了数据存在间接推算及估算的情况,但这条假消息还是被加上各种骇人标题在网上流布。这场乌龙再次引出一个问题:AI真的那么靠谱吗?
学界频频提及的“AI幻觉”与“机器欺骗”,指的就是“AI会胡乱拼凑或虚构一些事实,让其生成的内容显得合理、自洽”。查阅相关公开资料不难发现,全球最先进的大模型,在试验中也会出现一定的“幻觉率”。更关键的是,AI在呈现错误答案时仍看上去“非常自信且具有说服力”,很容易让人信以为真。至于出现“AI幻觉”的原因,目前尚无定论,既有可能是AI在转录和翻译海量数据时出现了偏差,也可能是其在“数据不足”时“急中生智”。
AI的能力确实在不断超越人类的想象,但远不能视之为“万能”。除了生成内容的真实性、可靠性常常存疑,AI在创造力、想象力方面也相对“拉胯”。耶鲁大学计算机科学家戴维·格勒恩特尔曾言:“除非能模拟人类情感的所有细微差别,否则任何计算机都不会有创造力。”从现实来看,AI在处理社会尚未形成共识的话题,或在预测某件事情的走向时会陷入困难。因而,在使用生成式AI这一工具时,我们不仅要对其生成信息多加辨别,更不能放弃思考,倘若指望其给观点、定决策、下结论,很可能会被带进沟里。
“就像一台车没有汽油走不了,数据就是AI发展的燃料”。确实,AI大模型的迭代发展离不开大体量优质数据“喂养”。数据从何而来?显然是由人来生产与创造。据统计,“现实世界所能提供的用于训练AI模型的数据几乎已消耗殆尽”,且未来人类对高质量文本的需求量,远超数据产生的速度。如若人类的大脑就此“躺平”,“训练数据枯竭”的情况就会不断加剧,最终要么是AI发展陷入停滞,要么是AI开始大规模自说自话,拿自己生成的似是而非的内容训练自己,导致整条信息河流被持续污染。
人类从来都是在思考中迸发灵感,在试错中革新向前,不少伟大的发明都是研究的“副产品”。可当AI提供了前往“正确答案”的“直通车”,不仅可能“挖空学习资源”,形成更加厚重的“信息茧房”,还可能反噬创新。近来,“脑腐”一词颇为流行,当AI让各类信息更加唾手可得,我们的内心世界是否会经历一场更猛烈的“水土流失”?
未来已来,我们当然不能抱着“AI末日论”抵抗浪潮,但也不能盲目乐观。相关方面应在遵从科技伦理、人本主义、法治理念等基础上,不断完善AI相关法规,力求价值引领与技术“纠错”并行,最大程度争取科技向善。于个人而言,也当保持好奇心,提升思辨力,让AI成为我们最有力的工具之一而非“替代者”。(晁星)