3月10日以来,一则“有顶流明星在澳门输了10亿”的信息被大量传播,引发网民热议和各种猜测,相关话题频繁登上热搜热榜。不过,这又是一起AI谣言。
公安网安部门查明,网民徐某强(男,36岁)为博取流量、谋取非法利益,于3月10日使用软件“某书”中AI智慧生成功能,输入社会热点词制作了标题为“顶流明星被曝境外豪赌输光十亿身价引发舆论海啸”的谣言信息,并通过互联网平台对外发布。公安机关根据相关法律法规,对徐某强处以行政拘留8日处罚。
这个谣言可谓“看点”十足,明星、豪赌、10亿,每一个关键字都足够劲爆,都打在了舆论场的兴奋点上。难怪消息一出炉,确实如这个假新闻的标题一般,“引发舆论海啸”,甚至逼得多位男明星站出来辟谣。

网传谣言截图
之所以说是“又一起”,是因为AI谣言最近实在太频繁了。就在前两天,一则“上海退休教授靠阳台核电池供电”消息的在网上流传,但随后被发现是用AI生成的图片剪辑而成;今年1月7日,西藏定日县发生6.8级地震,之后大量“小男孩被埋图”在互联网平台广泛传播,随后也被发现是“AI作品”。
当然,这不是说AI自己会造谣,相关的AI谣言大多是别有用心的网民利用AI工具制作的,所以治理AI谣言首先要“治谣”,严惩始作俑者;但另一方面,当强大的AI工具被越来越频繁地用于生产谣言时,“治AI”也要齐头并进。
毫无疑问,AI极大地拉低了信息造假门槛。过去“纯手工制作”的假新闻,由于写作者往往并不熟练,信息中很容易露出马脚。但AI则“专业”很多,新闻5个W要素编得天衣无缝,还能自己生成图片,让假消息显得“有图有真相”,更容易起到以假乱真的效果。
更关键的是,AI的造假能力几乎没有上限。2024年,南昌一家MCN机构因为利用AI造谣被查处,这家MCN机构用AI生成文章和图片,最高峰一天能生成4000至7000篇,每天收入在万元以上。如此巨大的体量,让所谓“AI污染”之类的担忧变得非常现实。
今年年初,世界经济论坛发布的《2025年全球风险报告》,其中列举的今年全球面临的五大风险中,就包括错误和虚假信息,和武装冲突、极端天气、地缘经济对抗、社会极化并列。可见虚假信息对正常社会秩序的冲击是真实的,也是近在眼前、迫切需要做出改变的。
事实上,监管部门一直在升级对AI生成内容的管理。《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法(征求意见稿)》等,都对生成内容的标识和使用范围等做出了规定。
然而在现实中,这些规定要形成有强制力的规范,却并不容易。一些互联网平台的提示并不清晰,很容易被读者忽略;一些平台奉行“先发后审”原则,给假信息传播提供了时间窗口;一些平台技术能力有限,无法识别AI作品,导致虚假信息成为漏网之鱼,都是原因。
这都意味着,围绕虚假信息的治理应当持续发力。一方面,需要进一步明确规则,强化平台对AI生成内容的主动、显著标识,进一步压紧平台的审核责任;另一方面,也需要包括主管部门、互联网平台、科研机构等协作合力,提高技术甄别能力,维护互联网信息生态的纯粹。
无论如何,人们必须正视AI污染了。如果不对AI内容的制作、传播加以规制,恐怕我们的信息空间很快就会被虚假消息塞满。