发布时间:2026-03-17 来源:屡试不爽网作者:小杰哥666
为什么明星总成为AI谣言的重灾区?技术门槛的降低让作恶成本低到可怕。就像这次成龙谣言,用免费AI工具分钟就能生成“新闻截图”,配上煽动性文字就能在微信群疯传。今年两会期间,演员靳东就痛批:“现在用AI换张脸、合成段语音太简单了,普通人根本分不清真假。”数据显示,2024年明星相关AI谣言同比增%,其中“去世”“丑闻”类占比超六成,邓超、孙俪等明星甚至被合成虚假广告视频,连工作室发律师函都赶不上谣言传播速度。 普通人该如何练就“火眼金睛”?第一招看信源,像“台山TV”这类粉丝不过万的自媒体,发的“独家消息”十有八九是假的,真正的大事新华社、央视新闻绝不会缺席。第二招查细节,AI生成的图片往往有bug,比如这次成龙“去世照”里的手表品牌和他常戴的型号完全对不上,文字排版也歪歪扭扭。第三招等反转,还记得古天乐“移民国外”的谣言吗?两小时后本人就发了微博辟谣。遇到明星负面新闻别急着转发,先等等当事人或工作室的回应,这才是最稳妥的做法。 从“AI换脸”到“深度伪造”,技术作恶的花样越来越多,但监管也在跟上。今年实施的《生成式人工智能服务管理暂行办法》明确要求,AI生成内容必须标明来源,违法者最高可万元罚款。只是法律的牙齿再锋利,也需要每个人提高警惕。下次再刷到“爆炸性新闻”时,不妨先问自己三个问题:这消息是谁发的?有没有漏洞?官方说了吗?别让我们的手指,成为谣言扩散的帮凶。毕竟对成龙这样的老艺人来说,拍了一辈子电影没怕过什么,却要天天提防AI造的假消息,这本身就是件挺荒唐的事。