用AI合成全红婵家人声音,这样的带货走火入魔了|新京报快评

新京报评论5 2025-04-29 20:20:54

只有让AI合成技术的应用真正规范起来,才能营造健康、真实、可信的网络环境和消费市场。 ▲奥运冠军全红婵家人声音被AI合成冒用带货,引发广泛关注。图/网络视频截图 文 | 和生

近日,奥运冠军全红婵家人声音被AI合成冒用带货,引发广泛关注。多个账号在社交平台使用AI合成的全红婵爸爸、哥哥声音,用几乎完全相同的文案介绍家里要盖新房,并在视频中携带有骆驼奶粉、土鸡蛋、洗衣液等多种商品链接,由于声音、画面结合得惟妙惟肖,难辨真假,不少消费者已经在视频链接中下单。而全红婵家是否真的承建新房,目前没有任何官方回应。

被AI合成假冒伪装的不只全红婵家人。此前,明星刘晓庆、古天乐、张馨予等,都有声音、视频被AI合成,用于代言、带货。而前几日,还出现了类似AI造神医事件,有账号通过合成子虚乌有的“非遗传承人”,为一款号称“千年秘方”的膏药带货,实际上该膏药是贴牌货,所谓的“非遗传承人”也压根不存在。

从全红婵家里建房、古天乐“被游戏代言”、张馨予“卖减肥药”,再到AI神医的千年秘方,这些事件背后,都是不法分子在利用AI技术,明目张胆地伪造公众人物的形象和声音,或者生造出来某个人物形象,蓄意欺骗消费者,以谋取非法收益。

具体到“全红婵家人事件”,声音作为具有个人标识性特征的信息,未经本人授权就被随意用于商业行为,这已构成对个人肖像权、名誉权以及声音相关权益的侵犯,相关伪造者的行为涉嫌违法犯罪。

而消费者在不知情的情况下,基于对全红婵及其家人的信任和支持下单购买商品,结果却发现自己上当受骗,不仅蒙受经济损失,更会对类似网络信息的真实性产生怀疑。从长远来看,此类事件冲击的将是整个短视频平台消费市场的信任环境。

AI合成技术是一把双刃剑。一方面,它极大提升了信息生产与传播的效率;另一方面,技术滥用导致信息真假难辨,给监管带来巨大挑战。AI合成信息易误导公众,干扰判断与决策,还增加了监管部门发现和查处虚假信息的难度,容易引发社会乱象。

同时,由于网络信息传播迅速且范围广泛,虚假信息一旦发布,难以有效控制,溯源和处理成本很高,这对传统监管模式和技术手段提出了新的更高要求。

面对AI合成技术被滥用这一新难题,国家互联网信息办公室等四部门联合发布了《人工智能生成合成内容标识办法》,定于2025年9月1日起正式施行。该办法为AI生成内容设定了明确的标识规范,让以往难以辨别的AI作品必须“持证上岗”,清晰标注其AI生成身份,相当于在源头上为AI合成信息套上了“紧箍咒”。

在此基础上,还要加大对侵权行为的惩罚力度,让违法者付出高昂代价,才能让他们畏于造假售假。

对平台而言,当务之急是提升技术手段,对AI合成内容进行识别和标注,“用AI打败AI”,及时清理虚假信息,对违规账号进行封禁处理。

而作为普通消费者,在AI合成日益被滥用的趋势下,尤其要提高辨别能力和防范意识,不要轻信、传播未经证实的消息,更不要轻易地“一键下单”。

总之,只有让AI合成技术的应用真正规范起来,才能避其短、扬其长,营造健康、真实、可信的网络环境和消费市场,让AI真正服务人,而不是成为骗子的工具。

撰稿 / 和生(媒体人)

编辑 / 迟道华

校对 / 李立军

欢迎投稿: 新京报评论,欢迎读者朋友投稿。投稿邮箱:xjbpl2009@sina.com 评论选题须是机构媒体当天报道的新闻。来稿将择优发表,有稿酬。 投稿请在邮件主题栏写明文章标题,并在文末按照我们的发稿规范,附上作者署名、身份职业、身份证号码、电话号码以及银行账户(包括户名、开户行支行名称)等信息,如用笔名,则需要备注真实姓名,以便发表后支付稿酬。
0 阅读:49
评论列表
  • 2025-04-30 14:32

    盗窃肖像权[笑着哭]