如果你是奥运冠军的粉丝,突然在直播间里听到偶像的声音,要求你买货,会不会立马下单支持?
眼见不一定为实,耳听也不一定为真。听习惯了偶像语音的你,可能料想不到,那些惟妙惟肖的奥运冠军声音,竟然是由AI制作的。
据央视新闻报道,随着AI技术的普及,“克隆”特定人物声音,已实现“一键式”操作。在互联网上,不仅有奥运冠军的“声音”突然开始推销农产品,还有知名演员的“声音”24小时不间断在直播间与粉丝互动,可以说听取“假”声一片。
在一些人看来,利用AI克隆名人声音,可算找到一棵“摇钱树”。如果克隆的是肖像,众所周知,别人的脸不能乱用。如果克隆的只是声音,是否构成越界,或许连“声主”本人都会有些心里没底。
其实,从法律上讲,与姓名权、肖像权、名誉权、隐私权等一样,声音也是一种重要人格权利。根据民法典,对自然人声音的保护,参照适用肖像权保护的有关规定。此前,全国首例AI生成声音人格权侵权案,法院也明确了收集、使用自然人声音作为数据进行AI化处理,需获得本人合法授权。
声音对于自然人而言,具有鲜明的辨识度,由声音的特质可以追溯至个人。AI并不能无中生有,克隆声音需要“投喂”一定本体声音,才能把握内在规律,形成以假乱真的“高仿品”。这个高度模拟的过程,一开始就建立在侵犯个体声音权利的基础之上。
令人不安的是,不仅是媒体曝光的奥运冠军被“高仿”,有的影视明星、职业配音演员,甚至知名企业家也都成为受害者。专家担心的与AI换脸等技术结合,生成高度逼真的“数字人”实施诈骗,并非杞人忧天。不法分子一键克隆、以假乱真,伤害的不仅是公民个人权益,更扰乱了市场经济秩序和网络生态环境。
AI是一把双刃剑,既能推动社会进步,也能贻害不浅,关键是如何依法规制,让这一新事物在法治轨道上运行。
从立法层面看,防止AI任性克隆,还需要在民法典规范的基础上,进一步完善辅助性法规,形成健全的法律体系。今年3月,国家网信办等联合发布的《人工智能生成合成内容标识办法》,要求服务提供者应当对文本、音频、图片、视频等生成合成内容添加显式标识等,这一规定有利于釜底抽薪,从源头把住关口。
从执法层面看,针对违法乱象,应当加大综合打击的力度。除了依托中央网信办在全国范围内部署开展“清朗·整治AI技术滥用”专项行动,严肃查处违法行为,还需压实网络平台等主体的监管责任,通过技术手段的迭代等,构筑起防范不良内容的铜墙铁壁,保护每个人的人格权不受侵犯。
欧阳晨雨来源:中国青年报
2025年08月22日 05版