最近,某演员遭遇“AI盗播”,在同一时间“现身”多个直播间带货。该演员向自己的“分身”提出质疑,还被拉黑了。此事再度引发公众对AI(人工智能)的讨论。
近年来,生成式AI飞速发展,曾经需要一定专业技能才能完成的视频制作,如今可以轻松完成。但技术被一些人滥用,也带来一系列乱象:有消费者伪造“买家秀”骗取退款,社交平台出现大量虚假明星合影,诈骗分子伪造音视频“围猎”老年人……AI原本是表达创意、提高工作效率的好帮手,如今却有沦为造假工具的危险,这一现象必须引起警惕。
9月份开始施行的《人工智能生成合成内容标识办法》明确,人工智能生成合成内容标识包括显式标识和隐式标识。显式标识是以文字、声音等方式呈现并可以被用户明显感知到的标识,当AI内容具有迷惑性甚至误导性时,显著的标识能够帮助用户迅速作出判断、辨别虚假信息;隐式标识是指采取技术措施在生成合成内容文件数据中添加的标识,在追溯伪造内容来源、维护被侵权人合法权益方面具有重要意义。
《标识办法》施行以来,各大平台纷纷响应,出台各类细则确保AI内容亮明身份,迈出了AI内容治理的关键一步。但目前仍有部分AI内容未添加任何标识,对观众形成误导。进一步遏制AI造假乱象,还需构建多层次的治理体系。
比如,强化法律保障,进一步明确AI造假的处罚标准,厘清服务提供者、平台、用户三方责任,覆盖多种造假情形;加强监管力度,针对各类AI造假行为开展专项治理工作,建立多部门协同联动的监管体系,形成打击合力;升级技术手段,提升高精度检测能力,精准识别造假内容。
演员被“分身”只是一记警钟。技术迅猛发展,治理必须跟上。只有规则、监管、技术同步“打补丁”,才能有效减少AI造假,降低公众上当受骗的风险。(作者:赵心仪 来源:经济日报)