近日,多位配音演员公开发声,反对未经同意擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。有评论认为,目前AI仿声侵权已经形成了一条“素材采集-内容生成-流量变现”的灰色产业链,且比AI换脸更隐蔽,维权难度更大。

配音演员叶清塑造了许多经典人物形象,如《甜蜜蜜》里的黎小军和《无间道》中的刘建明。不久前,短视频平台上出现了一集AI生成的短剧,许多观众通过弹幕刷屏:主人公的旁白是“叶清老师的声音”。然而,这并不是叶清本人录制的。叶清在接受采访时坦言,AI短剧里对他的音色还原度极高,但表达方式与他不同。他认为,未经授权使用声音可能让配音演员失去价值。

类似的经历在配音行业中屡见不鲜。配音导演李龙滨也经常成为这种侵权行为的受害者,有些相似度能达到百分之九十以上,连他自己都要仔细分辨。季冠霖曾为《甄嬛传》《疯狂动物城》等知名影视作品配音,在一个魔改印度版《甄嬛传》中,她的声音被仿制,虽然声音很像,但角色不像。她认为,无序发展的AI仿声消解着配音演员的表演能力和情感流动,降低了行业应有的艺术水准和价值,并使配音演员面临法律风险。

针对未经授权的AI仿声带来的困境,中国政法大学人工智能法研究院院长张凌寒表示,AI仿声不仅可能侵犯配音演员的声音人格权,还可能侵犯相关影视剧作品的著作权。然而,多位业内人士及法律专家认为,在实践中如何认定AI仿声侵权和监管存在现实难题。首先是取证链条弱,网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定完整侵权链路。另一个难点是“鉴定”难,声音容易被剪辑、篡改、变速,AI微调音色、语调就可以做到高度相似,甚至可以把几个人的声纹捏在一起,从技术层面上维权非常困难。

![[快讯]美一架B-52H轰炸机发出紧急情况信号 疑因机舱失压](http://cn.gzbj58.com/file/upload/202603/24/223909421.jpg)
![[快讯]黑车司机宰客失败 驾车撞游客逃离 非法营运引发冲突](http://cn.gzbj58.com/file/upload/202603/24/005839801.jpg)
![[快讯]中方回应日美领导人涉台言论 坚决反对错误言论](http://cn.gzbj58.com/file/upload/202603/21/011312651.jpg)
![[快讯]美国特教女老师1天5次性侵男童 恶劣行径震惊社区](http://cn.gzbj58.com/file/upload/202603/19/234346871.jpg)