
近日,多位配音演员公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。

“有些相似度能达到百分之九十以上,连我自己都要仔细分辨一下。”近日,多位配音演员公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。
AI偷声不是小事。正所谓“声台形表”,很多配音演员虽人在幕后,但同样受到关注与喜爱,正因为其独特音色与表演技艺。在一些经典作品中,声音更与角色深度绑定。眼下借助AI工具,轻易就能全盘盗用演员们代入的情感、打磨的心血,还动不动恶搞经典对白桥段,换谁不闹心?更令人担忧的是,生成假声已形成灰色产业链,利用公众的熟知,引流涨粉、推广带货甚至胡言乱语,配音演员可能在不知情下就“摊上事了”。
技术突飞猛进,如今似乎只要输入相关素材,就没有AI冒充不了的人。民法典规定,对自然人声音的保护,参照适用肖像权保护的有关规定,即除了个人学习、艺术欣赏等情形外,不得未经同意就制作、使用他人声音。但问题是,相比于人脸,声音很难描述具体特征,且微调音色、语调等就可以做到高度相似,很难直接“认领”。就算能判定所属,网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定证据,又该找谁维权呢?
从舆论呼吁来看,大家普遍希望通过加水印等手段,为AI声音搭建可追溯的安全框架。眼下,一些生成模型也能主动“拒绝任务”,比如禁止生成明星、公众人物、网红等真实人物肖像、语音等。本质上,这些都是靠技术识别,来堵住滥用的出入口。事实上,不仅是公众人物,所有普通人都可能在网上留下各种“印记”。在社交媒体上分享的“独家图片”,在公开比赛中提交的“首发创意”,或许都会成为AI的训练素材,该如何识别?又是否会在各种“洗稿”中遭到侵权?这也提醒我们,根治AI侵权乃至犯罪,要从源头形成全方位的治理体系。
随着AI工具愈发强大,很多问题也愈发凸显。使用要守好边界,创意要基于尊重,才能让技术打开生活的无限可能,而非打开潘多拉的魔盒。
图源:视觉中国
(来源:北京日报APP)