
配资炒股配资优秀
“新技术迭代中,知识产权保护与行业发展的矛盾集中爆发了。”
文 | 实习生 罗荣芬
记者 郑子愚
视频 | 罗荣芬
编辑 | 王潇
“抵制得了AI,也抵制不了人心啊。”看到新闻的沈安宇感慨,“1000字文稿配音,要50元,要是用AI生成只需要几毛钱。成本投入完全不一样。”
3月13日,国内知名配音公司729声工场旗下多位配音演员发布声明,抵制利用AI技术进行侵权的行为。3月16日晚,曾在《哪吒》系列电影中为“哪吒”配音的配音演员吕艳婷也加入行列,公开发声抵制。短短数日,已有数十名配音演员就AI声音侵权行为发文声援。

配音演员们发布的声明函。
随着生成式AI应用越发广泛,网上也出现了越来越多利用AI技术伪造公众人物形象、声音的短视频,沦为虚假广告、引流变现的工具。据记者不完全统计,身陷AI“盗声”(语音克隆)及“换脸”技术的公众人物有全红婵、孙颖莎、王楚钦、霍启刚、白岩松、靳东、孙俪、邓超、季冠霖、边江等。
不可回避的是,当下技术的迭代速度远超法律的修补能力,法律规范上形成了“真空地带”。作为一名配音演员,尝试维权的沈安宇比一些公众人物更早直面低成本侵权与高成本维权的困境。
在这个暂时的“真空”里,他们的处境到底有多难?他们又该如何找到方向?
打开新闻客户端 提升3倍流畅度既熟悉又陌生的声音
随意刷几个视频,都能听见自己的声音出现在视频里,这不是走红,而是配音演员沈安宇深陷在“AI盗声”的困境。
他是坐拥500多万粉丝的电影解说账号“小班班电影”的专属配音员。以其高亢而富有悬疑感的语调,在业内树立了一定的辨识度。不少用户正是冲着沈安宇的声音才成为账号粉丝的。
31岁的沈安宇并非科班出身。2020年底,他踏入配音行业,从在贴吧接散单起步,后来成为全职配音员,月收入1万多元,高时接近3万元。
2024年底,朋友向沈安宇转发了一条音乐推荐视频,并问视频是不是他配音的。沈安宇点开视频,听到一个既熟悉又陌生的声音——音色和自己如出一辙,却带着僵硬刻板的语调和顿挫,而他从未读过视频中的文案。
职业敏感让他意识到:自己的声音被AI盗取了。
当时,AI复刻声音已经是热点,有应用以“照读3句话,即刻生成AI语音包”为卖点。沈安宇了解到,有心人只要将自己配音的视频进行“人声分离”处理,然后喂给AI训练,就能复刻他的声音。他想起,有客户找他合作一两次以后便再无联系。猜测对方很可能用他的声音制成了AI语音包,或者直接购买了有他音色的语音包来降低成本。
沈安宇表示,前几年,用AI复刻人声进行的配音是可以辨别出来的,比如正常人说“一个人”的“一”都是读第二声,但是AI只会死板地读第一声。可AI发展得太快了。没过多久,AI生成的声音不论是语调语气还是音色,都越来越像沈安宇了,一般人无法分辨,甚至连他的父母也难以分清。
最直接的影响就是收入。自“AI盗声”出现,他的收入渐渐降至原来的十分之一。
侵权容易维权难
“盗取”沈安宇声音的不止一个账号。沈安宇发现,使用自己的声音来AI配音的视频越来越多,覆盖的领域也越来越广。最离谱的是,自己家附近卷饼摊主的账号都用他的声音来打广告。
北京市两高律师事务所律师成清渊告诉记者,在《民法典》生效前,声音保护主要依靠著作权、表演者权的相关规定间接兜底,而《民法典》人格权编独立成编后,其中第1023条明确规定:“对自然人声音的保护,参照适用肖像权保护的有关规定。”这一条款确立了声音作为具有专属人身属性标识的法律地位,意味着声音的主人拥有绝对的控制权:谁能用、怎么用、用多久,必须经过许可。任何未经许可的AI盗用,都可能构成对声音权益的侵犯。
沈安宇了解到,法律层面虽尚无针对“AI盗声”的条款,但维权仍有可能。
点开“盗声”的音乐推荐账号主页,沈安宇发现这个账号发布的五六百个视频中,基本上全是“他”配的音。同时,对方还以一次性价格售卖沈安宇声音的语音包。当他想私信这个账号时却发现,自己是被对方拉黑的状态。
接着,他私信其他账号,希望能下架用他声音合成配音的视频。数十个账号,对方要么不回复,要么拉黑,还有的会说,“这是AI合成的,不是你的声音”。
无奈之下,沈安宇向平台投诉。但他发现站内举报完全没用,平台只会回复“收到,我们会持续关注”,便再无下文。
有人建议他向抖音邮箱举报,可能会比站内举报管用。他在提交双方信息的同时,还上传了朗读对方账号视频中文案的音频,想以此证明那些都是自己的声音。短视频平台对部分账号判定“存在侵权行为”,下架相关作品并对账号作出处罚。

沈安宇发的举报邮件。
然而,更多账号则是以一份相似的“声明”抗辩。这些账号表示,他们是“善意第三人”,是用合理价格购买了来自一些小程序上的语音包。平台恢复了这些账号的视频权益,并回复沈安宇:“平台已中止对被投诉内容的处理措施。”

对方的抗辩邮件。
正当沈安宇感受到维权无门的时候,看到了流传在行业里的一份判例,心里燃起了一丝希望。
2024年4月23日上午,北京互联网法院对全国首例“AI声音侵权案”进行一审宣判。案情显示,当事人殷某曾为某公司录制音频,该公司擅自将音频提供给另一家公司进行AI化处理,制成“文字转语音”软件出售,最终用户又将其包装为自有产品向公众提供,全程未获当事人授权。法院认定,AI合成的声音若具有高度可识别性,能让公众直接关联到当事人,即受法律保护。判决中,前两家公司因存在过错被判定构成侵权,需连带赔偿当事人经济损失及维权合理开支共计25万元并赔礼道歉;而不知情的最终用户虽需下架产品,但无需承担赔偿责任。此案确立了“AI生成声音若具备可识别性,即受法律保护”的裁判规则,为后续类似案件提供了重要参考。
沈安宇再去咨询当地律师,发现自己的情况和全国第一例AI声音侵权案存在差异。
全国首例“AI生成声音人格权侵权案”的原告委托诉讼代理人、北京市中勤律师事务所律师任相雨向记者剖析了该案的难点:除了没有先例外,民事诉讼遵循“谁主张谁举证”的原则,如何证明声音是不是原告配音员的以及还原侵权路径也是难题。
沈安宇了解到,那起案件或是借助诉讼程序推动对方举证披露,才确定了该案的侵权主体是几家大型公司,有了明确的追索对象。而沈安宇的侵权主体和判例中殷某面对的不一样,是一些小作坊或者个人,取证困难,即便胜诉也难以执行。在综合评估了举证难度和案件标的额后,两家当地律所都建议沈安宇:“您还是另寻高就吧。”
技术黑箱
到了2025年底,任相雨曾联系沈安宇,称可以帮他上诉。那段时间,沈安宇正忙于筹备婚礼,婉拒了任相雨。
事实上,婚礼更像是托词,是现实情况根本不允许沈安宇再花精力维权。
有律师告诉沈安宇,当下很难找到一家面对市场且有资质做AI声音和真实人声对比的机构;在当时技术条件下,单人的声纹可以鉴定,但若AI语音包是经过多人混杂形成的,则无法鉴定;就算做了专业的声纹对比,证据全部提交到法庭,判决也非常依赖法官主观的判断。
在全国“AI声音侵权”第一案后,曾有看到希望的配音演员去维权。他能够驾驭少年音、男青年音、老人音等多种声线,但法官听不出他声称被AI盗去的声线到底是不是原告的声音。他败诉了。沈安宇总结:“声纹鉴定只能给原告一个心理安慰,在证据链条上未必能被当作证据。”
事实上,这里还涉及“技术黑箱”。简单来说,AI生成的内容带有随机性,内容是如何生成的,很难被完全揭示。如果一个AI语音包是完全由AI自主生成的,那么要认为它侵权,确有商榷空间;如果有人使用或参考特定的人的声音来训练出语音包,然后打着“技术黑箱”的幌子,则是另外一个性质的问题。
说得再通俗一些,在维权的过程中,沈安宇面临的核心问题,是要打开侵权人的“技术黑箱”来证明自己的声音是被窃取的。举证难度可想而知。
成清渊解释,AI公司常以“商业秘密”为由拒绝公开训练数据,权利人难以获取AI公司的训练数据和算法模型,再加上专业的声纹鉴定费用高昂,极易出现“赢了官司输了钱”的局面。
沈安宇还了解到,如果一个普通的声音工作者想去上诉,诉讼单个侵权主体的各类费用加起来就要10万元左右。最后是否能拿到赔偿、能不能胜诉,都是未知数。“我还得顾我的家庭,怎么去赌一个看起来说不准的结果?”沈安宇很无奈,“让一个普通老百姓拿出十万块钱去搏一个名声,这太不现实了。”
沈安宇感到,侵权声音成本极低,而自己这样的权利人维权却需耗费大量时间、金钱和精力,“侵权容易维权难”的死循环正让矛盾日益加深。在高昂的诉讼费和渺茫的胜诉概率的种种压力下,他放弃了维权。
举证责任倒置或是解法
“新技术迭代中,知识产权保护与行业发展的矛盾集中爆发了。”成清渊指出,当前困境或是由于技术、法律、产业与从业者四方节奏错位。一方面,AI技术呈“狂奔式”发展,短视频平台上随处可见详尽的“AI漫剧教程”,使用门槛极低;另一方面,现有法律虽然搭建了基础保护框架,但针对“AI声音”“面部克隆”等新型侵权仍显滞后,缺乏明确的认定标准和具体的举证规则。
像沈安宇遇到的维权无门的状况,成清渊认为,虽然直接追溯上游技术黑箱难度极大,但诉讼策略上可采取“由末及本”的策略,即先起诉侵权AI声音的终端平台。即便对方无主观故意侵权,通过对终端平台的起诉,也可借助诉讼程序推动各方举证披露,从而逐步撕开技术黑箱,锁定真正侵权源头,补齐权利人难以自行获取的关键证据。
让成清渊感到欣慰的是,民事诉讼遵循“谁主张谁举证”原则,但在一些AI侵权案件中已出现倾向“举证责任倒置”的苗头。相关案例中,权利人提供声音高度相似等初步证据,而AI公司拒不提交训练数据来源等关键证据,法院可能会推定权利人主张成立。此外,即便没有昂贵的专业声纹报告,只要声音的音色、语调、发音习惯等核心特征明显,公众能直接识别,法院也可结合其他证据链认定侵权。这种“柔性倒置”正在成为破解维权难的一把利剑,迫使技术持有者自证清白,而非让受害者完成“不可能完成”的举证任务。
针对利用AI技术对《甄嬛传》等经典作品进行恶搞的“魔改”短剧,成清渊分析称,若仅是简单调侃歪曲,主要侵犯复制权、信息网络传播权及保护作品完整权;若进行了深度重构形成新表达但未获授权,则可能侵犯改编权。而在“AI演员”领域,风险更为复杂:近期也出现了一些AI短剧,其中人物与演员肖战等明星的面部特征神似。若素材源自特定影视剧,还叠加了著作权侵权。成清渊指出,这种“融脸”往往同时侵犯声音、肖像等多重权益。任何试图通过AI生成来“打擦边球”的行为,都会面临法律风险。
成清渊表示配资炒股配资优秀,法律迭代速度远不及技术发展。现行法律虽已覆盖核心权益,但针对AI声音克隆、模型训练数据侵权等新型问题,仍需通过司法解释进一步细化认定标准。例如,可结合声纹鉴定技术规范,将 “声线相似度达到法定比例” 作为侵权认定的参考依据,同时明确举证责任的合理分配,切实降低创作者的维权成本。其次,严格落实《生成式人工智能服务管理暂行办法》要求,强制引入“AI生成内容标识” 技术,如同版权水印一般,让观众清晰区分真人配音与AI配音,从技术层面遏制侵权行为的发生。
众和策略提示:文章来自网络,不代表本站观点。