配音演員集體發聲抵製AI侵權,律師:平台不能以「審核難」免責
3月13日,國內知名配音公司729聲工場旗下多位配音演員發佈聲明函,對利用AI技術進行的侵權行為進行維權聲明,表示已經對已發生情況留存證據,正在對持續違規者採取合法合規流程手段,追究其侵權責任。並請各方停止侵權行為,依法約束及審查AI作品發佈及傳播,尊重配音演員的合法權益。

聲明函樣例。
在新京報專訪中,729聲工場相關負責人表示,此次集體發聲的契機源於AI音頻濫用現象的持續蔓延與難以遏製。「最開始的案例出現在去年年初,是一些平台上推廣AI漫劇的影片,雖然打著‘僅分享’‘學習’等幌子,但是點進去之後卻是引導受眾進行後續付費。那個時候還沒有《生成式人工智能服務管理暫行辦法》,只能用侵犯人身權益這個理由去平台投訴,有些平台認可‘聲音權’,但是也有很多影片投訴後給到的回覆是‘無法認定侵權’」。
相比「演員被換臉」這類侵權,公眾往往能直觀感知面孔的相似度;而聲音因其無形、非視覺化的特性,被侵權時更難被察覺,維權也因此面臨更大困難。此前就有媒體撰文分享了被AI「偷走」聲音的配音演員維權困難的現狀,記者查詢中國球證文書網發現,與AI侵權配音演員相關的判例中,有代表性的有2023年北京互聯網法院處理的「原告殷某某與被告某智能科技公司人格權糾紛一案」,作為全國首例AI生成聲音人格權侵權案,法院除判令下架相關侵權內容外,還判決被告向原告賠禮道歉並賠償經濟損失25萬元。儘管最終維權成功,但過程所耗費的時間與精力成本依然難以估量。
729聲工場向新京報記者透露,目前各平台AI漫劇的更新速度極快,每天可產出上千集,並由成百上千個帳號進行分發。其中侵權內容數量之龐大,使人工檢索與投訴難以全面覆蓋。此外,涉及AI漫劇製作、宣發與推廣的平台在投訴處理機制上仍不完善,尚未設立針對聲音侵權的專項入口和維權渠道,「我們大多數時候是通過公司官方法務發函進行投訴下架」。
在維權過程中,聽眾群體的支持同樣發揮著重要作用。「非常感恩的是,我們有很多關注並且幫助我們的聽眾朋友,他們密切關注著配音演員的合法權益,並且願意站出來為配音演員發聲,但是他們去評論區留言或者私信侵權方經常會遭到質疑。通過聲明函,我們希望能夠給到這些聽眾以正向的反饋,不要讓他們在正確發聲時被冠上‘名不正言不順’的名頭。」目前反饋顯示,普通用戶向平台投訴的效率仍較低,但集體發聲依然具有現實意義。
在維權實踐中,729聲工場方面也逐漸意識到,問題並不僅僅停留在侵權內容的個案處理層面,而在於行業尚未形成清晰的授權規則。據其介紹,目前相關領域尚未出現能讓配音演員充分感受到授權尊重的標準化合約條款,「多數都是‘授權聲音使用在全球、全領域、全軟件、全作品’、‘授權後不可幹涉使用’、‘授權期超過常理’的條款。」這也意味著,若未來能夠形成正規、合法、明確且合理的合作模式,他們仍願意與使用方展開討論,共同探索AI技術的正嚮應用路徑。
此次行業頭部公司的配音演員集體發聲,或將成為推動現狀改變的重要節點。在此背景下,聲明函本身具備怎樣的法律效力?聲音被AI侵權後,平台應承擔何種法律責任?個人二次創作是否會受到影響?圍繞上述問題,新京報記者專訪上海理振律師事務所主任、律師李振武,請其從法律視角對配音演員聲音權的保護路徑進行解讀。
【對話】
新京報:今天多位729聲工場的配音演員同天發佈這份聲明。從法律專業角度看,這份聲明的性質是什麼?
李振武:從法律性質上看,這份由眾多配音演員聯合發佈的聲明,是一份針對不特定多數人的、公開的「權利警告函」。其核心功能是公開宣告其對其聲音享有法定的聲音權益,同時也預先告知社會公眾,特別是AI技術開發者、平台及用戶,任何未經許可的特定使用行為均被權利人所禁止,這為後續可能的法律行動(如發送侵權通知、提起訴訟)奠定了事實和證據基礎。
新京報:聲明特別強調了「包括但不限於AI工具或產品」,並列舉了多種侵權形式(採集、生成、內置樣本、授權他人等)。這種列舉式的表述,在法律上有何特殊考量?
李振武:我覺得這個表達是明智的。
首先,它明確將當前最突出、最迫切的侵權形式(如AI聲音複製、合成)納入禁止範圍,避免侵權方以「聲明未明確提及」為由進行抗辯。
第二,「採集、生成、內置樣本、授權他人等」的表述,旨在涵蓋現有和未來可能出現的所有利用形式。它不僅禁止最終的「生成」行為,也禁止前端的「採集」(比如訓練數據獲取)行為,從源頭進行控制。我認為這也符合民法典對人格權保護的全面性原則,也呼應了《生成式人工智能服務管理暫行辦法》中關於使用數據進行訓練應取得相關授權的相關規定。
新京報:聲明的第1、2條指向「採集聲音」和「生成AI音頻」的主體。結合全國首例AI生成聲音人格權侵權案(殷某某案),該案中,文化公司認為自己擁有錄音製品著作權,就可以授權AI使用。這是否是行業常見的認知誤區?著作權和聲音權的邊界到底在哪裡?
李振武:誤區主要在於認為「擁有錄音製作者權,就自然獲得了對錄音中聲音這一人格要素進行商業化利用的授權」。
其實兩者的邊界非常清晰:錄音製作者權保護的是創作成果本身,即錄音製品作為「作品」或「製品」的獨創性表達、複製、發行、信息網絡傳播等財產性權利。權利人有權處置「這份錄音」的使用。但聲音權作為人格權,保護的是自然人聲音本身所具有的人身專屬性與人格利益。它保護的是聲音中的身份識別特徵、情感表達等人格屬性,禁止未經許可的錄製、使用、歪曲、篡改或用於商業性活動。
這裏的核心邊界就在於:對錄音製品的合法使用,不等於可以剝離其中的聲音特徵用於創造新的、獨立於原錄音的表達(如AI訓練和生成)。從行業實踐來看,配音演員在這類配音合約中往往僅授權在此次錄音中使用,而不能超過範圍使用配音演員的聲音,更不可能脫離當次合作授權AI製作使用。
殷某某案的判決也明確了,使用他人聲音訓練AI模型,必須獲得聲音權人的明確、單獨的授權,僅憑錄音製品著作權無法覆蓋此用途。
新京報:聲明第5條提到「請勿發佈含有我聲音的AI作品,即使標註‘轉載’、‘二創’、‘學習交流’等免責聲明」。從法律上看,標註「非商用」或「學習交流」能否免責?什麼情況下可以免責?什麼情況下不能?
李振武:標註「非商用」或「學習交流」不能當然免責。
是否構成侵權,核心在於使用行為本身是否落入權利禁止的範圍,以及是否符合法律規定的免責事由。如果行為本身構成了對權利人聲音的非法複製、製作、公開傳播其AI合成品,即便標註「非商用」,仍可能侵害權利人的聲音權。
聲音權作為人格權,其免責情形應參照適用肖像權的規定。根據《中華人民共和國民法典》第一千零二十條關於肖像權合理使用的規定,下列行為可以不經肖像權人同意,這些原則在司法實踐中可參照適用於聲音權:
-
為個人學習、藝術欣賞、課堂教學或者科學研究,在必要範圍內使用。
-
為實施新聞報導,不可避免地使用。
-
為依法履行職責,國家機關在必要範圍內使用。
-
為展示特定公共環境,不可避免地使用。
-
為維護公共利益或者肖像權人合法權益,製作、使用、公開肖像權人的肖像的其他行為。
我認為,在AI生成聲音的語境下,這些情形的適用極為嚴格且狹窄:上述所有情形都必須遵循「在必要範圍內」和「不可避免地使用」等嚴格限制條件,且不得以醜化、汙損,或者利用信息技術手段偽造等方式侵害權利人的合法權益。
據此,具體到AI聲音:如果僅限於個人在完全私密、非公開的環境下,使用極少量聲音樣本進行技術實驗或學習,可能構成免責。但一旦涉及對聲音的複製、生成並向任何第三方(包括網絡平台)傳播,就很難被認定為「個人使用」和「必要範圍」。
其次,在課堂教學中,為講解語音合成技術而播放一段AI生成的對比音頻,可能屬於合理使用。但將其作為「二創」作品公開發佈,則超出了必要的教學演示範圍。
最後,如為報導某AI侵權事件而播放涉事侵權音頻片段,可能適用。
新京報:據《互聯網信息服務深度合成管理規定》和2025年9月施行的《人工智能生成合成內容標識辦法》,平台對AI生成內容負有一些法定義務,但是相比明星換臉,聲音更難以辨識,聲音相似的人也有不少,這會對平台產生更難審核的問題嗎?這可以作為抗辯理由嗎?
李振武:相比視覺換臉,聲音的相似性判斷更具主觀性,且存在自然音色相近的情況,這給平台的事前主動審查帶來了巨大技術挑戰,但不能作為完全的抗辯理由。
審核難度不影響平台在接到權利人明確、具體的侵權通知(如提供原聲音樣本、侵權內容鏈接、對比說明)後的處理義務。此時平台已「明知」或「應知」侵權可能,必須採取行動。
司法實踐中,判斷平台是否盡到注意義務時,會考慮現有技術水平。如果已有相對成熟的聲紋識別、AI內容檢測技術,且成本合理,平台有義務引入並運用這些技術進行一定程度的過濾和攔截。如果某個AI聲音作品已被廣泛傳播並明確指向某位知名配音演員(如標題直接使用其姓名),其侵權事實像「紅旗」一樣明顯(源於「紅旗原則」,是指當網絡服務提供者明知或應知其平台上存在侵權內容,且該侵權內容如同「紅旗」般顯而易見),平台不能以審核難為由推卸責任。
因此,審核難度可以作為平台主張其無法做到100%事前過濾的理由,但不能免除其在收到通知後的處理義務,以及在技術可行範圍內採取合理預防措施的責任。
新京報:從平台視角看,如果接到此次張福正這樣的聲明或投訴,平台依法應在多長時間內處理?「通知-刪除」規則的適用標準是什麼?
李振武:我國法律未規定統一、精確的小時數,但要求「及時」,且從實踐來看,各平台的處理時效也不太一致。
「通知-刪除」規則的適用標準:
首先,通知必須合格有效。通知應包括權利人的真實身份信息和構成侵權的初步證據。初步證據應能準確定位侵權內容(如具體URL鏈接)並說明侵權事實(如聲音對比)。如有委託他人舉報的,還應該有明確的授權手續。
其次,平台需進行初步審查。平台需對通知進行形式審查,判斷其是否合格。對於合格通知,應及時轉送被投訴用戶,並依據初步證據判斷是否採取刪除等措施。
第三,採取「必要措施」。措施不限於刪除,應根據侵權嚴重程度選擇,包括屏蔽、斷開鏈接、終止服務等。
新京報:如果侵權內容播放量巨大,但侵權方並未直接獲利(比如只是上傳供網民免費觀看),賠償金額會受影響嗎?
李振武:即使侵權方未直接獲利,仍需承擔賠償責任。
即使侵權人未直接獲利,巨大的播放量是法院酌定賠償時至關重要的情節。它直接體現了侵權行為的傳播範圍、損害後果的嚴重程度以及對權利人聲音商業價值的稀釋影響。在殷某某案中,法院正是綜合考量了產品播放量超過32億次、侵權行為性質、原告聲音價值等因素,酌定判決賠償經濟損失。因此,播放量是支撐較高賠償額的關鍵依據。
新京報:如果未來有平台希望合法獲得CV的授權進行AI訓練,授權協議應該包含哪些核心條款?
李振武:一份完備的AI聲音訓練授權協議應至少包含以下核心條款:授權標的(明確具體聲音樣本);授權性質與範圍(明確是否獨家、是否可轉授權、具體使用場景及禁止場景);衍生成果權利歸屬(明確AI模型及其輸出內容的知識產權與相關權益分配);報酬與支付方式;人身權利保護(署名方式、禁止損害名譽的使用);數據安全與隱私保護義務等。協議的關鍵在於權利鏈條清晰、使用場景具體。
新京報:從更宏觀的視角看,我國目前關於聲音權的法律保護框架是否足夠應對AI時代的挑戰?
李振武:我國已初步構建起應對AI時代聲音權挑戰的法律框架:民法典確立了聲音權的人格權地位;司法案例明確了AI聲音可識別即受保護的核心規則;《互聯網信息服務深度合成管理規定》《人工智能生成合成內容標識辦法》等規定了AI生成內容的標識與管理義務。因此,我覺得在立法層面已經足夠應付。但在具體實踐中仍需細化法律規定,例如在具體授權機制、侵權認定的技術標準、平台責任與技術可行的平衡以及行業自律標準等方面,仍有待進一步細化。
編輯 吳龍珍
校對 李立軍



















