“大家好,我是你們的嬋寶,今天有事請大家?guī)兔?。嬋妹就想著幫助媽媽,讓家里的生活過得更好一點(diǎn),同時(shí)把老家的土雞蛋分享給粉絲們嘗嘗……”
在互聯(lián)網(wǎng)上,奧運(yùn)冠軍的“聲音”突然開始推銷農(nóng)產(chǎn)品,知名演員的“聲音”24小時(shí)不間斷在直播間與粉絲互動(dòng)……隨著AI技術(shù)的普及,“克隆”特定人物聲音已實(shí)現(xiàn)“一鍵式”操作。當(dāng)聲音能被輕易竊取和濫用,隨之而來的侵權(quán)亂象頻繁上演。

利用AI仿冒奧運(yùn)冠軍聲音帶貨
背后潛藏灰色產(chǎn)業(yè)鏈
記者在某平臺(tái)發(fā)現(xiàn),在網(wǎng)名為“我是小助理吖”的博主賬號(hào)中,已發(fā)布的17件作品,內(nèi)容全部是利用AI仿冒奧運(yùn)冠軍全紅嬋聲音帶貨土雞蛋的視頻,其中一個(gè)視頻點(diǎn)贊量高達(dá)1.1萬。
評論區(qū)顯示,大量粉絲誤以為這就是全紅嬋本人,紛紛下單購買鏈接中的雞蛋,該商品鏈接顯示已售出4.7萬件。今年4月,全紅嬋家人曾向媒體證實(shí),全紅嬋并未給相關(guān)農(nóng)產(chǎn)品代言或授權(quán)。

除全紅嬋外,奧運(yùn)冠軍孫穎莎和王楚欽也遭遇了同樣的仿冒。在網(wǎng)名為“小兔真可愛”的賬號(hào)中,兩位奧運(yùn)冠軍的AI克隆聲音同樣在為土雞蛋帶貨。
以假亂真的聲音再加上對奧運(yùn)冠軍的喜愛,網(wǎng)絡(luò)博主收獲了大量粉絲的訂單。


而記者發(fā)現(xiàn),AI仿冒名人的亂象遠(yuǎn)不止帶貨,還有部分自媒體博主克隆名人的聲音后進(jìn)行24小時(shí)語音直播,演員靳東是被仿冒最多的對象,在這看似匪夷所思的操作背后,其實(shí)隱藏著另一個(gè)灰色產(chǎn)業(yè)鏈。
據(jù)網(wǎng)絡(luò)安全專家潘季明介紹,通過仿冒名人進(jìn)行直播,不僅可以誘騙粉絲打賞獲利,還可將一個(gè)小白賬號(hào)迅速打造成上萬粉絲的賬號(hào),從而為后續(xù)牟利來鋪路。
合作一次就能無限克隆
配音演員遭“AI盜聲”困局
AI仿冒名人的行為,不僅欺騙了消費(fèi)者,也侵犯了當(dāng)事人的人格權(quán)。而AI克隆技術(shù)濫用盯上的遠(yuǎn)不止我們熟知的名人。記者調(diào)查發(fā)現(xiàn),配音演員被AI克隆侵權(quán)的案例同樣頻繁發(fā)生。
武揚(yáng)是一位從業(yè)十多年的職業(yè)配音演員,主要從事影視和廣告配音。今年6月中旬,武揚(yáng)突然在某餐飲企業(yè)的宣傳片中聽到了自己的聲音,但這段配音并不是他錄制的,該視頻的轉(zhuǎn)發(fā)量當(dāng)時(shí)已達(dá)2800多次。
面對武揚(yáng)的質(zhì)問,對方承認(rèn)了他們利用AI克隆武揚(yáng)聲音的事實(shí),但拒絕武揚(yáng)提出公開道歉的要求,聲稱該克隆聲音由第三方公司提供,他們沒有直接責(zé)任,僅愿意支付5000元來進(jìn)行賠償。武揚(yáng)拒絕了這個(gè)條件,他擔(dān)心這筆錢被當(dāng)成了授權(quán)費(fèi),更怕妥協(xié)后侵權(quán)會(huì)變本加厲。

與武揚(yáng)的情況類似,另一位配音演員浩洋的維權(quán)也陷入了“自證循環(huán)”,侵權(quán)方不僅拒絕承認(rèn)對浩洋聲音克隆侵權(quán),還試圖采取拖延的方式蒙混過關(guān)。浩洋告訴記者,從今年年初開始,他已遭遇多次被侵權(quán),而他的遭遇在配音行業(yè)也并非個(gè)例。
當(dāng)被濫用的AI技術(shù)成為侵權(quán)行為的掩護(hù),合作一次就能無限克隆。目前,武揚(yáng)已經(jīng)收集了相關(guān)的證據(jù),準(zhǔn)備走法律程序起訴侵權(quán)方。
一鍵盜聲僅需十幾秒
最大隱患是被詐騙分子利用
那么,AI克隆聲音是如何實(shí)現(xiàn)以假亂真的?又是誰在為“盜取聲音”而推波助瀾?
記者調(diào)查發(fā)現(xiàn),在網(wǎng)絡(luò)平臺(tái)上,以“聲音克隆”為關(guān)鍵詞進(jìn)行搜索,能輕易找到大量相關(guān)教程視頻和軟件下載信息。部分博主不僅詳細(xì)演示操作過程,還直接提供軟件資源。

網(wǎng)絡(luò)安全專家潘季明介紹,基于開源的語音大模型,只需一段清晰的語音樣本,任何人的聲音都可能在極短時(shí)間內(nèi)被克隆,并能被操縱說出攻擊者設(shè)定的任意內(nèi)容。
潘季明表示,除了侵犯聲音權(quán)等合法權(quán)益,AI克隆聲音目前最大的隱患是被詐騙分子利用,一旦與AI換臉等技術(shù)結(jié)合,生成高度逼真的“數(shù)字人”實(shí)施詐騙,危害將非常嚴(yán)重。潘季明建議,目前相關(guān)的技術(shù)要從源頭進(jìn)行相應(yīng)限制,在開源過程中需對代碼的使用時(shí)長、應(yīng)用場景等做具體限制。
民法典:未經(jīng)許可
使用或授權(quán)他人使用AI合成聲音屬侵權(quán)
從“一聽就假”到“真假難辨”,AI克隆技術(shù)的濫用不僅嚴(yán)重侵犯了當(dāng)事者的權(quán)益,而且還涉嫌違法違規(guī)。
據(jù)法律專家介紹,我國民法典將人格權(quán)獨(dú)立成編,首次以立法形式將保護(hù)“聲音”寫入其中,在第1023條中明確,對自然人聲音的保護(hù),參照適用肖像權(quán)保護(hù)的有關(guān)規(guī)定。
北航法學(xué)院副教授趙精武指出,若AI合成聲音能讓公眾憑音色、風(fēng)格關(guān)聯(lián)到特定自然人,即具法律可識(shí)別性,可構(gòu)成侵權(quán)。他還表示,任何自然人聲音均應(yīng)受法律保護(hù),錄音制品授權(quán)不等同于對聲音AI克隆授權(quán),未經(jīng)許可使用或授權(quán)他人使用權(quán)利人的聲音均屬侵權(quán)。

平臺(tái)應(yīng)履行監(jiān)管責(zé)任
多部門聯(lián)合整治AI克隆聲音亂象
針對目前網(wǎng)絡(luò)上AI克隆聲音的相關(guān)內(nèi)容被大量傳播,平臺(tái)是否也應(yīng)承擔(dān)相應(yīng)責(zé)任?此類亂象該如何治理?
專家建議,針對濫用AI克隆聲音的亂象,平臺(tái)層面要切實(shí)履行監(jiān)管責(zé)任,建立健全對AI聲音的審核和侵權(quán)舉報(bào)機(jī)制,及時(shí)發(fā)現(xiàn)和攔截侵權(quán)、虛假、違法等不良內(nèi)容。

今年3月,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》,將于2025年9月1日起施行,其中明確了服務(wù)提供者應(yīng)當(dāng)對文本、音頻、圖片、視頻、虛擬場景等生成合成內(nèi)容添加顯式標(biāo)識(shí)等。
另外,中央網(wǎng)信辦近日在全國范圍內(nèi)部署開展“清朗·整治AI技術(shù)濫用”專項(xiàng)行動(dòng),將強(qiáng)化AI技術(shù)源頭治理,清理整治違規(guī)AI應(yīng)用程序,推動(dòng)網(wǎng)站平臺(tái)提升檢測鑒偽能力等。
據(jù)央視新聞
編輯:陳翠
責(zé)任編輯:余鳳
編審:吳山冠
0