司法為治理電商平台AI“聲替”亂象提供規範指引。9月10日,北京互聯網法院發布涉人工智能案件審理情況並通報8起典型案例。
在一起網絡侵權責任糾紛案中,法院認定未經權利人許可使用AI合成的名人聲音用於“帶貨”構成侵權,委托推廣商家應承擔連帶責任。
案情顯示,原告李某某係教育、育兒領域知名人士。2024年,其發現被告某文化傳媒公司在其網絡店鋪中,使用原告的肖像及高度近似的AI合成聲音,對家庭教育類圖書進行宣傳帶貨。該聲音係基於原告公開視頻合成,用於推介被告所售書籍。原告認為,該行為利用其形象、專業影響力誤導消費者,構成對肖像權及聲音權的侵害。被告作為委托方和書籍銷售者,與視頻發布者(帶貨主播)係委托推廣關係,被告對該視頻內容負有審查義務,應共同承擔侵權責任。
法院認為,涉案AI合成聲音與原告音色、語調及發音風格高度一致,結合原告在該領域的知名度,易使公眾產生關聯,該合成聲音屬於原告聲音權益的保護範圍。被告未經授權使用原告肖像和合成聲音製作推廣視頻,構成對原告肖像權及聲音權的侵害。
法院同時認定,被告公司與視頻發布者之間存在委托推廣關係,雙方共同以推介獲利為目的,且被告基於平台規則與管理權限,具備對視頻內容的審核能力。被告對視頻使用原告肖像及高度仿真聲音可能引發的侵權風險應有所預見,並負有審查是否獲授權的義務,但被告未盡到該義務,因此應與視頻發布者承擔連帶侵權責任。
為此,法院判決被告公司賠禮道歉並賠償經濟損失及合理支出,其他訴訟請求駁回。雙方均未上訴,判決已生效。
“隨著生成式人工智能技術的迅猛發展,名人聲音被‘克隆’冒用越來越真假難辨,造成聲音侵權現象泛濫,消費者極易被誤導。”法院在闡述案例典型意義時表示,本案明確,利用AI深度合成技術合成的自然人聲音,隻要能夠使一般社會公眾或相關領域公眾根據其音色、語調、發音風格等識別出特定自然人,即具有可識別性,應納入該自然人聲音權益的保護範圍。同時,在商家委托視頻發布者帶貨的法律關係中,作為委托方和實際獲益者的平台商家,對其關聯達人發布的推廣內容負有合理審查義務,商家不能僅以“被動合作”“未參與製作”為由免責,未盡到審核注意義務的,需與帶貨達人承擔連帶責任,進而為規範電商推廣行為、壓實商家主體責任、治理AI“聲替”亂象提供規範指引,推動人工智能與深度合成技術向上向善發展。