你的克隆聲音聽起來比本尊更值得信賴

講電話

人工智慧的崛起帶來了新的挑戰,而AI克隆聲音就是其中之一。 外國科學期刊 PLOS ONE 上發表的一項研究,揭露一個令人擔憂的結論:當人工智慧生成的聲音與聽者本人相似時,會更被信賴和喜歡,這將對深偽和針對性操縱的AI影音傳播產生了嚴重影響。

該研究由 Oliver Jaggy、Stephan Schwan 和 Hauke S. Meyerhoff 領導,探索了人工智慧語音相似性與人類感知之間的關係。研究人員利用尖端的說話人驗證系統來分析和量化人類聲音的細微差別,用人工智慧演算法及聲音特徵的數位表徵創建了「聲紋」。

相似性偏見

這項研究包括一系列線上實驗,來評估個人如何感知和評價不同的聲音。參與者被要求對各種聲音的相似度、喜愛度和可信度進行評分,包括自然人類聲音和與他們自己的相似度不同的人工智慧生成的聲音。

研究結果令人吃驚。研究人員發現了明顯的「相似性偏見」,即與聽眾自己的聲音特徵最相似的聲音,始終被評為更值得信賴且被喜愛的。參與者沒有意識到這些聲音是 AI 所產生。

「人們會被能讓他們想起自己的事物所吸引,這種現像也延伸到了聲音領域。聽起來與我們自己的聲音相似,會引發一種熟悉感和信任感,使我們更容易受到影響。」 研究的主要作者 Oliver Jaggy 解釋道。

研究人員還測量了參與者對第三方語音、以及自己語音和第三方語音對的相似性評價,並發現了一個總體趨勢:「當使用自己的聲音作為參考點時,相似的聲音被認為更令人喜歡和更值得信賴」 。深偽(Deepfake) 威脅和有針對性的操縱,有深遠的影響,並有可能造成 AI 生成的操縱。 隨著人工智慧語音克隆技術的日益複雜和普及,人人都可以使用高度逼真的深度偽造產品,並以驚人的準確度模仿個人。

想像一下,你接到一個聽似熟悉的聲音打來的電話或語音留言——可能是朋友、家人,甚至是公眾人物——要求你提供錢財,或推廣某種事業。這種孰悉的聲音會提升你的信任度,並可能大幅增加惡意詐欺的成功率。如果有心人士根據特定個體的獨特聲音特徵,量身定制克隆聲音,就有可能打造個人化的網路釣魚詐騙、傳播虛假訊息活動,甚至影響政治觀點。

我們迫切需要提高公眾意識和加強監督,減輕與人工智慧語音操縱相關的風險。

首先,必須教育公眾了解語音深度偽造的可能性,以及可能使我們容易受到欺騙的內幕。與此同時,我們也同時開發強大的檢測技術,能夠識別人工智慧生成的聲音,並與自然人類語音區分。

在法律層面,也可能包括要求明確標記人工智慧產生的語音內容,建立語音深度偽造濫用案件的問責法律框架,以及為人工智慧開發人員和內容創作者提供道德準則。

克隆聲音 以假亂真

人工智慧越來越擅長模仿人類聲音中的每一個細微差別,以假亂真並不難。

過去,人工智慧生成的聲音並不像人類的聲音那麼討喜,但現在,Al 可以複製並產出任何人的聲音。

這項研究突顯了人工智慧語音克隆技術的倫理和社會影響。透過提高意識、開發檢測工具和建立適當的法規,我們可以保護自己免受 AI 欺騙和操縱的可能性。擁有批判性思維和適當的懷疑態度,可能比以往任何時候都更加重要。

yaeltaiwan
Author: Kman

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *