ChatGPT 的創建者表示,語音引擎可以根據 15 秒的音訊樣本複製人的聲音。
OpenAI 宣布推出一款複製人們聲音的工具,但由於擔心該工具可能在關鍵的選舉年被濫用,因此沒有公開。
根據 OpenAI 部落格文章演示該工具,語音引擎可以根據 15 秒的音訊樣本複製人的聲音。
但 ChatGPT 的創建者正在對該技術採取“謹慎和知情的方法”,並在周五發表的一篇部落格文章中表示,他們希望就“負責任地採用合成語音”展開對話。
這家總部位於舊金山的新創公司表示:“我們認識到,製作類似於人們聲音的語音存在嚴重風險,這是一個最令人擔憂的問題,尤其是在選舉年。”
“我們正在與美國和國際政府、媒體、娛樂、教育和民間社會合作夥伴合作,以確保我們在建設過程中吸收他們的反饋。”
我們分享了語音引擎小預覽版的學習結果,該模型使用文字輸入和單個 15 秒音訊樣本來產生與原始說話者非常相似的自然語音。 https://t.co/yLsfGaVtrZ
— OpenAI (@OpenAI) 2024 年 3 月 29 日
OpenAI 表示,將根據測試和公眾討論就大規模部署該技術做出「更明智的決定」。
該公司表示,該技術可確保“原始發言者有意將自己的聲音添加到服務中”,並且如果採取措施防止“創建與知名人士過於相似的聲音”,他補充說,他認為應該滾動該技術只出入
在佔世界人口約一半的國家,人工智慧的濫用已成為今年選舉前的一個主要議題。
2024 年將有 80 多個國家的選民參加投票,這被稱為歷史上規模最大的選舉年,包括墨西哥、南非和美國。
人工智慧對選民的影響已經在幾次選舉中受到密切關注。
巴基斯坦被監禁的前總理伊姆蘭汗 (Imran Khan) 在該國 2 月議會選舉之前利用人工智慧生成的演講向其支持者發出呼籲。
一月份,美國主要總統候選人迪恩·菲利普斯的一名政治特工冒充美國總統喬·拜登發出了機器人電話,敦促選民不要在新罕布夏州民主黨初選中投票。
OpenAI 為測試語音引擎的合作夥伴提供了多項功能,「包括用於追蹤語音引擎產生的音訊來源的浮水印以及主動監控語音引擎的使用方式。」該公司表示已實施安全措施。