[新聞] OpenAI認了「人聲複製新工具」太危險 

看板C_Chat作者 (神靈幻想)時間1月前 (2024/04/01 14:53), 編輯推噓41(41039)
留言80則, 55人參與, 1月前最新討論串1/1
OpenAI認了「人聲複製新工具」太危險 不宜全面開放 美國人工智慧開發公司OpenAI於3月29日公布語音AI工具「Voice Engine」,只需要短短15 秒的說話聲音樣本,就能複製出此人聲音。不過,該公司也認定這項語音複製工具風險太大 ,不適合全面發布。 「Voice Engine」於2022年首次研發,初始版本被使用在ChatGPT內建文字轉語音功能。其 生成結果不受聲音樣本語種限制,若說的是英文,這項技術可使用你的聲音,生成西班牙語 、法語等其他語言結果。不過,考量到存在濫用風險,現階段僅提供合作夥伴使用,尚未對 外開放。 《衛報》報導,OpenAI延遲推出「Voice Engine」,是為了在至關重要的全球大選年,最大 限度地減少假消息出現的可能性。 OpenAI在一篇貼文中表示,目前「Voice Engine」的生成結果都有浮水印,以利追蹤生成式 音檔的來源。與合作夥伴的使用條款也規定,必須取得原始說話者的明確知情同意,更不允 許開發人員讓個人用戶自行創造聲音檔案。 OpenAI表示,「目前選擇預覽而非廣泛發布這項技術」,是為了強化社會面對「更具說服力 的生成式模型」的能力,呼籲逐步淘汰語音認證,作為登入銀行帳戶或其他敏感資訊的安全 措施,制定在AI領域使用個人聲音的保護政策,以及推廣理解AI能力與限制、包括欺騙性內 容的公眾教育。 OpenAI寫道,「我們希望針對負責任地使用合成聲音,以及社會如何適應這些新功能,展開 一場對話」,並且根據對話結果及小規模測試,對於是否、如何大規模使用這項技術,做出 更明智的決定。 https://www.ettoday.net/news/20240401/2710876.htm https://i.imgur.com/C2dZ1S5.jpg
阿笠博士的黑科技變聲蝴蝶結終於實現了 蝴蝶結現場收音15秒就能複製命案現場任何人的聲音 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.114 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1711954429.A.CB5.html

04/01 14:56, 1月前 , 1F
以後用ai製造不在場證明
04/01 14:56, 1F

04/01 14:56, 1月前 , 2F
講電話之前都要先對口令了嗎XD
04/01 14:56, 2F

04/01 14:57, 1月前 , 3F
現在才認太危險
04/01 14:57, 3F

04/01 14:57, 1月前 , 4F
這openAI產出的東西大家倒是很一致的認為只會更促成混
04/01 14:57, 4F

04/01 14:57, 1月前 , 5F
亂和陰謀論而已
04/01 14:57, 5F

04/01 14:58, 1月前 , 6F
網路上的東西已經很假了,再來就完全都是假的了
04/01 14:58, 6F

04/01 14:58, 1月前 , 7F
Openai 觀點一直都是太危險不開放啊 然後變成closeai
04/01 14:58, 7F

04/01 14:58, 1月前 , 8F
複製總統的聲音就好玩了
04/01 14:58, 8F

04/01 14:58, 1月前 , 9F
要是生出一堆仿希特勒演講 歐美一定暴怒
04/01 14:58, 9F

04/01 14:58, 1月前 , 10F
以後錄音證據不一定為證 搭配上影像AI生成 應該可以期待無
04/01 14:58, 10F

04/01 14:58, 1月前 , 11F
中生有的紀錄片
04/01 14:58, 11F

04/01 14:59, 1月前 , 12F
詐騙新手段
04/01 14:59, 12F

04/01 14:59, 1月前 , 13F
今天openai 說覺得新東西不危險才是新聞
04/01 14:59, 13F

04/01 14:59, 1月前 , 14F
YT美國總統同樂玩遊戲的影片不曉得有沒有上百支了
04/01 14:59, 14F

04/01 15:01, 1月前 , 15F
以後聲紋驗證要走入歷史了
04/01 15:01, 15F

04/01 15:02, 1月前 , 16F
聲紋比圖畫AI可怕多了
04/01 15:02, 16F

04/01 15:02, 1月前 , 17F
這個聲紋也一樣?
04/01 15:02, 17F

04/01 15:02, 1月前 , 18F
一些機密東西不能再用聲紋認證
04/01 15:02, 18F

04/01 15:03, 1月前 , 19F
某些武器授權之類的
04/01 15:03, 19F

04/01 15:03, 1月前 , 20F
openai有不危險的東西嗎?
04/01 15:03, 20F

04/01 15:04, 1月前 , 21F
....假道學
04/01 15:04, 21F

04/01 15:04, 1月前 , 22F
AI危險的東西以後只會更多
04/01 15:04, 22F

04/01 15:05, 1月前 , 23F
假新聞假影片,以後不會再出現網紅小雞這種低能案例了
04/01 15:05, 23F

04/01 15:05, 1月前 , 24F
要造假騙流量將會非常容易
04/01 15:05, 24F

04/01 15:06, 1月前 , 25F
講一大堆 結果還不是探社會底線 跟之前一樣...
04/01 15:06, 25F

04/01 15:06, 1月前 , 26F
不可能任務出現過
04/01 15:06, 26F

04/01 15:07, 1月前 , 27F
詐騙行業將會變得更發達
04/01 15:07, 27F

04/01 15:08, 1月前 , 28F
詐騙業要起飛了
04/01 15:08, 28F

04/01 15:10, 1月前 , 29F
這東西早就有了,GitHub隨便找鬥一堆
04/01 15:10, 29F

04/01 15:12, 1月前 , 30F
closeai
04/01 15:12, 30F

04/01 15:13, 1月前 , 31F
這不是什麼openai 的產品很危險,也跟任何特定企業無關
04/01 15:13, 31F

04/01 15:13, 1月前 , 32F
,而是ai 的技術持續發展,社會就勢必要面對的問題,就
04/01 15:13, 32F

04/01 15:13, 1月前 , 33F
算openai 不開發,也會有其他人做出來
04/01 15:13, 33F

04/01 15:14, 1月前 , 34F
反正弄出來先投入詐騙就對了
04/01 15:14, 34F

04/01 15:15, 1月前 , 35F
技術發展的速度遠快於社會適應的能力
04/01 15:15, 35F

04/01 15:15, 1月前 , 36F
詐騙星球
04/01 15:15, 36F

04/01 15:16, 1月前 , 37F
AI 圖和假影片還算容易區別,人聲置換真的沒那麼容易分
04/01 15:16, 37F

04/01 15:16, 1月前 , 38F
歹丸第一個先投入
04/01 15:16, 38F

04/01 15:18, 1月前 , 39F
其他公司要辦到像openai的程度應該是很難啦
04/01 15:18, 39F

04/01 15:18, 1月前 , 40F
學習資料庫夠多 一定分不出來 隔壁最大聲紋庫有幾十年
04/01 15:18, 40F

04/01 15:18, 1月前 , 41F
樣本老素都ai了
04/01 15:18, 41F

04/01 15:19, 1月前 , 42F
AI做假影片+聲音,以後要抓罪犯更難了...
04/01 15:19, 42F

04/01 15:19, 1月前 , 43F
AI就是在軍備競賽,規模不夠大的玩不起
04/01 15:19, 43F

04/01 15:20, 1月前 , 44F
夠大的公司在訓練效率上是翻倍來計算的
04/01 15:20, 44F

04/01 15:21, 1月前 , 45F
以後做人要謹言慎行做好大谷一般的形象,不然AI幫你
04/01 15:21, 45F

04/01 15:21, 1月前 , 46F
放話你就社死了,每個人都覺得你賤嘴這話肯定是你說
04/01 15:21, 46F

04/01 15:21, 1月前 , 47F
04/01 15:21, 47F

04/01 15:22, 1月前 , 48F
柯南都是真的
04/01 15:22, 48F

04/01 15:24, 1月前 , 49F
AI Koyo的人聲合成不是玩好一陣子了XDDD
04/01 15:24, 49F

04/01 15:24, 1月前 , 50F
以後用AI做講影像配聲音就麻煩了
04/01 15:24, 50F

04/01 15:27, 1月前 , 51F
不可能的任務
04/01 15:27, 51F

04/01 15:29, 1月前 , 52F
二次元在吵繪圖AI會不會搶工作 三次元那些換臉 換身
04/01 15:29, 52F

04/01 15:29, 1月前 , 53F
人聲AI是實實在在侵害名人的...
04/01 15:29, 53F

04/01 15:30, 1月前 , 54F
以後就算有人要謹言慎行做好形象,用AI的照樣給你社死
04/01 15:30, 54F

04/01 15:31, 1月前 , 55F
想到之前水原那事 假如有人用大谷的聲音跟形象去做假影
04/01 15:31, 55F

04/01 15:31, 1月前 , 56F
片...
04/01 15:31, 56F

04/01 15:31, 1月前 , 57F
一開始就是以社死特定人物當目標的哪會在乎目標原本的形
04/01 15:31, 57F

04/01 15:31, 1月前 , 58F
象如何啊?
04/01 15:31, 58F

04/01 15:33, 1月前 , 59F
用AI量產假聲明進行海量抹黑就可以讓當事人闢謠跑斷腿了
04/01 15:33, 59F

04/01 15:35, 1月前 , 60F
某甩蔥軟體躲過一劫
04/01 15:35, 60F

04/01 15:39, 1月前 , 61F
不可能任務3真實上演
04/01 15:39, 61F

04/01 15:51, 1月前 , 62F
網路上早就有類似的東西了,只是好不好用不清楚
04/01 15:51, 62F

04/01 15:58, 1月前 , 63F
什麼謹言慎行 以後要像麻椅那種賴皮不怕黑的才能活的久
04/01 15:58, 63F

04/01 16:03, 1月前 , 64F
想不到這黑科技是真的
04/01 16:03, 64F

04/01 16:05, 1月前 , 65F
AI圖片影像也很危險拉 弄成照片影片也是越來越精細
04/01 16:05, 65F

04/01 16:06, 1月前 , 66F
AI主要功用
04/01 16:06, 66F

04/01 16:22, 1月前 , 67F
現在有喔 要小心 接電話沒出聲收你的聲音去複製
04/01 16:22, 67F

04/01 16:32, 1月前 , 68F
類似的AI模擬原音在YT已經很多了,而且很像
04/01 16:32, 68F

04/01 16:41, 1月前 , 69F
光市面上的語音模擬+deepfake 就生出一堆冒用名人的投
04/01 16:41, 69F

04/01 16:41, 1月前 , 70F
資詐騙了
04/01 16:41, 70F

04/01 17:14, 1月前 , 71F
不可能的科技
04/01 17:14, 71F

04/01 17:25, 1月前 , 72F
求救 有沒有對身體其他部位無害的變啞巴方法
04/01 17:25, 72F

04/01 17:47, 1月前 , 73F
我媽如果打給我 要錢 我一定上當…
04/01 17:47, 73F

04/01 17:49, 1月前 , 74F
人聲AI就算沒OpenAI拿出來也好一陣子了,只是訓練成本高
04/01 17:49, 74F

04/01 17:50, 1月前 , 75F
詐騙集團又更厲害了
04/01 17:50, 75F

04/01 17:56, 1月前 , 76F
仿家人詐騙的話,跟自己家講好你們才知道的暗號是最簡單的
04/01 17:56, 76F

04/01 19:13, 1月前 , 77F
中國平台一堆了
04/01 19:13, 77F

04/01 19:31, 1月前 , 78F
只要15秒的資料就夠了,真的猛
04/01 19:31, 78F

04/01 22:07, 1月前 , 79F
fakeface+這個.....
04/01 22:07, 79F

04/02 17:49, 1月前 , 80F
在搞下去人類啥都不信了
04/02 17:49, 80F
文章代碼(AID): #1c2bdzor (C_Chat)