Re: [新聞] OpenAI認了「人聲複製新工具」太危險

看板Gossiping作者 (妹)時間1月前 (2024/04/01 21:19), 1月前編輯推噓7(7047)
留言54則, 9人參與, 1月前最新討論串3/3 (看更多)
應該是說 這個工具根本沒有開發的必要 人的聲音 是一個人的個人隱私 模仿別人的聲音來創作 請問有經過那個人的同意嗎? 沒有的話那模仿他的聲音目的是什麼? 這個產品既沒有娛樂用途也沒有實際正面的用途 根本沒有必要開發 ※ 引述《Israfil (贖罪聖音)》之銘言: : OpenAI認了「人聲複製新工具」太危險 不宜全面開放 : 許開發人員讓個人用戶自行創造聲音檔案。 : OpenAI表示,「目前選擇預覽而非廣泛發布這項技術」,是為了強化社會面對「更具說服力 : 的生成式模型」的能力,呼籲逐步淘汰語音認證,作為登入銀行帳戶或其他敏感資訊的安全 : 措施,制定在AI領域使用個人聲音的保護政策,以及推廣理解AI能力與限制、包括欺騙性內 : 容的公眾教育。 : OpenAI寫道,「我們希望針對負責任地使用合成聲音,以及社會如何適應這些新功能,展開 : 一場對話」,並且根據對話結果及小規模測試,對於是否、如何大規模使用這項技術,做出 : 更明智的決定。 : 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體: : https://www.ettoday.net/news/20240401/2710876.htm : 6.備註: : o'-'o -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 58.114.217.107 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1711977576.A.A91.html

04/01 21:19, 1月前 , 1F
霹靂布袋戲因該很想拿去模仿黃文擇QQ
04/01 21:19, 1F
玩兩下就丟了 垃圾

04/01 21:23, 1月前 , 2F
這個其實蠻有用的
04/01 21:23, 2F

04/01 21:23, 1月前 , 3F
以後資料夠多 親人可以永世不死捏
04/01 21:23, 3F
那個聲音並不是親人

04/01 21:26, 1月前 , 4F

04/01 21:26, 1月前 , 5F

04/01 21:27, 1月前 , 6F
有些東西 對你而言不是家人的聲音 但是
04/01 21:27, 6F

04/01 21:27, 1月前 , 7F
也許是別人的思念qq 人很傻但沒辦法
04/01 21:27, 7F

04/01 21:28, 1月前 , 8F
只是這科技 真的也很危險就是了
04/01 21:28, 8F
沒有人會白痴到一天到晚播死去的人的錄音

04/01 21:35, 1月前 , 9F
尼就不是客群而已
04/01 21:35, 9F

04/01 21:36, 1月前 , 10F
那只是中間一個過程,AI最終就是一個虛擬
04/01 21:36, 10F

04/01 21:37, 1月前 , 11F
的角色,可以生存在認知環境裡。例如有人
04/01 21:37, 11F
別人的聲紋是一個人格權 就像別人寫的書著作的同時就享有著作權 沒有經過他人同意擅自使用就是侵權 ※ 編輯: gyGirl (58.114.217.107 臺灣), 04/01/2024 21:39:35

04/01 21:37, 1月前 , 12F
覺得siri就夠他用了。有人想拚極限,拚到
04/01 21:37, 12F

04/01 21:37, 1月前 , 13F
和真人沒兩樣的角色。siri當神的人,去否
04/01 21:37, 13F

04/01 21:38, 1月前 , 14F
定也沒意義,因為這東西就不是給這類人用
04/01 21:38, 14F

04/01 21:38, 1月前 , 15F
,當然世界進步下,未來siri也會應用相關
04/01 21:38, 15F

04/01 21:39, 1月前 , 16F
技術上去,這時這類人還是會講我的siri特
04/01 21:39, 16F

04/01 21:39, 1月前 , 17F
別強大,和AI一樣強。嗯
04/01 21:39, 17F

04/01 21:40, 1月前 , 18F
所以最終的技術就是由AI自己拼湊。你口中
04/01 21:40, 18F

04/01 21:40, 1月前 , 19F
的聲紋會不存在,有空去理解一下生成式圖
04/01 21:40, 19F

04/01 21:40, 1月前 , 20F
像,不懂的人,回說這是拼湊出來的圖片。
04/01 21:40, 20F

04/01 21:41, 1月前 , 21F
這複製聲音的技術,只是學習過程中產生的
04/01 21:41, 21F

04/01 21:41, 1月前 , 22F
一個副產物罷了。
04/01 21:41, 22F

04/01 21:41, 1月前 , 23F
說拼湊也不對,就像小孩牙牙學語一樣,小
04/01 21:41, 23F

04/01 21:42, 1月前 , 24F
還學會你的口癖,這會算著作權嗎?資料量
04/01 21:42, 24F

04/01 21:42, 1月前 , 25F
不足才會出現"模仿"的問題。資料量夠大,
04/01 21:42, 25F

04/01 21:43, 1月前 , 26F
那AI是直接用AI資料庫整理的資訊,編織一
04/01 21:43, 26F

04/01 21:43, 1月前 , 27F
段你需要的言語,裡面可能有學過各種歌星
04/01 21:43, 27F

04/01 21:43, 1月前 , 28F
的發音技巧,但不會單屬於"誰的"。
04/01 21:43, 28F

04/01 21:43, 1月前 , 29F
這也就是一些人在吵,為何AI沒有著作權。
04/01 21:43, 29F

04/01 22:00, 1月前 , 30F
我和你說一下,我對AI的理解。AI就是一個
04/01 22:00, 30F

04/01 22:00, 1月前 , 31F
懂語言的小孩。所以你教這小孩,他能給你
04/01 22:00, 31F

04/01 22:01, 1月前 , 32F
足夠的回饋。你才會認為他在模仿你,你才
04/01 22:01, 32F

04/01 22:01, 1月前 , 33F
會吵,這東西有著作權。
04/01 22:01, 33F

04/01 22:01, 1月前 , 34F
但當這小孩訓練得當,他就有足夠的能力去
04/01 22:01, 34F

04/01 22:02, 1月前 , 35F
但現實狀況就是無法阻止它資料庫被
04/01 22:02, 35F

04/01 22:02, 1月前 , 36F
餵單一人物的聲音 侵犯到歌手權益
04/01 22:02, 36F

04/01 22:02, 1月前 , 37F
創作。但因為AI沒人格權,不是自然人。所
04/01 22:02, 37F

04/01 22:02, 1月前 , 38F
以AI創作出來的東西都"不被承認"。因為AI
04/01 22:02, 38F

04/01 22:03, 1月前 , 39F
可以模仿任何的東西。
04/01 22:03, 39F

04/01 22:03, 1月前 , 40F
這時又有其他問題,聲紋是各種發音語調產
04/01 22:03, 40F

04/01 22:04, 1月前 , 41F
生出來的,那同樣的聲音,不同的AI這樣你
04/01 22:04, 41F

04/01 22:04, 1月前 , 42F
很難主張著作權,因為你沒"著作過"。你看
04/01 22:04, 42F

04/01 22:04, 1月前 , 43F
應用,他可以用這聲音模仿各種語言,直接
04/01 22:04, 43F

04/01 22:05, 1月前 , 44F
翻譯,就像你沒從頭到尾沒說過印度文,那
04/01 22:05, 44F

04/01 22:05, 1月前 , 45F
自然不存在你的聲紋,這時你要怎主張著作
04/01 22:05, 45F

04/01 22:06, 1月前 , 46F
權。如果AI有著作權,到時反而變成你侵犯
04/01 22:06, 46F

04/01 22:06, 1月前 , 47F
到AI著作權,這就好玩了,呵呵
04/01 22:06, 47F

04/01 22:12, 1月前 , 48F
但是OpenAI不搞,別人也會搞出來
04/01 22:12, 48F

04/01 22:13, 1月前 , 49F
柯南的變聲蝴蝶結表示
04/01 22:13, 49F

04/01 23:00, 1月前 , 50F
認同你
04/01 23:00, 50F

04/01 23:15, 1月前 , 51F
如果每個人 可以永遠都那麼理智的話qq
04/01 23:15, 51F

04/02 08:52, 1月前 , 52F
怎麼沒有實際用途 盲人的文字轉語音啊
04/02 08:52, 52F

04/02 08:53, 1月前 , 53F
copy只是ai功能的一部份 大量學習可以
04/02 08:53, 53F

04/02 08:54, 1月前 , 54F
生成啊 誰說一定要copy某個人的聲音
04/02 08:54, 54F
文章代碼(AID): #1c2hHegH (Gossiping)
文章代碼(AID): #1c2hHegH (Gossiping)