[討論] 聲優有可能被AI合成軟體取代嗎?已回收

看板C_Chat作者 (extemjin)時間8年前 (2017/08/21 00:47), 8年前編輯推噓38(38055)
留言93則, 38人參與, 最新討論串1/7 (看更多)
聲優也是人,會老會死會生病,一但該聲優消失, 該角色的韻味可能就不復存在,甚至連帶影響該作品的後續。 想像一下池田跟古谷兩人如果都不在的話, 整個UC0079系列的重製計畫就會出了大問題。 這種情況業界通常都是請聲音與演技接近的聲優來接棒, 這是以前的唯一選擇,但現在近10年的電腦科技力就不一樣了, 實際上我們實際聽到的動畫的聲音,幾乎全部都是有調整與合成過的, 嚴格來講也不是聲優本人100%的原音。 電腦硬體成熟的今天,理論上應該要有能夠完美變聲的軟體存在, 可是卻發現人聲變聲的研究跟軟體一二十年來沒有大的成長? 手機也有許多變聲器,但是要能夠像柯南的蝴蝶結那樣完美的變聲目標, 似乎還很早。 目前找到的幾乎 90% 專業與非專業的音效、變聲軟體, 在人類變聲的處理上都還是用基本的傅立葉轉換、歐拉轉換, 還有一些基本的波函,進行純數學上的變換而已。 (包含青鳥、琴音等知名軟體) 人類的發音音域極廣,打個比方,林原めぐみ一人就可以飾演 正太、少年、少女、蘿莉、老婆婆、貓娘,甚至是大叔! (亂馬(女)曾經模仿過他老爸的一句話) 傳統數學轉換的變聲沒辦法對一個目標人物的聲音模仿的這麼徹底。 如果是電影工作室的話,要把任意A先生完全變成B小姐的聲音不是做不到, 只是跟3D CG一樣要花上大筆的製作成本,因為聲音的調整也是極其麻煩的人工作業。 現在不知道有沒有有沒有人想到利用AI來完成變聲的研究? 利用AI分析目標聲音,利用AI來動態的調整與合成聲音, 而不是已往單純的數學轉換。 假如這部分軟體真的成熟了,那柯南的蝴蝶結就可以實體化了。 要是有蝴蝶結...第一件事情就是唱庫洛的白金... -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.43.110.240 ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1503247679.A.4DC.html

08/21 00:49, , 1F
我小時候聖誕節抽獎就是柯南變聲器 一個奇怪的玩具
08/21 00:49, 1F

08/21 00:49, , 2F
現在聲優不只聲音,還要會唱會跳
08/21 00:49, 2F

08/21 00:49, , 3F
我小時候聖誕節抽獎就是一個奇怪的玩具
08/21 00:49, 3F

08/21 00:52, , 4F
那玩具會震動嗎
08/21 00:52, 4F

08/21 00:53, , 5F
我小時候就是一個奇怪的玩具
08/21 00:53, 5F

08/21 00:53, , 6F
粉紅色的棒狀物,還有開關可以控制震動
08/21 00:53, 6F

08/21 00:54, , 7F
我就是一個奇怪的玩具
08/21 00:54, 7F

08/21 00:57, , 8F
這推文是啥小
08/21 00:57, 8F

08/21 00:58, , 9F
真歪
08/21 00:58, 9F

08/21 00:59, , 10F
推文是嗑了甚麼
08/21 00:59, 10F

08/21 00:59, , 11F
其實看你這內文 滿好奇是不是沒看過聲優現場耶
08/21 00:59, 11F
林原慧來台的時候有去過現場。

08/21 00:59, , 12F
期待看到全vocaloid配音的商業動畫
08/21 00:59, 12F

08/21 00:59, , 13F
我是個奇怪的玩具
08/21 00:59, 13F
奇怪..推文是三小梗? 我看不懂...

08/21 01:01, , 14F
至少目前合成音技術還不太夠
08/21 01:01, 14F

08/21 01:02, , 15F
而且以日本市場來說,會少一些賣點
08/21 01:02, 15F

08/21 01:06, , 16F
已經可以了 看過英文的
08/21 01:06, 16F
※ 編輯: extemjin (114.43.110.240), 08/21/2017 01:07:14

08/21 01:08, , 17F
現在聲優拼了命在推偶像化阿 美國則是明星化
08/21 01:08, 17F

08/21 01:08, , 18F
唱唱歌還行其他動畫電影光調那聲音聲調就不符合時間成
08/21 01:08, 18F

08/21 01:08, , 19F
本了 一個禮拜要趕出十幾個人臺詞太爆肝了
08/21 01:08, 19F

08/21 01:08, , 20F
找特定超磁性來配遊戲變成賣點
08/21 01:08, 20F

08/21 01:09, , 21F
acapela
08/21 01:09, 21F

08/21 01:13, , 22F
科技辦得到也不會有人去做吧?運動員和演藝事業大家
08/21 01:13, 22F

08/21 01:13, , 23F
都是寧可看人類表現,沒人想看機器表現
08/21 01:13, 23F
要是有商業價值就另當別論了。 假設有這麼一樣工具可以自動化的把任意A的聲音變成目標B, 試想在遊戲、動畫上會省下多大的人事成本? 甚至把聲音虛擬化,虛擬成目標人物。 連個人都可以使用這種工具的時候,這工具軟體本身價值有多大?

08/21 01:15, , 24F
有人用機器學習的概念寫歌啊,只是目前只能寫好玩
08/21 01:15, 24F

08/21 01:17, , 25F
初音不過是個軟體 還不是有人聽她唱歌
08/21 01:17, 25F

08/21 01:17, , 26F
聲音買來當秘書的話 應該會很多人感興趣吧
08/21 01:17, 26F

08/21 01:17, , 27F
部份聲優被取代是遲早會發生的
08/21 01:17, 27F

08/21 01:18, , 28F
現在就有很多用軟體發聲來實況遊戲的影片了
08/21 01:18, 28F

08/21 01:19, , 29F
技術更成熟更便宜之後 低成本的動畫改用AI當然有可能
08/21 01:19, 29F

08/21 01:19, , 30F
有的話。也是霹靂會先用XD
08/21 01:19, 30F

08/21 01:24, , 31F
有在賣了啊 保存聲音 上面那個就是公司網站名稱
08/21 01:24, 31F
※ 編輯: extemjin (114.43.110.240), 08/21/2017 01:25:47

08/21 01:28, , 32F
這樣獨立製作的HGame都能有配音了
08/21 01:28, 32F

08/21 01:38, , 33F
會取代一部份但不會完全取代
08/21 01:38, 33F

08/21 01:39, , 34F
就像樂器演奏好像就只是樂器而已但人還是會尋求演奏者
08/21 01:39, 34F
還有 22 則推文
08/21 03:24, , 57F
偽裝。不過其實我強烈懷疑這東西是博士在20幾年前發明
08/21 03:24, 57F

08/21 03:24, , 58F
出來的。我只能說這麼多了,其他的你就自己去Google吧
08/21 03:24, 58F

08/21 03:24, , 59F
08/21 03:24, 59F
三小?

08/21 06:15, , 60F
樓上慘
08/21 06:15, 60F

08/21 07:03, , 61F
商品就算了,什麼叫連研究都一二十年沒有「打成長」
08/21 07:03, 61F

08/21 07:03, , 62F
你蒙心自問看這種東西你要花幾個一二十年才做得出來?
08/21 07:03, 62F

08/21 07:03, , 63F
早在AU1.0就可以這樣玩了好嗎...,差別他多了語音辨識跟語音合成。 單純像影片中那樣語音辨識+合成+剪接的功能的話,用現有的函式庫+連線到菇狗 ,我個人全職的做大概一兩個月可以搞出個基本的。 而且你大概沒搞清楚我本文講的是甚麼樣的東西。

08/21 08:12, , 64F
什麼時候要出初音動畫
08/21 08:12, 64F

08/21 08:18, , 65F
感覺會出現變聲詐騙
08/21 08:18, 65F

08/21 08:30, , 66F
藤田會被軟體取代
08/21 08:30, 66F

08/21 09:35, , 67F
聲優難取代的點在演技,又不在多種聲音...
08/21 09:35, 67F

08/21 09:35, , 68F
問聲優前不如先問電腦合成音樂這麼容易怎麼現在還有演奏家?
08/21 09:35, 68F
※ 編輯: extemjin (114.43.110.240), 08/21/2017 10:19:15

08/21 11:47, , 69F
不會 原因是聲優偶像化 更無法被機器取代
08/21 11:47, 69F

08/21 13:47, , 70F
你可能沒搞懂類神經網路模擬的人聲跟傳統的vocal synthesis
08/21 13:47, 70F

08/21 13:47, , 71F
差在哪裏
08/21 13:47, 71F

08/21 13:47, , 72F
AI是從取樣點開始從零開始建構聲音波形,而不是像VOCALOID
08/21 13:47, 72F

08/21 13:48, , 73F
或者Google小姐用你說的Audition1.0那種拿syllable片段樣本
08/21 13:48, 73F

08/21 13:48, , 74F
重新拼接的語音合成技術。
08/21 13:48, 74F

08/21 13:48, , 75F
聲音AI不需要一二十年前的技術把一整台鋼琴的每個音數位化
08/21 13:48, 75F

08/21 13:48, , 76F
然後弄成MIDI庫再按照樂譜重新合成
08/21 13:48, 76F

08/21 13:48, , 77F
而是直接輸入一段鋼琴在演奏,然後據此從零開始模擬「這台
08/21 13:48, 77F

08/21 13:48, , 78F
鋼琴聽起來長什麼樣子」的聲波。
08/21 13:48, 78F

08/21 13:48, , 79F
語音也是一樣,這個人講話的音色怎麼樣,習慣在哪幾個點停
08/21 13:48, 79F

08/21 13:48, , 80F
頓,哪些音有獨特的發音,全部從零開始自動建構起來。
08/21 13:48, 80F

08/21 13:48, , 81F
這種手法相較傳統語音合成,解決的就僅僅是你以為的語音合
08/21 13:48, 81F

08/21 13:48, , 82F
成技術最大的問題:「沒辦法重建說話者的個人特色。」而已
08/21 13:48, 82F

08/21 13:48, , 83F
08/21 13:48, 83F

08/21 13:56, , 84F
有啊google小姐就有幫狂新聞配音
08/21 13:56, 84F

08/21 13:57, , 85F
VoCo展示的就是這種技術,他使用預先train好的通用模型到現
08/21 13:57, 85F

08/21 13:57, , 86F
場收錄一堆新的聲音樣本,用黑人先生的樣本retrain模型
08/21 13:57, 86F

08/21 13:57, , 87F
然後輸入文字即時轉換為符合聲音樣本特色的語音
08/21 13:57, 87F

08/21 13:58, , 88F
你的柯南蝴蝶結只需要在這套模組前端加一個 adaptor語音轉
08/21 13:58, 88F

08/21 13:58, , 89F
文字,或者直接重新建構採用原因作為輸入的模型就完成了。
08/21 13:58, 89F

08/21 13:58, , 90F
至於商品化?去年的demo,這幾年內應該就會看到初期產品了
08/21 13:58, 90F

08/21 13:58, , 91F
08/21 13:58, 91F

08/21 17:56, , 92F
現實活動無法取代
08/21 17:56, 92F

08/23 14:03, , 93F
用deep learning下去train不知道可不可以成功
08/23 14:03, 93F
文章代碼(AID): #1PcRq_JS (C_Chat)
討論串 (同標題文章)
文章代碼(AID): #1PcRq_JS (C_Chat)