[閒聊] AI 配音員有沒有搞頭?已回收
提供海量數據讓 AI 學習,找出模式
AI 依照資料的關聯性捏出常見的組合。
與聲音相比,影像還比聲音多了一個維度(嗎)
已有海量的字幕+配音可以餵給 AI
或是同一個聲優配過的海量資料,
應該也可以用 AI 捏出來,
那麼這個產業有搞頭嗎?
比起繪圖,念念稿容易多了,對吧?
比起繪圖要接案子按客戶的性癖來畫,
選好聲線讓 AI 來配音,容易多了對吧?
不說那些一線動畫,想想那些多如牛毛的免洗手遊,都能有萌萌的語音,
深夜還可以寫稿給AI念給自己聽,這個有沒有稿頭?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.244.156.76 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1675497408.A.898.html
→
02/04 15:57,
2年前
, 1F
02/04 15:57, 1F
噓
02/04 15:58,
2年前
, 2F
02/04 15:58, 2F
推
02/04 15:58,
2年前
, 3F
02/04 15:58, 3F
推
02/04 15:58,
2年前
, 4F
02/04 15:58, 4F
噓
02/04 15:58,
2年前
, 5F
02/04 15:58, 5F
我想像的是有語調的念稿機捏,
不是棒讀捏,
更何況 GOOGLE 小姐的聲音也不是 AI 學出來的,
自然是沒有那些前後文該具備的語調。
不好意思,我沒表達清楚,是用 AI 去學習,講出聽起來「有感情」的話
就好像之前「兩個AI 聊天」的概念,
AI 也不需要理解情緒,只是在那樣的文本應該具備什麼樣的語調
※ 編輯: Wangdy (60.244.156.76 臺灣), 02/04/2023 16:02:20
噓
02/04 15:59,
2年前
, 6F
02/04 15:59, 6F
推
02/04 15:59,
2年前
, 7F
02/04 15:59, 7F
噓
02/04 15:59,
2年前
, 8F
02/04 15:59, 8F
推
02/04 15:59,
2年前
, 9F
02/04 15:59, 9F
推
02/04 15:59,
2年前
, 10F
02/04 15:59, 10F
噓
02/04 16:00,
2年前
, 11F
02/04 16:00, 11F
→
02/04 16:01,
2年前
, 12F
02/04 16:01, 12F
推
02/04 16:01,
2年前
, 13F
02/04 16:01, 13F
→
02/04 16:01,
2年前
, 14F
02/04 16:01, 14F
→
02/04 16:01,
2年前
, 15F
02/04 16:01, 15F
噓
02/04 16:02,
2年前
, 16F
02/04 16:02, 16F
→
02/04 16:02,
2年前
, 17F
02/04 16:02, 17F
→
02/04 16:02,
2年前
, 18F
02/04 16:02, 18F
推
02/04 16:02,
2年前
, 19F
02/04 16:02, 19F
推
02/04 16:02,
2年前
, 20F
02/04 16:02, 20F
→
02/04 16:03,
2年前
, 21F
02/04 16:03, 21F
→
02/04 16:03,
2年前
, 22F
02/04 16:03, 22F
→
02/04 16:03,
2年前
, 23F
02/04 16:03, 23F
→
02/04 16:04,
2年前
, 24F
02/04 16:04, 24F
→
02/04 16:04,
2年前
, 25F
02/04 16:04, 25F
→
02/04 16:04,
2年前
, 26F
02/04 16:04, 26F
推
02/04 16:05,
2年前
, 27F
02/04 16:05, 27F
推
02/04 16:05,
2年前
, 28F
02/04 16:05, 28F
推
02/04 16:05,
2年前
, 29F
02/04 16:05, 29F
→
02/04 16:05,
2年前
, 30F
02/04 16:05, 30F
→
02/04 16:05,
2年前
, 31F
02/04 16:05, 31F
推
02/04 16:05,
2年前
, 32F
02/04 16:05, 32F
→
02/04 16:06,
2年前
, 33F
02/04 16:06, 33F
→
02/04 16:06,
2年前
, 34F
02/04 16:06, 34F
→
02/04 16:06,
2年前
, 35F
02/04 16:06, 35F
噓
02/04 16:08,
2年前
, 36F
02/04 16:08, 36F
推
02/04 16:09,
2年前
, 37F
02/04 16:09, 37F
推
02/04 16:09,
2年前
, 38F
02/04 16:09, 38F
→
02/04 16:10,
2年前
, 39F
02/04 16:10, 39F
推
02/04 16:10,
2年前
, 40F
02/04 16:10, 40F
→
02/04 16:10,
2年前
, 41F
02/04 16:10, 41F
→
02/04 16:11,
2年前
, 42F
02/04 16:11, 42F
→
02/04 16:11,
2年前
, 43F
02/04 16:11, 43F
→
02/04 16:11,
2年前
, 44F
02/04 16:11, 44F
我看了一下上面那些,多半是用預先調整好的幾種聲線去念稿,
再以手動方式調整音高語調。順是順,但是你只要打入一些帶語氣的文本,
就會發現非常嚴重的棒讀感,或者該是說情緒不對。
即便是自己不熟悉的語言,你聽得出他念得超順,就跟真人念的一樣順,
但是語氣就是念稿,像新聞台主播,而不具備搞笑、生氣、沮喪的語氣,
有點像是....小時候聽的英語雜誌的考題的弱化版吧
ChatGPT 據說那流量超花錢,超乎想像的花錢,背後的研發成本肯定也不低,
應該範圍應該可以很廣,但是配音員目前好像就是低薪階級,
要把動畫手遊配音當作獲利來源,應該不會有什麼商人願意投入吧。
※ 編輯: Wangdy (60.244.156.76 臺灣), 02/04/2023 16:18:19
→
02/04 16:12,
2年前
, 45F
02/04 16:12, 45F
噓
02/04 16:14,
2年前
, 46F
02/04 16:14, 46F
上面貼的幾個我是覺得都不是我講的東西啦....
不論是TTS 還是其他的連結都是很人工的,有什麼 AI 學習介入嗎?
※ 編輯: Wangdy (60.244.156.76 臺灣), 02/04/2023 16:21:59
→
02/04 16:23,
2年前
, 47F
02/04 16:23, 47F
→
02/04 16:28,
2年前
, 48F
02/04 16:28, 48F
→
02/04 16:28,
2年前
, 49F
02/04 16:28, 49F
→
02/04 16:28,
2年前
, 50F
02/04 16:28, 50F
噓
02/04 16:31,
2年前
, 51F
02/04 16:31, 51F
噓
02/04 16:32,
2年前
, 52F
02/04 16:32, 52F
→
02/04 16:32,
2年前
, 53F
02/04 16:32, 53F
噓
02/04 16:32,
2年前
, 54F
02/04 16:32, 54F
→
02/04 16:48,
2年前
, 55F
02/04 16:48, 55F
噓
02/04 16:49,
2年前
, 56F
02/04 16:49, 56F
→
02/04 16:49,
2年前
, 57F
02/04 16:49, 57F
→
02/04 16:52,
2年前
, 58F
02/04 16:52, 58F
噓
02/04 17:01,
2年前
, 59F
02/04 17:01, 59F
噓
02/04 17:06,
2年前
, 60F
02/04 17:06, 60F
→
02/04 17:07,
2年前
, 61F
02/04 17:07, 61F
推
02/04 17:34,
2年前
, 62F
02/04 17:34, 62F
噓
02/04 18:18,
2年前
, 63F
02/04 18:18, 63F
推
02/04 18:54,
2年前
, 64F
02/04 18:54, 64F
→
02/04 19:20,
2年前
, 65F
02/04 19:20, 65F
推
02/04 19:30,
2年前
, 66F
02/04 19:30, 66F
推
02/04 22:41,
2年前
, 67F
02/04 22:41, 67F
推
02/05 11:22,
2年前
, 68F
02/05 11:22, 68F
討論串 (同標題文章)
完整討論串 (本文為第 1 之 3 篇):