[問題] 如何以深度學習完成客製化傲嬌?

看板C_Chat作者 (修司搭配。)時間4年前 (2019/10/22 15:45), 編輯推噓3(5211)
留言18則, 11人參與, 4年前最新討論串1/1
假設我想訓練AI完成一個客製化傲嬌性格反應 其流程大致如下 1.確認好一個目標 (玩家) 2.確認好所需參數,給予不同參數權重。 何時傲? 何時嬌? 等時機判斷。 3.導入數據 4.調整數據 有些數據最終能提高玩家的好感,有些則否, 藉此過程AI會調整参數權重,影響好感的提高,不影響的就會調低。 5.最終AI慢慢試錯學習不同的權重組合,找到最終能得到最高好感的比例。 甚至這個比例會是動態,會隨著玩家偏好改變持續調整。 問題在於 1.傲嬌模型的建立 一個理想的傲嬌模型,除了傲.嬌之類攏統的概念外, 還需要參數與權重,但到底有哪些需要參數? 這需要專家的意見。 2.回饋的取得 不同於遊戲分數可以直接取得,玩家好感也是模糊的資訊, 如何取的玩家的最終好感? 對此板友是否能提供一些意見? -- 我只是想發發廢文而已... -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.63.234.146 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1571730340.A.44D.html

10/22 15:47, 4年前 , 1F
(先能定義好傲跟嬌是什麼再來談)
10/22 15:47, 1F

10/22 15:48, 4年前 , 2F
UBS孔就是啊 不插他3次都不給進去
10/22 15:48, 2F

10/22 15:50, 4年前 , 3F
二次元參數湊出來的二次元老婆 用現成的二次元就好了re
10/22 15:50, 3F

10/22 15:50, 4年前 , 4F
inforcement learning 參考一下
10/22 15:50, 4F

10/22 15:51, 4年前 , 5F
你也要有那個電腦去跑那個參數 你的資訊量太大了
10/22 15:51, 5F

10/22 15:51, 4年前 , 6F
?_?
10/22 15:51, 6F

10/22 15:57, 4年前 , 7F
假如你訂好reward說不定真的可以靠reinforcement跑出一
10/22 15:57, 7F

10/22 15:57, 4年前 , 8F
個理想中的傲嬌
10/22 15:57, 8F

10/22 15:57, 4年前 , 9F
你這個要作應該要弄成推薦系統 每個人對同個角色好感
10/22 15:57, 9F

10/22 15:57, 4年前 , 10F
度不同
10/22 15:57, 10F

10/22 16:03, 4年前 , 11F
回樓上 如果是樓主開發只會有樓主覺得是傲嬌類的參考
10/22 16:03, 11F

10/22 16:03, 4年前 , 12F
資料,到頭來都是生出資料來源的傲嬌而已,給自訂也差
10/22 16:03, 12F

10/22 16:03, 4年前 , 13F
不多
10/22 16:03, 13F

10/22 16:03, 4年前 , 14F
正要說RL
10/22 16:03, 14F

10/22 16:13, 4年前 , 15F
重點是臉吧
10/22 16:13, 15F

10/22 17:32, 4年前 , 16F
樓上你說到重點了
10/22 17:32, 16F

10/22 18:21, 4年前 , 17F
不 重點是介面吧 你能想像只有終端的傲嬌嗎?
10/22 18:21, 17F

10/23 12:16, 4年前 , 18F
用GAN之類的吧?
10/23 12:16, 18F
文章代碼(AID): #1ThhEaHD (C_Chat)