[問題] 如何以深度學習完成客製化傲嬌?
假設我想訓練AI完成一個客製化傲嬌性格反應
其流程大致如下
1.確認好一個目標 (玩家)
2.確認好所需參數,給予不同參數權重。
何時傲? 何時嬌? 等時機判斷。
3.導入數據
4.調整數據
有些數據最終能提高玩家的好感,有些則否,
藉此過程AI會調整参數權重,影響好感的提高,不影響的就會調低。
5.最終AI慢慢試錯學習不同的權重組合,找到最終能得到最高好感的比例。
甚至這個比例會是動態,會隨著玩家偏好改變持續調整。
問題在於
1.傲嬌模型的建立
一個理想的傲嬌模型,除了傲.嬌之類攏統的概念外,
還需要參數與權重,但到底有哪些需要參數?
這需要專家的意見。
2.回饋的取得
不同於遊戲分數可以直接取得,玩家好感也是模糊的資訊,
如何取的玩家的最終好感?
對此板友是否能提供一些意見?
--
我只是想發發廢文而已...
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.63.234.146 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1571730340.A.44D.html
→
10/22 15:47,
4年前
, 1F
10/22 15:47, 1F
→
10/22 15:48,
4年前
, 2F
10/22 15:48, 2F
噓
10/22 15:50,
4年前
, 3F
10/22 15:50, 3F
→
10/22 15:50,
4年前
, 4F
10/22 15:50, 4F
→
10/22 15:51,
4年前
, 5F
10/22 15:51, 5F
噓
10/22 15:51,
4年前
, 6F
10/22 15:51, 6F
推
10/22 15:57,
4年前
, 7F
10/22 15:57, 7F
→
10/22 15:57,
4年前
, 8F
10/22 15:57, 8F
→
10/22 15:57,
4年前
, 9F
10/22 15:57, 9F
→
10/22 15:57,
4年前
, 10F
10/22 15:57, 10F
→
10/22 16:03,
4年前
, 11F
10/22 16:03, 11F
→
10/22 16:03,
4年前
, 12F
10/22 16:03, 12F
→
10/22 16:03,
4年前
, 13F
10/22 16:03, 13F
推
10/22 16:03,
4年前
, 14F
10/22 16:03, 14F
推
10/22 16:13,
4年前
, 15F
10/22 16:13, 15F
推
10/22 17:32,
4年前
, 16F
10/22 17:32, 16F
→
10/22 18:21,
4年前
, 17F
10/22 18:21, 17F
推
10/23 12:16,
4年前
, 18F
10/23 12:16, 18F