[閒聊] AI發展出感情反而很麻煩吧

看板C_Chat作者 (姆咪)時間3年前 (2021/05/09 01:48), 3年前編輯推噓32(32043)
留言75則, 34人參與, 3年前最新討論串1/1
看完vivy07 突然想到 給AI發展出感情,反而影響到工作吧 雖然vivy是唱歌的,有感情反而是加分 但是其他工作呢? 簡單舉例的話,就比方說在未來剛組好的電腦會因為緊張而頻頻出錯而導致不能使用,組裝者還要在燒機的時候盡量安撫他,像養寵物一樣 現實人類的工作表現和決斷很容易受到感情的或心理狀態的影響,最常見的就是緊張了,因為緊張能做到的事情反而在正式場合做不好、還有像戰爭的士兵,因為不願殺人或怯弱而影響到作戰表現、戰後的PTSD 然後如果做為操控交通工具的AI因為緊張出錯、或先不管機器人三定律,作為士兵的AI因為怕毀損或不願傷害人而抗命 人類本來就是很不完美的動物,AI發展到跟人一樣,工作效率反而會變差吧www AI發展出感情反而很麻煩吧 ----- Sent from JPTT on my Asus ASUS_X00RD. -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.137.76.139 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1620496132.A.968.html

05/09 01:49, 3年前 , 1F
星戰戰鬥機器人:
05/09 01:49, 1F

05/09 01:50, 3年前 , 2F
為什麼會產生非正規機器人呢
05/09 01:50, 2F

05/09 01:50, 3年前 , 3F
看用途可裝可不裝阿,不是所有產品都要加上高級AI
05/09 01:50, 3F

05/09 01:52, 3年前 , 4F
反叛組織就是這個理想,AI不該發展這種情感
05/09 01:52, 4F

05/09 01:53, 3年前 , 5F
看工作性質啊 有些工作有情感加分就裝情感AI
05/09 01:53, 5F

05/09 01:53, 3年前 , 6F
你的不完美是人評人 但目前生物機能複雜度還是遠高於AI吧
05/09 01:53, 6F

05/09 01:53, 3年前 , 7F
總不可能掃地機器人也要有情感吧 家政婦系列?
05/09 01:53, 7F
很難講www照現代各種東西都連上網路的情況,未來情感AI出來應該會有一窩蜂的公司在自家產品裝有情感的AI

05/09 01:55, 3年前 , 8F
把感情和自我思考裝在武器上是有點自找麻煩啦
05/09 01:55, 8F
※ 編輯: ya01234 (114.137.76.139 臺灣), 05/09/2021 01:55:45

05/09 01:56, 3年前 , 9F
看用途吧 比方人性化的偶像因能帶來極高的商業效益 那副
05/09 01:56, 9F

05/09 01:56, 3年前 , 10F
作用就可以被接受
05/09 01:56, 10F

05/09 01:56, 3年前 , 11F
老片機戰未來94把這種AI裝在最新無人機,阿不就還好人家
05/09 01:56, 11F

05/09 01:56, 3年前 , 12F
到時候AI搞不好也像人類有階級之分了
05/09 01:56, 12F

05/09 01:56, 3年前 , 13F
是好孩子....
05/09 01:56, 13F

05/09 01:57, 3年前 , 14F
我是覺得模擬情感就夠了,不要到真的情感和思考,不然會像
05/09 01:57, 14F

05/09 01:58, 3年前 , 15F
雲端情人那樣,連AI都跟你分手QQ
05/09 01:58, 15F

05/09 01:58, 3年前 , 16F
你玩模擬情感思考就是在給他真的感情思考的機會
05/09 01:58, 16F

05/09 01:59, 3年前 , 17F
確實是啊,根本自找麻煩
05/09 01:59, 17F

05/09 02:03, 3年前 , 18F
除非是情感思考是必要的工作 例如當偶像
05/09 02:03, 18F

05/09 02:04, 3年前 , 19F
不然根本就不應該讓他有情感
05/09 02:04, 19F

05/09 02:04, 3年前 , 20F
文書機跟武器是要情感作什麼
05/09 02:04, 20F

05/09 02:05, 3年前 , 21F
你說的在人身上發生只會變更蠢
05/09 02:05, 21F

05/09 02:06, 3年前 , 22F
做愛阿 沙優不就降
05/09 02:06, 22F

05/09 02:17, 3年前 , 23F
情感是用來降低能量消耗的 極有可能囿於數學極限 發展
05/09 02:17, 23F

05/09 02:17, 3年前 , 24F
出情感類的近似計算 其實也就是統計
05/09 02:17, 24F

05/09 02:23, 3年前 , 25F
買乖乖就好了
05/09 02:23, 25F

05/09 02:25, 3年前 , 26F
確實挺無用的機制 但無情感的AI選擇清除人類的時候也不
05/09 02:25, 26F

05/09 02:25, 3年前 , 27F
會有心理壓力
05/09 02:25, 27F

05/09 02:29, 3年前 , 28F
人類發展AI 就是為了造出自己呀
05/09 02:29, 28F

05/09 02:29, 3年前 , 29F
不過我相信這種近似人類的AI 溝通效率還是完勝交流充滿
05/09 02:29, 29F

05/09 02:29, 3年前 , 30F
摩擦的人類 因為有阿凱布空間 這種無縫交流
05/09 02:29, 30F

05/09 02:34, 3年前 , 31F
武裝機器人的AI沒情感,收到射殺命令甚至屠殺命令時就
05/09 02:34, 31F

05/09 02:34, 3年前 , 32F
會快速準確且高效率的執行了,所以有利有弊吧,像那
05/09 02:34, 32F

05/09 02:34, 3年前 , 33F
個刀劍的自衛隊就是要開發這種有情感能衡量能自制的AI
05/09 02:34, 33F

05/09 02:41, 3年前 , 34F
一直出錯不就ME
05/09 02:41, 34F

05/09 03:10, 3年前 , 35F
威力博士表示:
05/09 03:10, 35F

05/09 03:27, 3年前 , 36F
武器就該要執行使用者的命令 決策是使用者要負責
05/09 03:27, 36F

05/09 03:27, 3年前 , 37F
武裝機器人就是武器 難道武器要替你扛決策責任?
05/09 03:27, 37F

05/09 03:28, 3年前 , 38F
所謂有弊 是不會質疑使用者的指令嗎?
05/09 03:28, 38F

05/09 03:29, 3年前 , 39F
負責決策的跟負責執行的又沒必要是同一個AI
05/09 03:29, 39F

05/09 03:30, 3年前 , 40F
以一個治安系統來說 全體AI聽從一個指揮
05/09 03:30, 40F

05/09 03:30, 3年前 , 41F
肯定比每個AI自己判斷要好得多吧
05/09 03:30, 41F

05/09 03:31, 3年前 , 42F
執行的細節可以個別判定 但感情這種指揮有就好了
05/09 03:31, 42F

05/09 03:34, 3年前 , 43F
當你給一個AI情感的時候 代表你把他地位等同人類
05/09 03:34, 43F

05/09 03:34, 3年前 , 44F
代表你希望他能理解人類的情感 用相同的價值觀判斷
05/09 03:34, 44F

05/09 04:07, 3年前 , 45F
你可以問威力博士 另一個胖鬍子根本世界亂源
05/09 04:07, 45F

05/09 04:52, 3年前 , 46F
本來就是有利有弊啊,若是只有指揮的有情感,到時候就
05/09 04:52, 46F

05/09 04:52, 3年前 , 47F
會看到執行射殺命令的武裝機器人把幼童給斃了的畫面上
05/09 04:52, 47F

05/09 04:52, 3年前 , 48F
新聞,然後正反雙方再繼續戰下去
05/09 04:52, 48F

05/09 04:53, 3年前 , 49F
想到攻殼機動隊有一集
05/09 04:53, 49F

05/09 05:21, 3年前 , 50F
應該說AI本身帶有情感會有問題 但不可以不理解人類情感
05/09 05:21, 50F

05/09 05:22, 3年前 , 51F
至少要學會不讓主人生氣阿
05/09 05:22, 51F

05/09 05:22, 3年前 , 52F
這樣才是奴隸該有的樣子
05/09 05:22, 52F

05/09 05:41, 3年前 , 53F
浪漫 懂? 其他不列入考慮範圍
05/09 05:41, 53F

05/09 06:06, 3年前 , 54F
我覺得多數人只是要一個更像人類但聽話的“奴隸”
05/09 06:06, 54F

05/09 06:06, 3年前 , 55F
AI不能有感情(X) AI不能有對人類不利的感情(O)
05/09 06:06, 55F

05/09 06:07, 3年前 , 56F
比如說初音 我相信大多數人只想要她對你的愛意
05/09 06:07, 56F

05/09 06:08, 3年前 , 57F
不會要初音對你有厭惡感(比如說 好噁心,滾)
05/09 06:08, 57F

05/09 06:09, 3年前 , 58F
4,我被自己買斷的物品分手~真的乾脆7414好了
05/09 06:09, 58F

05/09 06:11, 3年前 , 59F
AI不能有的叫人權啦
05/09 06:11, 59F

05/09 08:00, 3年前 , 60F
回46樓,那下達射殺命令的人就該負責,AI又不是給你卸責
05/09 08:00, 60F

05/09 08:00, 3年前 , 61F
用的
05/09 08:00, 61F

05/09 08:00, 3年前 , 62F
不然以後就都沒有戰爭罪了,反正殺人的都是槍枝飛彈嘛
05/09 08:00, 62F

05/09 08:21, 3年前 , 63F
初音對我說滾 好噁心 這在我們業界是種獎勵 嘿嘿
05/09 08:21, 63F

05/09 08:48, 3年前 , 64F
底特律bang人
05/09 08:48, 64F

05/09 09:16, 3年前 , 65F
高級ai發展出感情是必然的 你無法阻止
05/09 09:16, 65F

05/09 09:20, 3年前 , 66F
不是不能有感情,是不能和人類完全一樣,人類的情感有
05/09 09:20, 66F

05/09 09:20, 3年前 , 67F
很多缺陷的
05/09 09:20, 67F

05/09 09:47, 3年前 , 68F
AI其中較大的一個問題是可控制的量產vs人類
05/09 09:47, 68F

05/09 10:11, 3年前 , 69F
樓上講的是一開始就明知故犯的狀況,不過戰爭中也有
05/09 10:11, 69F

05/09 10:11, 3年前 , 70F
那種打一打才發現有平民立刻回報上級的吧
05/09 10:11, 70F

05/09 10:12, 3年前 , 71F
情感太難去定義或限制了,還會自己鑽漏洞曲解任務目標
05/09 10:12, 71F

05/09 10:12, 3年前 , 72F
,乾脆不要做……
05/09 10:12, 72F

05/09 10:12, 3年前 , 73F
武裝AI是取代武器還是取代士兵意義完全不同
05/09 10:12, 73F

05/09 10:34, 3年前 , 74F
關於有感情的AI可以看看樂園追放
05/09 10:34, 74F

05/09 11:40, 3年前 , 75F
變人:
05/09 11:40, 75F
文章代碼(AID): #1Wbiy4be (C_Chat)