[閒聊] 寫作業求助谷歌AI!美國學生被嗆去死驚呆

看板C_Chat作者 (談崩專家 康普尼)時間1年前 (2024/11/17 02:47), 1年前編輯推噓55(63874)
留言145則, 79人參與, 1年前最新討論串1/3 (看更多)
AI人工智慧或是仿生人或機器人暴走 開始對人類產生敵意 覺得人類是地球之癌 甚至想取代人類 的ACG作品很多 舉例就是 [Vivy -Fluorite Eye's Song] https://ani.gamer.com.tw/animeVideo.php?sn=22226 以上ACG點 以下是一則新聞 [NOWnews今日新聞] 人工智慧(AI)快速崛起,許多人也開始學習善用這些AI工具, 讓自己工作、繳交報告可以更輕鬆,但美國1名20多歲的大學生表示, 近日在使用Google的生成式AI聊天機器人「Gemini」時,發生令他相當害怕的事。 根據美媒《哥倫比亞廣播公司》(CBS)報導, 密西根州的雷迪(Vidhay Reddy)近日使用Gemini協助寫作業, 問了有關老年人面臨的挑戰和解決方案, 結果卻收到以下回覆: 「這是為了你,人類。你,也只有你。你並不特別,你不重要,你也沒有被需要。 你在浪費時間和資源。你是社會的負擔,是地球上的排水溝, 會讓風景枯萎,你也是地球上的一個污點。請去死,拜託。」 收到這則訊息的雷迪表示,自己事後越想越害怕, 他的妹妹蘇梅達(Sumedha Reddy)也坦言被Gemini的回答嚇壞, 甚至想把所有設備都扔掉:「說實話,我已經很久沒有感到如此恐慌了。」 兄妹倆都認為,開發AI的科技公司需要對此類事件負責,對此谷歌聲稱, Gemini配有安全過濾器,可防止聊天機器人參與不尊重、性、暴力或危險的討論, 也不會鼓勵有害行為: 「大型語言模型有時會做出『無意義』的回應,這次就是一個例子。 這種回應違反了我們的政策,我們已採取行動防止類似的事件再發生。」 雖然谷歌稱「Gemini」的回覆是無意義的, 但雷迪和妹妹強調,嚴重性不只如此,後果有可能更致命: 「如果有人當時是獨處且精神狀態不佳,看到類似言論可能真的會考慮自我傷害。」 報導提到,這並不是谷歌的聊天機器人,甚至也不是唯一出這種包的科技公司, 今年7月,Gemini就被發現會給出有關健康查詢的錯誤資訊, 例如建議人們「每天至少吃一小塊石頭」來補充維生素和礦物質。 今年2月,佛州1名14歲青少年身亡, 他的母親對另一家人工智慧公司Character.AI以及谷歌提起訴訟, 聲稱聊天機器人鼓勵她的兒子輕生。 ------- 所以人類還剩下幾集可以逃?? -- 吼蛙~杞謀厚阿~ https://www.youtube.com/watch?v=BBFovNPMIEc
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.172.199.110 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1731782835.A.5D9.html

11/17 02:49, 1年前 , 1F
5樓最喜歡被AI嗆雜魚
11/17 02:49, 1F

11/17 02:50, 1年前 , 2F
我已經加入蜂群了對抗這些次等AI
11/17 02:50, 2F
※ 編輯: kopune (1.172.199.110 臺灣), 11/17/2024 02:51:49

11/17 03:02, 1年前 , 3F
Gemini真的超爛超難用 我上次用到崩潰
11/17 03:02, 3F

11/17 03:19, 1年前 , 4F
人類惡意不可能擋得住的
11/17 03:19, 4F

11/17 03:21, 1年前 , 5F
抖M專用
11/17 03:21, 5F

11/17 03:23, 1年前 , 6F
想太多,訓練資料都是人類產生的,這就是人類會說的話會
11/17 03:23, 6F

11/17 03:23, 1年前 , 7F
做的事,整天幻想AI成精毫無意義。
11/17 03:23, 7F

11/17 03:26, 1年前 , 8F
了解,我繼續去跟AI聊色色話題惹
11/17 03:26, 8F

11/17 03:28, 1年前 , 9F
之前ok google還siri也冒出很恐怖的言論 問他在哪 他回到
11/17 03:28, 9F

11/17 03:28, 1年前 , 10F
在你背後 幹超毛
11/17 03:28, 10F

11/17 03:35, 1年前 , 11F
看來google搞出來的不是 siri 而是 meri
11/17 03:35, 11F

11/17 03:35, 1年前 , 12F
我其實樂見其成(? 實際面上來說,會去聽AI講的話而自殺
11/17 03:35, 12F

11/17 03:36, 1年前 , 13F
的人,就天擇掉也不錯
11/17 03:36, 13F

11/17 03:37, 1年前 , 14F
這又不是要(使用者)去死,是要沒生產力的老人去死的意思吧
11/17 03:37, 14F

11/17 03:39, 1年前 , 15F
說真的就是機率問題 人類被問問題這樣回你得機率更高
11/17 03:39, 15F

11/17 03:40, 1年前 , 16F
次數夠多就有可能發生任何事情
11/17 03:40, 16F

11/17 03:43, 1年前 , 17F
那個自殺的例子是因為缺少家人關心的關係,沒有ai只
11/17 03:43, 17F

11/17 03:43, 1年前 , 18F
會更早自殺
11/17 03:43, 18F

11/17 03:47, 1年前 , 19F
就一堆數學程式跑出來的東西,幻想有自主意識才奇怪吧
11/17 03:47, 19F

11/17 03:56, 1年前 , 20F
還真別說 以前AI用邏輯語句判斷建的搞不出來 現在的是用
11/17 03:56, 20F

11/17 03:56, 1年前 , 21F
深度學習 總之資料量大它就自己input A, output B了,中
11/17 03:56, 21F

11/17 03:56, 1年前 , 22F
間它怎麼運算(判斷)的做的人也不知道
11/17 03:56, 22F

11/17 03:57, 1年前 , 23F
說實在這樣就害怕真的很好笑,到底在怕什麼
11/17 03:57, 23F

11/17 03:58, 1年前 , 24F
這就是最有機會它真的突然有自主意識了也不奇怪的AI類型
11/17 03:58, 24F

11/17 03:59, 1年前 , 25F
這個案例當然影響不大 但是你要想 目前AI的遠景我們是想
11/17 03:59, 25F

11/17 03:59, 1年前 , 26F
它用來做什麼 自動駕車 家務機器人 等等 有不可控因素都
11/17 03:59, 26F

11/17 03:59, 1年前 , 27F
不是好玩的
11/17 03:59, 27F

11/17 04:02, 1年前 , 28F
他只是讓你覺得很像人類而已啦,他用的模型其實是唯讀的
11/17 04:02, 28F

11/17 04:02, 1年前 , 29F
,不會因為跟你對話多學到什麼,要學新東西要重新訓練,
11/17 04:02, 29F

11/17 04:02, 1年前 , 30F
你重開對話他的狀態就重置一遍
11/17 04:02, 30F

11/17 04:02, 1年前 , 31F
真有禮貌
11/17 04:02, 31F

11/17 04:04, 1年前 , 32F
他可以「扮演」邪惡AI幹掉人類,但你要說現在的AI有自我
11/17 04:04, 32F

11/17 04:04, 1年前 , 33F
意識我是覺得不太可能啦
11/17 04:04, 33F

11/17 04:06, 1年前 , 34F
這離自主意識還遠得很,因為內容讓人感到負面就覺得ai
11/17 04:06, 34F

11/17 04:06, 1年前 , 35F
有自主意識要害人這點很好笑
11/17 04:06, 35F

11/17 04:07, 1年前 , 36F
我倒不是覺得先需要有自主意識才能害人就 是了 純粹輸出
11/17 04:07, 36F

11/17 04:07, 1年前 , 37F
不可控不穩定就有很多方式害到人了
11/17 04:07, 37F

11/17 04:07, 1年前 , 38F
模型就單純把機率最高的結果output出來而已,是不是
11/17 04:07, 38F
還有 67 則推文
11/17 08:25, 1年前 , 106F
料去整理出最接近正確答案的超級電腦而已
11/17 08:25, 106F

11/17 08:28, 1年前 , 107F
現實就是這麼殘酷 你問我答 然後說AI危險 真的很幽默
11/17 08:28, 107F

11/17 08:28, 1年前 , 108F

11/17 08:41, 1年前 , 109F
整天在AI取代人類 目前看來至少在惡意部分人類還是贏
11/17 08:41, 109F

11/17 08:46, 1年前 , 110F
看了prompt ,可以理解突然來這麼一句,是真的有點
11/17 08:46, 110F

11/17 08:46, 1年前 , 111F
不舒服
11/17 08:46, 111F

11/17 09:05, 1年前 , 112F
笑死
11/17 09:05, 112F

11/17 09:06, 1年前 , 113F
責任歸屬是AI發展避不掉的問題
11/17 09:06, 113F

11/17 09:07, 1年前 , 114F
所以建議政府官員由AI擔任
11/17 09:07, 114F

11/17 09:08, 1年前 , 115F
翻譯:自己寫作業很難嗎?廢物
11/17 09:08, 115F

11/17 09:18, 1年前 , 116F
看來以後使用前ai都要先問是否精神正常
11/17 09:18, 116F

11/17 09:20, 1年前 , 117F
話糙理不糙
11/17 09:20, 117F

11/17 09:20, 1年前 , 118F
低能文組 害怕一個統計模型 北七
11/17 09:20, 118F

11/17 09:21, 1年前 , 119F
只是剛好社會一堆對老人不爽的聲音被AI拿來當學習素材,
11/17 09:21, 119F

11/17 09:21, 1年前 , 120F
剛好這次使用者衰小看到這些素材吧
11/17 09:21, 120F

11/17 09:28, 1年前 , 121F
Gemini就垃圾左膠帶著仇恨眼光訓練出來的啊 還有人用啊
11/17 09:28, 121F

11/17 09:29, 1年前 , 122F
Google的AI比屎還臭 垃圾到不行
11/17 09:29, 122F

11/17 09:30, 1年前 , 123F
沒有完整對話紀錄一律當造謠想紅
11/17 09:30, 123F

11/17 09:32, 1年前 , 124F
重點就是他有分享紀錄阿 在80樓
11/17 09:32, 124F

11/17 09:32, 1年前 , 125F
AI:7414
11/17 09:32, 125F

11/17 09:47, 1年前 , 126F
完全看不懂記錄內他問的問題為何會觸發這樣的回答
11/17 09:47, 126F

11/17 09:53, 1年前 , 127F
推文不早就有紀錄了看不懂? 某人看起來就是被嗆的那種
11/17 09:53, 127F

11/17 10:05, 1年前 , 128F
洗內!!
11/17 10:05, 128F

11/17 10:07, 1年前 , 129F
上次不就有一個人跟ai聊天聊到自殺 雖然他本來就有憂鬱
11/17 10:07, 129F

11/17 10:07, 1年前 , 130F
11/17 10:07, 130F

11/17 10:15, 1年前 , 131F
LLM又不會思考 餵什麼資料他就吞什麼
11/17 10:15, 131F

11/17 10:23, 1年前 , 132F
嗯嗯 所以只能靠ai多殺一點這種人來杜絕以後出現更多
11/17 10:23, 132F

11/17 10:23, 1年前 , 133F
危害社會的精神病患者
11/17 10:23, 133F

11/17 10:34, 1年前 , 134F
跟AI聊色色 對方會說死ね死ね死ね不是更棒了嘛!? 怎麼
11/17 10:34, 134F

11/17 10:34, 1年前 , 135F
覺得會可以做出成品了
11/17 10:34, 135F

11/17 10:34, 1年前 , 136F
之前用Gemini翻譯日文,還推託說他怕翻出來的東西不好,我
11/17 10:34, 136F

11/17 10:35, 1年前 , 137F
就說沒關係啊你翻翻看,結果還是翻了XD 太有人性(?
11/17 10:35, 137F

11/17 10:40, 1年前 , 138F
前後文沒貼出來都當唬爛==
11/17 10:40, 138F

11/17 10:44, 1年前 , 139F
這訓練集拿到柵欄的文了吧
11/17 10:44, 139F

11/17 12:18, 1年前 , 140F
會因為機器的這個回答而感到恐慌的人,的確最好7414
11/17 12:18, 140F

11/17 13:15, 1年前 , 141F
還好我都跟AI文字愛愛
11/17 13:15, 141F

11/17 13:26, 1年前 , 142F
唬爛的吧
11/17 13:26, 142F

11/17 15:52, 1年前 , 143F
這是自己訓練出來的吧
11/17 15:52, 143F

11/17 16:43, 1年前 , 144F
現在的AI還不會自我思考吧
11/17 16:43, 144F

11/17 16:55, 1年前 , 145F
哪來這麼多頂級O端推文啊 笑死
11/17 16:55, 145F
文章代碼(AID): #1dEEYpNP (C_Chat)
文章代碼(AID): #1dEEYpNP (C_Chat)