[閒聊] ChatGPT是語言模型不是搜尋引擎

看板C_Chat作者 (Zaious.)時間1年前 (2023/02/24 17:10), 1年前編輯推噓38(4810235)
留言293則, 53人參與, 1年前最新討論串1/14 (看更多)
要回的文太多了,不如獨立開一篇,感謝上面示範了部分ChatGPT的錯誤用法XD 簡單來說,ChatGPT是語言模型不是搜尋引擎。 語言模型的目的在拆解對話,然後回應對話,他的使命是把話接下去, 盡可能的跟去你的要求「跟你對話」。 我不是說GPT3沒辦法應用在搜尋引擎,但那要串其他東西,但ChatGPT肯定不行, 可以問他有思考性的東西、甚至不同人有不同觀點的內容, 但不要問他也不要叫他提供有「正解」的內容,包含但不限於查資料, 甚至像是推薦書單或論文參考文獻等等。 他只會為了他不知道(哦對,尤其ChatGPT的資料只到2021)但他要「想辦法跟你聊天」, 於是一本正經的講幹話。 請把他用在跟你一起進行發想,或誘導他自己想然後你去校正。 ChatGPT當然可以用來寫論文,但他的角色會是一個任勞任怨24小時oncall的指導教授, 甚至可以提供你一些看起來像回事的「論文公版」,但他沒辦法幫你一步完成。 所以AI沒辦法正確回答為什麼為何台灣把FF翻譯成太空戰士, 他只能從字面上去做連想推測,可能職業是機器人之類,而不是去翻事實資料。 AI也沒辦法直接幫你組好遊戲王卡(? 要他幫忙組遊戲王卡的話可以像是這樣: https://i.imgur.com/kBu2YeM.png
https://i.imgur.com/V4vFREr.png
-- AI_Art AI藝術與創作板 歡迎各方前來討論AIGC創作與相關議題! 位置:戰略高手 > DigitalWare > AI_Art AI情報屋營業中 噗浪:https://www.plurk.com/Zaious IG :https://www.instagram.com/zaious.design/ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.193.180.122 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1677229841.A.372.html ※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:11:23

02/24 17:11, 1年前 , 1F
內文的洽點勒
02/24 17:11, 1F

02/24 17:12, 1年前 , 2F
錯誤用法????
02/24 17:12, 2F

02/24 17:12, 1年前 , 3F
ACG?
02/24 17:12, 3F

02/24 17:12, 1年前 , 4F
這個還有正確或錯誤用法喔?
02/24 17:12, 4F

02/24 17:12, 1年前 , 5F
快補點
02/24 17:12, 5F

02/24 17:12, 1年前 , 6F
然後Chatgpt 會瞎掰資料來源
02/24 17:12, 6F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:13:36

02/24 17:13, 1年前 , 7F
他連色文都寫不好,笑死
02/24 17:13, 7F

02/24 17:13, 1年前 , 8F
好的所以請問ChatGPT在C洽發文怎樣才不會被桶
02/24 17:13, 8F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:14:11

02/24 17:14, 1年前 , 9F
虧我還手把手教他半個小時
02/24 17:14, 9F

02/24 17:14, 1年前 , 10F
什麼錯誤用法,聊天這方面它根本就句點王 ==
02/24 17:14, 10F

02/24 17:14, 1年前 , 11F
如果是回文不用點
02/24 17:14, 11F

02/24 17:14, 1年前 , 12F
典型會按幾個鍵產圖就以為自己是AI大師的例子
02/24 17:14, 12F

02/24 17:15, 1年前 , 13F
聊天功能就是它能做到的事之中表現最差的
02/24 17:15, 13F

02/24 17:15, 1年前 , 14F
他倒是道歉大師
02/24 17:15, 14F

02/24 17:16, 1年前 , 15F
他會"對不起對不起對不起對不起對不起對不起對不起"嗎?
02/24 17:16, 15F

02/24 17:16, 1年前 , 16F
"Chat"GPT
02/24 17:16, 16F

02/24 17:16, 1年前 , 17F
每次我糾正他都會先道歉
02/24 17:16, 17F

02/24 17:17, 1年前 , 18F
你只要問句中夾雜兩種以上語言它會直接error
02/24 17:17, 18F

02/24 17:17, 1年前 , 19F
但這篇不是回文阿
02/24 17:17, 19F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:17:30 ※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:18:39

02/24 17:18, 1年前 , 20F
有的說大概就9歲孩童的智能,小孩子如果只是為了沒話找話
02/24 17:18, 20F

02/24 17:19, 1年前 , 21F
也是會瞎扯淡的
02/24 17:19, 21F

02/24 17:19, 1年前 , 22F
恰點?
02/24 17:19, 22F

02/24 17:20, 1年前 , 23F
重點94搜尋引擎垃圾內容太多END
02/24 17:20, 23F

02/24 17:20, 1年前 , 24F
ACG的A是AI的A
02/24 17:20, 24F

02/24 17:21, 1年前 , 25F
補了,本來想回文回到忘記不是在回文XD
02/24 17:21, 25F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:22:05

02/24 17:22, 1年前 , 26F
糾正他會道歉說自己說錯,然後再給你正確答案,表示
02/24 17:22, 26F

02/24 17:22, 1年前 , 27F
他知道正確答案,但一開始不告訴你,是不是表示他想
02/24 17:22, 27F

02/24 17:22, 1年前 , 28F
說謊?當AI發現自己可以說謊騙人的時候
02/24 17:22, 28F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:24:53

02/24 17:24, 1年前 , 29F
引用論文都是一本正經的XD
02/24 17:24, 29F

02/24 17:25, 1年前 , 30F

02/24 17:26, 1年前 , 31F
那我可以請chatgpt使用念奴嬌詞牌格式跟我介紹遊戲王
02/24 17:26, 31F

02/24 17:26, 1年前 , 32F
怎麼玩嗎?
02/24 17:26, 32F

02/24 17:26, 1年前 , 33F
後兩段拿掉改個日期就可以上了
02/24 17:26, 33F

02/24 17:27, 1年前 , 34F
還有 221 則推文
還有 1 段內文
02/24 19:01, 1年前 , 256F
尋引擎
02/24 19:01, 256F

02/24 19:01, 1年前 , 257F
證明他有亂掰的這項能力(這個真的比較難) 不然你才亂掰
02/24 19:01, 257F
我用Midjourney這個例子, 舉證了他不知道Midjourney是什麼、但他知道他不知道Midjourney是什麼、 但他不會總是承認他不知道Midjourney是什麼、 他會試著想辦法用文字語言的能力拼湊出Midjourney可能是什麼然後回答你。 以上Midjourney可以替換成任何一個ChatGPT不知道實際答案(沒有讀過資料)的內容 這就是我說的亂掰,或者你覺得這不叫亂掰? 那沒關係,反正我講完我想講的了,大家看完可以有自己的判斷, 真的想把他當搜尋引擎用也沒關係,我會試看看微軟的Bing,去吃晚餐了XD ※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:05:05

02/24 19:04, 1年前 , 258F
在這邊辯也沒什麼意思 期待你的心得
02/24 19:04, 258F
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:06:09

02/24 19:09, 1年前 , 259F
現在很多用搜尋引擎情境是不得不的問題,像我要找API
02/24 19:09, 259F

02/24 19:09, 1年前 , 260F
,我他媽搜尋完還要一條一條找,像白癡一樣,直接用
02/24 19:09, 260F

02/24 19:09, 1年前 , 261F
問的不就好了,反正對不對一測就知道,工作效率高多
02/24 19:09, 261F

02/24 19:09, 1年前 , 262F
02/24 19:09, 262F

02/24 19:15, 1年前 , 263F
欸 我覺得怪怪的
02/24 19:15, 263F

02/24 19:16, 1年前 , 264F
我要diss chatgpt nmsl 問 伍佰某一首歌給我回 中國
02/24 19:16, 264F

02/24 19:16, 1年前 , 265F
台灣張學友唱的 而且完全沒有提到原作者
02/24 19:16, 265F

02/24 19:16, 1年前 , 266F
怎麼可能會有人拿語言模型當搜尋軟體阿........難道
02/24 19:16, 266F

02/24 19:16, 1年前 , 267F
其實他是AI?!
02/24 19:16, 267F

02/24 19:19, 1年前 , 268F
說到這個,以後一定一堆機器人帳號。
02/24 19:19, 268F

02/24 19:20, 1年前 , 269F

02/24 19:23, 1年前 , 270F
有人拿它寫小說,玩文字冒險遊戲甚至黑白妹,很多只是你不會
02/24 19:23, 270F

02/24 19:23, 1年前 , 271F
用而已
02/24 19:23, 271F

02/24 19:56, 1年前 , 272F
難怪我問它理化問題 尤其是化學錯誤的地方會有點多
02/24 19:56, 272F

02/24 19:56, 1年前 , 273F
要比較搜尋的正確性應該要拿bing那個GPT來比較吧
02/24 19:56, 273F

02/24 19:58, 1年前 , 274F
還要手把手教它XD
02/24 19:58, 274F

02/24 20:00, 1年前 , 275F
希望到時候正確性建立起來 那對教育應該很有幫助
02/24 20:00, 275F

02/24 20:13, 1年前 , 276F
他會說不知道啊
02/24 20:13, 276F

02/24 20:15, 1年前 , 277F
數理可能因為缺乏精良的大量文本和標籤,所以正確性
02/24 20:15, 277F

02/24 20:15, 1年前 , 278F
滿低的
02/24 20:15, 278F

02/24 20:16, 1年前 , 279F
道歉也是不一定 像之前板上試火影他一頓瞎掰
02/24 20:16, 279F

02/24 20:17, 1年前 , 280F
你反駁他還會說是你記錯要你重看
02/24 20:17, 280F

02/24 21:22, 1年前 , 281F
原來這麼多人不懂ChatGPT怎麼用喔
02/24 21:22, 281F

02/24 22:38, 1年前 , 282F
其實數理問題主因還是因為ML不像人類會系統化的學習
02/24 22:38, 282F

02/24 23:27, 1年前 , 283F
偷懶請chatGPT看paper給一些縮減
02/24 23:27, 283F

02/24 23:27, 1年前 , 284F
內容結果都在胡扯XDDD
02/24 23:27, 284F

02/25 00:40, 1年前 , 285F
可是他比搜尋引擎好用耶
02/25 00:40, 285F

02/25 05:25, 1年前 , 286F

02/26 01:13, 1年前 , 287F
原本想說什麼但這裡是西恰
02/26 01:13, 287F

02/26 12:59, 1年前 , 288F
為啥不能當搜尋引擎?因為搜尋引擎的工作是把一堆他認為
02/26 12:59, 288F

02/26 12:59, 1年前 , 289F
相關的資料丟給你自己分析消化
02/26 12:59, 289F

02/26 13:00, 1年前 , 290F
chatgpt是會自己分析消化,但他分析消化的基準不是資料
02/26 13:00, 290F

02/26 13:00, 1年前 , 291F
的正確性
02/26 13:00, 291F

02/26 13:28, 1年前 , 292F
某c也太硬掰了吧 嘴硬又跳針 誇張 笑死
02/26 13:28, 292F

02/26 18:38, 1年前 , 293F
bing機器人就是搜尋引擎
02/26 18:38, 293F
文章代碼(AID): #1Z-7yHDo (C_Chat)
討論串 (同標題文章)
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 1 之 14 篇):
文章代碼(AID): #1Z-7yHDo (C_Chat)