Re: [情報] deepmind又在下了!

看板GO作者 (天堂的定義)時間8年前 (2016/04/13 09:47), 8年前編輯推噓28(30264)
留言96則, 30人參與, 最新討論串2/4 (看更多)
※ 引述《ctrl (大覺者)》之銘言: : 對手是ruogu(P)9段 : deepmind現段位戰績進步到64勝36負 : 本場deepmind執黑 : 貌似ruogu(P)9段的白棋開局不錯!? : 果然deepmind的黑棋佈局比較弱吧? : ……白棋走出一串送菜的棋之後現在劣勢了Orz 黑棋下棋的速度有一些很快 不像是 AlphGo - 中介人 - 奕城網棋落子 不知道奕城/Tygem 有提供介面給AlphaGo團隊嗎? 有的話 真相就大白了 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.177.12.82 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1460512070.A.7A8.html ※ 編輯: mathbug (180.177.12.82), 04/13/2016 09:49:20

04/13 10:00, , 1F
在電腦上跑的東西....寫個仲介程式完全不難啊....
04/13 10:00, 1F

04/13 10:00, , 2F
不需要仲介程式
04/13 10:00, 2F

04/13 10:00, , 3F
不用唷,十幾年前就有種東西叫做按鍵精靈
04/13 10:00, 3F

04/13 10:01, , 4F
我是說不需要提供介面也能寫
04/13 10:01, 4F

04/13 10:01, , 5F
寫個程式直接中介讀譜落子對DM來說是一片蛋糕啊
04/13 10:01, 5F
Are you sure about that? 如果沒有介面 1. 落子"也許"只需要類似"按鍵精靈"的功能 但是 2. 讀取落子(包括可能的提子狀況)就需要引進視覺辨識等功能了 3. 以上功能如果自己做 應該至少一個碩士等級的論文了

04/13 10:02, , 6F
deepmind外掛下棋落子速度上確實有優勢
04/13 10:02, 6F

04/13 10:04, , 7F
對於(奕城的)網路伺服器來說,他收到的資料只是
04/13 10:04, 7F

04/13 10:04, , 8F
滑鼠座標+clicking flag,那這個alphago可以自動送出
04/13 10:04, 8F

04/13 10:05, , 9F
而不需要實體滑鼠,對AG來說他只需要讀當前的棋盤
04/13 10:05, 9F

04/13 10:05, , 10F
然後決定要在哪個棋盤座標落子->轉成滑鼠座標送出
04/13 10:05, 10F

04/13 10:06, , 11F
另外,AG vs Lee第一天我很驚訝居然要有代理人
04/13 10:06, 11F

04/13 10:07, , 12F
我本以為只需要把譜投到大螢幕,李直接電腦落子即可
04/13 10:07, 12F
※ 編輯: mathbug (180.177.12.82), 04/13/2016 10:31:35

04/13 10:37, , 13F
不需要什麼視覺辦示啊…直接攔截封包就好了
04/13 10:37, 13F

04/13 10:37, , 14F
對google來說,寫這個的外卦大概就一個下午的事…
04/13 10:37, 14F

04/13 10:39, , 15F
基本上,奕城送來的封包不會是全圖像,為了流量控制
04/13 10:39, 15F

04/13 10:40, , 16F
應該只會是一個19x19 matrix記錄當前棋盤
04/13 10:40, 16F

04/13 10:41, , 17F
然後是由用戶端程式轉成為螢幕上的棋盤,所以的確是
04/13 10:41, 17F

04/13 10:41, , 18F
攔封包解讀矩陣就可以的事
04/13 10:41, 18F

04/13 10:42, , 19F
視覺辨識來說,那也只是一個固定圖樣
04/13 10:42, 19F

04/13 10:43, , 20F
開局讀棋盤轉出19x19的座標轉換矩陣,每次比對前次
04/13 10:43, 20F
這也是一項工程 大學部專題? 有大學生說說看三個月做得出來嗎? ※ 編輯: mathbug (180.177.12.82), 04/13/2016 10:46:33

04/13 10:44, , 21F
盤面跟本次盤面差異判讀對方/己方落子
04/13 10:44, 21F

04/13 10:44, , 22F
不需要很複雜好嗎~"~
04/13 10:44, 22F

04/13 10:45, , 23F
原po想像的視覺辨識技術太高級了,但是在這個case裡
04/13 10:45, 23F

04/13 10:45, , 24F
用不到那麼高級的視覺辨識......
04/13 10:45, 24F

04/13 10:48, , 25F
讀網格JPG/BMP判讀網格座標有難度嗎?
04/13 10:48, 25F

04/13 10:49, , 26F
前後兩張圖做XOR讀出盤面變化有難度嗎?
04/13 10:49, 26F

04/13 10:50, , 27F
將落子座標反轉換回影像座標(用來產出滑鼠座標)
04/13 10:50, 27F

04/13 10:50, , 28F
有任何難度嗎?
04/13 10:50, 28F

04/13 10:50, , 29F
這三個都沒有難度的狀況下,真的有難度的判斷在哪落
04/13 10:50, 29F

04/13 10:50, , 30F
子AG做的很好
04/13 10:50, 30F

04/13 10:54, , 31F
我猜原PO想成ROBOT自己用CAM抓影像,但這個case不用
04/13 10:54, 31F

04/13 10:57, , 32F
lol3個月哩..應該2小時內KO吧,有點經驗的話半小時以內
04/13 10:57, 32F

04/13 11:01, , 33F
Amiba你不能這樣說啦,如果是ROBOT自己用CAM抓影像
04/13 11:01, 33F

04/13 11:01, , 34F
還要轉出正確的座標,那大學生差不多要一個專題才能
04/13 11:01, 34F

04/13 11:01, , 35F
你也太小看google了... 這種程度半小時就解決了
04/13 11:01, 35F

04/13 11:01, , 36F
作的出來(一個學期的時間),只是我想原PO想太難惹
04/13 11:01, 36F

04/13 11:02, , 37F
1.軟體對軟體,要連接上哪有這麼困難。 2.它背後是goo
04/13 11:02, 37F

04/13 11:02, , 38F
gle,不是大學生
04/13 11:02, 38F

04/13 11:04, , 39F
還有一種可能就是奕城的使用者端回傳的資料僅僅是
04/13 11:04, 39F

04/13 11:04, , 40F
(落子的)棋盤座標,那這個就更簡單惹
04/13 11:04, 40F

04/13 11:05, , 41F
連產生滑鼠座標都不用,直接丟一個座標封包回去
04/13 11:05, 41F

04/13 11:12, , 42F
用cam大學生大概1天KO吧..是靜態的可以很輕鬆濾出棋盤
04/13 11:12, 42F

04/13 11:18, , 43F
恩,是沒錯啦,但是專題會過不暸唷XDDD
04/13 11:18, 43F

04/13 11:30, , 44F
拿大學生跟Google的菁英工程師比...
04/13 11:30, 44F

04/13 11:32, , 45F
雖然沒去解讀,不過用一般原理來想封包只有回傳落子座標
04/13 11:32, 45F

04/13 11:33, , 46F
根本不需要回傳視覺資訊,一般的工程師來做頂多也幾天吧
04/13 11:33, 46F

04/13 11:39, , 47F
網路上都有TYGEM的開源用戶端了,用那個改就好啦
04/13 11:39, 47F

04/13 11:40, , 48F
可以查一下 sikuli 就知道其實不難了
04/13 11:40, 48F

04/13 11:46, , 49F
這樣就能生出碩論等級我應該一年就畢業了...
04/13 11:46, 49F

04/13 12:03, , 50F
影像處理實驗室報到...專題做這個應該畢不了業+1
04/13 12:03, 50F

04/13 12:33, , 51F
你太小看它們了吧...大學專題等級的東西對它們就是非常
04/13 12:33, 51F

04/13 12:33, , 52F
簡單的東西啊
04/13 12:33, 52F

04/13 12:44, , 53F
AJA那次有說,他們公司有做視覺辨識,看人下一晚棋就學會
04/13 12:44, 53F

04/13 12:58, , 54F
碩士論文做這個 當口委吃素嗎
04/13 12:58, 54F

04/13 12:59, , 55F
賣啊捏,說不定在十年前這真的是碩論等級啊
04/13 12:59, 55F

04/13 12:59, , 56F
我念MS的時候,博班學長說他們當年除頻器會動就畢業
04/13 12:59, 56F

04/13 13:00, , 57F
可是我們都要搞到SSGS系統有效果才能畢業
04/13 13:00, 57F

04/13 13:00, , 58F
中間也不過差兩年~"~
04/13 13:00, 58F

04/13 13:03, , 59F
SSCG(single side band clck generator)上面誤繕
04/13 13:03, 59F

04/13 14:11, , 60F
我也蠻好奇,圍棋就是座標,和視覺辨識有什麼關係?另外
04/13 14:11, 60F

04/13 14:11, , 61F
正式比賽不太可能叫棋手電腦落子,除非本來就約在網路上下
04/13 14:11, 61F

04/13 14:20, , 62F
網路遊戲的外掛這麼多,Google的技術,一點都不成問題啊!
04/13 14:20, 62F

04/13 14:24, , 63F
打個比方好了,神魔之塔外掛,判別珠子,規劃路徑,自動轉珠
04/13 14:24, 63F

04/13 14:25, , 64F
相對於網路圍棋,網路圍棋電腦代下簡直是簡單到爆炸啊!
04/13 14:25, 64F

04/13 14:27, , 65F
棋盤上畫面資訊都很固定、單純 狀態有限
04/13 14:27, 65F

04/13 14:27, , 66F
每個可落子的點: 黑棋 白棋 沒落子
04/13 14:27, 66F

04/13 14:27, , 67F
簡單分析判斷一下就出來了 您想得有點太複雜了
04/13 14:27, 67F

04/13 14:41, , 68F
deepmind應用在圍棋上的AphaGO最基本精神就是視覺辨識
04/13 14:41, 68F

04/13 14:43, , 69F
AG就是靠整個盤面19x19像素與勝負的關聯,利用深度學習
04/13 14:43, 69F

04/13 14:44, , 70F
大量數據化後建立良好的策略函數與評價函數
04/13 14:44, 70F

04/13 14:47, , 71F
AG可能根本不知道死活、氣數、目數,只是單純看哪種圖
04/13 14:47, 71F

04/13 14:49, , 72F
形19x19像素有最好勝率就好了
04/13 14:49, 72F

04/13 14:50, , 73F
怎麼可能不知道死活氣數目數,不然你隨便看篇他paper
04/13 14:50, 73F

04/13 14:51, , 74F
死活氣數目數是基本的,只是說deepmind沒有去深究,硬是要
04/13 14:51, 74F

04/13 14:51, , 75F
算出幾十步後的變化,而且他有更精準的評價函數
04/13 14:51, 75F

04/13 14:52, , 76F
連星海這種動態的都要挑戰了 圍棋這種靜態的就算
04/13 14:52, 76F

04/13 14:52, , 77F
用視覺辨識對google也超簡單好嗎
04/13 14:52, 77F

04/13 15:38, , 78F
其實比掃個QR CODE 還要簡單
04/13 15:38, 78F

04/13 16:33, , 79F
鍵盤精靈已經做到可以從螢幕上掃圖了喔,像是,出現敵人
04/13 16:33, 79F

04/13 16:34, , 80F
的圖片後,就把滑鼠移過去點他這樣
04/13 16:34, 80F

04/13 17:49, , 81F
你的世界裡一定存在很多神人,連辨識棋盤這項技術都會讓你
04/13 17:49, 81F

04/13 17:49, , 82F
讚歎不已
04/13 17:49, 82F

04/13 21:22, , 83F
alphaGo都寫得出來了,弄個遊戲外掛簡單多了
04/13 21:22, 83F

04/14 00:51, , 84F
直接從網路送來的資料下手最快 棋譜也不過就是一堆座標
04/14 00:51, 84F

04/14 00:51, , 85F
不是
04/14 00:51, 85F

04/14 04:36, , 86F
碩論......那我研究室裡的寫神魔之塔自動轉珠應該已經博士
04/14 04:36, 86F

04/14 04:36, , 87F
班畢業了(笑)
04/14 04:36, 87F

04/14 04:37, , 88F
不能說不需要技術,畢竟這種技術是知道就知道,不知道就不
04/14 04:37, 88F

04/14 04:38, , 89F
知道的東西。但是都是老早就存在的東西,而且根本用不到圖
04/14 04:38, 89F

04/14 04:38, , 90F
形辨識這種東西,抓圖下來看黑色白色還是棋盤底色很難嗎XD
04/14 04:38, 90F

04/14 04:39, , 91F
連拆封包都不需要會呢XD
04/14 04:39, 91F

04/14 23:42, , 92F
根本不需要影像處理也很簡單
04/14 23:42, 92F

04/14 23:42, , 93F
視窗align好 按鍵精靈對著矩陣寫就好
04/14 23:42, 93F

04/16 00:05, , 94F
文組?
04/16 00:05, 94F

04/17 19:26, , 95F
如果碰到提子或是屠龍時,應該也要傳資料修改吧?
04/17 19:26, 95F

04/22 20:42, , 96F
太小看大學生了....
04/22 20:42, 96F
文章代碼(AID): #1N3QL6Ue (GO)
討論串 (同標題文章)
文章代碼(AID): #1N3QL6Ue (GO)