[新聞] 世界圍棋AI大賽一觸即發 11款超級AI將上演眾神之戰已刪文

看板GO作者 (星浪)時間6年前 (2018/06/21 22:13), 編輯推噓23(296122)
留言157則, 15人參與, 6年前最新討論串1/1
世界圍棋AI大賽一觸即發 11款超級AI將上演眾神之戰 在這瞬息萬變的時代,從第一場圍棋人機大戰舉世矚目的轟動,到如今人們對AI擊敗人類 頂尖圍棋高手的習以為常,間隔不過兩年而已。兩年來AI大賽方興未艾,來自世界各國的 人工智慧大牛各顯其能。人工智慧們勢如奔馬的進步速度,讓這個時代的圍棋AI比賽,成 為不折不扣的“眾神之戰”,但最高級別的較量,還需要舉足輕重的發起者,為他們鋪設 最高規格的舞臺。   4月23日,騰訊在UP2018新文創生態大會上,正式對外公佈了由中國圍棋協會和騰訊 聯合主辦的“2018騰訊世界人工智慧圍棋大賽”。高達116萬人民幣、超越同類賽事數倍 的總獎金,一舉將圍棋AI大賽帶入百萬時代。   本屆賽事分預賽、複賽、總決賽三個階段,全部參賽隊伍將於6月23、24兩日雲集北 京,通過瑞士制積分編排賽,決出前8名進入複賽。複賽將於7月上旬開戰,8位晉級AI將 登錄騰訊野狐圍棋平臺,以網路對戰的形式進行7輪迴圈圈比賽(每輪執黑、白各1局), 在全世界棋迷的關注之下,最終決出前4名進入現場總決賽。7月下旬,4位頂級圍棋AI重 回北京,歷經五番棋半決賽和七番棋決賽,決出最後的勝者和40萬冠軍獎金的歸屬。 值得一提的是,不光是圍棋AI大賽,即便將範圍擴大到迄今已有30年歷史的人類世界大賽 ,決賽七局四勝制亦是前所未有的壯舉。受限於自身的限制,人類在經過長時間高強度對 抗後,不可避免要被疲勞束縛,導致體力、精力、心理一併衰頹。只要插上電源即可無限 運轉的AI,天然地更適合長線作戰。總決賽階段採用超長番棋,不僅是為了最大限度杜絕 意外,以實力決出圍棋AI王者,亦是考慮到愛好者們的觀賽需求,讓大家盡可能多的欣賞 到當今最高水準圍棋對局。   高規格隨之而來的還有高門檻,廣發英雄帖的騰訊,亦在報名條件中對參賽者的棋力 和原創性提出硬性要求。參賽程式需在最近三年獲得過世界級別AI大賽前8名,或在騰訊 野狐圍棋平臺達到9D及以上。確保了每一位到場者的實力均遠遠超越人類,“眾神之戰” 實至名歸。此外參賽程式還需擁有程式原始程式碼來證明其原創性,開源AI軟體則需獲得 原作者唯一授權後方可參賽。   最終經過歷時一個半月的報名,共有遍佈中日韓和歐美的11款AI將出征本次大賽,包 括來自中國的絕藝、章魚、星陣、北極光,來自日本的AQ、AYa、Raynz,來自韓國的 Dolbaram、Baduki,來自比利時的Leela Zero和來自美國的ELFOpenGo。  這其中,兩次AI世界冠軍得主絕藝自然是奪冠大熱。剛剛受聘成為中國國家圍棋隊專用 訓練AI的絕藝,在過去的一年裡早就以指導棋、大賽解說等形式,與棋迷們切磋、交流。 然而與公眾如此頻繁的互動,也意味著絕藝在對手面前毫無秘密可言。唯有拿出高人一等 的實力,方能在群雄的窺伺下如願捧冠。 兩個月前橫空出世的星陣,堪稱今年最亮眼的國產黑馬。4月末星陣先是在一場公開的人 機對抗中完勝柯潔,隨後仿效一千年前的北宋國手劉仲甫,打出“奉饒天下先”的招牌, 在對頂尖棋手的讓先對局中取得40勝1負的壓倒戰績。本次大賽是星陣成名後參加的首個 AI賽事,面對人類予取予求的星陣,即將迎來矽基強者們的考驗。 來自韓國的Dolbaram(石子旋風),也曾是問鼎世界圍棋AI冠軍,見證著圍棋AI時代從蠻 荒到文明的篳路藍縷。多次在AI大賽中打進前三的AQ,在DeepZenGo引退的現在已成為日 本AI的領頭羊。圍棋作為盛行東亞的遊戲,中日韓三國迴圈爭鬥的歷史已接近一個世紀。 上述兩款日韓AI,肩負著捍衛圍棋強國榮耀的使命踏上戰場。   跨海而來的兩款歐美AI,沿著兩條截然不同的發展軌跡享譽世界。比利時程式師GCP 編寫的Leela,自誕生之日起便堅持開源路線。Zero演算法問世後,通過向全世界愛好者 眾籌的方式,打造出一款全民參與的養成類圍棋AI。ELFOpenGo則出自互聯網巨頭之手, 研發時間不足四個月,便在與韓國國家隊的內部測試(人類可無限時思考)中輕鬆取得全 勝,實力之強大只能用深不可測形容。   近年來人工智慧已成為全世界矚目的風口,蜂擁而來的海量資本和有志于創造歷史的 頂級人才的雙重加持,讓人工智慧的技術進步速度,快到以天為單位計算。然而網路上的 發帖和討論,畢竟不如面對面一問一答。本次大賽,亦是為各國的開發者們,提供了一個 極好的,能夠在現場交流的平臺。   這次大賽造就了來自不同國家、不同團隊的超級AI和研發者現場交流的重要契機,令 6月23日就要正式開戰的2018騰訊世界人工智慧圍棋大賽,打從預賽第1輪起便有無數看點 和懸念亟待揭曉。史上最高規格的AI大賽將見證哪些人工智慧的突圍,又將在賽場上誕生 多少的名局妙招,敬請期待6月23—24日的大戰。 http://sports.sina.com.cn/go/2018-06-21/doc-ihefphqk9706598.shtml -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.233.93.166 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1529590425.A.9B4.html

06/21 22:29, 6年前 , 1F
沒有cgi阿...
06/21 22:29, 1F

06/21 22:31, 6年前 , 2F
CGI可能連LZ都下不贏
06/21 22:31, 2F

06/21 22:34, 6年前 , 3F
話說,跑在最前面的那幾個應該有接近甚至超越 AlphaGo
06/21 22:34, 3F

06/21 22:34, 6年前 , 4F
Zero 的實力了吧?過了這麼長時間了,應該有點希望?
06/21 22:34, 4F

06/21 22:40, 6年前 , 5F
cgi已經沒再進步了嗎?@@
06/21 22:40, 5F

06/21 22:44, 6年前 , 6F
我只能說和AGZ是not even close
06/21 22:44, 6F

06/21 22:44, 6年前 , 7F
比master都差的很遠
06/21 22:44, 7F

06/21 22:54, 6年前 , 8F
台灣職棋已經在用ELF了,實力深不可測
06/21 22:54, 8F

06/21 23:00, 6年前 , 9F
雖然過了這麼久 大家跟AlphaGo Zero 的訓練量還是差
06/21 23:00, 9F

06/21 23:00, 6年前 , 10F
很遠 就以ELF 來說 20B 2000GPU 訓練了3周 AGZ 是40B
06/21 23:00, 10F

06/21 23:00, 6年前 , 11F
10000+GPU 訓練了40天 差距還是非常大
06/21 23:00, 11F

06/21 23:03, 6年前 , 12F
里拉現在連近2個月前開源的ELF都還沒追上勒 可見訓練
06/21 23:03, 12F

06/21 23:03, 6年前 , 13F
量的差異度 一般人要用年才能抵得上巨頭們用天的訓練
06/21 23:03, 13F

06/21 23:08, 6年前 , 14F
這次Leela 會用20BV16 V17嗎? 期待中...
06/21 23:08, 14F

06/21 23:13, 6年前 , 15F
哪來的10000+gpu??
06/21 23:13, 15F

06/21 23:21, 6年前 , 16F
CGI的作者 交大吳毅成教授估計的 Google使用的TPU資
06/21 23:21, 16F

06/21 23:21, 6年前 , 17F
源 至少約當於10000以上的GPU
06/21 23:21, 17F

06/21 23:22, 6年前 , 18F

06/21 23:22, 6年前 , 19F
49418
06/21 23:22, 19F

06/21 23:36, 6年前 , 20F
所以CGI才不玩了吧? Leela算是非公司AI中比較有資源
06/21 23:36, 20F

06/21 23:36, 6年前 , 21F
的 深夜時段大概100台在跑 熱門時段大概同時300台在
06/21 23:36, 21F

06/21 23:36, 6年前 , 22F
跑 不過跟騰訊 谷歌比就差很遠
06/21 23:36, 22F

06/21 23:39, 6年前 , 23F
https://goo.gl/sLT5XM 只有2000TPU
06/21 23:39, 23F

06/21 23:40, 6年前 , 24F
樓上有關leela的數據都是錯的...
06/21 23:40, 24F

06/21 23:42, 6年前 , 25F
在雞同鴨講什麼 TPU是谷歌自己發明的晶片 比一般GPU(
06/21 23:42, 25F

06/21 23:42, 6年前 , 26F
這裡以1080Ti為基準)強多了 自己查查TPU的資訊吧 TP
06/21 23:42, 26F

06/21 23:42, 6年前 , 27F
U都出到3代了 簡直是怪獸
06/21 23:42, 27F

06/21 23:45, 6年前 , 28F
哪裡錯指出來啊 又想戰是不是 Leela官網都有資訊啊
06/21 23:45, 28F

06/21 23:45, 6年前 , 29F
有多少 client in past hour 沒知識請多學學好嗎? 1
06/21 23:45, 29F

06/21 23:45, 6年前 , 30F
0000+ GPU 錯了? 還是Leela幾百台錯了?
06/21 23:45, 30F

06/21 23:47, 6年前 , 31F
口委別生氣,暑假辛苦你了
06/21 23:47, 31F

06/21 23:48, 6年前 , 32F
垃圾也懶得跟你講 為反而反而已 對你這種人 不恥跟你
06/21 23:48, 32F

06/21 23:48, 6年前 , 33F
囉嗦
06/21 23:48, 33F

06/21 23:48, 6年前 , 34F
啥都不懂也敢大聲
06/21 23:48, 34F

06/21 23:50, 6年前 , 35F
什麼都別說,先看看現在多少Clients,然後明天
06/21 23:50, 35F

06/21 23:50, 6年前 , 36F
起床看一下多少台,你就知道你為什麼錯了
06/21 23:50, 36F

06/21 23:52, 6年前 , 37F
是說樓上這樣罵應該觸碰版規了吧?
06/21 23:52, 37F

06/21 23:52, 6年前 , 38F
我現在看是229台 深夜100多台 請問這樣說法有錯嗎 這
06/21 23:52, 38F

06/21 23:52, 6年前 , 39F
種本來就是變來變去 我說的數字都是我曾經看過的
06/21 23:52, 39F
還有 78 則推文
06/23 00:14, 6年前 , 118F
小弟以前是沒聽過那個專業名詞 學到了XD 可以請H大解釋
06/23 00:14, 118F

06/23 00:22, 6年前 , 119F
CGI消失好久了...何時才會重出江湖
06/23 00:22, 119F

06/23 00:26, 6年前 , 120F
也沒什麼,google異質運算就大概知道了...
06/23 00:26, 120F

06/23 12:49, 6年前 , 121F
這算是這幾年的新名詞嗎?以前在學校只學過 parallel
06/23 12:49, 121F

06/23 12:50, 6年前 , 122F
distributed/cloud computing 異質運算還真的第一次聽到
06/23 12:50, 122F

06/23 12:52, 6年前 , 123F
有點像以前只聽過VR/AR 最近突然出現MR(Mixed Reality)
06/23 12:52, 123F

06/23 12:54, 6年前 , 124F
融合兩種reality
06/23 12:54, 124F

06/23 16:59, 6年前 , 125F
某j被質疑就爆氣ㄏ 暑假到了嘻嘻
06/23 16:59, 125F

06/24 02:03, 6年前 , 126F
如果像那個連結說的真的要1萬張1080TI訓練,也不用
06/24 02:03, 126F

06/24 02:04, 6年前 , 127F
全世界愛好者啦,去最新的SUMMIT申請一下,那裡有
06/24 02:04, 127F

06/24 02:04, 6年前 , 128F
快3萬張V100
06/24 02:04, 128F

06/24 11:58, 6年前 , 129F
GPU作單位不同? FP32 V100 14T FLOPS 1080Ti 11.X FL
06/24 11:58, 129F

06/24 11:58, 6年前 , 130F
OPS 好吧 不同 2000X14/11=2545
06/24 11:58, 130F

06/24 11:58, 6年前 , 131F
我只是要指出ELF跟AGZ算力之差 很不同?
06/24 11:58, 131F

06/24 12:04, 6年前 , 132F
...我就已經說ELF是用V100用FP16計算了,你又拉回
06/24 12:04, 132F

06/24 12:04, 6年前 , 133F
FP32
06/24 12:04, 133F

06/24 12:10, 6年前 , 134F
你看錯就看錯 我從來也沒講過什麼TPU數字 你從頭到
06/24 12:10, 134F

06/24 12:10, 6年前 , 135F
尾就只是想挑毛病而已 200 100多爭 2000 2500之差 好
06/24 12:10, 135F

06/24 12:10, 6年前 , 136F
吧 別人說些什麼 就找一些無關大局的數字來挑毛病
06/24 12:10, 136F

06/24 12:10, 6年前 , 137F
我知道你針對我
06/24 12:10, 137F

06/24 12:14, 6年前 , 138F
你自己肚眼小吧 我暴氣是認真了應該是不需要 從頭就
06/24 12:14, 138F

06/24 12:14, 6年前 , 139F
不是想建設性的討論 我又何必講那麼多
06/24 12:14, 139F

06/24 12:16, 6年前 , 140F
ELF inference 是用FP16沒錯 training也是FP16嗎 你
06/24 12:16, 140F

06/24 12:16, 6年前 , 141F
確定?
06/24 12:16, 141F

06/24 12:33, 6年前 , 142F
bjiyxo 說差距很遠 人家懂 但人家沒說 我只是想補充
06/24 12:33, 142F

06/24 12:33, 6年前 , 143F
一下 讓不清楚的人知道 https://facebook.ai/develop
06/24 12:33, 143F

06/24 12:33, 6年前 , 144F
ers/tools/elf elf官網也是說它用2000GPU 我有說錯
06/24 12:33, 144F

06/24 12:33, 6年前 , 145F
嗎? 你不要講那些那麼多 1080Ti本來就跟V100不是相
06/24 12:33, 145F

06/24 12:33, 6年前 , 146F
差很大的等級
06/24 12:33, 146F

06/24 12:33, 6年前 , 147F
差別在FP16 問題是10000+GPU 那個10000+(CGI是估1200
06/24 12:33, 147F

06/24 12:33, 6年前 , 148F
0 我說10000是保守了)是谷歌TPU換過來1080Ti的算力
06/24 12:33, 148F

06/24 12:33, 6年前 , 149F
其FP16根本不像1080Ti那樣有問題 專業的都用GPU來
06/24 12:33, 149F

06/24 12:33, 6年前 , 150F
比喻讓一般人易懂易比 人家不知道要用FLOPS嗎? 你一
06/24 12:33, 150F

06/24 12:33, 6年前 , 151F
直在那邊不知鳥毛什麼
06/24 12:33, 151F

06/24 15:25, 6年前 , 152F
你都一直暴氣,但說的都不太準確,training不是FP16
06/24 15:25, 152F

06/24 15:26, 6年前 , 153F
這大家都知道,只是FP16在生產棋譜,花最長的時間
06/24 15:26, 153F

06/24 15:29, 6年前 , 154F
也是生產棋譜,另外V100的FP16比FP32大約有1.5倍
06/24 15:29, 154F

06/24 15:29, 6年前 , 155F
所以計算出來當然不正確啊,V100就不需要10000+
06/24 15:29, 155F

06/24 15:30, 6年前 , 156F
然後ELF也是用V100,你既然要兩個相比,就不該用
06/24 15:30, 156F

06/24 15:30, 6年前 , 157F
不同單位,不然就是蘋果比橘子
06/24 15:30, 157F
文章代碼(AID): #1RAxAPcq (GO)