[請益] 機器學習能有什麼玩法?

看板GameDesign作者 (258)時間6年前 (2017/10/08 19:02), 6年前編輯推噓17(17073)
留言90則, 11人參與, 6年前最新討論串1/1
大家好 Google這幾天發表了開源的machine learning程式碼。玩了一下覺得不得了,這實在太有 趣了。 在人人有手機的時代,結合AR與機器學習的元素後、手遊能有什麼新的玩法? 小弟目前還不知道它可以用在什麼地方,純粹只是感到興奮而已XD 小弟花兩分鐘的動手玩影片: https://youtu.be/aNENxOLd94Y
=== 以下是這次機器學習的故事背景: 藉由學習大量的照片,它可以識別出不同照片中的物體。 例如,拿著手機在攝影機前晃一晃、讓它拍下幾百張照片;然後再拿手錶做一樣的事。然 後,它馬上就可以即時判斷畫面中的物體是手錶還是手機了。即使物體角度、大小、光線 變化、只要樣本數夠多它都能判斷出來。 以上這些神奇的科技不用任何軟體費用,只要一台有攝影機的普通筆電、以及會按滑鼠的 人即可(還不用懂程式),真是太神奇了。 順帶一提,我只花五分鐘就從完全沒有基礎、到完成訓練了,這真的是個好工具。 新聞出處: https://www.cool3c.com/article/129697/amp 體驗網址(桌電需搭配chrome): https://teachablemachine.withgoogle.com/ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.12.1.136 ※ 文章網址: https://www.ptt.cc/bbs/GameDesign/M.1507460526.A.FB9.html

10/08 19:38, 6年前 , 1F
喔喔喔 這個好
10/08 19:38, 1F
※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:46:16 ※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 19:52:14 ※ 編輯: nfs258147 (39.12.1.136), 10/08/2017 20:37:28

10/08 21:36, 6年前 , 2F
我想要讓電腦幫我識別的東西比較複雜,感覺這應該達不到需求
10/08 21:36, 2F
應該跟訓練的數量有關,越多越準吧。

10/09 02:59, 6年前 , 3F
這東西可以訓練完後拿去餵大數據阿
10/09 02:59, 3F
沒錯!大數據是來源,現在缺有效分析它的工具。

10/09 11:24, 6年前 , 4F
其實逃離房間那類實境遊戲應該會最好用 XD
10/09 11:24, 4F

10/09 11:25, 6年前 , 5F
可以刻意訓練成能辨識很特定的東西做出不同反應
10/09 11:25, 5F
好像也不錯。 我突然想到,可以結合汽車行車記錄器與遊戲、每天任務是搜集幾種特定的號誌或標的物 、然後升級或換道具之類的。 營運資金來自於將大量的識別圖資賣給自動駕駛車公司之類的,哈哈。 ※ 編輯: nfs258147 (110.28.64.29), 10/09/2017 19:09:35

10/09 19:28, 6年前 , 6F
跟訓練的數量沒有絕對關係,有可能再多也完全不會收斂
10/09 19:28, 6F

10/09 23:33, 6年前 , 7F
PVP遊戲的中~低等級的AI
10/09 23:33, 7F

10/10 01:53, 6年前 , 8F
拿來做恐怖遊戲不錯阿,在電腦前閃躲、閉眼時把jump
10/10 01:53, 8F

10/10 01:53, 6年前 , 9F
scare延遲,等你表情放鬆的時候再突然嚇你
10/10 01:53, 9F
這個應該會摔手機...拓展維修商機

10/10 06:34, 6年前 , 10F
我現在幻想的是,任何人上傳照片都能靠分析直接判斷出位置
10/10 06:34, 10F

10/10 06:34, 6年前 , 11F
不需要紅外線鏡頭測準度等物理手段
10/10 06:34, 11F

10/10 06:35, 6年前 , 12F
當然前提是背景有拍到地標,而判斷來源是google擁有的
10/10 06:35, 12F

10/10 06:36, 6年前 , 13F
地球圖庫big data(街景車,fb ig等社群
10/10 06:36, 13F

10/10 06:37, 6年前 , 14F
當然射影機能即時運算更好,配合ar kit chip去達到全新的
10/10 06:37, 14F

10/10 06:37, 6年前 , 15F
射群體驗
10/10 06:37, 15F

10/10 06:37, 6年前 , 16F
社...(一個字毀了一串文
10/10 06:37, 16F
同意。 只要資料量夠大,應該可以反推出自身位置的。這圖資可以用在自動駕駛車、室內自主導 航設備等等,也可以結合AR來推廣廣告(蘋果佈局AR也許是在鋪這條路)。 用一般鏡頭來偵測環境、也許是目前最有成本效益的作法(相較於Lidar),適合大量推 廣。 以前的google glass用來做這樣的用途剛剛好,無奈遇到許多現實的瓶頸..

10/10 07:39, 6年前 , 17F
樓樓上的讓我想到機車的P.T. (被下架的沉默之丘teaser)
10/10 07:39, 17F

10/10 07:39, 6年前 , 18F
探頭往廁所裡面看好久都沒事,要轉身離去的時後才跳出
10/10 07:39, 18F

10/10 07:39, 6年前 , 19F
來嚇人
10/10 07:39, 19F

10/10 08:15, 6年前 , 20F
想讓電腦辨識的東西是題庫,從選擇題的題庫中得到題目+選項
10/10 08:15, 20F

10/10 08:15, 6年前 , 21F
若題庫有附正確答案則也要辨識出來
10/10 08:15, 21F

10/10 08:16, 6年前 , 22F
正規表達式能處理的只有文字,遇到數學題庫、化學題庫就沒輒
10/10 08:16, 22F

10/10 08:19, 6年前 , 23F
選擇題對電腦來說難度應該是最小的,其他還有填充題、問答題
10/10 08:19, 23F

10/10 08:19, 6年前 , 24F
,配對題
10/10 08:19, 24F
這好像是文書翻譯軟體(如蒙恬之類的,沒有研究)有機會達成吧? ※ 編輯: nfs258147 (27.246.198.210), 10/10/2017 14:45:18

10/11 01:04, 6年前 , 25F
上面那個判斷地點的其實有點誤判大數據的資料量跟目標了
10/11 01:04, 25F

10/11 01:05, 6年前 , 26F
如果目標是「詳細地點」,則分母太大了,即便Google街景車
10/11 01:05, 26F

10/11 01:06, 6年前 , 27F
累積拍了很多照片,但對於單一小地點的照片量就遠少且變化
10/11 01:06, 27F

10/11 01:07, 6年前 , 28F
不足(例如,就不會每隔一小時、每個月的照片都有)
10/11 01:07, 28F

10/11 01:07, 6年前 , 29F
這樣你表面上看起來像是Big data,其實對於太細的目標來說
10/11 01:07, 29F

10/11 01:07, 6年前 , 30F
完全沒有發揮出Big data的效果
10/11 01:07, 30F

10/11 01:08, 6年前 , 31F
舉一個相對比較發揮Big data的用法,就是你拍張街景,讓它
10/11 01:08, 31F

10/11 01:08, 6年前 , 32F
自動猜出你在哪一個國家
10/11 01:08, 32F

10/11 01:09, 6年前 , 33F
這個目標的分母就小得多了,而且對每個目標所擁有的資訊也
10/11 01:09, 33F

10/11 01:09, 6年前 , 34F
豐富且多樣又帶有一定的重複性跟特徵,Big data的影響力能
10/11 01:09, 34F

10/11 01:10, 6年前 , 35F
發揮得更好一點
10/11 01:10, 35F

10/11 01:12, 6年前 , 36F
至於判斷詳細地點這件事,我必須說那是一件靠Big data意義
10/11 01:12, 36F

10/11 01:13, 6年前 , 37F
不大的事情,即便你做出來了,但現在每台手機直接就擁有的
10/11 01:13, 37F

10/11 01:14, 6年前 , 38F
能力為什麼需要另外一個更麻煩、更不準確且Cost可能還更高
10/11 01:14, 38F

10/11 01:15, 6年前 , 39F
的機制來做呢?
10/11 01:15, 39F

10/11 01:18, 6年前 , 40F
上面舉的判斷國家也不是一個很好的應用例子,只是用來說明
10/11 01:18, 40F

10/11 01:19, 6年前 , 41F
後端處理時它比較有發揮Big data感覺一些而已
10/11 01:19, 41F
大大,這並不是想要取代目前的GPS定位系統哦!而是讓機器透過攝影機能感知這個世界 。 以下是對未來比較美好的幻想,細節就不討論了。 「初期階段」 利用機器學習,提升自動駕駛車攝影機對於馬路物件的辨識成功率。圖資來源可以是每一 台車的行車記錄器;透過不斷上傳圖資,整個資料庫會越來越完善(當然要搭配效率越來 越好的分類裝置)。目前的Lidar還是太貴且無法對物件有效分類。 之後也可以當抓耙子,例如車開過路邊就自動抓拍紅線違規停車並上傳系統收獎金。 在此時期需要搜集大量的圖資,就像google map需要街景車一樣。但不同以往的是,任何 簡單的攝影機,有機會透過機器學習來變成圖資搜集裝置。而且現在行車記錄器都快變標 配且常開了,沒有續航力什麼的問題。 當然資料量會非常龐大,會需要一套有效率的系統來分類之。 「中期階段」 透過標定馬路上建築物的外型(並結合GPS來縮小搜尋範圍)、讓廣告透過某種AR裝置鑲 嵌在建築物外壁上。 想像一下,若google glass等AR裝置在未來已經大量普及,坐公車時只要對著外面服飾店 的虛擬看板點幾下,商品沒多久就出現在家裡了。 拜便宜的視覺系統所賜,家用機器人已經可以認知家中大部分的物品,並可以充當傭人使 用。人人都可以有JARVIS。 因為視覺系統夠安全,馬路上會有許多跑來跑去的機器人。 「後期階段」 強人工智慧被發展出來,機器意識以國家為單位組成。機器意識可以掌握整個國家的所有 機器,從車、電冰箱到軍事武器無一倖免,機器意識可以共享這些終端設備的所有資訊。 人類移民別的星球,搭的是不知道哪台機器設計的飛行器,也不知道飛行原理。「反正會 到就好了...」人們這麼想著。接著請把劇情接到魔鬼終結者,人類GG。

10/11 17:38, 6年前 , 42F
還蠻有趣的w
10/11 17:38, 42F

10/11 23:52, 6年前 , 43F
話說,這個如何XD:
10/11 23:52, 43F

10/11 23:52, 6年前 , 44F
10/11 23:52, 44F
很實用,推! ※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:31:24 ※ 編輯: nfs258147 (110.28.77.251), 10/12/2017 01:33:45

10/12 13:45, 6年前 , 45F
那如果是 big data中已經被分類過的哩
10/12 13:45, 45F

10/12 13:46, 6年前 , 46F
比如說利用所有tag #101的照片 自動建出101模型
10/12 13:46, 46F

10/12 13:46, 6年前 , 47F
當然不可能拿全世界的地圖去跑單一地點
10/12 13:46, 47F

10/12 13:47, 6年前 , 48F
就像機器人在玩3d建模拼圖一樣
10/12 13:47, 48F

10/12 13:48, 6年前 , 49F
只是拼圖可能不完整
10/12 13:48, 49F

10/12 13:49, 6年前 , 50F
或是亂七八糟的東西tag 101也能自動踢掉
10/12 13:49, 50F

10/12 13:49, 6年前 , 51F
當然,這樣就能夠詳細從照片反推出很精準的坐標
10/12 13:49, 51F

10/12 13:52, 6年前 , 52F
然後我覺得google glass還是太早..等隱形眼鏡的螢幕成熟吧
10/12 13:52, 52F

10/12 13:53, 6年前 , 53F
目前能夠實用化是手機
10/12 13:53, 53F

10/12 14:28, 6年前 , 54F
隱形眼鏡螢幕也不太對,更遠了,但是google glass能搞定
10/12 14:28, 54F

10/12 14:29, 6年前 , 55F
成像時黑幕(其實有點像變色鏡片?) 跟眼球追蹤(eyes touch
10/12 14:29, 55F

10/12 14:30, 6年前 , 56F
會比較有實用性吧..
10/12 14:30, 56F

10/14 02:47, 6年前 , 57F
世界感知分析甚至自動從2D建3D模的話,問題會在於你在
10/14 02:47, 57F

10/14 02:47, 6年前 , 58F
training階段要先有正確答案,否則你連Model怎麼training
10/14 02:47, 58F

10/14 02:47, 6年前 , 59F
都不知道
10/14 02:47, 59F

10/14 02:48, 6年前 , 60F
所有#101的照片,內容並不一定只有101。雖然101已經算是相
10/14 02:48, 60F

10/14 02:49, 6年前 , 61F
對明顯的建築物,所以搭配其他技術切割及比對是可能自動獨
10/14 02:49, 61F

10/14 02:49, 6年前 , 62F
立出來,不過這也是101的獨特性才比較有機會
10/14 02:49, 62F

10/14 02:50, 6年前 , 63F
不過其實我上面回那一大段主要針對Google Map的資料,如果
10/14 02:50, 63F

10/14 02:51, 6年前 , 64F
是圖片網站 + Tag的話,事情有點不一樣XD
10/14 02:51, 64F

10/14 02:51, 6年前 , 65F
有Tag當然就可以想辦法把Tag做為Class拿來玩分類,不瞞你
10/14 02:51, 65F

10/14 02:53, 6年前 , 66F
說我現在的研究其實就是跟這種Multi-label classification
10/14 02:53, 66F

10/14 02:54, 6年前 , 67F
重度相關的東西呢,只是做比較底層所以不限也沒針對圖片處
10/14 02:54, 67F

10/14 02:55, 6年前 , 68F
理、針對
10/14 02:55, 68F

10/14 02:56, 6年前 , 69F
其實及時從畫面中分離鎖定某種東西,這種技術早就存在了,
10/14 02:56, 69F

10/14 02:57, 6年前 , 70F
就是人臉鎖定。因為只要是人臉,有很多共通特徵幾乎不會改
10/14 02:57, 70F

10/14 02:58, 6年前 , 71F
變,所以可以細心調整出一個Model,然後所有人的手機所有
10/14 02:58, 71F

10/14 02:58, 6年前 , 72F
人的臉都可以用了
10/14 02:58, 72F

10/14 02:59, 6年前 , 73F
但是只要做以下的類比就知道辨識環境中所有事物的麻煩在哪
10/14 02:59, 73F

10/14 03:00, 6年前 , 74F
:你現在是要為環境中所有你想到要分離出來的東西都各建一
10/14 03:00, 74F

10/14 03:02, 6年前 , 75F
個Model來判斷,光是每一個類別之中同類事物的差別就可能
10/14 03:02, 75F

10/14 03:03, 6年前 , 76F
天差地遠,不同類別的東西卻又可能搞不好長得很像,然後最
10/14 03:03, 76F

10/14 03:03, 6年前 , 77F
糟糕的是類別的數量可能很多,你每次分析環境都要一口氣跑
10/14 03:03, 77F

10/14 03:04, 6年前 , 78F
過每一個Model以把所有東西都辨識出來
10/14 03:04, 78F

10/14 03:05, 6年前 , 79F
如果上面這件事可以做得很準確又很有效率很即時,相比之下
10/14 03:05, 79F

10/14 03:06, 6年前 , 80F
要從那些資訊拿來查Google Map做定位應該反而簡單很多XD
10/14 03:06, 80F

10/14 03:11, 6年前 , 81F
事實上Tag最糟糕的一個問題就是很容易不完整,不可能把一
10/14 03:11, 81F

10/14 03:12, 6年前 , 82F
張照片中所有存在的要素都標出來,然後基本上分類演算法如
10/14 03:12, 82F

10/14 03:13, 6年前 , 83F
果沒有特別處理就會把沒標當真的沒有,然後就會錯誤一堆
10/14 03:13, 83F

10/15 04:49, 6年前 , 84F
前陣子看到一份簡報檔,裏面提到用深度學習辨識影片中場景,
10/15 04:49, 84F

10/15 04:50, 6年前 , 85F
、物件、事件,還標上Tags,聽說 Youtube 也有引進這技術?
10/15 04:50, 85F

10/15 04:50, 6年前 , 86F
所以可以做到用關鍵字搜尋影片的場景、物件之類的
10/15 04:50, 86F

10/15 04:51, 6年前 , 87F
還有標上出現時的影片時間點
10/15 04:51, 87F

10/15 04:54, 6年前 , 88F
說引進不太正確,而是自行開發的同類功能
10/15 04:54, 88F

10/16 13:35, 6年前 , 89F

10/16 13:35, 6年前 , 90F
G社有拿圖片自動Tagging服務賣錢
10/16 13:35, 90F
文章代碼(AID): #1PsWMk-v (GameDesign)