Re: [分享] Text 2.0

看板HCI作者 (人是天生探索者)時間15年前 (2011/02/17 22:51), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串2/4 (看更多)
※ 引述《cac (暗微幽光)》之銘言: : 各位HCI的朋友們好,開版以來一直想發言贊助 : 最近瀏覽一位搜集眼動研究資訊的blog,發現一個德國的研發機構開發的軟體 : http://text20.net/node/4 : 以上網頁中間有一款應與HCI密切關係的產品:搭配Tobii眼動儀的觸控式電腦 : 將眼睛的運動變成與電腦互動的方式 : 以心理學的角度我關心作業系統如何從使用者的眼動判斷使用者的意圖 : 而HCI是如何看待這種互動方式呢? 根據我的了解eyetracking在HCI的一個很大用途是拿來作usability testing用 如果是做這用途 那麼系統並不需要即時根據眼動來判斷使用者的意圖 因為我們通常可以透過滑鼠游標加上眼球軌跡了解使用者的意圖 然而只透過這兩個還是會有點模稜兩可 所以在做testing的時候還會請使用者"think aloud" 這樣一來就可以在同一個時間點同時透過游標, 眼球軌跡, 語音來幫助測試者解讀 使用者的意圖還有動作 關於在usability testing裡面使用eye tracking, Nielsen自己是有寫一個report和 一本書 詳情可看這兒 http://www.useit.com/eyetracking/methodology/ http://www.useit.com/eyetracking/ 除了usability testing之外 我相信eye-tracking也有其他的應用,不過這個應用 就看你的用途是什麼了. 例如我們lab最近有一個project是要判斷是不是一群人都在看著 同一個大螢幕,然後因而做出些反應 在這個情況下eye tracking或許就可以發揮一些功用 另外也有學者在做attention management. 例如一個使用者如何從不同螢幕間切換等等 然而, 這種sensor-based的application有一個很大的挑戰就是data是很模稜兩可的 加上有時候sensor會有誤差 導致程式詮釋錯誤 結果給使用者錯誤的feedback 因此有時候會用影像處理來替代, 因為一個畫面包含的資訊是比較多的 判斷更容易 可能我沒有注意或知道的不多 就我所知目前單純利用eye tracking的應用程式似乎比較 沒這麼多 大部分都還是為了usability testing的目的 希望這樣有解答到你部分問題 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 68.43.179.110
文章代碼(AID): #1DNJNplz (HCI)
討論串 (同標題文章)
本文引述了以下文章的的內容:
分享
1
2
以下文章回應了本文
完整討論串 (本文為第 2 之 4 篇):
分享
27
151
分享
1
2
文章代碼(AID): #1DNJNplz (HCI)