[情報]K-近鄰演算法

看板Tech_Job作者 (不敗楊)時間2年前 (2023/02/12 19:11), 編輯推噓-33(63914)
留言59則, 49人參與, 2年前最新討論串1/1
在圖型識別領域中,最近鄰居法(KNN演算法,又譯K-近鄰演算法)是一種用於分類和迴 歸的無母數統計方法[1]。在這兩種情況下,輸入包含特徵空間(Feature Space)中的k 個最接近的訓練樣本。 在k-NN分類中,輸出是一個分類族群。一個物件的分類是由其鄰居的「多數表決」確定的 ,k個最近鄰居(k為正整數,通常較小)中最常見的分類決定了賦予該物件的類別。若k = 1,則該物件的類別直接由最近的一個節點賦予。 在k-NN迴歸中,輸出是該物件的屬性值。該值是其k個最近鄰居的值的平均值。 最近鄰居法採用向量空間模型來分類,概念為相同類別的案例,彼此的相似度高,而可以 藉由計算與已知類別案例之相似度,來評估未知類別案例可能的分類。 K-NN是一種基於實例的學習,或者是局部近似和將所有計算推遲到分類之後的惰性學習。 k-近鄰演算法是所有的機器學習演算法中最簡單的之一。 無論是分類還是迴歸,衡量鄰居的權重都非常有用,使較近鄰居的權重比較遠鄰居的權重 大。例如,一種常見的加權方案是給每個鄰居權重賦值為1/ d,其中d是到鄰居的距離。[ 註 1] 鄰居都取自一組已經正確分類(在迴歸的情況下,指屬性值正確)的物件。雖然沒要求明 確的訓練步驟,但這也可以當作是此演算法的一個訓練樣本集。 k-近鄰演算法的缺點是對資料的局部結構非常敏感。 K-平均演算法也是流行的機器學習技術,其名稱和k-近鄰演算法相近,但兩者沒有關係。 資料標準化可以大大提高該演算法的準確性[2][3]。 -- 『對於不喜歡的人,我沒必要去討好他,不瞭解我的人,我也不必非讓他瞭解我不可。』 ----出自第十六冊第19頁 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.173.138.40 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1676200277.A.781.html

02/12 19:13, 2年前 , 1F
已知用火?
02/12 19:13, 1F

02/12 19:16, 2年前 , 2F
這算什麼情報…
02/12 19:16, 2F

02/12 19:21, 2年前 , 3F
????
02/12 19:21, 3F

02/12 19:21, 2年前 , 4F
這篇在幹嘛
02/12 19:21, 4F

02/12 19:24, 2年前 , 5F
現在是沒人管能拿來當洗文版用了嗎 慘啊
02/12 19:24, 5F

02/12 19:31, 2年前 , 6F
[情報] 1+1=2
02/12 19:31, 6F

02/12 19:44, 2年前 , 7F
這種大一回家作業有需要貼在這嗎
02/12 19:44, 7F

02/12 19:47, 2年前 , 8F
學到一課了呀!
02/12 19:47, 8F

02/12 19:49, 2年前 , 9F
抄資料還不會抄 下去
02/12 19:49, 9F

02/12 20:08, 2年前 , 10F
這什麼廢文 可憐
02/12 20:08, 10F

02/12 20:15, 2年前 , 11F
受益良多 謝謝好人 一生平安
02/12 20:15, 11F

02/12 20:15, 2年前 , 12F
優文給推
02/12 20:15, 12F

02/12 20:17, 2年前 , 13F
看無啦
02/12 20:17, 13F

02/12 20:26, 2年前 , 14F
???
02/12 20:26, 14F

02/12 20:30, 2年前 , 15F
優質
02/12 20:30, 15F

02/12 20:32, 2年前 , 16F
註 1
02/12 20:32, 16F

02/12 21:00, 2年前 , 17F
這不就維基百科複製貼上?
02/12 21:00, 17F

02/12 21:02, 2年前 , 18F
看維基百科不如問AI
02/12 21:02, 18F

02/12 21:03, 2年前 , 19F

02/12 21:12, 2年前 , 20F
太強了 感謝大大分享
02/12 21:12, 20F

02/12 21:12, 2年前 , 21F
基本精神是coordinate descent 請証明收斂性及只能
02/12 21:12, 21F

02/12 21:12, 2年前 , 22F
找到local minimum
02/12 21:12, 22F

02/12 21:17, 2年前 , 23F
2
02/12 21:17, 23F

02/12 21:21, 2年前 , 24F
人工智慧是一個方向 機器學習是裡面的一支領域學問
02/12 21:21, 24F

02/12 21:22, 2年前 , 25F
深度學習又是機器學習裡面的一種演算法
02/12 21:22, 25F

02/12 21:23, 2年前 , 26F
所以 才有前輩告訴你先分清楚 KNN用於ML CNN用於DL
02/12 21:23, 26F

02/12 21:23, 2年前 , 27F
錯版了吧 soft-job
02/12 21:23, 27F

02/12 21:31, 2年前 , 28F
會ai餓不死的裁員最後死
02/12 21:31, 28F

02/12 21:48, 2年前 , 29F
常識當情報
02/12 21:48, 29F

02/12 22:07, 2年前 , 30F
推 學習了
02/12 22:07, 30F

02/12 23:18, 2年前 , 31F
老人版這麼多噓 不意外
02/12 23:18, 31F

02/13 00:14, 2年前 , 32F
不是捧美政黑文就給推
02/13 00:14, 32F

02/13 01:22, 2年前 , 33F
把維基百科貼過來幹嘛?
02/13 01:22, 33F

02/13 01:27, 2年前 , 34F
02/13 01:27, 34F

02/13 03:17, 2年前 , 35F
笑死 這啥
02/13 03:17, 35F

02/13 03:25, 2年前 , 36F
這…
02/13 03:25, 36F

02/13 04:28, 2年前 , 37F
2沒壞
02/13 04:28, 37F

02/13 05:39, 2年前 , 38F
笑死
02/13 05:39, 38F

02/13 06:39, 2年前 , 39F
機器人寫壞了嗎?
02/13 06:39, 39F

02/13 06:51, 2年前 , 40F
???
02/13 06:51, 40F

02/13 07:12, 2年前 , 41F
很多人用了K-NN就沾沾自喜說自己是做AI或ML
02/13 07:12, 41F

02/13 07:30, 2年前 , 42F
……..
02/13 07:30, 42F

02/13 08:25, 2年前 , 43F
這是不是在測試自動發文程式
02/13 08:25, 43F

02/13 09:25, 2年前 , 44F
今天力叩每日 = one liner大賽
02/13 09:25, 44F

02/13 11:57, 2年前 , 45F
廢文劣退永桶
02/13 11:57, 45F

02/13 13:41, 2年前 , 46F
這是深度學習中最菜的演算法,其他的很麻煩有的一
02/13 13:41, 46F

02/13 13:41, 2年前 , 47F
層層神經網絡微調,基本上要會微積分線性代數統計
02/13 13:41, 47F

02/13 13:41, 2年前 , 48F
線性規劃為基礎
02/13 13:41, 48F

02/13 16:17, 2年前 , 49F
當blog?
02/13 16:17, 49F

02/13 19:17, 2年前 , 50F
大一讀書會內容借貼一下?
02/13 19:17, 50F

02/13 21:58, 2年前 , 51F
當你個板?
02/13 21:58, 51F

02/13 23:05, 2年前 , 52F
都跟你說這不是深度學習了 還在堅持欸
02/13 23:05, 52F

02/13 23:06, 2年前 , 53F
這個是大二就有教的資料分析 50年前就有的東西了
02/13 23:06, 53F

02/14 10:29, 2年前 , 54F
ID
02/14 10:29, 54F

02/14 12:31, 2年前 , 55F
ChatGpt po文啦,大驚小怪
02/14 12:31, 55F

02/15 01:38, 2年前 , 56F
跟深度學習一點屁關係都沒有
02/15 01:38, 56F

02/15 14:37, 2年前 , 57F
這又不屬於深度學習底下的,只是深度學習裡有人會
02/15 14:37, 57F

02/15 14:37, 2年前 , 58F
用KNN 做一些事情而已
02/15 14:37, 58F

02/16 20:05, 2年前 , 59F
老哥 先看懂gradient descent好不= =
02/16 20:05, 59F
文章代碼(AID): #1ZwCbLU1 (Tech_Job)