作者查詢 / vfgce
作者 vfgce 在 PTT [ Python ] 看板的留言(推文), 共235則
限定看板:Python
看板排序:
全部Gossiping2575Spurs723historia620DummyHistory472NBA359medstudent331Python235Guardians220Stock193Soft_Job149medache117HatePolitics70politics49Baseball36R_Language33Policy28KMT25DataScience18CrossStrait15home-sale13CareerPlan11gallantry10JapanHistory8PublicIssue8Dragons6emprisenovel5Future-Star5L_TalkandCha5SAN5CMWang4Fund3Health3TW-history3ASM2BabyBears2GuardRookies2Prob_Solve2AfterPhD1BLAZERS1CFP1Eng-Class1Hualien1java1L_LifeJob1Militarylife1<< 收起看板(45)
1F推: 這個只能背了,函數式程式設計的精神是不做inplace修改,但12/28 07:55
2F→: 結果就是記憶體用量大增,而傳統程式則是看你怎麼寫,大部分12/28 07:56
3F→: 情況下為了省記憶體,且確定資料不需保留後面使用,就會做12/28 07:58
4F→: inplace條改,所以你只能記那些回傳,那些是inplace修改...12/28 07:59
5F→: R採用函數式程式設計,所以所有函數都回傳不修改原值.所以12/28 08:01
6F→: 不用特別記,傳進去的東西不會被改. 而python就看程式怎麼寫12/28 08:02
7F→: 有些會修改傳入資料,有些是不修改回傳新的..只能用記的12/28 08:03
22F推: 這個只能背了,函數式程式設計的精神是不做inplace修改,但12/28 07:55
23F→: 結果就是記憶體用量大增,而傳統程式則是看你怎麼寫,大部分12/28 07:56
24F→: 情況下為了省記憶體,且確定資料不需保留後面使用,就會做12/28 07:58
25F→: inplace條改,所以你只能記那些回傳,那些是inplace修改...12/28 07:59
26F→: R採用函數式程式設計,所以所有函數都回傳不修改原值.所以12/28 08:01
27F→: 不用特別記,傳進去的東西不會被改. 而python就看程式怎麼寫12/28 08:02
28F→: 有些會修改傳入資料,有些是不修改回傳新的..只能用記的12/28 08:03
1F推: 查個api有這麼難嗎?這都有啊...11/17 08:44
2F推: df['科目'].sum() ,df['科目'].mean()11/17 08:53
2F推: 呃,兩位,你確定取的是row 嗎?11/16 07:49
4F推: 想做交叉驗證,Sklearn就有了.沒必要自己重寫吧...11/16 19:17
3F推: a[0]在這是取第0個row資料,維度降一.a[:1]是用slicea取一個11/12 08:02
4F→: 範圍內的資料,維度沒減,所以當然是二個括號(二維),你的例子11/12 08:03
5F→: 只是剛好你取的slice只有一個而已,讓你想不通....把你的資11/12 08:04
6F→: 料弄到3X3,試看看a[:1],a[:2],a[1:1],a[0],a[1],a[2]....11/12 08:05
7F推: 打錯,不是a[1:1]是a[1:2]...11/12 08:08
8F推: PCA跟這無關,我說的降維純指ndim減一.11/12 19:14
9F→: 在你資料中,想取維持二維的單一row資料,11/12 19:16
10F→: 可以用a[0,np.newaxis]11/12 19:17
11F推: 用來也沒比較簡潔..11/12 19:19
4F推: 你的行是column還是row?11/03 22:01
6F推: 122就連續動作啊....G大都給範例了,自己改一下不會嗎...11/04 07:32
7F推: 你自己都沒在看人家的程式嗎?不是改成2 3的問題,是你給的11/04 07:40
8F→: 例子最後只接受一個旋轉指令所以G大範例也只接受一個動作.11/04 07:43
9F→: 現在你要一次接受三個指令,不會看一下程式做修改嗎?11/04 07:44
5F推: sklearn不用scipy, 只用numpy即可...10/25 06:55
9F推: 你用python3也可以裝opencv啊.去unofficial python package10/21 19:20
10F→: 找opencv的python版本,用pip install就可以用了...10/21 19:21
14F推: 那個沒有用,一定要另外用pip install.10/21 20:53
2F推: python仿R要學兩個package,一個是numpy,一個是pandas10/21 19:11
3F→: numpy主要是了解python對向量及矩陣處理,10/21 19:12
4F→: pandas則是資料處理的部分..10/21 19:13
5F→: python的axis和R剛好相反....不要弄錯...10/21 19:14
5F推: 呃,沒仔細看code,如果你做的是迴歸那先從linear regression09/22 15:45
6F→: 下手,先了解什麼是迴歸,什麼是分類.....09/22 15:47
7F→: 迴歸一般用於輸出為連續資料,分類用於輸出為離散資料...09/22 15:49
8F→: 另外logistic regression雖然名字是迴歸,但其實在做分類...09/22 15:50
9F→: 若要玩deep learning,請先花點時間搞懂類神經網路再來...09/22 15:52
10F→: 冒然越級打怪是很危險的....09/22 15:53
11F→: 不是所有資料都可以用deep learning 做...09/22 15:55
15F推: 我的天啊,你完全沒概念....,你先弄懂資料怎麼整理...09/22 20:42
16F→: 二元分類你要事先就處理好,而不是跑出答案來再分...09/22 20:44
17F推: 你絕對不要再碰tensorflow,乖乖先學scitkit learn....09/22 20:47
18F→: 可以的話,看點統計學,先了解什麼名目,順序,等距,等比...09/22 20:49
19F推: 其實沒有統計學概念的人貿然進入資料科學有點危險....09/22 20:58
20F→: 最基本的類別資料和連續數值資料的處理,及混合兩者的處理09/22 20:59
21F→: 觀念要清楚啊, 很多人隨便就把類別資料當數值資料用.09/22 21:02
22F推: 例如紅綠藍三色編碼為0,1,2,沒有再整理就直接用,觀念整個錯09/22 21:06
23F→: 這也是python的一大問題,很多類別資料直接用整數編碼,09/22 21:07
24F→: 很多人根本想都不想就直接用下去.09/22 21:08
25F→: R在這方面就好多了,R的類別資料以factor處理,不易和數值09/22 21:09
26F→: 資料搞混,也讓人比較會注意到要進行轉換..09/22 21:10
39F推: loss = tf.reduce_mean(tf.reduce_sum((ys - prediction)))09/22 22:52
40F→: 這是你執行時的loss function嗎?09/22 22:52
42F→: #loss = tf.reduce_sum( tf.square( ys - prediction ) )09/22 22:53
43F→: 這個你註解的才是對的...09/22 22:54
44F→: loss function 錯掉,整個走鐘...09/22 22:55
48F推: 目前看來應該是loss function問題...你用的顯然不對..09/22 23:00
52F推: 再看一下,應該改用對數概似函數當loss function.09/22 23:05
53F→: 對tensorflow完全不熟,看起來很不習慣...09/22 23:07
56F→: 可以改用keras做嗎?這些細節它會代處理...09/22 23:09
58F推: 你如果做二元分類的話,最簡單就是hidden用relu,ouput用09/22 23:15
59F→: softmax,loss 用cross entrophy....你不用自己寫loss的細09/22 23:16
60F→: 節,很容易出錯...09/22 23:16
64F推: 我覺得你的問題,在於loss function及activvation function09/22 23:28
65F→: 的選擇,剛又看了一下,二元分類的話,activation用relu或09/22 23:30
66F→: sigmoid都可以,但sigmoid易有梯度消失, output用sigmoid,09/22 23:32
67F→: 超過二元分類再用softmax, loss 用binary crossentropy09/22 23:33
68F→: 這些在keras都有已寫好,直接套用即可,自己寫容易出錯..09/22 23:35
69F→: 但是你得研究一下,activation,loss, optimizer怎麼搭才對09/22 23:36
71F→: 弄錯的話,結果就會有問題...09/22 23:37
74F→: 可以看一下keras文檔,應該比tensorflow好懂多了...09/22 23:39
77F→: 你的問題應該用sklearn的MLPClassifier處理就好了...09/22 23:41
79F推: 審查委員為何建議deep learning?09/22 23:51
80F→: 資料不夠多也無法顯出deep learning的優勢...09/22 23:51
86F推: 唉,了解.......09/22 23:56
89F→: DL又不是萬靈丹,很多時候也沒比傳統SVM,RF,MLP好...09/23 00:00
90F→: 若是有到萬筆以上,倒是可以試看看DL...09/23 00:01