作者查詢 / vfgce

總覽項目: 發文 | 留言 | 暱稱
作者 vfgce 在 PTT [ Python ] 看板的留言(推文), 共235則
限定看板:Python
Re: [問題] 函數有無返回值?
[ Python ]13 留言, 推噓總分: +4
作者: uranusjr - 發表於 2017/12/29 19:16(8年前)
1Fvfgce: 這個只能背了,函數式程式設計的精神是不做inplace修改,但12/28 07:55
2Fvfgce: 結果就是記憶體用量大增,而傳統程式則是看你怎麼寫,大部分12/28 07:56
3Fvfgce: 情況下為了省記憶體,且確定資料不需保留後面使用,就會做12/28 07:58
4Fvfgce: inplace條改,所以你只能記那些回傳,那些是inplace修改...12/28 07:59
5Fvfgce: R採用函數式程式設計,所以所有函數都回傳不修改原值.所以12/28 08:01
6Fvfgce: 不用特別記,傳進去的東西不會被改. 而python就看程式怎麼寫12/28 08:02
7Fvfgce: 有些會修改傳入資料,有些是不修改回傳新的..只能用記的12/28 08:03
[問題] 函數有無返回值?
[ Python ]53 留言, 推噓總分: +16
作者: sagwow - 發表於 2017/12/27 17:27(8年前)
22Fvfgce: 這個只能背了,函數式程式設計的精神是不做inplace修改,但12/28 07:55
23Fvfgce: 結果就是記憶體用量大增,而傳統程式則是看你怎麼寫,大部分12/28 07:56
24Fvfgce: 情況下為了省記憶體,且確定資料不需保留後面使用,就會做12/28 07:58
25Fvfgce: inplace條改,所以你只能記那些回傳,那些是inplace修改...12/28 07:59
26Fvfgce: R採用函數式程式設計,所以所有函數都回傳不修改原值.所以12/28 08:01
27Fvfgce: 不用特別記,傳進去的東西不會被改. 而python就看程式怎麼寫12/28 08:02
28Fvfgce: 有些會修改傳入資料,有些是不修改回傳新的..只能用記的12/28 08:03
[問題] dataframe處理
[ Python ]7 留言, 推噓總分: +6
作者: asghdf123 - 發表於 2017/11/17 07:56(8年前)
1Fvfgce: 查個api有這麼難嗎?這都有啊...11/17 08:44
2Fvfgce: df['科目'].sum() ,df['科目'].mean()11/17 08:53
[問題] 有辦法將多個列資料群組起來嗎?
[ Python ]5 留言, 推噓總分: +3
作者: zcyee - 發表於 2017/11/15 14:30(8年前)
2Fvfgce: 呃,兩位,你確定取的是row 嗎?11/16 07:49
4Fvfgce: 想做交叉驗證,Sklearn就有了.沒必要自己重寫吧...11/16 19:17
[問題] numpy疑問
[ Python ]14 留言, 推噓總分: +7
作者: ChuYoYo0719 - 發表於 2017/11/12 00:25(8年前)
3Fvfgce: a[0]在這是取第0個row資料,維度降一.a[:1]是用slicea取一個11/12 08:02
4Fvfgce: 範圍內的資料,維度沒減,所以當然是二個括號(二維),你的例子11/12 08:03
5Fvfgce: 只是剛好你取的slice只有一個而已,讓你想不通....把你的資11/12 08:04
6Fvfgce: 料弄到3X3,試看看a[:1],a[:2],a[1:1],a[0],a[1],a[2]....11/12 08:05
7Fvfgce: 打錯,不是a[1:1]是a[1:2]...11/12 08:08
8Fvfgce: PCA跟這無關,我說的降維純指ndim減一.11/12 19:14
9Fvfgce: 在你資料中,想取維持二維的單一row資料,11/12 19:16
10Fvfgce: 可以用a[0,np.newaxis]11/12 19:17
11Fvfgce: 用來也沒比較簡潔..11/12 19:19
[問題] python矩陣帶入數值
[ Python ]9 留言, 推噓總分: +7
作者: q2009tai2000 - 發表於 2017/11/03 15:18(8年前)
4Fvfgce: 你的行是column還是row?11/03 22:01
6Fvfgce: 122就連續動作啊....G大都給範例了,自己改一下不會嗎...11/04 07:32
7Fvfgce: 你自己都沒在看人家的程式嗎?不是改成2 3的問題,是你給的11/04 07:40
8Fvfgce: 例子最後只接受一個旋轉指令所以G大範例也只接受一個動作.11/04 07:43
9Fvfgce: 現在你要一次接受三個指令,不會看一下程式做修改嗎?11/04 07:44
[問題] scipy install 問題
[ Python ]5 留言, 推噓總分: +5
作者: ss900405tw - 發表於 2017/10/24 20:22(8年前)
5Fvfgce: sklearn不用scipy, 只用numpy即可...10/25 06:55
[問題] 超新手下載anaconda錯誤
[ Python ]18 留言, 推噓總分: +6
作者: yuehyueh24 - 發表於 2017/10/20 22:57(8年前)
9Fvfgce: 你用python3也可以裝opencv啊.去unofficial python package10/21 19:20
10Fvfgce: 找opencv的python版本,用pip install就可以用了...10/21 19:21
14Fvfgce: 那個沒有用,一定要另外用pip install.10/21 20:53
[問題] 股票數據分析由R轉戰python數問
[ Python ]6 留言, 推噓總分: +3
作者: s3714443 - 發表於 2017/10/20 17:47(8年前)
2Fvfgce: python仿R要學兩個package,一個是numpy,一個是pandas10/21 19:11
3Fvfgce: numpy主要是了解python對向量及矩陣處理,10/21 19:12
4Fvfgce: pandas則是資料處理的部分..10/21 19:13
5Fvfgce: python的axis和R剛好相反....不要弄錯...10/21 19:14
Re: [問題] 深度學習(deep learning)出問題
[ Python ]98 留言, 推噓總分: +36
作者: pipidog - 發表於 2017/09/22 03:00(8年前)
5Fvfgce: 呃,沒仔細看code,如果你做的是迴歸那先從linear regression09/22 15:45
6Fvfgce: 下手,先了解什麼是迴歸,什麼是分類.....09/22 15:47
7Fvfgce: 迴歸一般用於輸出為連續資料,分類用於輸出為離散資料...09/22 15:49
8Fvfgce: 另外logistic regression雖然名字是迴歸,但其實在做分類...09/22 15:50
9Fvfgce: 若要玩deep learning,請先花點時間搞懂類神經網路再來...09/22 15:52
10Fvfgce: 冒然越級打怪是很危險的....09/22 15:53
11Fvfgce: 不是所有資料都可以用deep learning 做...09/22 15:55
15Fvfgce: 我的天啊,你完全沒概念....,你先弄懂資料怎麼整理...09/22 20:42
16Fvfgce: 二元分類你要事先就處理好,而不是跑出答案來再分...09/22 20:44
17Fvfgce: 你絕對不要再碰tensorflow,乖乖先學scitkit learn....09/22 20:47
18Fvfgce: 可以的話,看點統計學,先了解什麼名目,順序,等距,等比...09/22 20:49
19Fvfgce: 其實沒有統計學概念的人貿然進入資料科學有點危險....09/22 20:58
20Fvfgce: 最基本的類別資料和連續數值資料的處理,及混合兩者的處理09/22 20:59
21Fvfgce: 觀念要清楚啊, 很多人隨便就把類別資料當數值資料用.09/22 21:02
22Fvfgce: 例如紅綠藍三色編碼為0,1,2,沒有再整理就直接用,觀念整個錯09/22 21:06
23Fvfgce: 這也是python的一大問題,很多類別資料直接用整數編碼,09/22 21:07
24Fvfgce: 很多人根本想都不想就直接用下去.09/22 21:08
25Fvfgce: R在這方面就好多了,R的類別資料以factor處理,不易和數值09/22 21:09
26Fvfgce: 資料搞混,也讓人比較會注意到要進行轉換..09/22 21:10
39Fvfgce: loss = tf.reduce_mean(tf.reduce_sum((ys - prediction)))09/22 22:52
40Fvfgce: 這是你執行時的loss function嗎?09/22 22:52
42Fvfgce: #loss = tf.reduce_sum( tf.square( ys - prediction ) )09/22 22:53
43Fvfgce: 這個你註解的才是對的...09/22 22:54
44Fvfgce: loss function 錯掉,整個走鐘...09/22 22:55
48Fvfgce: 目前看來應該是loss function問題...你用的顯然不對..09/22 23:00
52Fvfgce: 再看一下,應該改用對數概似函數當loss function.09/22 23:05
53Fvfgce: 對tensorflow完全不熟,看起來很不習慣...09/22 23:07
56Fvfgce: 可以改用keras做嗎?這些細節它會代處理...09/22 23:09
58Fvfgce: 你如果做二元分類的話,最簡單就是hidden用relu,ouput用09/22 23:15
59Fvfgce: softmax,loss 用cross entrophy....你不用自己寫loss的細09/22 23:16
60Fvfgce: 節,很容易出錯...09/22 23:16
64Fvfgce: 我覺得你的問題,在於loss function及activvation function09/22 23:28
65Fvfgce: 的選擇,剛又看了一下,二元分類的話,activation用relu或09/22 23:30
66Fvfgce: sigmoid都可以,但sigmoid易有梯度消失, output用sigmoid,09/22 23:32
67Fvfgce: 超過二元分類再用softmax, loss 用binary crossentropy09/22 23:33
68Fvfgce: 這些在keras都有已寫好,直接套用即可,自己寫容易出錯..09/22 23:35
69Fvfgce: 但是你得研究一下,activation,loss, optimizer怎麼搭才對09/22 23:36
71Fvfgce: 弄錯的話,結果就會有問題...09/22 23:37
74Fvfgce: 可以看一下keras文檔,應該比tensorflow好懂多了...09/22 23:39
77Fvfgce: 你的問題應該用sklearn的MLPClassifier處理就好了...09/22 23:41
79Fvfgce: 審查委員為何建議deep learning?09/22 23:51
80Fvfgce: 資料不夠多也無法顯出deep learning的優勢...09/22 23:51
86Fvfgce: 唉,了解.......09/22 23:56
89Fvfgce: DL又不是萬靈丹,很多時候也沒比傳統SVM,RF,MLP好...09/23 00:00
90Fvfgce: 若是有到萬筆以上,倒是可以試看看DL...09/23 00:01