作者查詢 / fragmentwing
作者 fragmentwing 在 PTT [ DataScience ] 看板的留言(推文), 共172則
限定看板:DataScience
看板排序:
全部C_Chat41788Gossiping22621HatePolitics19633Military10734C_ChatBM2601WomenTalk1881StarCraft1791Kaohsiung1312joke1065UmaMusume789Boy-Girl744Aquarium726Marginalman697movie626StupidClown567Warfare488Physics442nCoV2019437Paradox349SENIORHIGH286marvel284Tech_Job284Math225Suckcomic221Tainan210Fortran188DataScience172YOLO171AC_In166GUNDAM159Stock131PokemonGO128C_GenreBoard99CFantasy87L_TalkandCha64DummyHistory59graduate59historia59Steam58MusicGame57Teacher57Python52marriage51Violation44Beauty42juniorhigh37Shana34Baseball30PublicIssue30TypeMoon28LightNovel27C_BOO26SRW26Chemistry24NBA24NTU24specialman23BabyMother22L_SecretGard20Galaxy19Japan_Travel18ACGN_stock17AI_Art17Salary17MobileComm16Test16Child_Psy15MenTalk15Windows15IA14medstudent14TigerBlue14Hamster13Hunter12LoL12PokeMon12fastfood11NCKU11ONE_PIECE11Statistics11car10PttEarnMoney10TW-history10WOW10AfterPhD9C_and_CPP9L_TaiwanPlaz9PlayStation9Electronics8gallantry8KOTDFansClub8PhD8Shadowverse8About_Life7Aviation7Hearthstone7home-sale7Militarylife7TaichungBun7TY_Research7DIABLO6Examination6GossipPicket6Hsinchu6PublicServan6ScienceNote6StarWars6Touhou6Vocaloid6AntiVirus5biker5ChangHua5FATE_GO5FBG5Hualien5KoreaStar5Kyoto_Ani5Little-Games5PCReDive5RumikoTWorld5aqua-shop4ArakawaCow4CrossStrait4dog4GL4Hate4Isayama4KanColle4Lifeismoney4mobilesales4NARUTO4nb-shopping4NEMS4NSwitch4P2PSoftWare4sex4Soft_Job4StarTrek4studyteacher4wearefriends4Anti-Cancer3battlegirlhs3BB-Love3BlizzHeroes3Chen-Hsing3Conan3Doraemon3HK-movie3japanavgirls3Master_D3NCTU_TALK3Olympics_ISG3PingTung3politics3Programming3Ptt-Press3rent-exp3Shu-Lin3ShuangHe3speech3Tokusatsu3TPC_Police3TSU3Wanhua3WarCraft3WorldCup3AirForce2Aves2book2C_WorkBoard2Childhood2China-Drama2Christianity2Comic2CVS2DMM_GAMES2e-shopping2gay2GHIBLI2GirlComics2HSNU_8202Japandrama2JinYong2JOJO2kochikame2L_LifePlan2MGL-history2NCYU_Fst_982NHK2OverWatch2PC_Shopping2PttBug2PuzzleDragon2Railway2Sijhih2SongShan2SurvivalGame2Taoyuan2Vtuber2Women_Picket2worldtrigger2youtuber2YUGIOH2AboutBoards1Acad-Affairs1AllTogether1Anchors1Arknights1asciiart1ask1AzurLane1Badminton1BanG_Dream1BBSmovie1BigBanciao1Buddha1C_Chemistry1C_Question1CareerPlan1cat1ChainChron1Chan_Mou1chicken1Civil1CODE_GEASS1Cruise1cute1DigiCurrency1EAseries1EatToDie1Ecophilia1Elephants1Engineer1Evangelion1FinalFantasy1FISH-FRIEND1FishShrimp1Food_Safety1FTV1GBF1Gintama1GlassNoKamen1GO_FATE1Google1Gov_owned1H-GAME1hololive1HsinTien1hypermall1Insurance1Interdiscip1iOS1J-PopStation1kawaii1Keelung1KMT1KMU1KR_Buzz1kugimiya1LAW1Lawyer1LCD1Learn_Buddha1LTK1Malaysia1MdnCNhistory1media-chaos1Miaoli1mobile-game1Mongolia1MRT1Nangang1Neihu1NetSecurity1NEURO1NHU_LD921Nurse1Old-Games1Palmar_Drama1part-time1Pingpong1prozac1PttHistory1Rayark1Rockman1RockMetal1RTS1SakuraWars1SAN1Sangokumusou1SCPS85-4131seiyuu1SlamDunk1SMSlife1soho1soul1SouthPark1stationery1SuperHeroes1SYSOP1TakahashiRie1talk1TamShui1TAXI1Tennis1THU_Talk1TKU_EE_92C1TWproducts1WorkinChina1Yunlin1YUYUHAKUSHO1ZeroTsukaima1<< 收起看板(312)
3F推: 要標準化應該是在降維之前做?07/04 14:59
15F→: 是想把毛抓回來 概略地說整張圖是背景+毛+物體03/21 21:30
2F→: 謝謝回覆03/09 02:51
3F→: 已經先用好幾種high pass filter把物體給「大致」圈03/09 02:51
4F→: 出來了,只是圈出來後長得有點像雞毛毯子,想要把雞03/09 02:51
5F→: 毛的部分合併起來03/09 02:51
10F→: w大是指毛以外物體輪廓先切掉 再針對毛做處理嗎?03/10 13:22
11F→: 用LPF是毛在認定上相對物體本身會接近背景嗎?03/10 13:23
12F→: 謝謝回覆03/10 13:24
3F推: 推02/16 16:20
4F推: jptt的話直接對著留言長按就有選項出來了08/06 22:54
4F→: 話說 純數學上的概念看來很早以前就提出了 到今年才08/04 14:33
5F→: 成功實作是因為有甚麼技術壁壘嗎?08/04 14:33
6F→: 如果看完原論文和上面那一篇有啥發現我大概會再上來08/04 14:33
7F→: 聊聊08/04 14:33
4F推: 我的感想,你就是你老闆口中的認知模型05/15 14:18
5F→: 資料沒給齊但要把結果生出來05/15 14:19
6F→: 這俗稱叫「通靈」05/15 14:19
7F推: 查了下一樓講的05/15 14:24
8F→: 這東西應該還在純理論階段 很純的那種05/15 14:26
9F→: 拿出來跨領域 真的很純05/15 14:32
10F→: 用在半導體上第一原理都實際多了05/15 14:33
13F推: 這東西要拿來應用不會碰上蝴蝶效應的問題嗎?05/15 14:47
15F推: 一開始沒考慮放入推論中的小變量導致推論結果歪掉或05/15 15:01
16F→: 不可預測05/15 15:01
17F推: *沒考慮或探測不到05/15 15:03
18F推: 到最後為了讓模型能得出正確預測 納入上千上萬個變05/15 15:06
19F→: 因然後仍然不知道還有沒有缺的05/15 15:06
22F推: 我想到一個東西……這是不是跟田口法有關?05/15 15:09
28F推: 拉回來05/15 15:29
29F→: cognitive model 本身好像不是ML05/15 15:29
30F→: causal ML好像是python的一個package 提供的api大部05/15 15:29
31F→: 分都是傳統ML05/15 15:29
32F→: 然後有明確提到將 cognitive model 和deep learning05/15 15:29
33F→: 連結的研究都在2020後(有一篇提到NN的在2018)05/15 15:29
34F→: 非CS本科跳過來做這麼新的東西應該要配合有本科成員05/15 15:29
35F→: 的團隊吧05/15 15:29
36F→: 可能還要找個心理學的過來05/15 15:29
37F→: 而且 要的成品看起來已經接近AGI那邊了05/15 15:30
39F推: 他要做的是整個半導體業界製程的通用模型 真的做出05/15 15:35
40F→: 來已經比gpt還近了吧05/15 15:35
41F→: 等等我想遠了05/15 15:36
42F→: 他至少不是要直接把新製程根據需求直接生一個出來05/15 15:37
43F→: 那確實還沒摸到agi那邊05/15 15:37
44F推: 我再把話題拉回來05/15 15:43
45F→: 之前上大廠來學校開的課 有一點記得很清楚05/15 15:43
46F→: 上課的工程師有提到機器學習只在成熟製程上有用(非05/15 15:43
47F→: 常有用)05/15 15:43
48F→: 有沒有一種可能是樓主的教授根本不是要做deep learn05/15 15:43
49F→: ing只是要做先進製程參數調控?05/15 15:43
58F推: 怎麼個通用法啊……這不還是成了LLM了嗎?還真的是05/16 14:36
59F→: 根據需求直接生製程啊!05/16 14:36
62F推: 沒有人搭(X)沒人搭得出來(O)05/16 14:44
63F→: 這就算是open ai的大神來也束手無策 巧婦難為無米之05/16 14:45
64F→: 炊 資料量一丁點這種東西怎麼玩得起來?05/16 14:45
65F→: 一般來說這種離譜的要求是非CS開給CS 你老闆專業的05/16 14:45
66F→: 怎麼會這樣亂開?05/16 14:45
4F→: 我會覺得嚴格定義的無監督是不是要到AE或GAN那種模05/15 14:57
5F→: 式 或是將來的AGI才算?05/15 14:57
6F→: 就連siamese這種 實際上我們還是要兩兩一對送進去05/15 14:57
7F→: 標籤隱含在這個成對送入的模式之中05/15 14:57
16F推: 推05/08 16:23
26F推: 之前也有想過這個問題 但是看到模型裡一大堆的maxpo04/26 15:14
27F→: ol層之後就覺得 應該沒想像中嚴重04/26 15:14
28F→: 另外一樓好專業04/26 15:15
31F推: 樓上這樣要不要再加一組resize縮小的方便捕捉較大的04/28 18:36
32F→: 物體?04/28 18:36
2F→: 原來是這樣 我一直以為是我裝到哪個就是哪個 因為之04/13 14:10
3F→: 前看人家教學時都是要看cuda版本左邊的那個數字去找04/13 14:10
4F→: 相容性 原來根本可以跳過這步XD04/13 14:10
11F→: 原來是剛好裝得有相容性04/13 17:08
12F→: 多個cuda共存是指同一張gpu嗎?這樣torch運行時會怎04/13 17:08
13F→: 麼選擇使用的cuda啊?04/13 17:08