pytorch大師請進
pytorch在處理多GPU運算有data parallel跟distributed data parallel
我理解的前者是用multithread來解這問題 後者是multiprocess
在Python中 multithread要應對GIL 大量運算問題使用multithread其實不如單線程
所以data parallel實質單線程?
另外我昨天搞了個distributed data parallel
但accuracy比data parallel低超多 這為啥
超參數都一樣
pytorch好難 哇哇嗚嗚嗚
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.135.95 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1734045143.A.E44.html
→
12/13 07:22,
1年前
, 1F
12/13 07:22, 1F
→
12/13 07:22,
1年前
, 2F
12/13 07:22, 2F
→
12/13 07:25,
1年前
, 3F
12/13 07:25, 3F
→
12/13 07:26,
1年前
, 4F
12/13 07:26, 4F
討論串 (同標題文章)
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 1 之 6 篇):