Re: pytorch大師請進
※ 引述 《sustainer123 (溫水佳樹的兄長大人)》 之銘言:
:
: pytorch在處理多GPU運算有data parallel跟distributed data parallel
:
: 我理解的前者是用multithread來解這問題 後者是multiprocess
:
: 在Python中 multithread要應對GIL 大量運算問題使用multithread其實不如單線程
:
: 所以data parallel實質單線程?
:
測了一下 我用fashion MNIST測
隨便搓的CNN
DP跑100多秒 單線程49秒
Python多線程==仿賽
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.135.95 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1734054274.A.814.html
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 6 篇):