作者查詢 / DaOppaiLoli
作者 DaOppaiLoli 在 PTT 全部看板的留言(推文), 共654則
限定看板:全部
看板排序:
5F推: 那你是真的慘==我拓荒懸賞第一場就撿到04/21 02:14
6F推: 我居然有點期待04/20 19:33
4F推: QQ 珍重再見04/19 12:37
70F推: 我覺得還是很好笑啊 XD04/18 07:33
26F推: Konosuba 算始祖級的了吧04/17 23:43
4F推: 可能會讓婚姻板衝上熱門前三名04/16 12:47
1F推: 應該是要改 stdin 把使用者輸入丟進去04/15 12:56
2F推: 我看懂你的意思了,你可以在 communicate 之前呼叫04/15 13:07
3F→: process.stdout.readline() 把輸出行印出來04/15 13:07
4F→: 但子程序要輸出換行才行,也可以用 .read(5) 之類的04/15 13:08
5F推: 大概會像這樣04/15 13:11
6F→: import subprocess as sp04/15 13:11
7F→: p = sp.Popen(["python", "a.py"], stdout=sp.PIPE)04/15 13:11
8F→: while p.poll() != 0:04/15 13:11
9F→: print(p.stdout.read(1), flush=True)04/15 13:11
10F→: res = p.communicate()04/15 13:11
11F→: print(res)04/15 13:11
19F→: https://i.imgur.com/XLFRpgr.jpg04/15 09:01
17F→: 訴我們 CUDA 是 11.8 版,但 nvidia-smi 顯示的是 104/15 09:01
22F→: 庫則可能會看 CUDA_HOME 環境變數來判斷04/15 09:01
21F→: 能會根據 nvcc 或 nvml 之類的來判斷,其他有些函式04/15 09:01
15F→: 版本的 CUDA 函式庫共存,例如 Docker 或 Conda 就04/15 09:01
20F→: 至於 PyTorch 是如何判斷版本我是不太確定,但他可04/15 09:01
18F→: 2.2 版04/15 09:01
14F推: 在同一台機器,無論單張或多張卡,都可以有多個不同04/15 09:01
16F→: 能做到這種多版本 CUDA 的管理,像這張圖裡 nvcc 告04/15 09:01
1F推: cmd 查的通常會是最高支援的版本04/13 07:30
5F推: 一個機器也可以多個 CUDA 共存,理論上 driver 支援04/13 15:15
6F→: 的版本要大於實際安裝函式庫的版本,然後要大於應用04/13 15:15
7F→: 程式的版本04/13 15:15
8F→: 像你就是 driver 支援到 11.8,函式庫裝 11.6,然後04/13 15:16
9F→: torch 是 11.304/13 15:16
10F→: 雖然還是建議都裝一樣的比較好04/13 15:16
2F推: 77777 神串留名兔我超04/13 21:07
172F推: 有人知道兔田穿什麼裝過的嗎,想復刻04/13 21:38
2F推: 推04/13 18:02