[問題] 怎麼用網路爬蟲下載這些檔案?

看板Linux作者 (大八)時間6年前 (2017/08/10 19:27), 編輯推噓2(2010)
留言12則, 7人參與, 最新討論串1/1
想請問一下 我想要下載這些檔案 http://i.imgur.com/zmI0XPv.png
https://goo.gl/sw8vTR 我只是想下載這些檔案 網路爬蟲可以嗎 大概怎麼用? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.13.96.22 ※ 文章網址: https://www.ptt.cc/bbs/Linux/M.1502364460.A.1EB.html

08/10 19:35, , 1F
基本上就 下載網頁 -> 用選擇器找出所有連結 -> 下載檔案
08/10 19:35, 1F

08/10 19:38, , 2F
這個算簡單 只要用支援 css selector 的 html parser 就好做
08/10 19:38, 2F

08/10 19:40, , 3F
樓上是說用網路爬蟲嗎?
08/10 19:40, 3F

08/10 19:41, , 4F
網路爬蟲平常做的事不就這樣嗎
08/10 19:41, 4F

08/10 19:45, , 5F
我沒用過不知道@@
08/10 19:45, 5F

08/10 19:57, , 6F
RFC 我下了一堆都沒看
08/10 19:57, 6F

08/10 19:59, , 7F
我是不得不看
08/10 19:59, 7F

08/10 20:33, , 8F
wget -r -np -k $url
08/10 20:33, 8F

08/11 00:46, , 9F
apt install rfc-doc ## debian 都幫你包好了
08/11 00:46, 9F

08/11 00:47, , 10F
^rfc-doc^doc-rfc
08/11 00:47, 10F

08/12 15:20, , 11F
firefox -> DownThemAll addon
08/12 15:20, 11F

08/12 17:05, , 12F
我是抓網頁然後用regexp抓出list再用wget抓
08/12 17:05, 12F
文章代碼(AID): #1PZ4Ci7h (Linux)