Re: 如何保留網頁的內容

看板Linux作者 (linux藍海帝國)時間17年前 (2008/07/13 01:56), 編輯推噓0(002)
留言2則, 1人參與, 最新討論串7/8 (看更多)
※ 引述《Adama (So Say We All.)》之銘言: : ※ 引述《Adama (So Say We All.)》之銘言: : : $wget -m -k -E -l 1 http://www.gnu.org/home.zh-tw.html : : 抓下來東西看似很多,可是它的確是抓第一層連結底下的 html檔而已 : : 比如說你不會抓到「自由軟體之歌 2004/11/18」底下的ogg檔 : 我剛研究了一下wget manpage : 要達成你的目的,只抓單一網頁,避開超連結對應到的htmls : $wget -k -E -p http://www.gnu.org/home.zh-tw.html 謝謝你的協助, 這個指令確實能完成當初的需求. 但我發現, 我想要的效果應該是 "所見即所存" (抱歉, 我不太會描述) ex: http://tw.yahoo.com/ 使用上述 wget 參數無法完整下載網頁內容. 但 firefox 卻是可以完整下載的...@@ 請問應該如何修正我的參數呢 ? -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 61.216.170.106

07/13 02:37, , 1F
加 -H
07/13 02:37, 1F

07/13 02:38, , 2F
不想產生目錄可再加 -nd -nH
07/13 02:38, 2F
文章代碼(AID): #18UF1Fpq (Linux)
討論串 (同標題文章)
文章代碼(AID): #18UF1Fpq (Linux)