看板 [ Linux ]
討論串如何保留網頁的內容
共 8 篇文章
首頁
上一頁
1
2
下一頁
尾頁

推噓0(0推 0噓 0→)留言0則,0人參與, 最新作者jeremy007 (linux藍海帝國)時間17年前 (2008/07/13 14:30), 編輯資訊
0
0
1
內容預覽:
→ giacch:加 -H 07/13 02:37→ giacch:不想產生目錄可再加 -nd -nH 07/13 02:38. 感謝 Adama 和 giacch 兩位先進,. 我用 -H -k -E -p -nd -nH 的組合技已經解決了問題 ^_^. --. 發信站: 批踢踢實業坊(pt

推噓0(0推 0噓 2→)留言2則,0人參與, 最新作者jeremy007 (linux藍海帝國)時間17年前 (2008/07/13 01:56), 編輯資訊
0
0
2
內容預覽:
謝謝你的協助, 這個指令確實能完成當初的需求.. 但我發現, 我想要的效果應該是 "所見即所存" (抱歉, 我不太會描述). ex: http://tw.yahoo.com/. 使用上述 wget 參數無法完整下載網頁內容.. 但 firefox 卻是可以完整下載的...@@. 請問應該如何修正我的

推噓1(1推 0噓 1→)留言2則,0人參與, 最新作者Adama (So Say We All.)時間17年前 (2008/07/13 00:24), 編輯資訊
0
0
3
內容預覽:
我剛研究了一下wget manpage. 要達成你的目的,只抓單一網頁,避開超連結對應到的htmls. $wget -k -E -p http://www.gnu.org/home.zh-tw.html. --. http://cardassian.blogspot.com/. --. 發信站:

推噓0(0推 0噓 0→)留言0則,0人參與, 最新作者Adama (So Say We All.)時間17年前 (2008/07/12 23:52), 編輯資訊
0
0
2
內容預覽:
這位同學... 你有用-m嗎?為什麼我寫了你不用... 用-m就不用-r了. 我試這樣的指令. $wget -m -k -E -l 1 http://www.gnu.org/home.zh-tw.html. 抓下來東西看似很多,可是它的確是抓第一層連結底下的 html檔而已. 比如說你不會抓到「自由
(還有212個字)

推噓0(0推 0噓 0→)留言0則,0人參與, 最新作者jeremy007 (linux藍海帝國)時間17年前 (2008/07/12 15:52), 編輯資訊
0
0
2
內容預覽:
sorry, 我求助於 man, 並試了好一會兒. 你的 hint 似乎不能 work. 以 http://www.gnu.org/home.zh-tw.html 這個網頁為例. 我用 firefox 選完整保存, 共產生以下東西. 1. home.zh-tw.html. 2. home.zh-tw
(還有121個字)
首頁
上一頁
1
2
下一頁
尾頁