Re: 如何保留網頁的內容

看板Linux作者 (So Say We All.)時間17年前 (2008/07/13 00:24), 編輯推噓1(101)
留言2則, 1人參與, 最新討論串6/8 (看更多)
※ 引述《Adama (So Say We All.)》之銘言: : ※ 引述《jeremy007 (linux藍海帝國)》之銘言: : : $ wget -r --level=1 -k "http://www.gnu.org/home.zh-tw.html" : : 指令敲下去後, 是一整個災難 : : 因為 wget 抓了太多東西了... : $wget -m -k -E -l 1 http://www.gnu.org/home.zh-tw.html : 抓下來東西看似很多,可是它的確是抓第一層連結底下的 html檔而已 : 比如說你不會抓到「自由軟體之歌 2004/11/18」底下的ogg檔 我剛研究了一下wget manpage 要達成你的目的,只抓單一網頁,避開超連結對應到的htmls $wget -k -E -p http://www.gnu.org/home.zh-tw.html -- http://cardassian.blogspot.com/ -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 61.224.65.71

07/13 02:36, , 1F
加 -H
07/13 02:36, 1F

07/13 02:36, , 2F
推錯... XD
07/13 02:36, 2F
文章代碼(AID): #18UDhOx_ (Linux)
討論串 (同標題文章)
文章代碼(AID): #18UDhOx_ (Linux)