看板 [ Linux ]
討論串[問題] wget完整網頁
共 3 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓2(2推 0噓 1→)留言3則,0人參與, 最新作者asdhhhman (無名)時間13年前 (2010/10/08 22:31), 編輯資訊
0
0
3
內容預覽:
想請問一下. 我想抓以下網站的完整HTML. http://tinyurl.com/2dwktmr. 我使用的語法是. wget --user-agent "Mozilla/4.0 (compatible; MSIE 6.0)" -O - -o - -w 20. --referer "http://

推噓4(4推 0噓 11→)留言15則,0人參與, 最新作者wilson8069 (E T)時間10年前 (2014/02/13 23:27), 編輯資訊
0
0
0
內容預覽:
第一次發問請多多指教> <. 我想利用Linux的wget去抓取網頁資料. 但發現我想抓的網頁含有ajax的內容. 想請問這樣還有方法可以抓取完整的網頁內容嗎. 如果wget無法做到,其他可達成的任何方法都可以.... 先謝謝大家回答!!. --. 發信站: 批踢踢實業坊(ptt.cc). ◆

推噓1(1推 0噓 1→)留言2則,0人參與, 最新作者s25g5d4 (function{}())時間10年前 (2014/02/14 21:36), 編輯資訊
0
0
3
內容預覽:
推文有提到 headless browser, 我來解釋一下. headless browser 就是沒有操作介面的瀏覽器. 完全由使用者寫的指令去完成瀏覽動作. 因此你可以. - 自動化網頁測試. - 產生網頁截圖或 PDF. - 自動開啟網頁並完成批次工作(包括登入). 也就是說 headles
(還有625個字)
首頁
上一頁
1
下一頁
尾頁