我記得很久以前, 有的瀏覽器, 在存檔時, 可以設定, 深入網頁下數層

然後可以在本機上查閱

因為網頁的結構有點像樹狀目錄...不知有沒有這種程式

可以把網站內容一鍋端, 然後存在本機, 供自己使用??
網頁分前端與後端 前端的部分你要存到自己本機當然沒有問題 後端就不可能了

除非是很簡單的網頁 把所有的邏輯都寫在前端 用javascript跑
這種妳把前端下載就可以直接跑了 但大部分的網頁不是這樣寫的
模糊的問題只會得到模糊的答案 精準的問題則會得到精準的答案
挖站程式,他會存放時的靜態網頁,台灣以前有廠商開發,後來因為涉及法律,所以轉趨低調
但真的很好用,我記得好像叫龍捲風....還甚麼的
對岸應該也找的到
找一下GOOGLE,應該還在賣
你說的是離線閱讀吧
朝這方向去google會有很多資訊
我就幫到這了
找了一個來試

關鍵字

Copy websites locally for offline browsing ...



有深度設定




主要用途是看人家寫的BLOG心得, 自己再拿來加工, 變成自己的東西

之前是 control c , control V 很累人
轉PDF的程式也可以....至於網頁抓取程式, 弄了幾個小時, 還沒下文..感覺不是很穩妥了
nwcs wrote:
挖站程式,他會存放時的靜態網頁,台灣以前有廠商開發,後來因為涉及法律,所以轉趨低調

啥法律?
google爬蟲程式抓了幾萬億網頁放在它家server
OP要找的東西叫砍站軟體
HTTrack
http://www.httrack.com/

HTTrack是自由軟體。
和尚蟹 wrote:
HTTrackhttp(恕刪)




用過了, 抓下來,還是開不起來, 同時試了其它軟體, 也都不行
我以前為了保護網頁程式碼.

server 有設定一定時間,連結多次時,就停止服務. (連結的 IP)

網頁碼都是 PHP, 客戶端存下來的網頁碼,不是原始網頁碼.

重要的數據都由 HTML 轉成 PDF 或 JPG 檔案,送到客戶端.

最重要的是,也都用抓取網頁的程式,測試是否能達到保護.
關閉廣告
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!