我記得很久以前, 有的瀏覽器, 在存檔時, 可以設定, 深入網頁下數層 然後可以在本機上查閱 因為網頁的結構有點像樹狀目錄...不知有沒有這種程式 可以把網站內容一鍋端, 然後存在本機, 供自己使用??
找了一個來試關鍵字Copy websites locally for offline browsing ...有深度設定主要用途是看人家寫的BLOG心得, 自己再拿來加工, 變成自己的東西之前是 control c , control V 很累人
我以前為了保護網頁程式碼.server 有設定一定時間,連結多次時,就停止服務. (連結的 IP)網頁碼都是 PHP, 客戶端存下來的網頁碼,不是原始網頁碼.重要的數據都由 HTML 轉成 PDF 或 JPG 檔案,送到客戶端.最重要的是,也都用抓取網頁的程式,測試是否能達到保護.