Board logo

主題: [求助] [問題]擷取整個網站頁面圖片... [打印本頁]

發表人: leaven    時間: 2006-3-8 09:30 AM     主題: [問題]擷取整個網站頁面圖片...

各位好
請問有沒有能夠擷取整個網站的畫面軟體的軟體呢?

*只要輸入一次網址就能自動擷取該網站各page(擷取深度能調整更好^^a)的畫面

小弟目前是用Snagit8,雖然它有個web capture的模式,但是只能蒐集該網站的圖檔,而不是整個頁面的擷取畫面

有試過一些其他的軟體,是有輸入URL就能擷取的,但是必須要一頁一頁輸入才行  Orz...
目前小弟聽過能夠自動擷取的是日本作的Webscan宣稱有這功能
只是找了找都只有試用版

請問大家有別的替代方案嗎?

[leaven 在 2006-3-8 09:31 AM 作了最後編輯]
發表人: 阿達猴    時間: 2006-3-8 11:56 AM

試試這一個吧
Teleport Pro
把網站整個抓下來...
也可以設定連結深度..
http://toget.pchome.com.tw/index ... fline/index_t1.html
到toget
PChome > Toget 下載 > 網路應用 > www工具 > 離線瀏覽
找離線瀏覽的相關程式~應該有滿多的
發表人: leaven    時間: 2006-3-8 03:19 PM

感謝阿達回應

Teleport我有試過,他抓整個網站真的很強
只是小弟需要的是可以擷取網站各page的畫面(存成jpg等圖檔格式)的軟體
因為工作上經常,需要將做好的網站畫面擷圖後製成PowerPoint給客戶看。
但每次都得一頁一頁慢慢擷取,page數少的網站還好,但碰到page數多的真的花不少時間

所以才想問問有沒有方便好用的軟體
希望知道的網友能分享一下^^a
發表人: 阿達猴    時間: 2006-3-9 09:56 AM

webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀..  ~_~
發表人: leaven    時間: 2006-3-9 11:57 PM


引用:
阿達猴寫到:
webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀..  ~_~

喔,因為他在網頁中有提到
「複数のページを自動でキャプチャパイロットスクリプトを利用すると、テキストファイルに記載したURLを自動的に連続キャプチャできます。  」

但我用試用版試不出來,也許是試用版有鎖功能吧,當然也有可能是我豬頭用不出來....
發表人: innison    時間: 2006-3-10 12:18 AM

試試url2bmp
發表人: leaven    時間: 2006-3-11 09:05 PM


引用:
innison寫到:
試試url2bmp

感謝回應

URL2BMP有抓來試過,可以直接URL2BMP的確不錯
只是得一頁一頁抓
另外得自己調整page的長寬....orz
感覺用Snagit8比較快@@

不過還是感謝提供。
發表人: lovelegend    時間: 2006-3-12 12:58 AM

你有否想過用抓站軟體把網站抓回來, 然後用一些 html-to-image 的軟體來把你抓下的 html 全數轉成圖檔?
html to image 搜一下看到這個, 但我未試過 (電腦裝太多東西了...), 你可試一下:
http://www.guangmingsoft.net/htmltoimage/help.htm
發表人: topedia    時間: 2006-3-16 08:11 PM


引用:
innison寫到:
試試url2bmp

url2bmp有高度限制,太長的網頁會有截斷的情形出現。




歡迎光臨 TWed2k (http://twed2k.org/) Powered by Discuz! 4.1.0