主題:
[求助]
[問題]擷取整個網站頁面圖片...
[打印本頁]
發表人:
leaven
時間:
2006-3-8 09:30 AM
主題:
[問題]擷取整個網站頁面圖片...
各位好
請問有沒有能夠擷取整個網站的畫面軟體的軟體呢?
*只要輸入一次網址就能自動擷取該網站各page(擷取深度能調整更好^^a)的畫面
小弟目前是用Snagit8,雖然它有個web capture的模式,但是只能蒐集該網站的圖檔,而不是整個頁面的擷取畫面
有試過一些其他的軟體,是有輸入URL就能擷取的,但是必須要一頁一頁輸入才行 Orz...
目前小弟聽過能夠自動擷取的是日本作的
Webscan
宣稱有這功能
只是找了找都只有試用版
請問大家有別的替代方案嗎?
[leaven 在 2006-3-8 09:31 AM 作了最後編輯]
發表人:
阿達猴
時間:
2006-3-8 11:56 AM
試試這一個吧
Teleport Pro
把網站整個抓下來...
也可以設定連結深度..
http://toget.pchome.com.tw/index ... fline/index_t1.html
到toget
PChome > Toget 下載 > 網路應用 > www工具 > 離線瀏覽
找離線瀏覽的相關程式~應該有滿多的
發表人:
leaven
時間:
2006-3-8 03:19 PM
感謝阿達回應
Teleport我有試過,他抓整個網站真的很強
只是小弟需要的是可以擷取網站各page的畫面(存成jpg等圖檔格式)的軟體
因為工作上經常,需要將做好的網站畫面擷圖後製成PowerPoint給客戶看。
但每次都得一頁一頁慢慢擷取,page數少的網站還好,但碰到page數多的真的花不少時間
所以才想問問有沒有方便好用的軟體
希望知道的網友能分享一下^^a
發表人:
阿達猴
時間:
2006-3-9 09:56 AM
webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀.. ~_~
發表人:
leaven
時間:
2006-3-9 11:57 PM
引用:
阿達猴
寫到:
webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀.. ~_~
喔,因為他在
網頁
中有提到
「複数のページを自動でキャプチャパイロットスクリプトを利用すると、テキストファイルに記載したURLを自動的に連続キャプチャできます。 」
但我用試用版試不出來,也許是試用版有鎖功能吧,當然也有可能是我豬頭用不出來....
發表人:
innison
時間:
2006-3-10 12:18 AM
試試url2bmp
發表人:
leaven
時間:
2006-3-11 09:05 PM
引用:
innison
寫到:
試試url2bmp
感謝回應
URL2BMP有抓來試過,可以直接URL2BMP的確不錯
只是得一頁一頁抓
另外得自己調整page的長寬....orz
感覺用Snagit8比較快@@
不過還是感謝提供。
發表人:
lovelegend
時間:
2006-3-12 12:58 AM
你有否想過用抓站軟體把網站抓回來, 然後用一些 html-to-image 的軟體來把你抓下的 html 全數轉成圖檔?
html to image 搜一下看到這個, 但我未試過 (電腦裝太多東西了...
), 你可試一下:
http://www.guangmingsoft.net/htmltoimage/help.htm
發表人:
topedia
時間:
2006-3-16 08:11 PM
引用:
innison
寫到:
試試url2bmp
url2bmp有高度限制,太長的網頁會有截斷的情形出現。
歡迎光臨 TWed2k (http://twed2k.org/)
Powered by Discuz! 4.1.0