topedia
|
發表於 2006-3-16 08:11 PM |
引用: innison寫到:
試試url2bmp
url2bmp有高度限制,太長的網頁會有截斷的情形出現。
| |
lovelegend
|
發表於 2006-3-12 12:58 AM |
|
leaven
|
發表於 2006-3-11 09:05 PM |
引用: innison寫到:
試試url2bmp
感謝回應
URL2BMP有抓來試過,可以直接URL2BMP的確不錯
只是得一頁一頁抓
另外得自己調整page的長寬....orz
感覺用Snagit8比較快@@
不過還是感謝提供。
| |
innison
|
發表於 2006-3-10 12:18 AM |
|
leaven
|
發表於 2006-3-9 11:57 PM |
引用: 阿達猴寫到:
webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀.. ~_~
喔,因為他在網頁中有提到
「複数のページを自動でキャプチャパイロットスクリプトを利用すると、テキストファイルに記載したURLを自動的に連続キャプチャできます。 」
但我用試用版試不出來,也許是試用版有鎖功能吧,當然也有可能是我豬頭用不出來....
| |
阿達猴
|
發表於 2006-3-9 09:56 AM |
webscan 不太會用..他不會自動進連結?
只能自己一個網頁一個網頁的點呀.. ~_~
| |
leaven
|
發表於 2006-3-8 03:19 PM |
感謝阿達回應
Teleport我有試過,他抓整個網站真的很強
只是小弟需要的是可以擷取網站各page的畫面(存成jpg等圖檔格式)的軟體
因為工作上經常,需要將做好的網站畫面擷圖後製成PowerPoint給客戶看。
但每次都得一頁一頁慢慢擷取,page數少的網站還好,但碰到page數多的真的花不少時間
所以才想問問有沒有方便好用的軟體
希望知道的網友能分享一下^^a
| |
阿達猴
|
發表於 2006-3-8 11:56 AM |
|
leaven
|
發表於 2006-3-8 09:30 AM |
各位好
請問有沒有能夠擷取整個網站的畫面軟體的軟體呢?
*只要輸入一次網址就能自動擷取該網站各page(擷取深度能調整更好^^a)的畫面
小弟目前是用Snagit8,雖然它有個web capture的模式,但是只能蒐集該網站的圖檔,而不是整個頁面的擷取畫面
有試過一些其他的軟體,是有輸入URL就能擷取的,但是必須要一頁一頁輸入才行 Orz...
目前小弟聽過能夠自動擷取的是日本作的Webscan宣稱有這功能
只是找了找都只有試用版
請問大家有別的替代方案嗎?
[leaven 在 2006-3-8 09:31 AM 作了最後編輯]
| |