ceacer 2 已发布 2月14号 分享 已发布 2月14号 <?xml encoding="UTF-8">所有编辑简单的介绍下:1、第一种简单几个页面的下载,例如仿模板爱好者,就可以使用这个工具好像跟网页小偷一样,不过这个更强大,可以下载浏览过的网页的相关资源,很方便扒皮工作者,如果整站下载就不是很好用了,因为你不可能几千几万个页面都浏览一遍。1.智能分析所有资源2.下载参带数的资源3.所有页面排版不会乱4.下载Ajax 所有返回格式 5.所有网站的JS6.网站上的所有可用图片。7.可以选择指定要下载的页面8.智能处理源文件路径问题8.分析网站目录结构9.下载网站用到的其它域名资源10.下载完后保证目录和原网站一样11.下载CSS内所有资源12.下载JS内所有资源12.你可以选择你想下载本站还是本站所用的所有资源13.下载整站Flash14.下载FLash加载的Xml 图片 与动态文件远洋整站下载工具 打开后填入网址例如 首页模板输入,网址,选择好保存目录,点击开始下载即可,一会程序就会自动清除网页缓存(比较慢,假死状态,建议不要乱动),打开一个页面点击你想保存的几个页面,如果是首页建议先打开一个页面,然后再回到首页,动动页面,最后返回页面所以这个工具适合部分几个页面的获取,不适合大量页面的获取,一般用户模板制作爱好者扒皮或几个页面的下载。如果需要大量几千几万篇文章的下载就需要下面的工具可以简单快速保存你所喜欢的网页,是仿制网站的利器!如果遇到屏蔽了浏览器保存网页,那么用网页整站下载器是一种很理想的办法。使用网页整站下载器保存网页就简单多了,软件会自动保存所有的页面,但有时候由于软件功能过于强大,会导致很多不必要的代码、图片、js文件都一并保存到网页中。不过在获取utf8格式网页的时候,editplus打开提示编辑有问题,所以建议用dw打开(用记事本打开是乱码),然后通过批量替换的方法实现编辑修正。这样更利于搜索引擎收录。网站整站下载器下载教程,从上面的地址下载后解压第一步:打开pro.exe 然后 文件>新建项目向导第二步:输入要获取的网址 这里以网址为例,默认3个链接就够了,太复杂的别才容易出问题第三步:一般全部即可第四步:配置完成第五部:选择项目文件保存地址,建议大家新建一个目录,然后保存到里面这样不会乱,因为怕目录重复,比较麻烦第六步:点击 开始 箭头即可等待了,看网页文件多少决定乱码的解决这里给一个例子一定要用可以正常打开utf8格式文件的工具(例如dreamweaver),可以通过批量替换部分重复内容,即完美解决了这个问题。如果你还有什么问题可以留言。共同讨论,本文只做技术交流,谢谢支持。多多支持。 评论链接 在其他网站上分享 更多分享选项...
推荐帖
创建账户或登录以发表评论
您需要成为会员才能发表评论
创建一个帐户
在我们的社区注册一个新账户。很简单!
注册新账户登入
已有账户?在此登录
立即登录