信息收集之网站镜像克隆


一个成功的渗透测试人员,在进行一次成功的渗透测试之前,必须能够获得尽可能多的信息,有时候一些场景需要复制整个网站用来进行离线评估。

前言

当离线时,拥有 一份镜像进行持续观察很有效。Wooyun 被封杀,但是现在网上还有很多 Wooyun 镜像站,来继续发挥 Wooyun 的余热。镜像网站不会复制动态内容,也不会复制网站的中间件,因此这并不是对所有渗透测试环境都适用。国光我个人一般都是用来 “盗取” 炫酷的 HTML5 网站(嘘 ~~~),有时候用它离线存储一些网站,总之挺实用的。

使用 wget 复制克隆网站

介绍

Kali linux 默认安装了 wget 工具,它简单使用,Pentest Box 中也集成了 wget 命令,只要在终端下敲几个命令,就可以下载整个网站的 HTML 文件。wget 不能复制服务器的程序页面,例如 PHP 脚本页面。

使用方法

终端下输入:

wget -m -p -E -k -K -np -v http://www.baidu.com

这样就会把百度的首页复制下来,就是这么简单粗暴。这里使用了一连串的参数,可以使用man命令来查看 wget的手册:

man wget

wget的主要参数如下:

m: 镜像,选择该选项适用于 Web 站点    
p: 页面获先决条件,该选项确保 包含了请求的   图片和 CSS 脚本文件被下载 (这样可以更好的复制 HTML5 的站点)  
E: 适用扩展,这可以在本地另存为一个 HTML 文件  
k: 转换链接,确保文件被转换,用于本地浏览  
K: 转换备份文件,将会以 orig 为后缀作为原始文件    

复制网站时可能会发生错误,尤其是在复制动态脚本页面的时候,这是因为生成页面的大部分代码是由动态脚本创建的,大部分站点的应用程序是不能访问到的。

注:文件一旦被下载,切忌不可以让其他人浏览和重新发布站点,这会违反版权法。(当然功放演练的话,钓鱼攻击除外)

使用HTTrack复制克隆网站

介绍

HTTrack 是一款免费的离线浏览器工具,和 wget 克隆复制镜像差不多,从服务器抓取 HTML 文件、图片、以及其他 CSS 文件并存储到你的计算机上。Kali 2.0 起默认预装了 HTTrack。

使用方法

终端下输入:

httrack

如果没有安装这个工具的话,那就现场安装一下吧,只需要 2 个命令:

apt update && apt install httrack

这里提示要输入项目名称、存放网站的路径(默认为 /root/website) 和要克隆的目标站,我们这里以「搜狗浏览器官网」为例 先自定义输入「test」 然后 按下「 回车」

sougou

然后默认路径 「回车」

输入想要克隆的网站

http://ie.sougou.com

下面 HTTrack 提供了一些选项,我们一般选择第二本选项 Mirror Web Site(s) with Wizard(具有向导递归层级的镜像网站) 输入:2
「回车」「 回车」「 回车」 后面的一些基本设置 一般一直「回车」下去 直到网站开始克隆为止,HTTrack 就开始进行网站克隆了。

小结

个人认为:wget 操作简单方便,但是克隆效果不及 HTTrack,HTTrack 虽然比 wget 稍微繁琐了一点,但是在爬一个大型网站上面,完整性要优于 wget。 对了,最后再提醒一下:注意版权。

点评

2021 年再来看这篇文章还是可以看出当初的文笔还是比较稚嫩的,那个时候写文章真的无忧无虑,内容真的短,想写啥就写啥,现在动不动一篇文章就写 1 个多月了,得到的同时也失去了些什么。

本文可能实际上也没有啥技术含量,但是写起来还是比较浪费时间的,在这个喧嚣浮躁的时代,个人博客越来越没有人看了,写博客感觉一直是用爱发电的状态。如果你恰巧财力雄厚,感觉本文对你有所帮助的话,可以考虑打赏一下本文,用以维持高昂的服务器运营费用(域名费用、服务器费用、CDN费用等)

微信
支付宝

没想到文章加入打赏列表没几天 就有热心网友打赏了 于是国光我用 Bootstrap 重写了一个页面 用以感谢 支持我的朋友,详情请看 打赏列表 | 国光


文章作者:  国光
版权声明:  本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 国光 !
  目录