黑客是如何收集别人网站的信息的
在检测某个网站时需要尽量的搜集该网站有效的信息,那该如何做呢?下面我们得出了一个详细的搜集网站信息的架构
1、搜集子域名
子域名搜集
CSP标准中获得
子域工程爆破
PassiveDNS
利用弟兄域名查询流程
查询域名注册邮箱
通过域名查询备案好的
通过备案号查询网站域名
反查注册邮箱
反查法人代表
通过法人代表查寻到的网站域名在查寻电子邮箱
通过上一步电子邮箱去查询域名
查寻以上获得出的网站域名的子域名
利用域传输系统漏洞
SSL/TLS资格证书中可能会有多个网站域名的信息
DNS记录中的spf记录
若目标使用cdn节点,绕开cdn节点找到ip
2、搜集站名信息
判断网站电脑操作系统
Linux大写比较敏感
Windows大写不比较敏感
扫描仪比较敏感文件
robots.txt
crossdomain.xml
sitemap.xml
xX.tar.gz
xX.bak
等
确定网站采用的语言
如Python / javas / PHP等
找尾缀,例如Python/asp/jsp
前端框架
如jQuery / BootStrap / Vue / React / Angular等
查看源代码
中间网络服务器
如 Apache / Nginx / IIS 等
查看header中的信息
根据出错信息判断
根据默认页面判断
web器皿网络服务器
如Tomcat / Jboss / Weblogic等
后端开发架构
根据Cookie判断
根据css样式 / 图片等资源的hash值判断
根据网页地址路由器判断
如wp-admin
根据网页页面中的关键词判断
根据响应头里的X-Powered-By
cdn节点信息
常见的有Cloudflare、yunjiasu
检测有没有WAF,如果有,什么类型的
有WAF,找绕开方式
没有,进入下一阶段
扫描仪比较敏感文件目录,看是否存在信息泄露
扫描仪之前先自己试着几个的网页地址,人为看一下反应
使用网络爬虫抓取网站信息
取得一定信息后,通过取得的文件目录名字,文件名称及文件扩展名了解网站开发者的取名构思,确定其命名规则,推断出更多的文件目录及文件夹名称
相关文章
- 1条评论
- 只影扶弦2022-05-28 16:01:23
- / Angular等查看源代码中间网络服务器如 Apache / Nginx / IIS 等查看header中的信息根据出错信息判断根据默认页面判断web器皿网络服务器如Tomcat / Jboss / Weblogic等后端开发架构根据Cookie判断根据css样式 / 图片等资源的hash值判