发布于2022年11月4日2年前 黑客入门——渗透神器Burpsuit的爬虫和扫描模块详解 1、 前言大家好我是衬衫(投稿作者),今天给大家带来的是burpsuite专辑的第二篇文章那么我们今天开始我们的分享2、 正文我们上一章节讲解了Proxy模块的配置与使用我们这一章节要讲解的模块是burpsuite的Spider(爬虫模块的讲解)以及Scanner(扫描器模块的讲解)首先我们需要在Proxy内截断一个请求我们把请求包发送给Spider模块之后我们的burpsuite就会开始飞一样的速度为我们爬去页面我们这里要介绍一下这个Spider Status也就是爬虫状态我们的第一个Spider is paused这里说明他没有进行爬去,我们只需要点击该按钮,之后我们的爬虫就开始工作了,我们可以在Target这个模块中看我们的爬虫爬到的请求比如我们刚刚爬去的百度我们在漏洞挖掘过程中爬虫的作用我相信不用多说,大家都知道,敏感文件啊敏感目录啊等等的信息泄露都可以被我们的burpsuite爬虫捕获到,可以直接Target窗口看访问的请求包和返回包是不是十分方便呢?我们现在介绍一下爬虫的选项窗口我们的前面的这些我们不用太关心全部打勾就好了,我们主要要讲的是,最后两个第一个是最大的链接深度,我们这里中小型建议设置10因为这样可以爬出全站的目录,这样比较方便我们的测试,我们这里可以然后最后一个是每个url最大的请求变量大小我们默认50就很好了下面的区域是被动爬取他的介绍是"通过burp 的Proxy模块来更新sitemap没有制造任何新的请求"然后下面也是同样的爬行深度我们这里可以无视这个位置个人绝对被动爬取没有多大的作用这里也就是burpsuite的Spider的一个比较具有特色的模块了,可以根据我们的用户填入的信息去自动为我们填写表单比如我们设置username为"admin" password为"123456"当遇到需要我们提交表单的时候我们的burpsuite会给我们将表单提交上去从而爬去内部的页面,这样能找到更多的页面,页面越多思路越开阔左边的"Add","Edit","Remove","Up",Down"可以对我们的数据进行修改添加等操作然后就是我们的Reuest Header 我们可以直接对request 得header头进行修改以及下面得use Referer header这里有些小伙伴不太理解header我们简单得介绍一下关于http的相关知识HTTP(HyperTextTransferProtocol) 即超文本传输协议,目前网页传输的的通用协议。HTTP协议采用了请求/响应模 型,浏览器或其他客户端发出请求,服务器给与响应。就整个网络资源传输而言,包括message-header和message-body两部分。首先传 递message-header,即http header消息 。http header 消息通常被分为4个部分:general header, request header, response header, entity header。但是这种分法就理解而言,感觉界限不太明确。根据维基百科对http header内容的组织形式,大体分为Request和Response两部分。我们可以对header进行我们的自定义,比如我们可以将User-Agent修改为百度或者Google的爬虫的ua这样网站可能会对我们友好一点。我们接下来从左到右给大家讲解Scanner的每一个模块首先是issue activity(扫描结果)我们的扫描报告会被输出到这里如下图所示很简单,有扫描的时间和结果类型以及路径然后要介绍的是Scan queue也就是扫描队列,我们基本上只在此处看漏洞的扫描进度,所以用到的不太多我们这里要插一句关于如何使用burp suite进行扫描了,我们只需要点击proxy内的Action选择do active scan这样我们就能使用burpsuite 的扫描器模块进行扫描了第三个我们值得介绍的是issue deintions 这里面是我们能够扫描到的漏洞,很多很多而且扫描器这一burpsuite的亮点在于可扩展性,我们可以导入我们的漏洞扫描插件,方便我们的漏洞方便,我们最后一个要介绍的是burpsuite的Options模块,跟其他的选项相同,我们可以对此进行自定义的设置很简单的几个地方我们这里不多做介绍了,如果有不懂的可以自行百度或者在下方提问3、 总结关于Spider其实能讲的点不多,文章只是抛砖引玉的作用,希望大家一点一点的进步
创建帐户或登录后发表意见