Skyrocket Your Bug Bounty Success Using These Crawlers から学ぶ(BurpSuite)

ソース:

medium.com

 

訳:

Burp Spider

私たちが試してみる最後のクローラーは、Burp Spider で。
これが今のところ私のお気に入りですが、効率的にするにはかなり優れたコンピュータが必要で。
残念ながら、私のコンピューターはかなり古いものですが、単純なクロールであればほぼ問題ないと。
その前に、スコープを設定する必要があります。
ターゲット -> スコープ設定に移動し、高度なコントロールを使用すると、「ロード」を使用してワイルドカードをロードしてみることができ。

 

 

を追加することをお勧めします。 wildcards.txt これには

 

 

に移動します 次に、ダッシュボード -> 新しいスキャン -> クロール

 

 

URLを読み込んでスキャンしたいと考えて。
ファイルをcat して to-crawl.txt xclip ユーティリティを選択してコピーしてみます。 

 

cat to-crawl.txt | xclip -selection copy

 

200 個の URL の場合は、ほぼ問題ありません。
セクションに貼り付けます これを「スキャンする URL」 。 

 

 

ここでスキャン構成を編集してみて。

 

 

という名前を付け この設定にCrawler 、5 つのリンクの深さを使用し、いくつかの制限を設定する必要があります。 

 

 

最大クロール期間は 600 分 にしたいです。 で発見されたユニークな場所 そして、 150000

 

 

他の設定はデフォルトのままにし、保存して実行してみて。
クローラーの実行が終了したら、結果をエクスポートしたいと思い。
収集したエンドポイントをエクスポートする方法には巧妙なトリックがあり。
GAP 拡張機能 を使用できます。 をインストールする必要があり Pythonjython 、リンクする必要もあり。

タブに移動し[ターゲット] 、収集されたエンドポイントをすべて選択してGAP に送信。

 

 

ロードされるまで待つ必要があり。
リンクのみが必要なものを選択し、それが完全にロードされるのを待って、「 範囲内のみ」 でフィルタリングし。 

 

 

ジャンクな結果がたくさんあるため、 https を持つ結果のみを含めることをお勧めして。
Ctrl+C を押して、それらを gap.txt に配置し。
Burpを扱うときにお勧めします。
最良の方法は、[ターゲット] タブにアクセスして結果を表示し、他のサードパーティ ツールを使用しないことです…追加のチェックに合格したくない場合は除きます。
それはかなり良いアイデアかもしれませんが、この場合は、手動でテストし、バックグラウンドで実行するクローラーを使用しているときにのみBurp を使用し。