记录黑客技术中优秀的内容,传播黑客文化,分享黑客技术精华

让xray自动化批量扫站--躺着等洞上门

2020-12-01 08:48



简介



众所周知,xray只能设置被动扫描多个站或者主动扫描单个网站。(如果有大佬是能设置扫多个站的,算我孤陋寡闻了)虽然它很“强大”,但是也有短板之处。我既不想被动扫描(主要是我懒)多个站,也不想主动扫描一个站。所以就衍生我一个想法,主动扫多个站。躺着它不香吗。





环境



  1. python3

  2. MAC

  3. Xray 1.5





思路



1.测试利用python函数调用xray来爬网站并做扫描

(把xray放在脚本同一个目录下)



os.system("./xray webscan --basic-crawler http://www.xxx.com/ --html-output 1.html")


2.尝试加入授权网站列表IP.txt(记得未授权会被请去喝茶的哟)



import os#author:Jaky
def xray(ip):#exp=(("./xray webscan --basic-crawler {0}/ --html-output {1}.html").format(ip,name))#os.system(exp) print (("./xray webscan --basic-crawler {0}/ --html-output {1}.html").format(ip,ip))
if __name__ == "__main__":
with open('ip.txt','r'as file: list = [www.strip() for www in file.readlines()] for ip in list: xray(ip)


3.这里把报告的名字直接做成授权IP/域名的名字,方便报告的查看



import os#author:Jaky
def xray(ip): name=ip.replace('https://', '').replace('http://', '').replace('/', '') exp=(("./xray webscan --basic-crawler {0}/ --html-output {1}.html").format(ip,name)) os.system(exp)
if __name__ == "__main__": print("雷石实验室 NB") with open('ip.txt','r') as file: list = [www.strip() for www in file.readlines()]  for ip in list: xray(ip)


4.把授权IP/域名加入到IP.txt文本中,酱子就可以躺着等洞上门咯。





总结



挖SRC资产还是梦吗?





end





知识来源: https://mp.weixin.qq.com/s?__biz=MzAwMjQ2NTQ4Mg==&mid=2247485037&idx=1&sn=ff1a73fa4fe993b6760d07c6ca3ad294

阅读:136410 | 评论:0 | 标签:自动化 自动

想收藏或者和大家分享这篇好文章→复制链接地址

“让xray自动化批量扫站--躺着等洞上门”共有0条留言

发表评论

姓名:

邮箱:

网址:

验证码:

公告

永久免费持续更新精选优质黑客技术文章Hackdig,帮你成为掌握黑客技术的英雄

求赞助求支持·广告位💖

标签云