网站存活,ip反查,权重备案查询(方法)

这篇具有很好参考价值的文章主要介绍了网站存活,ip反查,权重备案查询(方法)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

常用漏洞库:

佩奇漏洞文库:
https://www.yuque.com/peiqiwiki/peiqi-poc-wiki
http://wiki.peiqi.tech/
白阁漏洞文库:
https://wiki.bylibrary.cn/%E6%BC%8F%E6%B4%9E%E5%BA%93/01-CMS%E6%BC%8F%E6%B4%9E/ActiveMQ/ActiveMQ%E4%BB%BB%E6%84%8F%E6%96%87%E4%BB%B6%E4%B8%8A%E4%BC%A0%E6%BC%8F%E6%B4%9E/
狼组安全团队公开知识库:
https://wiki.wgpsec.org/knowledge/
Morker文库:
https://wiki.96.mk/
风炫漏洞库:
https://evalshell.com/
exploit-db漏洞库:
https://www.exploit-db.com/

批量探测网站存活状态

使用工具httpx对上面收集到的url做一个存活验证,首先筛选出存活的url来,然后再进行测试,不然会浪费我们很多时间,这里我们使用httpx把存活的url保存到文件中

httpx.exe -timeout 15 -l fanwei.txt -o result.txt -mc 200

批量ip反查域名,web安全,安全,web安全,系统安全
批量ip反查域名,web安全,安全,web安全,系统安全

域名和权重和公司的批量检测

在提交补天或者其他漏洞平台的时候,可以发现平台会有提到这么一个提交漏洞的规则,那就是公益src的漏洞网站的主站权重需要达到指定的权重值才会收录,那么什么是权重值呢,网站权重是指搜索引擎给网站(包括网页)赋予一定的权威值,对网站(含网页)权威的评估评价。一个网站权重越高,在搜索引擎所占的份量越大,在搜索引擎排名就越好。补天的话是要百度移动权重大于等于1或者百度pc权重大于等于1,或者谷歌权重大于等于3,权重信息以爱站检测为准

爱站:https://rank.aizhan.com/
批量ip反查域名,web安全,安全,web安全,系统安全
我们需要对上边收集过来的存在漏洞的url列表去做一个根据ip反查域名,然后域名反查权重这样一个功能,python大法好,学python得永生,这里使用python编写一个根据ip反查域名然后域名反查权重的功能。因为有些是ip站,要想查权重,就要查到ip所对应的域名,所以我们需要一个ip反查域名这么功能的ip反查脚本脚本:

#-- coding:UTF-8 --
import re, time
from urllib.parse import urlparse
import requests
from fake_useragent import UserAgent
from tqdm import tqdm
import os

# 爱站
def aizhan_chaxun(ip, ua):
    aizhan_headers = {
        'Host': 'dns.aizhan.com',
        'User-Agent': ua.random,
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
        'Accept-Encoding': 'gzip, deflate, br',
        'Referer': 'https://dns.aizhan.com/'}
    aizhan_url = 'https://dns.aizhan.com/' + str(ip) + '/'
    try:
        aizhan_r = requests.get(url=aizhan_url, headers=aizhan_headers, timeout=2).text
        aizhan_nums = re.findall(r'''<span class="red">(.*?)</span>''', aizhan_r)
        if int(aizhan_nums[0]) > 0:
            aizhan_domains = re.findall(r'''rel="nofollow" target="_blank">(.*?)</a>''', aizhan_r)
            return aizhan_domains
    except:
        pass

def catch_result(i):
    ua_header = UserAgent()
    i = i.strip()
    if "http://" not in i:
        i="http://"+i
    try:
        ip = urlparse(i).netloc
        aizhan_result = aizhan_chaxun(ip, ua_header)
        time.sleep(1)
        if (aizhan_result != None ):
            with open("ip反查结果.txt", 'a') as f:
                result = "[url]:" + i + "   " +  "  [aizhan]:" + str(aizhan_result[0])
                print(result)
                f.write(result + "\n")
        else:
            with open("反查失败列表.txt", 'a') as f:
                f.write(i + "\n")
    except:
        pass


if __name__ == '__main__':
    url_list = open("待ip反查.txt", 'r').readlines()
    url_len = len(open("待ip反查.txt", 'r').readlines())
    #每次启动时清空两个txt文件
    if os.path.exists("反查失败列表.txt"):
        f = open("反查失败列表.txt", 'w')
        f.truncate()
    if os.path.exists("ip反查结果.txt"):
        f = open("ip反查结果.txt", 'w')
        f.truncate()
    for i in tqdm(url_list):
        catch_result(i)

将前边收集到的存在漏洞的url存到一个叫待ip反查.txt的文件里,然后运行脚本

运行结果:
批量ip反查域名,web安全,安全,web安全,系统安全
然后拿到解析的域名后,继续对域名权重进行检测,这里采用爱站来进行权重检测,这里是一个批量检测权重的脚本


# -- coding:UTF-8 --
import requests   
import re
import getopt
import sys
import threadpool
import urllib.parse
import urllib.request
import ssl
from urllib.error import HTTPError,URLError
import time
ssl._create_default_https_context = ssl._create_stdlib_context


headers={
'Host': 'baidurank.aizhan.com',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36',
'Sec-Fetch-Dest': 'document',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
'Cookie': ''
}


def google_simple(url, j):
    google_pc = "https://pr.aizhan.com/{}/".format(url)
    bz = 0
    http_or_find = 0
    try:
        response = requests.get(google_pc, timeout=10).text
        http_or_find = 1
        result_pc = re.findall(re.compile(r'<span>谷歌PR:</span><a>(.*?)/></a>'), response)[0]
        result_num = result_pc.split('alt="')[1].split('"')[0].strip()
        if int(result_num) > 0:
            bz = 1
        result = '[+] 谷歌权重:' + result_num + '  ' + j
        return result, bz
    except:
        if (http_or_find != 0):
            result = "[!]格式错误:" + "j"
            return result, bz
        else:
            time.sleep(3)
            return google_simple(url, j)


def getPc(domain):
    aizhan_pc = 'https://baidurank.aizhan.com/api/br?domain={}&style=text'.format(domain)
    try:

        req = urllib.request.Request(aizhan_pc, headers=headers)
        response = urllib.request.urlopen(req,timeout=10)
        b = response.read()
        a = b.decode("utf8")
        result_pc = re.findall(re.compile(r'>(.*?)</a>'),a)
        pc = result_pc[0]

    except HTTPError as u:
        time.sleep(3)
        return getPc(domain)

    return pc

def getMobile(domain):
    aizhan_pc = 'https://baidurank.aizhan.com/api/mbr?domain={}&style=text'.format(domain)
    try:
        # b = requests.post(url=post_url,headers=headers, proxies=proxy, timeout = 7)
        # res = urllib.request.urlopen(aizhan_pc,timeout=10)
        # # res = opener.open(aizhan_pc,timeout=10)
        # a = res.read().decode('UTF-8')
        req = urllib.request.Request(aizhan_pc, headers=headers)
        response = urllib.request.urlopen(req,timeout=10)
        b = response.read()
        a = b.decode("utf8")
        result_m = re.findall(re.compile(r'>(.*?)</a>'),a)
        mobile = result_m[0]
    except HTTPError as u:
        time.sleep(3)
        return getMobile(domain)


    return mobile
# 权重查询
def seo(name,url):

    try:

        result_pc = getPc(name)
        result_mobile = getMobile(name)

    except Exception as u:
        # print(u)
        result_pc = '0'
        result_mobile = '0'

        print('[- 目标{}获取权重失败,自动设为0'.format(url))
    # print('运行正常')
    print('[+ 百度权重:'+result_pc+'  移动权重:'+result_mobile+'  Url:'+url)
    with open('vul.txt','a',encoding='utf-8') as y:
        y.write('[百度权重:'+result_pc+','+"移动权重:"+result_mobile+','+url+']'+'\n')

    return True

def exp(name1):
    # opts, args = getopt.getopt(sys.argv[1:], '-u:-r:', ['url', 'read'])
    # print(name1)
    try:
        name = name1[name1.rfind('/'):].strip('/')
        # print(name)
        rew = seo(name,name1)

    except Exception as u:
    # except:
        print(u)
        print('[- 目标{}检测失败,已写入fail.txt等待重新检测'.format(name1))
        # file_fail.write(name1+'\n')
        with open('fail.txt',mode='a',encoding='utf-8') as o:
            o.write(name1+'\n')


def multithreading(funcname, params=[], filename="ip.txt", pools=15):
    works = []
    with open(filename, "r") as f:
        for i in f:
            func_params = [i.rstrip("\n")] + params
            works.append((func_params, None))
    pool = threadpool.ThreadPool(pools)
    reqs = threadpool.makeRequests(funcname, works)

    [pool.putRequest(req) for req in reqs]
    pool.wait()

def main():
    multithreading(exp, [], "存在漏洞的url.txt", 15)  # 默认15线程
    print("全部check完毕,请查看当前目录下的vul.txt")

if __name__ == "__main__":
    # st = False
    # main(st)
    main()

批量ip反查域名,web安全,安全,web安全,系统安全
结果:
批量ip反查域名,web安全,安全,web安全,系统安全
然后拿着有权重的站,批量根据域名反查备案名称,这里推荐使用一个工具叫ip2domain,该工具可用于对跑到的ip批量查询域名及百度权重、备案信息,快速确定ip所属企业,方便提交漏洞。

工具链接:https://github.com/Sma11New/ip2domain

批量ip反查域名,web安全,安全,web安全,系统安全
然后批量查询域名的备案公司

python ip2domain.py -f 存在漏洞的url.txt -t 10 --icp -o 根据域名反查厂商.txt

参数解析:-f 是指定批量查询的文件 -o是查询后的结果保存的文件名 -t是超时时间 --icp是查询网站对应的备案公司名

批量ip反查域名,web安全,安全,web安全,系统安全
企查查:
批量ip反查域名,web安全,安全,web安全,系统安全
天眼查:
批量ip反查域名,web安全,安全,web安全,系统安全文章来源地址https://www.toymoban.com/news/detail-740916.html

到了这里,关于网站存活,ip反查,权重备案查询(方法)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 网站域名历史记录批量查询-老域名建站历史快照数据查询

      域名建站历史查询软件是一种用于查询一个域名被使用的网站的历史记录的工具。它可以提供许多有用的信息,包括该网站的创建和修改日期、使用的网站建设平台、使用的CMS系统、网站的历史页面内容和页面结构等。 域名建站历史查询软件的作用是帮助网站管理员、S

    2024年02月08日
    浏览(174)
  • IP反查域名

    IP反查域名 ip反查域名的三种方法,方法有很多,我这边只描述三种,也算是两种 1,在线网站 http://stool.chinaz.com/same 2,在线网站 https://site.ip138.com/ 3,工具 https://github.com/Sma11New/ip2domain 以下以CSDN解析出来的IP 39.106.226.142为例,实际测试三种方法 1,站长之家 http://stool.chinaz.

    2024年02月13日
    浏览(45)
  • dig批量域名逆向查询ip

    iplist.txt 中内容 效果图: dig其他选项参数: 从指定的dns服务器进行查询

    2024年02月10日
    浏览(48)
  • 使用PowerCLI批量查询IP是否存在

      一、【写在前面】 PowerCLI是VMware的VSphere的CLI工具,需要运行在PowerShell上,有时候接手比较古老的VCSA(vcenter)版本会不得不用PowerCLI,因为其他语言的SDK传进去很麻烦,不用脚本又会很累。 今天水一个批量查IP是否存在的脚本,非常简单一个循环一个数组,但是考虑到Pow

    2024年02月01日
    浏览(82)
  • 安全开发实战(2)---域名反查IP

    目录 安全开发专栏 前言  域名与ip的关系 域名反查ip的作用 1.2.1 One 1.2.2 Two 1.2.3 批量监测 ​总结                                                               安全开发实战 http://t.csdnimg.cn/25N7H         这步是比较关键的一步,一般进行cdn监测后,获取到真实ip地址

    2024年04月25日
    浏览(45)
  • 查询ip的网站

    查询公网ip的网站: 1、https://ip.cn/ 推荐浏览器打开,直接就能看到本机地址。 curl https://ip.cn,结果是一堆网页,而且查询的结果是“加载中...”。 不过知道ip的前提下,crul https://ip.cn/ip/{ip}.html 可以看到ip的运营商和所在地区。{ip}为真实需要查询的ip 2、https://www.ipip.net/ 推

    2024年02月11日
    浏览(51)
  • 站长工具之PHP单文件实现IP归属地批量查询

    站长/程序员工具之PHP单程序文件实现IP归属地批量查询 支持提取IP便于直接粘贴日志,去重防止重复查询浪费计算资源 按出现次数排序方便分析该IP行为。查询速度极快。

    2024年01月16日
    浏览(65)
  • 域名批量查询功能常用查询方法教程

    一些用户在抱怨,要找到好域名怎么就那么不容易呢,能不能让我批量查下不含0的数字啊,能不能查下不含4的数字啊,能不能查下AABBB这样的域名啊…… 别着急,这就给您支招啦:通过西部数码强大的批量查询功能,您想要的米,统统都能查到。接下来就回答下大家长遇到

    2023年04月11日
    浏览(56)
  • 【自制小工具】快速批量查询IP归属地(自动去重、按国内外汇总,并智能识别出错误IP)

    作者:Eason_LYC 不放弃,不为别的,只想活成自己心中的样子~ 领域:WEB安全、网络攻防 关注WEB安全、网络攻防。我的专栏文章知识点全面细致,逻辑清晰、结合实战,让你在学习路上事半功倍,少走弯路! 博客描述: 一个人的价值,在于他所拥有的,而不是他会的。所以可

    2024年02月02日
    浏览(115)
  • 中通快递批量查询方法

    你是否经常需要处理大量的中通快递单号,却苦于一个个等待查询?现在,有了固乔快递查询助手,这个问题迎刃而解!通过批量查询功能,你可以轻松管理、追踪你的中通快递单号,大大提高工作效率。 一、下载与安装 访问固乔科技的官网,下载并安装固乔快递查询助手

    2024年01月22日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包