利用Python收集目标基础信息.

批量找URL厂商简单信息:简易版 由于本平台限制原因,某些文章发送不出去.那就发一个简易版

批量探测域名信息必备.

 实现代码: 

import requests
from lxml import etree
from concurrent.futures import ThreadPoolExecutor #自行添加代理池
import time
def get_info(domain):
    url="https://ip.tool.chinaz.com/ipbatch"
    header={
        "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"
    }
    data={
        "ips":domain,
        "submore":"查询"
    }
    response=requests.post(url=url,data=data,headers=header)
    response.encoding="utf-8"
    content=response.text
    return content
def parse_data(content):
    parse=etree.HTML(content)
    domain=parse.xpath('//*[@id="ipList"]/tr/td[1]/text()')[0].strip()
    IP=parse.xpath('//*[@id="ipList"]/tr/td[2]/a/text()')[0].strip()
    number=parse.xpath('//*[@id="ipList"]/tr/td[3]/text()')[0].strip()
    IP_Address=parse.xpath('//*[@id="ipList"]/tr/td[4]/text()')[0].strip()

    print(f'域名:{domain}')
    print(f'IP地址:{IP}')
    print(f'数字地址:{number}')
    print(f'IP物理地址:{IP_Address}')
    print("====================================")
    return [domain,IP,number,IP_Address]

def thread():
    date = time.time()
    f = open("需要跑的URL字典", "r", encoding="utf-8") #需要修改的地方 
    file = f.readlines()
    with open("数据.csv","w",encoding="utf-8") as fp:
        fp.write("域名,IP,数字地址,IP物理地址"+"\n")
        for domain in file:
            content = get_info(domain)
            result=parse_data(content)
            data=','.join(result)
            fp.write(data+"\n")
    print("一共花费:", time.time() - date)

if __name__ == '__main__':
    thread()

运行结果:

 运行完后当前目录下会产生一个 数据.csv文件格式内容,这样看更直观一些 图片如下:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值