Python爬虫企查查

#爬取企查查公司的网址和名字

Cookie为你登录企查查官网后的,
程序运行后输入需要搜索的字段即可湖区相关企业信息
eg:游戏,餐饮等字眼
import time
import urllib
from urllib import request
from lxml import etree

for PageNum in range(1,2):
    search = input("请输入需要搜索的字段:")
    search1 = urllib.parse.quote(search)
    url = r"https://www.qichacha.com/search?key="+ search1+"#p:"+str(PageNum)+"&"
    headers = {
        'Host': 'www.qichacha.com',
        'Connection': 'keep-alive',
        'Accept': r'text/html, */*; q=0.01',
        'X-Requested-With': 'XMLHttpRequest',
        'User-Agent': r'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit/604.1.38 (KHTML, like Gecko) Version/11.0 Mobile/15A372 Safari/604.1',
        'Referer': url,
        'Accept-Language': 'zh-CN,zh;q=0.9',
        'Cookie': "UM_distinctid=16c4ffec9184b4-06bf1ab467097d-c343162-100200-16c4ffec919402; zg_did=%7B%22did%22%3A%20%2216c4ffecad927b-02c0fc68d3cecc-c343162-100200-16c4ffecada522%22%7D; _uab_collina=156471019499611887695946; acw_tc=7cc1e21615680865761297886e663a64c8dd44f26a2658e07f2c53ffbb; QCCSESSID=rl94fffour31is6mqkpvsvrg96; hasShow=1; Hm_lvt_3456bee468c83cc63fb5147f119f1075=1568698791,1568699293,1568700240,1568700608; CNZZDATA1254842228=926297394-1564705055-https%253A%252F%252Fwww.baidu.com%252F%7C1568701992; Hm_lpvt_3456bee468c83cc63fb5147f119f1075=1568704483; zg_de1d1a35bfa24ce29bbf2c7eb17e6c4f=%7B%22sid%22%3A%201568703637962%2C%22updated%22%3A%201568704483941%2C%22info%22%3A%201568698790826%2C%22superProperty%22%3A%20%22%7B%7D%22%2C%22platform%22%3A%20%22%7B%7D%22%2C%22utm%22%3A%20%22%7B%7D%22%2C%22referrerDomain%22%3A%20%22www.qichacha.com%22%2C%22cuid%22%3A%20%22f289610a9540a6c5a306d7ed743b5dd3%22%2C%22zs%22%3A%200%2C%22sc%22%3A%200%7D",
    }

    r = request.Request(url,headers=headers)#请求网址
    r1 = request.urlopen(r).read()#获取请求网址的HTML
    r1 = r1.decode("utf8")#解码
    html = etree.HTML(r1)#生成DOM树
    result = html.xpath("//tbody//tr//td/a//@href")#解析
    for ie in result:
        time.sleep(3)
        reurl = r"https://www.qichacha.com" + str(ie)#企业详细页面
        print(reurl)
        headers = {
            'User-Agent': r'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36',
        }
        rs = request.Request(reurl, headers=headers)  # 请求网址
        r2 = request.urlopen(rs).read()  # 获取请求网址的HTML
        r2 = r2.decode("utf8")  # 解码
        html2 = etree.HTML(r2)  # 生成DOM树
        Web = html2.xpath("//div[@class='dcontent']/div[1]/span[3]/a/text()")  # 官网
        Name = html2.xpath("//div[@class='content']/div[1]/h1/text()") #公司名字
        # Adress = html2.xpath("//tbody/tr[11]/td[2]/text()")#公司地址

        with open("qcc.txt","a+")as f:
            if not Web:
                print(Web)
                print(Name[0].strip())
                f.write("暂无")
                f.write("="*3)
                f.write(Name[0].strip())
                f.write("\n")
            else:
                print(Web[0].strip())
                print(Name[0].strip())
                f.write(Web[0].strip())
                f.write("="*3)
                f.write(Name[0].strip())
                f.write("\n")
            f.close()


要使用Python爬虫来进行企查查的数据获取,你首先需要获取到对应的pid和tid。这部分可以通过发送HTTP请求并解析返回的页面来实现。你可以使用Python的requests库发送GET请求,并设置合适的请求头和cookie来模拟登录状态。然后,你可以使用正则表达式或其他方法从返回的页面中提取pid和tid的值。这样,你就可以在后续的请求中使用这些值来获取企查查的数据了。 另外,关于Python电影爬虫的数据统计展示案例,你可以以豆瓣电影TOP250为例进行演示。你需要抓取每一部电影的名字、描述信息(包括导演、主演、电影类型等等)、评分以及电影中最经典的部分。你可以使用Python爬虫库(如BeautifulSoup或Scrapy)来解析HTML页面,并提取所需的信息。然后,你可以将这些数据进行统计和展示,可以使用数据可视化库(如matplotlib或seaborn)来创建图表和图像来呈现数据。 需要注意的是,在进行企查查爬虫时,你需要使用带有vip或以上等级的账号,并且该账号具有高级搜索和批量查询的功能。如果账号没有这些功能,则无法支持企查查爬虫。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [【Python网络爬虫企查查高级搜索及批量查询接口爬虫](https://blog.csdn.net/moyuweiqing/article/details/128702742)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Python电影爬虫数据统计展示案例](https://download.csdn.net/download/whirlwind526/88261868)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ko-walski

太难了,求鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值