【爬虫实战】使用Python爬取站长之家上的公司介绍数据

本文详细指导如何使用Python编写爬虫,从站长之家抓取公司介绍数据,通过requests和BeautifulSoup库处理HTML,实现并发爬取并最终保存到Excel表格,便于数据分析。
摘要由CSDN通过智能技术生成

一、背景介绍

在互联网时代,了解各个公司的情况对于行业分析、竞争对手研究以及投资决策都非常重要。而站长之家作为国内知名的IT门户网站,提供了大量的公司介绍信息。本文将介绍如何使用Python编写爬虫程序,从站长之家上爬取公司介绍数据,并保存到Excel表格中,以便后续分析使用。

二、环境准备

在开始之前,我们需要准备好Python的环境。确保已经安装了Python 3.x,并安装了以下依赖库:

  • requests
  • bs4(BeautifulSoup)
  • tqdm
  • concurrent.futures
  • random
  • urllib3 你可以使用pip命令进行安装,例如:pip install requests

三、代码实现

下面是完整的爬取站长之家公司介绍数据的Python代码:

#!/usr/bin/env python3
# coding:utf-8
import re
import requests
import bag
from bs4 import BeautifulSoup
from tqdm import tqdm
from concurrent.futures import ProcessPoolExecutor
import random
import urllib3
urllib3.disable_warnings()
data_urls = []
result = []

def main():
    base_url = r'https://top.chinaz.com/gongsi/index_shizhi.html'
    page_urls = get_num_page(base_url)

    process_pool = ProcessPoolExecutor(max_workers=10)
    for link in tqdm(page_urls, desc='获取数据链接'):
        headers = {
            'User-Agent': ''
        }
        user_agent_list = [
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36",
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36",
            "Mozilla/5.0 (Windows NT 10.0; …) Gecko/20100101 Firefox/61.0",
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",
            "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36",
            "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36",
            "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)",
            "Mozilla/5.0 (Macintosh; U; PPC Mac OS X 10.5; en-US; rv:1.9.2.15) Gecko/20110303 Firefox/3.6.15"
        ]
        headers['User-Agent'] = random.choice(user_agent_list)
        pool = process_pool.submit(get_data_url, link, headers)
        pool.add_done_callback(parser)
    process_pool.shutdown(wait=True)

    links = []
    for i in data_urls:
        for j in i:
            links.append(j)

    process_pool1 = ProcessPoolExecutor(max_workers=10)
    for url in tqdm(links, desc='获取数据'):
        headers = {
            'User-Agent': ''
        }
        user_agent_list = [
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36",
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36",
            "Mozilla/5.0 (Windows NT 10.0; …) Gecko/20100101 Firefox/61.0",
            "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",
            "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36",
            "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36",
            "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0)",
            "Mozilla/5.0 (Macintosh; U; PPC Mac OS X 10.5; en-US; rv:1.9.2.15) Gecko/20110303 Firefox/3.6.15"
        ]
        headers['User-Agent'] = random.choice(user_agent_list)
        pool1 = process_pool1.submit(get_data, url, headers)
        pool1.add_done_callback(parser1)
    process_pool1.shutdown(wait=True)
    bag.Bag.save_excel(result, r'./公司介绍.xlsx')

def parser(res):
    try:
        data_urls.append(res.result())
    except:
        pass

def parser1(res):
    try:
        result.append(res.result())
    except:
        pass

def get_data(url, headers):
    res = []
    resp = requests.get(url, headers=headers)
    resp.encoding = 'utf8'
    resp.close()

    html = BeautifulSoup(resp.text, 'lxml')
    full_name = re.compile(r'<h1>(.*?)</h1>', re.S)
    soup = html.find_all('div', class_='CoConyRight')
    for T in soup:
        if T['title'] == '':
            res.append('None')
        else:
            res.append(T['title'])
    for t in re.findall(full_name, str(soup)):
        if t == '':
            res.append('None')
        else:
            res.append(t)

    soup1 = html.find_all('div', class_='CoConyText')
    for label in soup1:
        if label.span.a.text == '':
            res.append('None')
        else:
            res.append(label.span.a.text)

    soup2 = html.find_all('div', id='rom_des')
    for content in soup2:
        if content.text == '':
            res.append('None')
        else:
            res.append(content.text)

    res.append(url)
    return res

def get_data_url(url, headers):
    links = []
    resp = requests.get(url, headers=headers)
    resp.encoding = 'utf8'
    resp.close()

    html = BeautifulSoup(resp.text, 'lxml')
    soup = html.find_all('div', class_='CoListTxt')
    for link in soup:
        links.append('https://top.chinaz.com'+link.a['href'])
    return links

def get_num_page(url):
    page_url = []
    for num in range(1):
        if num < 1:
            page_url.append(url)
        else:
            page_url.append('https://top.chinaz.com/gongsi/index_shizhi_{}.html'.format(num+1))
    return page_url

if __name__ == '__main__':
    main()

四、代码解析

  1. 导入所需的模块和库,包括re、requests、BeautifulSoup
  2. 设置全局变量data_urlsresult,分别用于保存数据链接和爬取结果
  3. 定义main()函数作为程序的入口,实现整个爬取过程的控制流程
  4. main()函数中,首先获取需要爬取的页面链接列表page_urls
  5. 创建ProcessPoolExecutor进程池,设置最大工作线程数为10
  6. 遍历page_urls,使用get_data_url()函数从每个页面中获取公司详情页的链接
  7. 将获取的链接保存到data_urls中,并通过parser()函数处理异常。
  8. 将所有公司详情页的链接提取到links列表中
  9. 遍历links,使用get_data()函数爬取每个公司的介绍数据
  10. 将爬取结果保存到result中,并通过parser1()函数处理异常
  11. 关闭进程池,并调用Bag.save_excel()函数将结果保存到Excel表格
  12. 定义parser()parser1()函数,用于处理进程的返回值,并将返回值添加到data_urlsresult
  13. 定义get_data()函数,用于爬取公司介绍数据
  14. get_data()函数中,发送HTTP请求,解析HTML文档,提取所需的公司介绍数据,并返回结果
  15. 定义get_data_url()函数,用于从页面中获取公司详情页的链接
  16. get_data_url()函数中,发送HTTP请求,解析HTML文档,提取公司详情页的链接,并返回结果
  17. 定义get_num_page()函数,用于生成需要爬取的页面链接列表
  18. __name__ == '__main__'的条件下,调用main()函数开始执行程序。

五、运行结果

运行以上代码,即可将公司介绍数据爬取并保存到Excel表格中。你可以根据自己的需求,修改代码中爬取的页数和保存路径和文件名。

 六、总结

本文介绍了如何使用Python编写爬虫程序,爬取站长之家上的公司介绍数据。通过合理的代码设计和多线程的并发处理,提高了爬取效率。希望本文对你在爬取网页数据和数据分析方面有所帮助。

最后,如果你觉得本教程对你有所帮助,不妨点赞并关注我的CSDN账号。我会持续为大家带来更多有趣且实用的教程和资源。谢谢大家的支持!

  • 18
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FLK_9090

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值