Python爬虫实例:爬取国内所有医院信息

本博客仅用于技术讨论,若有侵权,联系笔者删除。

此次的目的是爬取国内医院的基本信息,并按省份存储。爬取的黄页是医院列表。以下是结果图:

一、初始化数据

初始化基本的数据,包括global变量,省份名称等等。

import requests,re,xlwt,datetime
from bs4 import BeautifulSoup

#初始化
def init():
    global url, province_name, headers
    url = 'http://www.yixue.com/'
    province_name = [
        '北京市', '天津市', '河北省', '山西省', '辽宁省', '吉林省', '黑龙江省', '上海市', 
        '江苏省', '浙江省', '安徽省', '福建省', '江西省', '山东省', '河南省', '湖北省', 
        '湖南省', '广东省', '内蒙古自治区', '广西壮族自治区', '海南省', '重庆市', '四川省', '贵州省',
        '云南省', '西藏自治区', '陕西省', '甘肃省', '青海省', '宁夏回族自治区', '新疆维吾尔自治区'
    ]
    headers = {
        'Host':'www.yixue.com',
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'
    }

二、#获取当前省数据并存入

由于这次的爬虫数据,对于需要的数据都无法通过ID或者CLASS定位,笔者就采用BeautifulSoup中的节点树,通过标签去获取对应信息。另外,由于聘爬虫的数据在规则中具有不规则性,所以对于每一项数据都进行验证,判断数据类型后再存入表中的对应位置。

存储数据
def sav_message(messgae, province_now):
    workbook = xlwt.Workbook(encoding='utf-8')
    name = province_now + "医院列表"
    table=workbook.add_sheet(name)
    value=["医院名称", "医院地址", "联系电话", "医院等级", "重点科室", "经营方式", "传真号码", "电子邮箱", "医院网站"]
    for i in range(len(value)):
        table.write(0,i,value[i])
    i = 0
    for data in messgae[3]:
        table.write(i+1, 0, data.b.a.text)
        for data_1 in data.ul:
            now_mess = data_1.text.replace('\n', '')
            now_data = now_mess.split(':')
            count = 0
            for tittle in value:
                if tittle == now_data[0]:
                    index = count
                count = count + 1
            table.write(i+1, index, now_data[1])
        i = i + 1
    workbook.save('./医院信息爬虫数据/'+province_now+'医院列表.xls')

#获取当前省数据
def get_province_hospital(province_now):
    r = requests.get(url+province_now+'医院列表',headers=headers,timeout=10)
    soup = BeautifulSoup(r.text, "lxml")
    message = soup.find_all('ul')
    sav_message(message, province_now)

三、主函数

主函数则负责整个逻辑,包括对各省的循环操作。

#主函数
if __name__ == '__main__':
    init()
    for province in province_name:
        get_province_hospital(province)

 

  • 15
    点赞
  • 87
    收藏
    觉得还不错? 一键收藏
  • 19
    评论
### 回答1: 您好!以下是一个使用 Python 爬虫动态爬取数据的简单实例: ```python import requests from bs4 import BeautifulSoup # 用 requests 库发送请求 url = "https://example.com/dynamic_page" response = requests.get(url) # 使用 BeautifulSoup 解析响应内容 soup = BeautifulSoup(response.text, 'html.parser') # 提取需要的数据 data = soup.find_all("div", class_="dynamic-data") # 打印提取的数据 print(data) ``` 这个实例使用 requests 库向网站发送请求,并使用 BeautifulSoup 解析响应内容。然后,通过调用 BeautifulSoup 对象的 `find_all` 方法提取需要的数据,最后通过 `print` 函数打印提取的数据。 请注意,上面的代码仅作为示例,因为动态爬取的网站的结构可能因网站而异,因此您需要根据网站的具体情况自行调整代码。 ### 回答2: Python爬虫是一种用来自动获取网页信息的程序,可以用于爬取静态或动态网页。下面是一个使用Python爬虫动态爬取的实例: 首先,我们需要安装相关的库,如requests和BeautifulSoup。然后,我们可以使用requests库来获取网页的内容,并使用BeautifulSoup库来解析网页。 假设我们需要爬取一个动态生成的新闻网页,该网页会根据不同的页面滚动加载更多的新闻。我们可以通过模拟滚动加载的过程来动态地获取所有的新闻。 首先,我们发送一个初始的请求来获取第一页的新闻内容。然后,我们可以通过查看网页的源代码或使用浏览器的开发者工具来找到滚动加载时发送的请求。 接下来,我们可以分析这个请求的URL和参数,然后使用requests库来发送这个请求,并获取到响应的内容。通常,这个响应的内容是一个JSON格式的数据,其中包含了新闻的信息。 我们可以使用Python的json库来解析JSON数据,并提取我们需要的信息。然后,我们可以将这些信息保存到一个文件或数据库中,或者进行其他的处理。 接着,我们可以继续发送滚动加载的请求,直到获取到了所有的新闻。这可以通过循环发送请求的方式来实现,每次发送请求之后,我们需要解析响应的内容,并判断是否还有更多的新闻。 最后,我们可以将所有的新闻保存到一个统一的文件中,或者根据需要进行其他的处理。 这只是一个使用Python爬虫动态爬取的简单实例,实际的应用中可能还涉及到一些其他的技术和处理方式。希望以上内容对你有所帮助! ### 回答3: Python爬虫是一种用于自动获取网页数据的程序。通常情况下,我们使用爬虫来从静态网页中获取数据。但是有些网站使用了JavaScript等动态技术来加载网页内容,这给爬虫带来了一定的挑战。 对于动态网页,我们可以通过模拟浏览器行为来获取数据。这可以通过使用Python的Selenium库来实现。Selenium可以模拟用户在浏览器中的操作,包括点击按钮、输入文本等动作。它还可以等待页面加载完成后再进行下一步操作,以确保获取到完整的页面数据。 下面以一个例子来说明如何使用Python爬虫动态爬取数据。假设我们要从一个使用了AJAX技术的网站上获取电影相关信息。 首先,我们需要安装Selenium库。可以使用以下命令来安装: pip install selenium 然后,我们需要安装适合的浏览器驱动程序。Selenium支持多种浏览器,如Chrome、Firefox等。这里以Chrome浏览器为例。可以通过以下链接下载对应版本的Chrome驱动程序:https://sites.google.com/a/chromium.org/chromedriver/downloads 接下来,我们需要导入Selenium库,并配置浏览器驱动路径: from selenium import webdriver driver_path = "/path/to/chromedriver" # Chrome驱动程序路径 driver = webdriver.Chrome(driver_path) 然后,我们可以使用Selenium模拟浏览器操作,访问网页并获取数据: url = "http://example.com" # 网页地址 driver.get(url) # 访问网页 # 等待数据加载完成 driver.implicitly_wait(10) # 等待10秒 # 获取页面数据 data = driver.page_source 最后,我们可以对获取到的数据进行解析和提取,获取我们需要的信息。 以上是一个简单的Python爬虫动态爬取实例。通过使用Selenium库,我们可以模拟浏览器行为,实现对动态网页的爬取。当然,具体的实现还需要根据具体的需求和网页情况进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值