8684公交路线爬取

根据8684网爬取各市公交,按照公交路线名,运行时间,所经各站,票价,运营公司存于csv文件。非原创,原网页一时找不到,找到后补上。

使用到的三个库

import requests ##导入requests
from bs4 import BeautifulSoup ##导入bs4中的BeautifulSoup
import os

解析网址:路线查询分数字开头、汉字\字母开头、线路分类、热门分类。这里为了确保爬取所有路线选择了路线分类:bus_layer_r。但是热门分类对应的class也是bus_layer_r,所以不使用find_all,用Soup.find即可。

headers =  {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0'}
all_url = 'http://quanzhou.8684.cn'  ##开始的URL地址
start_html = requests.get(all_url, headers=headers) 
Soup = BeautifulSoup(start_html.text, 'lxml')
all_a = Soup.find('div',class_='bus_layer_r').find_all('a')

print(all_a)结果为[<a href="/line1">市区线路</a>, <a href="/line2">跨区线路</a>, <a href="/line3">大站快线</a>, <a href="/line4">晋江线路</a>, <a href="/line5">南安线路</a>, <a href="/line6">安溪线路</a>, <a href="/line7">惠安线路</a>, <a href="/line8">永春线路</a>, <a href="/line9">德化线路</a>, <a href="/line10">泉港线路</a>]。下一步需要的是'/linex',不需要路线名称。

接下来分类爬取公交信息:按all_a中的'href'爬取每条线路中的公交

Network_list = []
for a in all_a:
    href = a['href'] #取出a标签的href 属性
    html = all_url + href
    second_html = requests.get(html,headers=headers)
    #print (second_html.text)
    Soup2 = BeautifulSoup(second_html.text, 'lxml') 
    all_a2 = Soup2.find('div',class_='cc_content').find_all('div')[-1].find_all('a') # 既有id又有class的div不知道为啥取不出来,只好迂回取了
    for a2 in all_a2:
        title1 = a2.get_text() #取出a1标签的文本
        href1 = a2['href'] #取出a标签的href 属性
        #print (title1,href1)
        html_bus = all_url + href1
        thrid_html = requests.get(html_bus,headers=headers)
        Soup3 = BeautifulSoup(thrid_html.text, 'lxml') 
        bus_name = Soup3.find('div',class_='bus_i_t1').find('h1').get_text()
        bus_time = Soup3.find_all('p',class_='bus_i_t4')[0].get_text()
        bus_cost = Soup3.find_all('p',class_='bus_i_t4')[1].get_text()
        bus_company = Soup3.find_all('p',class_='bus_i_t4')[2].find('a').get_text()
        bus_label = Soup3.find('div',class_='bus_label')
        if bus_label:
            bus_length = bus_label.get_text()
        else:
            bus_length = []
        #print(bus_name)#print (bus_name, bus_time, bus_cost,bus_company)
        all_line = Soup3.find_all('div',class_='bus_line_top')
        all_site = Soup3.find_all('div',class_='bus_line_site')
        line_x = all_line[0].find('div',class_='bus_line_txt').get_text()[:-9]+all_line[0].find_all('span')[-1].get_text()
        sites_x = all_site[0].find_all('a')
        #print(sites_x)
        sites_x_list = []
        for site_x in sites_x:
            sites_x_list.append(site_x.get_text())
        line_num = len(all_line)
        if line_num==2:  # 如果存在环线,也返回两个list,只是其中一个为空
            line_y = all_line[1].find('div',class_='bus_line_txt').get_text()[:-9]+all_line[1].find_all('span')[-1].get_text()
            sites_y = all_site[1].find_all('a')
            sites_y_list = []
            for site_y in sites_y:
                sites_y_list.append(site_y.get_text())
        else:
            line_y,sites_y_list=[],[]
        #print(sites_x_list)
        information = [bus_name,sites_x_list, bus_time, bus_cost,bus_company]
        Network_list.append(information)

最后进行保存:直接保存在程序同一个文件夹中。

def text_save(content,filename,mode='a'):
    # Try to save a list variable in txt file.
    file = open(filename,mode)
    for i in range(len(content)):
        file.write(str(content[i])+'\n')
    file.close()

# 输出处理后的数据     
text_save(Network_list,'quanzhoubus.csv'); 
print ("finish")

不足:爬取时间太慢,存储数据格式需改进。

 

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
爬取北京公交路线信息可以使用XPath插件和目标网址https://beijing.8684.cn/。以下是爬取北京公交路线信息的步骤: 1. 安装XPath插件:首先,您需要在谷歌浏览器中安装XPath插件。您可以在谷歌浏览器的应用商店中搜索XPath插件,并按照提示进行安装。 2. 打开目标网址:在谷歌浏览器中打开目标网址https://beijing.8684.cn/。 3. 使用XPath定位元素:使用XPath插件可以帮助您定位网页中的元素。您可以使用XPath语法来选择您需要的公交路线信息的元素。 4. 提取公交路线信息:使用XPath插件提取您选择的公交路线信息的元素。您可以使用XPath的提取函数,如text()、@属性名等来提取元素的文本内容或属性值。 5. 解析和保存数据:将提取到的公交路线信息进行解析和保存。您可以使用Python的相关库,如requests、BeautifulSoup等来发送HTTP请求、解析HTML页面和保存数据。 以下是一个示例代码,演示如何使用XPath插件和Python爬取北京公交路线信息: ```python import requests from lxml import etree # 发送HTTP请求获取网页内容 url = 'https://beijing.8684.cn/' response = requests.get(url) html = response.text # 使用XPath定位元素并提取公交路线信息 tree = etree.HTML(html) bus_lines = tree.xpath('//div[@class="bus_kt_r1"]/a/text()') # 打印公交路线信息 for bus_line in bus_lines: print(bus_line) # 保存公交路线信息到文件 with open('bus_lines.txt', 'w') as f: for bus_line in bus_lines: f.write(bus_line + '\n') ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值