python爬取网页数据并存储到数据库(爬取某网址汽车相关数据)

前提条件:python2.7 编辑器pycharm 如果是python3需要改一下代码输出方式及类包
大家可以把不同网址带入,首先找到规律追踪到具体网址就可以了

#!/usr/bin/python
# -*- coding:utf8 -*-
import requests
from bs4 import BeautifulSoup
import re
import datetime
import _mssql
import json
res = requests.get('http://common.jingzhengu.com/carStyle/getMakesPanelHtml')#获取目标网页
res.encoding = 'utf-8'#抓取网页出现乱码
soup = BeautifulSoup(res.text,'html.parser')#爬取网页
div_brands=[]#获取的所有车牌
div_list1 = soup.find_all('dd')
#div_list2 = soup.find_all('div')
arr=[]
brands=[]
#获取到品牌 及品牌的id码
for brands in div_list1:
    for brand in brands:
        #print(brand)
        #print(brand)
        if brand!="\n":
            #print(brand)
            arr.append(brand)
#print(arr)
count=0
SER_ID=[]
SER_Br=[]
ser_url=[]
for each in arr:
    srr=str(arr[count])
    ID = re.findall(r'<a data-id="(.*)" href="javascript:;">', srr)#正则表达式,(。*)为要获取的数据
    #print(ID)
    Brand = re.findall(r'>(.*)</a>', srr)  # Brand
    a=str(ID[0])
    b=str(Brand[0])
    SER_ID.append(ID[0])
    SER_Br.append(Brand[0])
    s=b.decode('utf8')
    #创建数据库链接
    conn = _mssql.connect(server='localhost', user='test', password='123456', database='test',charset='utf8')
    conn.execute_non_query(" INSERT INTO Dic_Brand (BrandId,BrandName) values(%s,%d)",(a,s))
    count = count + 1
    if count > arr.__len__():
        break

如果需要继续爬取,需要根据现在的已知条件拼接网址按照相似的方式继续拼接,根据取到的网页根据正则表达式拿取数据,这里代码就不一一展示了

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值