Python爬取多网页表格数据(非table)

背景:实习工作内容,对接业务人员因采购原材料,想要获取铝琔的历史价格

目标网址:江西保太集团-江西保太有色金属集团有限公司

目标字段:品名,日期,价格

目的:爬取ADC12-F的历史价格。

 1.调用相关库

import pymysql
import requests
from bs4 import BeautifulSoup

2.设置请求头

headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}

page = requests.get('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html', headers = headers)
page.encoding = 'utf8'#保证不乱码
soup = BeautifulSoup(page.text, "html.parser")

3.解析网页,获取总页数

for num_page in soup.find_all("ul", class_="pagination"):#看下面图片框起来的内容
    a=num_page.get_text()
    print("a",a,type(a))#
    print(a.split()[1])#只取“123456789”部分
    len_page=len(a.split()[1])#页码数正好和上面字符串的长度一致
    print('len(a.split()[1])',len_page)

 

4.解析网页,选取目标字段

num = -1
pageNum = 0

for index in range(len_page):#有9页数据,循环获取,
    pageNum = pageNum+1#更换网址
    print('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html?page='+str(pageNum))
    pages = requests.get('http://m.baotaigroup.com.cn/index/offer/hoffer/id/9.html?page='+str(pageNum), headers=headers)
    
    pages.encoding = 'utf8'#网页编码,有些网页是gb2312 等
    soups = BeautifulSoup(pages.text, "html.parser")
    print('1')

    li_0=[] 
    i=1          
    for spw140 in soups.find_all("span", class_="w140"):
        i+=1
        w140=spw140.get_text()
        #print('w140_-',w140)
        #if w140 :
        if i%5==3:#通过观察索引发现目标字段“价格”的位置        
            li_0.append(w140)#7121722
    #print('li_0',li_0)  
    #li_0_new=pd.DataFrame(li_0)  #
    #print('li_0_new',li_0_new)      
        #print()
    li_1=[]
    for spw300 in soups.find_all("span", class_="w300"):
        w300=spw300.get_text()
        #print('w300_-',w300)
        li_1.append(w300)
        #print()
    #print('li_1',li_1)
    
    li_name=[] #增加品名列
    for j in range(len(li_0)-1):
        li_name.append('ADC12-F')#更换品名
    #将上述三列目标字段(列表形式)转换成数据框格式:
    data=pd.DataFrame({
        'ITEM_NAME':li_name[:],
        'DATE_1':li_1[1:],
        'TJPRICE':li_0[1:]
    })
    print('data',data)

 

 

5.存储数据

第4步得到的数据为数据框格式,我预计存到数据库里,这里不再详述。

  • 1
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值