数据采集处理

一个朋友的需求,从某富网上采集所需数据,整理成所需格式,如下图:1、网页中所需数据在这里插入图片描述
2、采集并整理之后的数据格式
在这里插入图片描述
以下可供参考

# 导入一堆所需库
import requests
from selenium import webdriver
import re
import time
import random
from bs4 import BeautifulSoup
import pandas as pd
from lxml import etree
# 采集目标栏目里的每一篇文章
driver = webdriver.Chrome()
url = "**********************"
driver.get(url)

t=True
while t:
    target_locate=driver.find_element_by_class_name('load_more')
    if target_locate.find_element_by_tag_name('span').text != '点击加载更多':
        t=False
    target_locate.find_element_by_tag_name('span').click()
    driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
    time.sleep(random.randint(5,10))
page = driver.page_source
soup=BeautifulSoup(page,'lxml')
a=soup.find_all(name='div',class_='title') # 获取所有文章类别为标题的节点,含链接尾缀
b=[i.a.attrs['href'] for i in a] # 获取所有文章链接尾缀
news_list=list(set(b)) # 链接尾缀有重复,用集合去重,再转为列表
# 访问每一篇文章,并将数据处理成所需格式
def f(x):  # 数据处理过程中出现个格式不统一的情况,先封装一个函数
    if x.index('%')!=len(x)-1:
        x=x[2:].replace('收盘','').replace('偏离','').replace('元','').split(',')
        x[-1],x[-2]=x[-2],x[-1]
    else:
        x=x[2:].replace('收盘','').replace('偏离','').replace('元','').split(',')
    return x
# 先用BS4解析处理
data=pd.DataFrame()
root_url='************************'

for new_list in news_list: 
    full_url=root_url+new_list # 拼接每一篇文章的链接
    url=full_url
    headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'}
    response = requests.get(url,headers=headers)
    print('访问第{}篇文章:'.format(news_list.index(new_list)),url)
    html=response.text # 获取响应头文本
    html=BeautifulSoup(html,'lxml') # 解析网页
    date=html.find(name='div',class_='article-meta').span.text # 获取文章的日期,类型为str
    items=html.find_all('p') # 获取正文的每一段,均为p节点分割开
    # 需用到time.sleep,避免被封
    time.sleep(random.randint(10,30))
    # 取所需内容,形成列表
    L=[]  # 考虑不是每一篇文章都有所需的内容,极有可能最后还是空列表。后续需用if语句判断Dataframe转化处理
    for i in items: # 循环每一篇文章的每一段,下面判断是否有需要的内容,没有最后会返回空列表
        if re.search('转债排名',i.text) != None  or re.search('转债轮动策略',i.text) !=None or re.search('转债轮动收益',i.text) !=None:
            for j in items[items.index(i)+1:]:
#                 if re.search('收盘价',j.text) != None: # 万一所需要的内容,会误筛掉
#                     continue
                if (re.search(',收盘',j.text) != None or re.search(',偏离',j.text) != None) and re.search('%',j.text) != None:
                    L.append(j.text) # 将所需的每一条内容追加到list中
#                 else:
#                     break
            break
            
    if L == []: # 有些文章可能没有所需内容,最后还是会为空列表
        continue
    else:
        # 若L中有数据,则处理成二维列表的形式,待后续转换为dataframe
        k=[[date]+f(i.strip()) for i in L] 
        k=[i for i in k if len(i)==4]

    df=pd.DataFrame(k,columns=['日期','名称','收盘','偏离']) # 得到每一篇文章所需内容,再转换为表格
    data=pd.concat([data,df]) # 将每一篇文章形成的表格拼起来,相当于数据汇总到一张表上
# 再用etree的方式解析,相对BS4简单些
data=pd.DataFrame()
for new_list in news_list: 
    chrome_options = webdriver.ChromeOptions()
    chrome_options.add_argument('--headless')#无界面
    browser = webdriver.Chrome(chrome_options=chrome_options)
    browser.get(new_list)
    print('访问第{}篇文章:'.format(news_list.index(new_list)),new_list)
    page=browser.page_source # 获取响应头文本
    html=etree.HTML(page) # 解析网页
    date=html.xpath('//div[@class="article-meta"]//span/text()') # 获取文章的日期,类型为list,xpath方法相对要简单许多
    items=html.xpath('//p[(contains(text(),",偏离") or contains(text(),",收盘")) and contains(text(),"%")]/text()')#获取所需内容,可能有杂质
    # 需用到time.sleep,避免被封
    time.sleep(random.randint(10,30))
            
    if items == []: # 有些文章可能没有所需内容,最后还是会为空列表
        continue
    else:
        # 若items中有数据,则处理成二维列表的形式,待后续转换为dataframe
        k=[date+f(i.strip()) for i in items] # 有些爬取的字符串,两边有空格,故要去除,不然函数运行不准确
        k=[i for i in k if len(i)==4]

    df=pd.DataFrame(k,columns=['日期','名称','收盘','偏离']) # 得到每一篇文章所需内容,再转换为表格
    data=pd.concat([data,df]) # 将每一篇文章形成的表格拼起来,相当于数据汇总到一张表上
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值