批量爬取多家公司新闻

1 需求

批量爬取多家公司新闻,并实现持续化存储。

2 代码实现

import requests
import re


def baidu(company):
    # 获取网页源代码
    url = 'https://www.baidu.com/s?rtt=4&tn=news&word=' + company
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:91.0) Gecko/20100101 Firefox/91.0'}
    source = requests.get(url=url, headers=headers).text
    # 获取网页标题
    p_title = '<h3 class="news-title_1YtI1">.*?<!--s-text-->(.*?)<!--/s-text--></a></h3>'
    title = re.findall(p_title, source, re.S)
    # 获取网页网址
    p_href = '<h3 class="news-title_1YtI1"><a href="(.*?)" target="_blank"'
    href = re.findall(p_href, source)
    # 数据清洗
    filel = open('./数据挖掘报告.txt', 'a')
    filel.write(company + "数据挖掘完毕!" + '\n' + '\n')
    for index in range(len(title)):
        title[index] = re.sub('<.*?>', '', title[index]).strip()
        filel.write(str(index + 1) + "." + title[index] + "(" + href[index] + ")" + "\n")
        filel.write("————————————————————" + "\n" + "\n")

companies = ['华能信托', '百度集团', '阿里巴巴']
for index in companies:
    baidu(index)
    print(index + '百度新闻爬器成功!')
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值