Python爬取百度新闻数据并将时间统计到EXCEL中

缘起

我的好朋友的毕业论文需要爬取基金经理的新闻数量,并且统计新闻数量与基金的成交率的关系,我当然义不容辞啦。
任务描述:爬取三百位基金经理“百度新闻”中的搜索结果,并且将其分别按月和按季度统计新闻数量。

使用到的技术

beatifulsoup,urllib, request,python文件I/O

Talk is cheap,show the code

主函数:GCWspider_main.py

import url_manager,html_downloader,html_parser,html_output
import xlwt
import xlrd
import urllib


class SpiderMain(object):
    def __init__(self):
        self.urls=url_manager.UrlManager()
        self.downloader=html_downloader.HtmlDownoader()
        self.parser=html_parser.HtmlParser()
        self.output=html_output.HtmlOutputer()
    def craw(self,sheet1,sheet2,root_url,num,name):
        count=1
        listZeros=[0]
        resultlistM=listZeros*((2016-2000)*12)
        resultlistS = listZeros * ((2016 - 2000) * 4)


        self.urls.add_new_url(root_url)
        while self.urls.has_new_url():
            try:
                new_url=self.urls.get_new_url()
                print('crawling URL => %d ... : %s' % (count, new_url))
                html_cont=self.downloader.download(new_url)
                new_urls, resultlistM,resultlistS=self.parser.parse(new_url,html_cont,resultlistM,resultlistS)
                self.urls.add_new_urls(new_urls)


                #if count==100:
                #    break
                count=count+1

            except Exception as e:
                print(e)
                print('crawing failure')

        #self.output.output_html()
        self.output.collect_data(sheet1, resultlistM,name,num)
        self.output.collect_data(sheet2, resultlistS, name, num)




if __name__=="__main__":

    wb = xl
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
好的,以下是一个示例代码,可以帮助您使用Python爬取5000条数据并将数据存入Excel文件: ```python import requests from bs4 import BeautifulSoup import openpyxl url = 'https://www.example.com' # 需要爬取的网站链接 count = 5000 # 需要爬取数据条数 data_list = [] # 存储爬取数据 # 多次发送HTTP请求并获取网页内容 while len(data_list) < count: response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML内容,获取所需数据 soup = BeautifulSoup(html, 'html.parser') # ... # 将所需数据添加到列表 # ... # 处理爬取到的数据 # ... # 将数据保存到Excel文件 wb = openpyxl.Workbook() ws = wb.active ws.append(['字段1', '字段2', '字段3', ...]) # 添加表头 for data in data_list: ws.append(data) # 添加数据 wb.save('data.xlsx') # 保存Excel文件 ``` 在上面的代码,我们使用了openpyxl库来创建和操作Excel文件。首先,我们定义了需要爬取的网站链接和需要爬取数据条数。然后,我们使用一个while循环来多次发送HTTP请求并获取网页内容,直到爬取到足够的数据条数为止。 在每次获取到网页内容后,我们使用BeautifulSoup库解析HTML内容,找到所需的数据,并将数据添加到一个列表。当爬取到足够的数据条数后,我们可以对爬取到的数据进行处理,并将数据保存到Excel文件。 在保存Excel文件时,我们首先创建了一个工作簿,并添加了一个工作表。然后,我们添加了表头和数据,并将Excel文件保存到本地。 请注意,此方法仅供学习和参考,爬取网站数据可能涉及法律问题,请务必遵守相关法律法规。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值