python 爬虫爬取所有上市公司公告信息(一)

。,。前面我们已经了解了python中多线程,selenium,requests等爬虫基本操作的知识,现在我们准备编写一个规模较大的爬虫,目的是爬取所有上市公司2015年至今的公告信息。

相较于前面几个简单的爬虫功能代码,公告信息爬虫需要考虑更多的问题,现在可以预见到的问题有

1. 爬取公告信息网址的选择

在开始爬取之前我们必须选择一个合适的数据源,如果能找到一个好的数据源会极大的提高爬取的速度。

2.爬取信息的储存

在沪深两市发行股票的公司共有3000多家,我们需要抓取每一家公司从2015年至今的公告信息,这样的大量的信息不可能简单的储存到一个文件中,必须选择一个合适的数据格式,让查看和提取信息更加方便。

3.网址的排重

由于数据很多,爬虫可能需要运行很长时间才能完成爬取,这期间很可能会出现各种意外导致爬虫中断,此时如果重新爬取数据太浪费时间,我们需要制定url的排重方案在爬取网址前判断是否爬取过该网址。

4.爬取信息的速度

因为数据量很大,如果我们采用前面单线程的模式进行爬取可能抓一个月也爬不完,为了加快爬取的速度我们需要在爬虫中使用多线程,多进程等功能。

5.网站的反爬措施

发布股票信息的大型网站都有自己的反爬措施,我们不做任何处理的快速抓取信息很容易被网站的反爬措施发现,无法继续抓取网页的内容。

6.爬虫框架的可拓展性

由于公告是在不断更新的,我们在爬取了历史数据后如果还想要获得股票新的公告信息重新运行爬虫会很麻烦,针对这种情况,我们需要单独写一个模块来实现更新公告信息的功能。

。,。爬虫设计面临的问题大概就是这些,接下来设计爬虫框架的时候需要时时考虑这些问题。笔者初学python,文章难免有很多不足,请各位多多指教

好了,开始吧


要使用Python爬取上交所上市公司公告,可以参考以下步骤: 1. 首先,通过爬虫技术获取上交所上市公司的公告页面的URL地址。可以使用Python的requests库发送HTTP请求,获取页面的HTML内容。 2. 在获取到页面内容后,使用Python的HTML解析库(如BeautifulSoup)解析HTML,提取出各个公司公告的链接地址。 3. 根据公告链接地址,再次发送HTTP请求,获取公告的具体内容。可以使用Python的PDF库(如PyPDF2)来读取PDF文件内容。 4. 将获取到的公告内容进行保存、分析或其他后续处理。可以使用Python的文件操作库(如csv、xlsxwriter)将公告内容保存为文件,或者使用自然语言处理库(如NLTK)进行文本分析。 注意:爬取上交所上市公司公告需要遵守法律法规,尊重相关网站的使用规定,避免对网站造成过大的访问压力。在使用爬虫技术时,应该合理设置爬取速度、频率,并注意不要对网站进行恶意攻击或造成其他不良影响。引用中提到的「Python: 6 小时爬完上交所和深交所的年报问询函」可能会提供更具体的爬取示例和代码,你可以参考该文章获取更多信息。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Python爬取上市公司公告-Wind-CSMAR](https://blog.csdn.net/arlionn/article/details/119301035)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值