利用Python爬取金十数据新闻事件

刚入门爬虫,由于女朋友的工作需要,便写了这个爬虫程序。本人也是第一次发帖,
相信爬虫也没什么好介绍的。直接上代码。

from selenium import webdriver
from bs4 import BeautifulSoup
import time,re,os

url = 'https://www.jin10.com/'
driver = webdriver.Edge() #模拟打开浏览器
driver.get(url)
#解析网页
soup = BeautifulSoup(driver.page_source,'lxml')
#data = driver.find_element_by_class_name('jin-flash_item J_flash_item important ')
#print(soup)
info = str(soup.select('.jin-flash_list')[0]) #转换为字符串格式,用正则表达式进行抽取
#print(info)

def get_info():
    reg = re.compile(r'<div class="jin-flash_item J_flash_item important " data-id="(.*?)".*?<p class=".*?">(.*?)</p>',re.S)
    datas = re.findall(reg,info)
    #print(datas)
    return datas

def save_info(datas):
    if os.path.exists("4")==True:
        print('该文件已存在')
    else:
        os.mkdir("4")
    a = 1
    for data in datas:
        x = time.strftime('%Y-%m-%d %H:%M:%S') #筛选时间段,默认当前时刻
        y = time.strftime('%Y-%m-%d %H:%M:%S')
        if x<data[0]<y:
            data = data[1] #取事件
            #print(data)
            data = data.replace('<b>','').replace('</b>','').replace('<br/>','')
            with open(r"4\info.txt",'a',encoding='utf-8') as f:
                 f.write(data+'\n')
                 print('正在抓取第{}条important数据'.format(a))
                 a+=1
    print('抓取结束!')
datas = get_info()
save_info(datas)
#time.sleep(1)
driver.close()

刚开始本人用的一般网页的爬虫,获取不了源代码,便使用模拟浏览器的方法,这里的插件是Edge,一般使用的是谷歌或者火狐的插件会好些(https://pypi.org/project/selenium/)。不过程序仍有不足,需要进一步优化。
tip:这里获取的是红字新闻

利用Python爬取养老院数据是一种通过自动化程序获取互联网上关于养老院的信息的方法。Python是一种简单易学的编程语言,具有强大的网络爬取功能,可以帮助我们实现这个目标。 首先,需要选择一个合适的爬虫框架,比如Scrapy或BeautifulSoup。这些框架可以帮助我们简化数据爬取的流程。 接下来,我们需要确定要爬取的养老院的网站。可以从搜索引擎中找到一系列相关的养老院网站,并逐个进行分析。从网站中找到关于养老院的信息,比如名称、地址、电话、服务项目等。 然后,我们需要编写Python代码来实现数据爬取。首先,需要使用HTTP请求库来向网站发送请求,获取网页源代码。然后,使用解析库来解析网页源代码,提取需要的信息。最后,使用存储库将提取的数据保存到本地或数据库。 在进行爬取过程时,需要注意法律和道德规范。确保遵守网站的爬取政策,以免侵犯他人的权益。爬取过程中也需要注意网站服务器的压力,避免给服务器带来过大的负担。 总结起来,利用Python爬取养老院数据是一种有效的方式,可以帮助我们快速获取互联网上的养老院信息。通过选择合适的爬虫框架和编写相应的代码,可以实现自动化数据爬取,从而节省时间和精力。同时,也需要遵守法律和道德规范,保护个人隐私和网站的正常运营。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值