暑期实训项目(6)-- 纽约时报新闻爬虫

实现过程

1. 接口

项目实现通过关键词查询来得到与用户相关的新闻,那么就要从搜索页的进行分析,查看url:
在这里插入图片描述
这里的接口是/query?data,这样可以对爬取的url进行设置:

    # url
    url = 'https://cn.nytimes.com/search/data'
    # 参数
    params = {
        "query": query,
        "lang": "",
        "dt": "json",
        "from": 0,
        "size": 100,
    }

其中query是查询的关键字,dt是dataType,设为 json,from是从从第几个文章开始,size是本次数据的个数。

2. requests模块代理

这里要注意纽约时报是外网,requests模块需要开代理并进行设置:

    # 代理
    proxies = {'http': 'http://127.0.0.1:7890', 'https': 'http://127.0.0.1:7890'}
    res = requests.get(url, params=params, proxies=proxies);

这里的proxies可以从网络设置中的代理找到:
在这里插入图片描述
如果这里的代理设置出错或者没有设置,可能会出现proxies相关报错:

requests.exceptions.ProxyError: HTTPSConnectionPool(host='cn.nytimes.com', port=443): Max retries exceeded with url: /search/data?query=%E4%B8%80%E5%B8%A6%E4%B8%80%E8%B7%AF&lang=&dt=json&from=0&size=100 (Caused by ProxyError('Cannot connect to proxy.', OSError(0, 'Error')))

3. 连接mysql数据库

    # 连接mysql数据库
    db = pymysql.connect(host='localhost', user='root', password='123456', db='nytimes', port=3306)
    # 使用cursor()方法获取操作游标
    cursor = db.cursor()
    print("数据库连接成功")

4. 数据抓取

通过请求设定好的url得到数据,并将数据转化为utf8格式:

    printTip("开始抓取相关文章")
    while (True):
        res = requests.get(url, params=params, proxies=proxies);
        _from = _from + _size
        params["from"] = _from;
        data = res.text;
        data = json.loads(data, encoding="utf8");

接下来进行数据的分析,将对应的数据提取出来:

            # 分析数据
            id = data['items'][i].get('id')
            type = data['items'][i].get('type')
            score = data['items'][i].get('score')
            headline = data['items'][i].get('headline')
            date = data['items'][i].get('publication_date')
            web_url = data['items'][i].get('web_url')
            description = data['items'][i].get('description')

接下来将提取到的数据保存在数据库中:

            # SQL 插入语句
            sql = "INSERT INTO news(id, type, score, headline, date, url, description)VALUES ('%s', '%s', '%s', '%s', '%s', '%s', '%s')" % (
                id, type, score, headline, date, web_url, description)
            # 执行sql语句
            cursor.execute(sql)
            # 提交到数据库执行
            db.commit()

5.爬取结果

在终端通过搜索词启动爬虫程序:
在这里插入图片描述

开始爬虫:
在这里插入图片描述
news_crawler.py 为爬虫文件名, 奥运会为想要搜索的关键词。数据库结果:
在这里插入图片描述
id:文章的唯一标识

​ type:文章类型

​ score:文章的评分,用于给搜索结果进行排序,将相关或时效性好的文章排在上面。

​ headline:文章标题

​ url:文章的url连接

​ description:文章的摘要或简介

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值