通过server酱来发送爬虫爬到的数据

  最近在练习简单的爬虫爬取页面的数据,希望运行爬虫后将获得的消息通过Server酱推送到我的微信。

  写简单的爬虫代码很容易,但是我一直不知道如何通过Server酱发送信息。通过度娘、CSDN搜索相关的总是不很符合我的要求,上面一直在讲如何连接Server酱环境,搭建应用什么的,我只需要一个简单的网页功能,只调用几次就可以,不需要特别复杂的功能什么的。

  并且我有点呆,不是很能看懂文章的内容,又找不到合适的途径去询问,我自己之前没有相关的经验,一直卡在这个点卡了一阵子(因为每天用很少的时间投入在这个上面)。

  今天在B站搜索到一个视频,看到UP主的操作,试着操作一下就得到了想要的结果。Server酱那个网页api也相当于一个网址,把他放在爬虫,用requests模块请求一下,把爬虫得到结果作为页面的内容就可以通过Server酱发送到我的微信了。

  我没有了解爬虫原理什么的,就只会用最简单的模块功能,好歹最后实现了我的需求。把图片发出来分享一下,也许可以帮助到和我一样刚开始不是很懂如何调用Server酱的人。我是菜鸟,希望大佬们不要嘲笑,见笑了。

 -----------------------------------------------------------------------------------------------------------------------------

import requests
from lxml import etree

#想爬取金十数据中有关***的内容(可把***替换为你感兴趣的内容)
def jin_10():
    url = 'https://www.jin10.com/'
    html = requests.get(url)
    xpath ='// *[ @ class="jin-flash-item-container is-normal"]/ div / div[3] / div[2] / div / div/text()'
    page = etree.HTML(html.content)
    text = page.xpath(xpath)
    result=[]
    for i in text:
        if('***'in i):
            result.append(i)

    requests.get('https://sctapi.ftqq.com/************.send?title=***&desp='+str(result[0]))
# 把这里的****替换为你的Sendkey就可以
#title 和desp 均为 api 中的参数,Server酱中有解释

jin_10()

 -----------------------------------------------------------------------------------------------------------------------------

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值