爬取数据写一个微信小程序

18年做了两个小程序,上线后也没啥流量,写点什么分享一下

第一个是爬取了一些网络文章,分类展示,如下图,数据爬取自搜狐

爬虫框架采用的scraypy,之前也写过一篇关于爬取阿里巴巴国际站爬虫的文章~~也是用的scrapy

阿里巴巴的国际站爬虫

这个爬虫很简单,大致代码如下,做了简单的网页分析后,抓取的其实是搜狐的接口而且是分页请求的

class ShSpider(scrapy.Spider):
    name = 'sh'
    start_urls = ['https://search.sohu.com/outer/search/news']
    data = {
        'keyword': '思维',
        'size': '10',
        'SUV': '1809052201174155',
        'terminalType': 'pc',
        'source': 'article',
        'queryType': 'edit'
    }

    def start_requests(self):
        print('请求中……')
        for i in range(1, 20):
            self.data['from'] = str(i * 10)
            yield scrapy.http.FormRequest(
                self.start_urls[0],
                headers={'content-type': 'application/x-www-form-urlencoded'},
                formdata=self.data)

    def parse(self, response):
        print(response.body.decode())

数据爬取保存到Mysql,部署阿里云服务器略过。。。。

接下来是小程序界面截图

详情页,使用wxParse做的网页标签解析

完整代码请转至github

https://github.com/MartingKing/KotmNews

项目已经上线,可扫描二维码查看具体功能

 

 

  • 9
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值