爬取知乎内容,并将内容保存到mongodb数据库中

爬取知乎我关注的一个公众号的动态,它的抓取需要模拟ajax请求,,将抓取到的内容保存到mongodb的数据库中

# https://www.zhihu.com/api/v4/members/sgai/activities?limit=7&session_id=1133718782936719360&after_id=1558529951&desktop=True
from urllib.parse import urlencode
import requests
from pymongo import MongoClient
client = MongoClient()
db = client['crawlzhihu']
collection = db['zhuhu']
def main():
    form_data = {"limit": 7,
    "session_id": 1133718782936719360,
    "after_id": 1557750034,
    "desktop": True,}
    basic_url = 'https://www.zhihu.com/api/v4/members/sgai/activities?'
    url = basic_url + urlencode(form_data)
    print(url)
    parse_data(url)
def parse_data(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.79 Safari/537.36'}
    response = requests.get
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值