网络爬虫-示例

网络爬虫爬虫实现的基本流程构造URL list.读取URL list的url值使用requests.post(“url”,datas=datas,headers=headers)或者是requests.get(“url”,headers=headers)函数获取.内容中再提取到url值,可以回到上一步.页面提取数据.存入数据库.爬虫示例普通的网页爬取不需要登录账户,密码即...
摘要由CSDN通过智能技术生成

网络爬虫

爬虫实现的基本流程

  • 构造URL list.
  • 读取URL list的url值
  • 使用requests.post(“url”,datas=datas,headers=headers)或者是requests.get(“url”,headers=headers)函数获取.
  • 内容中再提取到url值,可以回到上一步.
  • 页面提取数据.
  • 存入数据库.

爬虫示例

普通的网页爬取

  • 不需要登录账户,密码即可爬取.
  • 不需要验证码,不使用POST方式获取.
  • 不需要使用cookies即可爬取.
  • 网页即可简单,不需要许多登录信息,session等可爬取的。
示例:爬取贴吧网页页面.
# coding=utf-8
import requests

headers = {
   "User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36"}

url = "https://www.baidu.com/s?wd={}".format("python")
r = requests.get(url,headers=headers)
print(r.status_code)
print(r.request.url)
print(r.content)
# coding=utf-8
import requests
import sys

# 需要带参数需要获取的贴吧名称运行,如:python
class TiebaSpider:
    def __init__(self, tieba_name):
        self.tieba_name = tieba_name
        # 构建url的基本格式.
        self.url_temp = "https://tieba.baidu.com/f?kw=" + tieba_name + "&ie=utf-8&pn={}"
        self.headers = {
   
            "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36"}
    # 构建每一个的np数值->数值.
    def get_url_list(self):
        return [self.url_temp.format(i * 50) for i in range(1000
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值