scrapy框架配合mysql数据库 CSS反爬加密大众点评!!开源免费!!!

一、创建scrapy项目

创建完项目运行403.重写url地址,加头信息和cookie的值,ok!
cookie的值有百度的,有点评的,所以就找点评的带上!如下图:
在这里插入图片描述
在这里插入图片描述
font = TTFont(r"C:\Users\liangxue\Downloads/"+fonts)
字体转换需要下载包:fontTools
在这里插入图片描述
错误:Redirecting (302)
第一页数据获取 第二页被禁用了,浏览器访问也被禁用了
派代理服务器去:代理服务器列表自己去搞咯

proxy_list = [
     {
   "https": "IP:端口号"},  
     {
   "https": "IP:端口号"},
     {
   "https": "IP:端口号"},
     {
   "https": "IP:端口号"},  
     {
   "https": "IP:端口号"},
     {
   "https": "IP:端口号"},

 ]

PROXYES=settings.proxy_list

random_proxy = random.choice(PROXYES)

“Proxy-Authorization”:random_proxy,
关机重开一下就好了

话不多说,上代码:
settins.py加入cookie

cookies = {
   
   "s_ViewType": "10",
   " _lxsdk_cuid": "看你自己的cookie值",
   " _lxsdk": "看你自己的cookie值",
   " _hc.v": "看你自己的cookie值",
}

comments.py

# -*- coding: utf-8 -*-
import random

import scrapy
from fontTools.ttLib import TTFont
from lxml import html
from scrapy import Request
from comment import settings
from fake_useragent import UserAgent
from comment.items import CommentItem
user_agent = UserAgent().random
# 创建etree模块
etree = html.etree
class CommentsSpider(scrapy.Spider):
    name = 'comments'
    allowed_domains = ['www.dianping.com']
    # start_urls = ['http://www.dianping.com/sanhe/ch10']
    PROXYES=settings.proxy_list
    random_proxy = random.choice(PROXYES)
    # print("random_proxy=============",random_proxy)
    headers = {
   
        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",
        "Accept-Encoding": "gzip, deflate",
        "Accept-Language": "zh-CN,zh;q=0.9",
        "Cache-Control": "max-age=0",
        "Connection": "keep-alive",
        <
  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值