Python爬虫实战(一):翻页爬取数据存入SqlServer

2)一共91页

在这里插入图片描述

给你们看看我爬取完的效果,保存在SqlServer中:

在这里插入图片描述

爬取的内容是:商标名、商标价格、商标编号、所属类别、专用期限、类似群组、注册范围、商标图片地址

准备工作

======================================================================

我用的是python3.8,VScode编辑器,所需的库有:requests、etree、pymssql

开头导入所需用到的导入的库

import requests # python基础爬虫库

from lxml import etree # 可以将网页转换为Elements对象

import pymssql # 连接SqlServer的库

建表

CREATE TABLE “MPSB” (

“title” NVARCHAR(MAX),

“price” NVARCHAR(MAX),

“number” NVARCHAR(MAX),

“category” NVARCHAR(MAX),

“term” NVARCHAR(MAX),

“groups” NVARCHAR(MAX),

“Range” NVARCHAR(MAX),

“img_url” NVARCHAR(MAX)

)

为防止,字段给的不够,直接给个MAX!

在这里插入图片描述

代码分析

======================================================================

直接上完整代码,再逐步分析!

import requests # python基础爬虫库

from lxml import etree # 可以将网页转换为

import pymssql # 连接SqlServer的库

import time

class TrademarkSpider:

def init(self) :

self.baseurl = “http://www.mp.cc/search/%s?category=%s”

self.headers = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36”}

发送请求,获取相应

def parse_url(self,url):

response = requests.get(url,headers=self.headers)

time.sleep(2)

return response.content.decode()

获取每种类别主页个数

def get_page_num(self,html_str):

html = etree.HTML(html_str)

div_list = html.xpath(“//div[@class=‘pagination’]”) # 根据div分组

try:

for div in div_list:

a = div.xpath(“//a[@class=‘number’]/text()”)

index = len(a)-1

page = int(a[index

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值