scrapy插入数据库_pymysql_sqlalchemy

SQLAlchemy

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html


# useful for handling different item types with a single interface
from itemadapter import ItemAdapter
import pymysql
from sqlalchemy import create_engine

class QianChengWuYou4Pipeline:

    def __init__(self):
        #self.con = pymysql.connect(host="127.0.0.1", user="root", password="123456", database="db5",
        #                          charset="utf8")  # 创建MySQL数据库连接conn实例
        #self.cur = self.con.cursor()  # 创建数据库指向游标
        self.engine = create_engine("mysql+pymysql://root:123456@localhost:3306/db5")

    def process_item(self, item, spider):
        title=item['title']
        zhi_wei=item['zhi_wei']
        zhi_wei_name=item['zhi_wei_name']
        gong_si=item['gong_si']
        wei_zhi=item['wei_zhi']
        gong_zi=item['gong_zi']
        xue_li=item['xue_li']
        gong_zuo_jing_yan=item['gong_zuo_jing_yan']
        gong_si_xing_zhi=item['gong_si_xing_zhi']
        gong_si_gui_mo=item['gong_si_gui_mo']
        gang_wei_miao_shu=item['gang_wei_miao_shu']
        zhao_pin_ren_shu=item['zhao_pin_ren_shu']

        # # 数据库 text_1
        # self.cur.execute(
        #     "insert into zhao_pin(title, zhi_wei, zhi_wei_name, gong_si, wei_zhi, gong_zi, xue_li, gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, gang_wei_miao_shu,zhao_pin_ren_shu) values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % (title, zhi_wei, zhi_wei_name,gong_si, wei_zhi,gong_zi,xue_li,gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, ''.join(gang_wei_miao_shu),zhao_pin_ren_shu))
        # # 执行sql语句
        # print("插入成功!!!")  # 测试语句
        #
        # self.con.commit()

        self.engine.execute(
	     "insert into zhao_pin(title, zhi_wei, zhi_wei_name, gong_si, wei_zhi, gong_zi, xue_li, gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, gang_wei_miao_shu,zhao_pin_ren_shu) values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % (title, zhi_wei, zhi_wei_name,gong_si, wei_zhi,gong_zi,xue_li,gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, ''.join(gang_wei_miao_shu),zhao_pin_ren_shu))
        # 执行sql语句)
        print("插入成功!!!")  # 测试语句




        return item



    """
    use db5;

create table zhao_pin(
id int primary key auto_increment,
title varchar(255),
zhi_wei varchar(255),
zhi_wei_name varchar(255),
gong_si varchar(255),
wei_zhi varchar(255),
gong_zi varchar(255),
xue_li varchar(255),
gong_zuo_jing_yan varchar(255),
        gong_si_xing_zhi varchar(255),
        gong_si_gui_mo varchar(255),
        gang_wei_miao_shu varchar(255),
        zhao_pin_ren_shu varchar(255)





)
    
    
    
    """

pymysql

import pymysql
con = pymysql.connect(host="127.0.0.1", user="root", password="123456", database="db5",charset="utf8") 
 # 创建MySQL数据库连接con实例
 
cur = self.con.cursor()  # 创建数据库指向游标

cur.execute(
        "insert into zhao_pin(title, zhi_wei, zhi_wei_name, gong_si, wei_zhi, gong_zi, xue_li, gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, gang_wei_miao_shu,zhao_pin_ren_shu) values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % (title, zhi_wei, zhi_wei_name,gong_si, wei_zhi,gong_zi,xue_li,gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, ''.join(gang_wei_miao_shu),zhao_pin_ren_shu))
        # 执行sql语句
print("插入成功!!!")  # 测试语句
       
con.commit()
cur.close()
con.close()

sqlalchemy

from sqlalchemy import create_engine
engine = create_engine("mysql+pymysql://root:123456@localhost:3306/db5")
self.engine.execute(
	     "insert into zhao_pin(title, zhi_wei, zhi_wei_name, gong_si, wei_zhi, gong_zi, xue_li, gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, gang_wei_miao_shu,zhao_pin_ren_shu) values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % (title, zhi_wei, zhi_wei_name,gong_si, wei_zhi,gong_zi,xue_li,gong_zuo_jing_yan, gong_si_xing_zhi, gong_si_gui_mo, ''.join(gang_wei_miao_shu),zhao_pin_ren_shu))
        # 执行sql语句
        print("插入成功!!!")  # 测试语句

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Scrapy重写start_request的方法是在Spider类中定义一个start_requests()方法,该方法返回一个可迭代的Request对象列表,每个Request对象代表一个要爬取的URL。在这个方法中可以通过yield关键字返回Request对象,也可以通过return关键字返回一个Request对象列表。这些Request对象将被Scrapy引擎调度并发送到目标网站,从而开始爬取过程。 ### 回答2: Scrapy 是一种功能强大且灵活的 Python 爬虫框架,可以用于高效地爬取和提取各种类型的数据。其中,start_requests 是 Scrapy 中的一个重要方法,用于创建初始请求,并将其发送到目标站点以启动爬取过程。 在默认情况下,Scrapy 使用 start_requests 方法生成从 start_urls 中提取的请求。然而,有时候我们需要更精细地控制请求的生成和发送过程。这时,就需要重写 start_requests 方法,以实现自定义行为。对于此,我们可以采用如下的步骤: 1. 重写 start_requests 方法,并返回一个包含一个或多个 Request 对象的列表。 2. 在 Request 对象中指定其 url、callback 等参数,并可选地设置其他请求相关的参数,如 headers、formdata、meta 等属性。 3. 在 callback 方法中对返回的 Response 对象进行处理,从中提取和解析需要的数据。 具体来说,我们可以按照以下代码来重写 start_requests 方法: ```python import scrapy class MySpider(scrapy.Spider): name = 'myspider' def start_requests(self): urls = [ 'http://www.example.com/page1.html', 'http://www.example.com/page2.html', 'http://www.example.com/page3.html', ] for url in urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): # 在这里对返回的 Response 对象进行处理,提取和解析需要的数据 pass ``` 在上述代码中,我们重写了 start_requests 方法,并通过列表 urls 手动指定要爬取的网页地址。然后,使用 yield 关键字生成一个包含请求对象的生成器,其中每个请求对象包含一个 url 和一个回调函数 parse。一旦 Scrapy 发送了这些请求对象,就会调用对应的回调函数,并使用相应的 Response 对象作为参数传递给它。 值得注意的是,重写 start_requests 方法是 Scrapy 爬虫中使用相对较少的操作,因为 Scrapy 提供了许多方便快捷的方式来为每个页面自动生成请求对象,并使用相应的回调进行数据处理。然而,在特定情况下,自定义 start_requests 方法是非常有用的,特别是当我们需要处理动态生成的请求、反爬虫机制等问题时。 ### 回答3: Scrapy是一个功能强大的Python爬虫框架,它提供了许多灵活的功能和接口,使得用户可以轻松编写自定义的爬虫程序。在Scrapy框架中,start_requests函数是一个很重要的入口函数,它是用来生成初始请求并发送给Scrapy引擎的。 在Scrapy框架中,如果我们想要重写start_requests函数,可以通过覆盖Scrapy的Spider类中的该函数来实现。Scrapy的Spider类是所有爬虫的基类,通过继承这个类并重写start_requests函数,我们可以自定义一些请求的生成方式。 假设我们要重写start_requests函数,以下是一些可能的实现方式: 1. 使用一组自定义的URL列表进行爬取 ```python class MySpider(scrapy.Spider): name = "myspider" start_urls = [ "http://www.example.com/page1", "http://www.example.com/page2", "http://www.example.com/page3", ] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse) ``` 2. 根据指定规则生成请求 ```python class MySpider(scrapy.Spider): name = "myspider" def start_requests(self): for i in range(1, 10): url = f"http://www.example.com/page{i}" yield scrapy.Request(url=url, callback=self.parse) ``` 3. 完全自定义请求的生成方式 ```python class MySpider(scrapy.Spider): name = "myspider" def start_requests(self): # 自定义请求的生成方式 payload = {"id": 123, "type": "foo"} headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"} url = "http://www.example.com/" yield scrapy.Request(method="POST", url=url, headers=headers, body=json.dumps(payload), callback=self.parse) ``` 通过重写start_requests函数,我们可以自定义一些请求的生成方式,进而实现我们所需的爬虫功能。在重写start_requests函数时,需要注意请求的生成方式和回调函数的设置,以确保正确地进行数据处理和存储。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值