Django+Scrapy结合使用并爬取数据入库

 

1. 创建django项目,并编写models.py,启动django项目

 

2. 配置Django嵌入
  Django项目根目录下创建Scrapy项目(这是scrapy-djangoitem所需要的配置)
  配置Django嵌入,在Scrapy的settings.py中加入以下代码:

import os
import sys
sys.path.append(os.path.dirname(os.path.abspath('.')))
os.environ['DJANGO_SETTINGS_MODULE'] = '子app.settings'
# 手动初始化Django:
import django
django.setup()

 

3.编写爬虫

 

4.item.py中引入Django模型类

import scrapy
    
from scrapy_djangoitem import DjangoItem
from 子app import models
class TalksItem(DjangoItem):
    django_model = models.表名

 

5.pipelines.py中调用save()

class TalksPipeline(object):
    def process_item(self, item, spider):
        print('打开数据库')
        item.save() # 数据将会自动添加到指定的表
        print('关闭数据库')
        return item

 

6.启动爬虫:scrapy crawl 爬虫名

 

7.刷新admin后台,此时数据已经入库了!

 

开不开心!

转载于:https://www.cnblogs.com/kitshenqing/p/11059636.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值