Scrapy框架抓取豆瓣电影的小爬虫学习日记(三)

获取到影片信息之后,下一步就是要把获取到的信息进行保存了。网上很多的案例都是保存成json格式,这里我想用Mysql服务器来保存。

1、首先安装好Mysql数据库,建好filminfo表和字段。



2、在items.py文件中添加你需要保存到数据库中的信息,定义相对应的class,生成item类对象。

class DoubanItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    type = scrapy.Field()
    id = scrapy.Field()
    title = scrapy.Field()
    year = scrapy.Field()
    directer = scrapy.Field()
    scenarist = scrapy.Field()
    actor = scrapy.Field()
    genre = scrapy.Field()
    area = scrapy.Field()
    language = scrapy.Field()
    ReleaseDate = scrapy.Field()
    runtime = scrapy.Field()
    anname = scrapy.Field()
    imdb = scrapy.Field()


3、 编辑pipelines.py文件,将你在items类中获得的数据保存到Mysql数据库中。这里需要注意的几点是:

(1)python3.6使用的Mysql数据库模块是pymysql,不支持2.x支持的MySQLdb 模块;

(2)在pymysql.connect里面设置连接服务器的参数;

(3)sql语句执行后,需要commit()执行一下


    def __init__(self):
        self.conn = pymysql.connect(host='localhost',port=3306,user="root",passwd="******",db = "filmandtv",charset='utf8')
        self.cursor = self.conn.cursor()
        insert_sql = '''
        insert into filminfo(type,filmid,title,year,directer,scenarist,actor,genre,area,language,ReleaseDate,runtime,anname,imdb,imagepath,plotsummary) values (%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)
        '''
        self.cursor.execute(insert_sql,(item["type"],item["id"],item["title"],item["year"],directer,scenarist,actor,genre,area,language,ReleaseDate,runtime,anname,item["imdb"],filmrelative_path,item["plot_summary"]))

        self.conn.commit()


4、还有很重要的一步,就是在spider里设置返回items的信息


return DoubanItem(type=type,id=id,title=title,year=year,directer=directer,scenarist=scenarist,actor=actor,genre=genre,area=area,language=language,ReleaseDate=ReleaseDate,runtime=runtime,anname=anname,imdb=imdb,poster_url=poster_url,plot_summary=plot_summary)



5、运行一下,数据就保存下来了!成功!




 



  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python的Scrapy框架可以非常方便地爬取豆瓣电影的数据。下面是一个简单示例: 首先,我们需要创建一个新的Scrapy项目。在命令行中执行以下命令: ``` scrapy startproject douban_movies ``` 接下来,进入项目目录: ``` cd douban_movies ``` 然后,我们可以创建一个名为`movies`的Spider来定义我们想要爬取的网页和处理数据的逻辑。在项目目录下执行以下命令: ``` scrapy genspider movies movie.douban.com ``` 这会在`spiders`目录下生成一个名为`movies.py`的文件。我们可以在这个文件中编写爬虫代码。 首先,我们需要定义要爬取的网址,在`start_urls`中添加豆瓣电影的首页地址: ```python start_urls = ['https://movie.douban.com/'] ``` 然后,我们需要定义如何解析网页和提取数据。我们可以使用XPath或CSS选择器来定位需要的数据。这里以使用XPath为例: ```python def parse(self, response): # 提取电影名字 movie_names = response.xpath('//div[@class="hd"]/a/span/text()').extract() for name in movie_names: print(name) # 提取评分 scores = response.xpath('//span[@class="rating_num"]/text()').extract() for score in scores: print(score) ``` 在上面的代码中,我们使用XPath选择器来提取电影的名字和评分,并打印出来。你可以根据需要修改这部分代码,比如将数据保存到数据库或文件中。 最后,在命令行中执行以下命令来运行爬虫: ``` scrapy crawl movies ``` 以上就是使用Python的Scrapy框架爬取豆瓣电影的简单示例。你可以根据自己的需求进一步扩展和优化这个爬虫,比如添加翻页功能或处理更复杂的网页结构。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值