一个完整的scrapy 项目

#注意 管道文件一定要看settings.py是否开启不然不会执行

# -*- coding: utf-8 -*-
import scrapy
from bs4 import BeautifulSoup as bs
import re
from douban.items import DoubanItem #这里是要引入items字段 

#scrapy crawl dou

class DouSpider(scrapy.Spider):

    name = 'dou' #爬虫名字
    
    start_urls = ['https://movie.douban.com/subject/30314127/reviews'] #需要爬的链接

    def parse(self, response):
         
        html = response.text

        html = bs(html,'lxml')

        cont = html.findAll('div',class_='main review-item')

        for i in cont:

            item = DoubanItem()#这里就是用items 字段来存获取的东西 相当于一个字典
                
            name = i.header.text
            name = re.sub('\n','',name)
                
            con = i.div.text
            con = re.sub('\n','',con)
            con = re.sub(' ','',con)


            item['name'] = name
            item['con'] = con


            #self.log(name)
            #self.log(con)
            #self.log('\n')
            #self.log('\n')
            
            yield item #存好就可以yield 这个是时时返回并不结束程序







import scrapy   #这个就是定义items 字段了
class DoubanItem(scrapy.Item):

    name = scrapy.Field()

    con = scrapy.Field()

    
#管道文件存items 字段过来的内容

class DoubanPipeline(object):

    def process_item(self, item, spider):
        
        with open("douban.txt", "a",encoding='utf-8')as f:

            f.write(item['name'])
            f.write('\n')
            f.write(item['con'])

            f.write('\n')
            f.write('\n')
            f.write('\n')

        
        return item


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
项目:使用AngularJs编写的简单 益智游戏(附源代码)  这是一个简单的 javascript 项目。这是一个拼图游戏,也包含一个填字游戏。这个游戏玩起来很棒。有两个不同的版本可以玩这个游戏。你也可以玩填字游戏。 关于游戏 这款游戏的玩法很简单。如上所述,它包含拼图和填字游戏。您可以通过移动图像来玩滑动拼图。您还可以选择要在滑动面板中拥有的列数和网格数。 另一个是填字游戏。在这里你只需要找到浏览器左侧提到的那些单词。 要运行此游戏,您需要在系统上安装浏览器。下载并在代码编辑器中打开此项目。然后有一个 index.html 文件可供您修改。在命令提示符中运行该文件,或者您可以直接运行索引文件。使用 Google Chrome 或 FireFox 可获得更好的用户体验。此外,这是一款多人游戏,双方玩家都是人类。 这个游戏包含很多 JavaScript 验证。这个游戏很有趣,如果你能用一点 CSS 修改它,那就更好了。 总的来说,这个项目使用了很多 javascript 和 javascript 库。如果你可以添加一些具有不同颜色选项的级别,那么你一定可以利用其库来提高你的 javascript 技能。 演示: 该项目为国外大神项目,可以作为毕业设计的项目,也可以作为大作业项目,不用担心代码重复,设计重复等,如果需要对项目进行修改,需要具备一定基础知识。 注意:如果装有360等杀毒软件,可能会出现误报的情况,源码本身并无病毒,使用源码时可以关闭360,或者添加信任。
好的,我可以提供一个简单的爬虫示例,用 Scrapy 爬取笔者个人博客的文章列表和详情。首先,需要安装 Scrapy: ``` pip install scrapy ``` 然后,在终端中输入以下命令,创建一个新的 Scrapy 项目: ``` scrapy startproject myblog ``` 接下来,切换到项目根目录,创建一个新的爬虫: ``` cd myblog scrapy genspider blog_spider myblog.com ``` 这样就创建了一个名为 `blog_spider` 的爬虫,接下来我们需要在 `blog_spider.py` 文件中编写我们的爬虫逻辑。 首先,我们需要在 `start_requests` 方法中发起初始请求,获取文章列表页的 HTML 内容: ```python import scrapy class BlogSpider(scrapy.Spider): name = 'blog_spider' allowed_domains = ['myblog.com'] start_urls = ['http://myblog.com/articles'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse_list) ``` 接下来,我们需要在 `parse_list` 方法中解析文章列表页的 HTML,获取每篇文章的 URL,并发起请求获取文章详情: ```python def parse_list(self, response): for article in response.css('.article'): article_url = article.css('a::attr(href)').get() yield scrapy.Request(url=article_url, callback=self.parse_article) next_page_url = response.css('a.next-page::attr(href)').get() if next_page_url: yield scrapy.Request(url=next_page_url, callback=self.parse_list) ``` 在上面的代码中,我们使用了 CSS 选择器来获取文章列表页中所有文章链接的 URL,并且判断是否有下一页,如果有下一页就继续发起请求获取下一页的 HTML 内容。 最后,我们需要在 `parse_article` 方法中解析文章详情的 HTML,提取文章的标题和内容: ```python def parse_article(self, response): title = response.css('h1::text').get() content = response.css('.article-content').get() yield { 'title': title, 'content': content, } ``` 这样就完成了一个简单的爬虫,可以通过以下命令运行: ``` scrapy crawl blog_spider ``` 完整的代码如下: ```python import scrapy class BlogSpider(scrapy.Spider): name = 'blog_spider' allowed_domains = ['myblog.com'] start_urls = ['http://myblog.com/articles'] def start_requests(self): for url in self.start_urls: yield scrapy.Request(url=url, callback=self.parse_list) def parse_list(self, response): for article in response.css('.article'): article_url = article.css('a::attr(href)').get() yield scrapy.Request(url=article_url, callback=self.parse_article) next_page_url = response.css('a.next-page::attr(href)').get() if next_page_url: yield scrapy.Request(url=next_page_url, callback=self.parse_list) def parse_article(self, response): title = response.css('h1::text').get() content = response.css('.article-content').get() yield { 'title': title, 'content': content, } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值