python使用scrapy爬取项目demo(已解决)

第一步需要下载配置scrapy

在这个页面调用命令行工具

pip install scrapy -i https://pypi.douban.com/simple

我这边就直接镜像到国内的了,如果你有魔法可以通过外国服务器下载。

安装好后可以按住win+r,输入cmd打开命令行窗口检测一下

 

 如果你像我这样说明你就安装好了---

然后找到你的项目文件:

scrapy startproject 项目名称

然后cd到文件内部(会有提示的)

scrapy genspider 爬虫名称 要爬取的限制域

这些都搞完了你就会获取一个完成的项目文件

 我这边配置好demo了

 除了函数内部的文件都是自动生成的,简单爬取一下内容就可以了

import scrapy


class DemoSpider(scrapy.Spider):
    name = "demo"
    allowed_domains = ["xxxx.com"]
    start_urls = ["http://xxxxxx.com"]

    def parse(self, response):
        content = response.text
        with open('eee.html', 'w', encoding='utf-8') as fp:
            fp.write(content)
        # # pass

后续还会更新,我也是一个python初学者,一起学习吧~加油哦~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是一个简单的 Scrapy 爬取南京天气预报的示例: 1. 创建 Scrapy 项目 在命令行中输入以下命令: ``` scrapy startproject nanjing_weather cd nanjing_weather ``` 2. 创建爬虫 在命令行中输入以下命令: ``` scrapy genspider nanjing www.weather.com.cn ``` 这将在 `nanjing_weather/spiders` 目录下创建一个名为 `nanjing.py` 的文件,用于定义爬虫。 3. 编写爬虫代码 打开 `nanjing.py` 文件,将以下代码粘贴到文件中: ```python import scrapy class NanjingWeatherSpider(scrapy.Spider): name = 'nanjing' allowed_domains = ['www.weather.com.cn'] start_urls = ['http://www.weather.com.cn/weather/101190101.shtml'] def parse(self, response): # 获取天气信息 weather_info = response.xpath('//div[@id="7d"]/ul/li') for info in weather_info: date = info.xpath('h1/text()').get() weather = info.xpath('p[@class="wea"]/text()').get() temperature = info.xpath('p[@class="tem"]/span/text()').get() + info.xpath('p[@class="tem"]/i/text()').get() wind = info.xpath('p[@class="win"]/i/text()').get() yield { 'city': '南京', 'date': date, 'weather': weather, 'temperature': temperature, 'wind': wind, } ``` 以上代码定义了一个名为 `NanjingWeatherSpider` 的爬虫,首先在 `start_urls` 中定义了南京天气预报页面的链接,然后在 `parse` 方法中获取天气信息,并将数据以字典的形式返回。 4. 运行爬虫 在命令行中输入以下命令: ``` scrapy crawl nanjing -o nanjing_weather.json ``` 这将运行爬虫并将爬取到的数据保存到 `nanjing_weather.json` 文件中。 以上就是一个简单的 Scrapy 爬取南京天气预报的示例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值