win10电脑利用Anaconda3-5.3.1-Windows-x86_64安装Scrapy最全教程

一,卸载之前装的python软件

操作步骤:

我的电脑:win10 64位
在开始菜单中点击“Cortana”,输入python,找一找是否自己安装了python软件,如果安装了python,那么建议卸载这个软件

并删除对应的环境变量

原因:

安装了Anaconda软件之后,它自带一个python,会和你之前下载的python软件相冲突,在安装scrapy时产生以下错误:
ImportError: DLL load failed: 找不到指定的程序。

所以必须卸载之前安装的python软件

如果不卸载之前的python软件,会出现什么效果?

在Anaconda Prompt软件中输入python,其版本和开始菜单中的python版本不一致
在后期安装Scrapy的时候,总是失败

卸载Anaconda 软件

运行它对应的uninstall软件即可

二,在Anaconda 官网上下载安装包

我在官网上差不多下载了一个小时
这里给出安装包 Anaconda3-5.3.1-Windows-x86_64:
复制这段内容后打开百度网盘App,操作更方便哦。 链接:https://pan.baidu.com/s/1dwEX0JW-WtfovKX_j3g_bg 提取码:631x

三,安装Anaconda

在这里插入图片描述我的电脑只有一个用户,所以这里其实无所谓在这里插入图片描述
在这里插入图片描述在这里插入图片描述
我们打开环境变量,可以看到
在这里插入图片描述

四,修改一个叫.condarc的文件

如何修改

它的路径一般在C:\Users\Administrator之下
最终修改结果为

ssl_verify: true
show_channel_urls: true

channels:
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/win-64/
  - http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/win-64/

如果不修改造成以下错误

Anaconda建立新的环境,出现CondaHTTPError: HTTP 000 CONNECTION FAILED for url …

五,安装Scrapy

注意:

1.打开Anaconda prompt,输入以下命令行
2.过程中出现以下命令行
Proceed ([y]/n)
意思是问你是否确定要删除这个package?
y就是yes
n就是no
你只需要输入一个y或者n就可以了
3.命令行开头出现了base ,意味着启动命令行自动进入conda环境

安装过程

1.创建一个scrapyEnv的虚拟环境

(base) C:\Users\Administrator>conda create -n scrapyEnv python=3

2.激活这个环境,并在这个环境下安装scrapy和mysqlclient

(base) C:\Users\Administrator>activate scrapyEnv

(scrapyEnv) C:\Users\Administrator>conda install scrapy

(scrapyEnv) C:\Users\Administrator>conda install mysqlclient

切换环境命令
activate learn
如果忘记了名称我们可以先用
conda env list

3.检查是否安装成功:输入scrapy,会显示以下结果

(scrapyEnv) C:\Users\Administrator>scrapy
Scrapy 1.3.3 - no active project

Usage:
  scrapy <command> [options] [args]

Available commands:
  bench         Run quick benchmark test
  commands
  fetch         Fetch a URL using the Scrapy downloader
  genspider     Generate new spider using pre-defined templates
  runspider     Run a self-contained spider (without creating a project)
  settings      Get settings values
  shell         Interactive scraping console
  startproject  Create new project
  version       Print Scrapy version
  view          Open URL in browser, as seen by Scrapy

  [ more ]      More commands available when run from project directory

Use "scrapy <command> -h" to see more info about a command
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值