自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 资源 (8)
  • 问答 (2)
  • 收藏
  • 关注

原创 linux centos7 安装scarapy步骤

在Linux环境下搭建分布式爬虫,需要用到scrapy,下面是安装步骤一、配置环境1、下载Anaconda安装包 下载地址http://www.continuum.io/downloads#all2、找到安装包,并将安装移动到/opt文件夹下 解压缩安装sh Anaconda-2.3.0-Linux-x86_64.sh 3、下载pip安装包 下载地址https://pypi.python.or

2015-09-22 13:29:34 1473

原创 redis的启动与停止 可执行文件

编译好的bin文件位于源码的src的目录下,均以redis-xxx命名。其中: 可执行的2进制文件共有5个: redis-benchmark #性能测试工具 redis-check-aof #aof文件修复工具 redis-check-dump #rdb文件检查工具 redis-cli #命令行客户端 redis-server #redis服务器

2015-09-17 21:03:36 555

转载 scrapy在爬取网页时使用随机user-agent方法

转载 默认情况下scrapy采集时只能使用一种user-agent,这样容易被网站屏蔽,下面的代码可以从预先定义的user-agent的列表中随机选择一个来采集不同的页面 在settings.py中添加以下代码DOWNLOADER_MIDDLEWARES = { 'scrapy.contrib.downloadermiddleware.useragent.UserAgentMid

2015-09-16 20:58:15 8304

转载 linux crontab 定时执行计划命令

转载 Linux 系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另外, 由于使用者自己也可以设置计划任务,所以, Linux 系统也提供了使用者控制计划任务的命令 :crontab 命令。 一、crond简介 crond是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计划任务类似,当安装完成操作系统后,默认会安装此服务工具,并且会

2015-09-16 20:31:54 566

原创 raise KeyError("Spider not found: {}".format(spider_name)) KeyError: 'Spider not found: novelspider'

>>>runfile('D:/python/novelspider/main.py', wdir='D:/python/novelspider')Reloaded modules: novelspider.items, novelspider, novelspider.spiders, novelspider.settings, novelspider.spiders.novspider2015

2015-09-15 22:23:45 9355 5

原创 ImportError: No module named items

Traceback (most recent call last): File "<stdin>", line 1, in <module> File "D:\anzhuang\Anaconda\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 682, in runfile execf

2015-09-15 22:00:41 5715

原创 Python 爬虫中遇到的反爬虫问题

源网站一般会有下面几种限制 1、一定时间内单个IP访问次数,一个正常用户访问网站,除非是随意的点着玩,否则不会在一段持续时间内过快访问一个网站,持续时间也不会太长,我们可以采用大量不规则代理ip形成一个线程池,随机从代理池中选择代理,模拟访问。代理有两种,透明代理和匿名代理。2、一定时间内单个账号访问次数,如果一个人一天24小时都在访问一个数据接口,而且速度非常快,那就有可能是机器人。我们可以采用

2015-09-13 22:25:09 2995

原创 Python 爬虫 urllib2异常处理

异常处理1、当我们调用urllib2.urlopen的时候不会总是这么顺利,就像浏览器打开url时有时也会报 错,所以就需要我们有应对异常的处理。说到异常,我们先来了解返回的response对象的 几个常用的方法: geturl() — 返回检索的URL资源,这个是返回的真正url,通常是用来鉴定是否重定向的 info() — 返回页面的原信息就像一个字段的对象, 如headers,它以mime

2015-09-12 20:35:14 2072

原创 Python 爬虫 多线程爬取百度贴吧内容,并将内容存到本地

功能: 1、爬取百度贴吧内容: 回帖时间 回帖内容 回帖人 2、通过xpath来提取属性,并将提取的属性写入到txt文件中 3、多线程实现 下面是代码:# -*- coding: utf-8 -*-"""Created on Fri Sep 11 22:03:40 2015@author: wt"""from lxml import etreefrom

2015-09-12 13:02:13 1326 2

原创 Python 爬虫 raise self._value IndexError: list index out of range

Traceback (most recent call last): File "D:\Program Files (x86)\JetBrains\PyCharm Educational Edition 1.0.1\helpers\pydev\pydev_run_in_console.py", line 66, in <module> globals = run_file(file, N

2015-09-12 12:54:30 4947 1

转载 python 标准库urllib2的使用细节

转载Python标准库中有很多实用的工具类,但在具体使用时,标准文档上对使用细节描述的并不清楚,比如urllib2这个HTTP客户端库。这里总结了一些urllib2库的使用细节。proxy的设置Timeout设置在HTTP Request中加入特定的headerredirectcookie使用HTTP的PUT和DELETE方法遇到HTTP的返回码Debug Log1. proxy的

2015-09-11 00:10:46 543

原创 常见Python异常

AssertionError assert(断言)语句失败AttributeError 试图访问一个对象没有的树形,比如foo.x,但是foo没有属性xIOError 输入/输出异常;基本上是无法打开文件ImportError 无法引入模块或

2015-09-10 20:53:34 999

原创 爬虫 代理问题

1Traceback (most recent call last): File "<stdin>", line 1, in <module> File "D:\anzhuang\Anaconda\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 682, in runfile exec

2015-09-09 17:00:56 1804

原创 scrapy KeyError: 'Spider not found: doubanmovie' FAQ

Traceback (most recent call last): File "<stdin>", line 1, in <module> File "D:\anzhuang\Anaconda\lib\site-packages\spyderlib\widgets\externalshell\sitecustomize.py", line 682, in runfile execf

2015-09-09 10:27:23 5655

转载 python 网络爬虫开源框架scrapy

转载介绍:所谓网络爬虫,就是一个在网上到处或定向抓取数据的程序,当然,这种说法不够专业,更专业的描述就是,抓取特定网站网页的HTML数据。不过由于一个网站的网页很多,而我们又不可能事先知道所有网页的URL地址,所以,如何保证我们抓取到了网站的所有HTML页面就是一个有待考究的问题了。 一般的方法是,定义一个入口页面,然后一般一个页面会有其他页面的URL,于是从当前页面获取到这些URL加入到爬虫的抓

2015-09-09 09:58:23 842

原创 python error: [Errno 10054]

data = self._sock.recv(self._rbufsize) error: [Errno 10054]编写爬虫时,运行代码出现了如下的错误, 对一个网站使用大量的urlopen()操作,会被那个网站认为攻击行为,网站会把你封了,就有不允许下载的情况,导致urlopen()后,request.read()一直卡死在那,不能继续下去,最后会抛出这个异常。即使添加了useragent,

2015-09-08 19:03:42 10308 1

原创 python 多线程

创建ThreadFunc类和创建Thread对象,来实现多线程。 创建新线程的时候,Thread对象会调用我们的TreadFunc对象,这是会用到一个特殊的函数__call__()。由于有一个参数的元组,这时要在代码中使用apply()函数。# -*- coding: utf-8 -*-"""Created on Tue Sep 08 15:04:14 2015@author: wt"""i

2015-09-08 15:38:50 429

原创 python 爬虫获取网站信息(二)

爬取网站:http://www.xici.net.co/nn 伪代码的功能是,爬取网页上的数据,通过正则表达式,对需要的数据进行提取,并将这些数据插入到数据中。 在爬取的过程中遇到了两个问题,让我一直很头疼一、之前网站还可以正常提取,但后来可能用爬虫爬取的次数多了,网站可能进行了反爬虫修改,这也在程序中有所体现。这个问题纠结了好久。二、问题_mysql_exceptions.Operationa

2015-09-04 22:04:40 1302

原创 python 错误集

AttributeError: ‘NoneType’ object has no attribute ‘findAll’在网上了找了好多,一直找不到问题出现在哪,后来把程序删除大部分,只留开头的部分,一点一点的测试,才找到问题,原来,网站设置了反爬虫,不能被爬了,所以修改程序后,就可以了。 修改见下:headers = {'User-Agent':'Mozilla/5.0 (Windows NT

2015-09-04 09:54:42 700

原创 python 爬虫获取网站信息(一)

爬取网站:http://www.xici.net.co/nn 获取网络代理,将代理写入本地文件,并保存import requestsfrom bs4 import BeautifulSoup#import MySQLdb#import MySQLdb.cursorsimport sysreload(sys)sys.setdefaultencoding('utf8')proxy_inf

2015-09-03 19:45:57 1769

原创 python 爬虫

User-Agent:Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36爬虫会用到上述的信息,而上述信息相当于一个面具,让网站误以为你的爬虫是一个浏览器访问。

2015-09-01 20:54:33 563

原创 python bug

bug1UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)这是由于Python编码格式的原因,在导入包的后面添加下面的语句sys.setdefaultencoding(‘utf8’)设置默认编码格式为utf8bug2UnicodeEncodeError

2015-09-01 12:16:33 896

系统架构师历年真题及答案2014--2017

软考高级系统架构师历年真题。软考高级系统架构师考前必练。2014-2017年系统架构设计师考试的所有真题,对试题进行详细的分析与解答。

2018-09-27

FileFilter实例,并实现文件的拷贝

FileFilter实例,搜索文件夹下特定的文件,并对这些文件进行提取,将文件拷贝到另一文件夹下

2015-08-21

简单java爬虫程序

爬取youku网页上内容,并进行得到的结果进行过滤.

2015-08-20

正则表达式构造

了解了构造集,掌握了模式匹配的原则和方法。

2015-08-20

Python-redis

Python连接redis的模块,连接redis时,需导入redis模块

2015-07-26

mysql-connector-python-2.0.2

使用爬虫抓取数据,需要对数据进行存储,可以使用Python连接数据库的工具包

2015-07-23

爬虫抓取网页数据

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。具体功能是,通过scrapy和Python编程对BBS网站进行抓取数据。

2015-07-23

htmlparser1_6.jar

更新的htmlparser jar包,之前的jar包不能处理NodeList。

2015-07-20

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除