【转】Elasticsearch+Django搜索引擎(一)

说明:该篇博客是博主一字一码编写的,实属不易,请尊重原创,谢谢大家!

目录

一丶叙述

二丶elasticsearch-rtf的安装与测试

三丶elasticsearch-head插件以及kibana的安装

四丶elasticsearch搜索引擎的使用

五丶使用scrapy爬取知名技术文章网站

六丶将scrapy爬取到的数据写入到elasticsearch中


一丶叙述

1.项目介绍

通过scrapy爬取伯乐在线网站的全部文章数据通过elasticsearch_dsl工具将数据写入到elasticsearch中;再使用django开发一个搜索网站并且与elasticsearch进行数据交互来打造出一个高大上的搜索引擎网站。

2.项目展示

  • 搜索引擎网站首页页面展示,当输入不完整的关键字时,会自动补全以及会显示出搜索建议

  • 搜索结果页面显示,会对搜索的内容进行分词处理,并且在文章列表中会对分词后的字段进行高亮标红显示

  • 动态效果展示,点击在搜索框输入python时的自动补全提示内容跳转到搜索结果列表页面

  • 动态效果展示,直接在搜索框输入python后点击搜索按钮,跳转到搜索结果列表页,并在主页我的搜索项中显示搜索历史

  • 在搜索结果页面同样有个搜索框,同样跟主页一样进行关键字搜索

 

3.什么是ElasticSearch

ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

我们建立一个网站或应用程序,并要添加搜索功能,但是想要完成搜索工作的创建是非常困难的。我们希望搜索解决方案要运行速度快,我们希望能有一个零配置和一个完全免费的搜索模式,我们希望能够简单地使用JSON通过HTTP来索引数据,我们希望我们的搜索服务器始终可用,我们希望能够从一台开始并扩展到数百台,我们要实时搜索,我们要简单的多租户,我们希望建立一个云的解决方案。因此我们利用Elasticsearch来解决所有这些问题及可能出现的更多其它问题。

4.什么是Elasticsearch-RTF

RTF是Ready To Fly的缩写,在航模里面,表示无需自己组装零件即可直接上手即飞的航空模型,Elasticsearch-RTF是针对中文的一个发行版,即使用最新稳定的elasticsearch版本,并且帮你下载测试好对应的插件,如中文分词插件等,目的是让你可以下载下来就可以直接的使用(虽然es已经很简单了,但是很多新手还是需要去花时间去找配置,中间的过程其实很痛苦),当然等你对这些都熟悉了之后,你完全可以自己去diy了,跟linux的众多发行版是一个意思。

二丶elasticsearch-rtf的安装与测试

1.安装elasticsearch-rtf

  • 在github上搜索elasticsearch-rtf,选择第一个点击进入如下页面下载即可

  • 将下载好的elasticsearch-5.1.1.zip包,进行解压,需要注意的是解压的目录名称不能带中文,否则运行elasticsearch则会报错

  • 因为elasticsearch是由java进行开发的,所以要运行elasticsearch则需要先安装java jdk8+;因为博主以前就安装过,所以这里不进行演示,网上有很多教程,安装完jdk后,在cmd窗口输入java -version则显示出安装成功后的jdk版本信息

  • 在cmd中进入解压的elasticsearch文件bin目录下,执行elasticsearch.bat批处理文件

2.测试

三丶elasticsearch-head插件以及kibana的安装

1.elasticsearch-head插件安装

  • 在github上搜索elasticsearch-head,选择第一个点击进入如下页面下载即可

  • 博主这里直接使用git命令将elassearch-head下载下来,也可以直接在如上页面点击download进行下载

  • cd进入elassearch-head目录后,使用npm命令进行安装,需要注意的是npm命令就好比python中的pip一样,要想使用npm命令则需要下载安装windows版本的Node.js,安装Node.js成功后就可以直接使用npm命令了

  • 在elasticsearch-head插件页面无法连接http://127.0.0.1:9200/地址,如上图显示集群健康值:未连接,需要在elasticsearch解压文件config目录下elasticsearch.yml配置文件添加如下配置

 
 
  1. http.cors.enabled: true
  2. http.cors.allow-origin: "*"
  3. http.cors.allow-methods: OPTIONS, HEAD, GET, POST, PUT, DELETE
  4. http.cors.allow-headers: "X-Requested-With, Content-Type, Content-Length, X-User"

2.kibana的安装

  • 下载与elastsearch一致版本的kibana,否则会出错

  • 下载成功后进行解压,然后打开cmd窗口进入解压文件bin目录下,执行kibana.bat批处理文件

四丶elasticsearch搜索引擎的使用

说明:什么是Kibana:Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索引中的数据。使用Kibana,可以通过各种图表进行高级数据分析及展示;举例说明就好比mysql数据库的工具navicat一样

1.elasticsearch基本的索引和文档CRUD操作

  • 启动Kibana服务

  • 在浏览器中访问http://127.0.0.1:5601则进行Kibana可视化页面,在页面中选择Dev-Tools可以创建索引以及对查询索引的配置

  • 如上图创建lagou索引后,回到elasticsearch-head工具页面,刷新后则出现创建的lagou索引

  • 修改lagou索引配置

  • 获取所有的索引信息

  • 向索引中保存文档(向数据库添加表数据),注重说明一下可以将索引看做成数据库,type看作成数据表下的表后面跟着表的id,即PUT lagou/job/1,当添加数据时不指明id则也能添加成功能,系统会默认将id生成一个uuid的值

  • 回到elasticsearch-head页面,点击数据浏览选择lagou就能看到在Kibana中添加的数据信息

  • 获取lagou下的job表数据

  • 获取lagou下的job表某个字段以及多个字段的数据,需要注意的是,后面不能留空格

  • 修改lagou下的job表id为1数据,也是使用PUT进行修改,这种修改时覆盖式的修改

  • 使用POST修改lagou下的job表id为1的数据

  • 删除lagou/job表下id为1的所有数据

  • 删除lagou索引 

2.elasticsearch的mget和bulk批量操作

  • 在使用mget查询之前需要添加些查询数据

 
 
  1. PUT testdb/job1/ 1
  2. {
  3. "title": "test_job1_1"
  4. }
  5. PUT testdb/job1/ 2
  6. {
  7. "title": "test_job1_2"
  8. }
  9. PUT testdb/job2/ 1
  10. {
  11. "title": "test_job2_1"
  12. }
  13. PUT testdb/job2/ 2
  14. {
  15. "title": "test_job2_2"
  16. }
  • 查看添加后的索引数据信息

  • 使用mget查询多个条件数据

  • 当index一致时,就可以进行如下查询

 
 
  1. GET testdb/_mget
  2. {
  3. "docs":[
  4. {
  5. "_type": "job1",
  6. "_id": 1
  7. },
  8. {
  9. "_type": "job2",
  10. "_id": 2
  11. }
  12. ]
  13. }
  • 以此类推当index和type相同都是job1时只有id不同的情况下,可以进行如下查询

  • 使用bulk批量操作,添加lagou索引并在其下创建job1和job2两个type以及对应的id

3.elasticsearch的mapping映射管理

说明:关于elasticsearch的mapping的概念可以百度进行了解

  • 为了方便演示创建索引的映射,博主需要将之前创建的索引全部删除

  • 创建索引映射

  • 向创建好的索引映射中插入数据

  • 获取索引下的mapping

  • 获取集群下的所有mapping

4.elasticsearch的简单查询

  • 删除lagou索引,然后创建新的lagou索引并添加映射

  • 向索引中添加查询数据

  • 使用match匹配查询title字段包含python开发的数据,在创建索引映射时title字段使用的是ik_max_word,该工具会对此字段不管大小写都会转换成小写并且会对title字段进行中英文分词处理,所以在使用match进行匹配查询时,就会查询到如下两条数据

  • 而使用term进行查询时,会根据传入的title的值也就是python开发进行全局匹配不会进行分词处理,通俗来说在数据title字段内容必须不多不少是"python开发"才能查询到数据,所以如下没有查询到数据

  • 使用terms进行查询,对满足数组中的任何内容的title字段数据就会查询出来

  • 控制查询数据返回数量,实际匹配出两条数据,但form从0开始取只往后取一个,即结果只显示出一条数据

  • 使用match_all查询所有数据

  • 使用match_phrase查询,会将查询的内容进行分词,slop表示的是分词之间的长度,也就是说python和总监之间的长度,要满足该长度内才能查询出数据

  • multi_match查询,指定在title和desc字段中查询包含python的数据

  • 指定返回title以及company_name字段数据

  • 通过sort把结果排序

  • range范围查询comments大于等于1000小于等于2000的数据,boost表示权重

  • 使用range对时间范围进行查询

5.elasticsearch的bool组合查询

说明 bool组合查询包括:must丶should丶must_not丶filter来完成

  • bool组合查询的格式如下

 
 
  1. bool:{
  2. "must":[],
  3. "should":[],
  4. "must_not":[],
  5. "filter":[]
  6. }
  • 删除之前的索引,重新创建测试数据

  • 从查询到的所有数据中筛选出salary为2000的数据

  • 使用ik_max_word查看分析器解析的结果

  • 使用ik_smart查看分析器解析结果

  • 组合过滤查询薪资等于2000或者工作为Python的数据并且满足薪水不为3000的数据

  • 嵌套查询工作为python或者工作为django并且工资为3000的数据

  • 过滤空和非空数据,首先创建测试数据

  • 查询tags字段不为null的数据

  • 整个在Kibana中的操作命令如下

 
 
  1. # 创建lagou索引
  2. PUT lagou
  3. {
  4. "settings": {
  5. "index":{
  6. "number_of_shards": 5,
  7. "number_of_replicas": 1
  8. }
  9. }
  10. }
  11. # 获取lagou的配置
  12. GET lagou/_settings
  13. # 获取所有索引的配置
  14. GET _all/_settings
  15. # 获取kibana和lagou索引配置
  16. GET .kibana,lagou/_settings
  17. # 修改lagou索引的配置,shards一旦设置了值就无法修改
  18. PUT lagou/_settings
  19. {
  20. "number_of_replicas": "3"
  21. }
  22. # 获取所有的索引信息
  23. GET _all
  24. # 向索引中保存文档
  25. PUT lagou/job/ 1
  26. {
  27. "title": "Python分布式爬虫打造搜索引擎",
  28. "min_salary": 15000,
  29. "city": "成都",
  30. "company":{
  31. "name": "百度",
  32. "company_add": "天府软件园"
  33. },
  34. "publish_date": "2019-06-01",
  35. "comments": 20
  36. }
  37. # 获取lagou下的job表数据
  38. GET lagou/job/ 1
  39. # 获取lagou下的job表某个字段的数据
  40. GET lagou/job/ 1?_source=title
  41. # 获取lagou下的job表多个字段的数据
  42. GET lagou/job/ 1?_source=title,city
  43. #使用PUT修改lagou下的job表id为 1的数据
  44. PUT lagou/job/ 1
  45. {
  46. "title": "Python分布式爬虫打造搜索引擎",
  47. "min_salary": 20000,
  48. "city": "成都",
  49. "company":{
  50. "name": "百度",
  51. "company_add": "天府软件园"
  52. },
  53. "publish_date": "2019-06-01",
  54. "comments": 20
  55. }
  56. # 使用POST修改lagou下的job表id为 1的数据
  57. POST lagou/job/ 1/_update
  58. {
  59. "doc": {
  60. "comments": 50
  61. }
  62. }
  63. # 删除lagou/job表下id为 1的所有数据
  64. DELETE lagou/job/ 1
  65. # 删除lagou索引
  66. DELETE lagou
  67. PUT testdb/job1/ 1
  68. {
  69. "title": "test_job1_1"
  70. }
  71. PUT testdb/job1/ 2
  72. {
  73. "title": "test_job1_2"
  74. }
  75. PUT testdb/job2/ 1
  76. {
  77. "title": "test_job2_1"
  78. }
  79. PUT testdb/job2/ 2
  80. {
  81. "title": "test_job2_2"
  82. }
  83. # 使用mget查询多个条件数据
  84. GET _mget
  85. {
  86. "docs":[
  87. {
  88. "_index": "testdb",
  89. "_type": "job1",
  90. "_id": 1
  91. },
  92. {
  93. "_index": "testdb",
  94. "_type": "job2",
  95. "_id": 2
  96. }
  97. ]
  98. }
  99. # 当index一致时,就可以进行如下查询
  100. GET testdb/_mget
  101. {
  102. "docs":[
  103. {
  104. "_type": "job1",
  105. "_id": 1
  106. },
  107. {
  108. "_type": "job2",
  109. "_id": 2
  110. }
  111. ]
  112. }
  113. # 当index和type相同都是job1时只有id不同
  114. GET testdb/job1/_mget
  115. {
  116. "docs":[
  117. {
  118. "_id": 1
  119. },
  120. {
  121. "_id": 2
  122. }
  123. ]
  124. }
  125. # 使用bulk批量操作
  126. POST _bulk
  127. { "index":{ "_index": "lagou", "_type": "job1", "_id": 1}}
  128. { "title": "Python分布式爬虫打造搜索引擎", "min_salary": 16000, "city": "成都", "comany":{ "name": "百度", "company_addr": "天府软件A园"}, "publish_date": "2019-06-01", "comments": 15}
  129. { "index":{ "_index": "lagou", "_type": "job2", "_id": 2}}
  130. { "title": "Django Web开发", "min_salary": 20000, "city": "成都", "comany":{ "name": "腾讯", "company_addr": "天府软件B园"}, "publish_date": "2019-05-20", "comments": 30}
  131. # 创建索引映射
  132. PUT lagou
  133. {
  134. "mappings": {
  135. "job":{
  136. "properties": {
  137. "title":{
  138. "type": "text"
  139. },
  140. "min_salary":{
  141. "type": "integer"
  142. },
  143. "city":{
  144. "type": "keyword"
  145. },
  146. "company":{
  147. "properties": {
  148. "name":{
  149. "type": "text"
  150. },
  151. "company_addr":{
  152. "type": "text"
  153. },
  154. "employee_count":{
  155. "type": "integer"
  156. }
  157. }
  158. },
  159. "publish_date":{
  160. "type": "date",
  161. "format": "yyyy-MM-dd"
  162. },
  163. "comments":{
  164. "type": "integer"
  165. }
  166. }
  167. }
  168. }
  169. }
  170. # 向索引插入数据
  171. PUT lagou/job/ 1
  172. {
  173. "title": "Python分布式爬虫打造搜索引擎",
  174. "min_salary": 20000,
  175. "city": "成都",
  176. "company":{
  177. "name": "百度",
  178. "company_add": "天府软件园",
  179. "employee": 200
  180. },
  181. "publish_date": "2019-06-01",
  182. "comments": 20
  183. }
  184. # 获取索引下的mapping
  185. GET lagou/_mapping
  186. # 获取集群下的所有mapping
  187. GET _all/_mapping
  188. # 添加映射
  189. PUT lagou
  190. {
  191. "mappings": {
  192. "job":{
  193. "properties": {
  194. "title":{
  195. "store": true,
  196. "type": "text",
  197. "analyzer": "ik_max_word"
  198. },
  199. "company_name":{
  200. "store": true,
  201. "type": "keyword"
  202. },
  203. "desc":{
  204. "type": "text"
  205. },
  206. "comments":{
  207. "type": "integer"
  208. },
  209. "add_time":{
  210. "type": "date",
  211. "format": "yyyy-MM-dd"
  212. }
  213. }
  214. }
  215. }
  216. }
  217. # 向索引中添加查询数据
  218. POST lagou/job/
  219. {
  220. "title": "Django Web开发工程师",
  221. "company_name": "阿里巴巴网络技术有限公司",
  222. "desc": "精通Python",
  223. "comments": 1200,
  224. "add_time": "2019-02-14"
  225. }
  226. POST lagou/job/
  227. {
  228. "title": "数据挖掘工程师",
  229. "company_name": "百度在线网络技术有限公司",
  230. "desc": "10年工作经验",
  231. "comments": 1000,
  232. "add_time": "2019-03-16"
  233. }
  234. POST lagou/job/
  235. {
  236. "title": "Python人工智能技术总监",
  237. "company_name": "华为技术有限公司",
  238. "desc": "能分析和解决疑难问题",
  239. "comments": 3000,
  240. "add_time": "2019-06-18"
  241. }
  242. # 使用match查询
  243. GET lagou/_search
  244. {
  245. "query": {
  246. "match": {
  247. "title": "python开发"
  248. }
  249. }
  250. }
  251. # 使用term查询
  252. GET lagou/_search
  253. {
  254. "query": {
  255. "term": {
  256. "title": "python开发"
  257. }
  258. }
  259. }
  260. # 使用terms查询
  261. GET lagou/_search
  262. {
  263. "query": {
  264. "terms": {
  265. "title": [ "智能", "挖掘", "web"]
  266. }
  267. }
  268. }
  269. # 控制查询数据返回数量
  270. GET lagou/_search
  271. {
  272. "query": {
  273. "match": {
  274. "title": "工程师"
  275. }
  276. },
  277. "from": 0,
  278. "size": 1
  279. }
  280. # match_all查询所有数据
  281. GET lagou/_search
  282. {
  283. "query": {
  284. "match_all": {}
  285. }
  286. }
  287. # match_phrase查询
  288. GET lagou/_search
  289. {
  290. "query": {
  291. "match_phrase": {
  292. "title":{
  293. "query": "python总监",
  294. "slop": 6
  295. }
  296. }
  297. }
  298. }
  299. # multi_match查询,指定在title和desc字段中查询
  300. #包含python的数据
  301. GET lagou/_search
  302. {
  303. "query": {
  304. "multi_match": {
  305. "query": "python",
  306. "fields": [ "title", "desc"]
  307. }
  308. }
  309. }
  310. # 指定返回的哪些字段数据
  311. GET lagou/_search
  312. {
  313. "stored_fields": [ "title", "company_name"],
  314. "query": {
  315. "match": {
  316. "title": "pythona"
  317. }
  318. }
  319. }
  320. # 通过sort把结果排序
  321. GET lagou/_search
  322. {
  323. "query": {
  324. "match_all": {}
  325. },
  326. "sort": [
  327. {
  328. "comments": {
  329. "order": "desc"
  330. }
  331. }
  332. ]
  333. }
  334. # range范围查询
  335. GET lagou/_search
  336. {
  337. "query": {
  338. "range": {
  339. "comments": {
  340. "gte": 1000,
  341. "lte": 2000,
  342. "boost": 1
  343. }
  344. }
  345. }
  346. }
  347. # 使用range对时间范围进行查询
  348. GET lagou/_search
  349. {
  350. "query": {
  351. "range": {
  352. "add_time": {
  353. "gte": "2019-01-01",
  354. "lte": "now"
  355. }
  356. }
  357. }
  358. }
  359. # bool查询
  360. # bool:{
  361. # "must":[],
  362. # "should":[],
  363. # "must_not":[],
  364. # "filter":[]
  365. #}
  366. # 建立测试数据
  367. POST lagou/testjob/_bulk
  368. { "index":{ "_id": 1}}
  369. { "salary": 1000, "title": "Python"}
  370. { "index":{ "_id": 2}}
  371. { "salary": 2000, "title": "Django"}
  372. { "index":{ "_id": 3}}
  373. { "salary": 3000, "title": "Flask"}
  374. { "index":{ "_id": 4}}
  375. { "salary": 4000, "title": "Scrapy"}
  376. # 从查询到的所有数据中筛选出salary为 2000的数据
  377. # 对应数据库查询语句为
  378. # select * from testjob where salary= 2000;
  379. GET lagou/testjob/_search
  380. {
  381. "query": {
  382. "bool": {
  383. "must": [
  384. { "match_all": {}}
  385. ],
  386. "filter": {
  387. "term": {
  388. "salary": "2000"
  389. }
  390. }
  391. }
  392. }
  393. }
  394. # 查看分析器解析的结果
  395. GET _analyze
  396. {
  397. "analyzer": "ik_max_word",
  398. "text": "Python Web开发工程师"
  399. }
  400. # 查看分析器解析的结果
  401. GET _analyze
  402. {
  403. "analyzer": "ik_smart",
  404. "text": "Python Web开发工程师"
  405. }
  406. # 组合过滤查询薪资等于 2000或者工作为Python的数据并且满足薪水不为 3000的数据
  407. # select * from testjob where (salary=2000 or title="Python") and (salary !=3000);
  408. GET lagou/testjob/_search
  409. {
  410. "query": {
  411. "bool": {
  412. "should": [
  413. { "term": {
  414. "salary": {
  415. "value": "2000"
  416. }
  417. }},
  418. { "term": {
  419. "title": {
  420. "value": "python"
  421. }
  422. }}
  423. ],
  424. "must_not": [
  425. { "term": {
  426. "salary": {
  427. "value": "3000"
  428. }
  429. }}
  430. ]
  431. }
  432. }
  433. }
  434. # 嵌套查询工作为python或者工作为django并且工资为 3000的数据
  435. # select * from testjob where title="python" or (title="django" and salary=3000)
  436. GET lagou/testjob/_search
  437. {
  438. "query": {
  439. "bool": {
  440. "should": [
  441. { "term": {
  442. "title": {
  443. "value": "python"
  444. }
  445. }},
  446. { "bool": {
  447. "must": [
  448. { "term": {
  449. "title": {
  450. "value": "django"
  451. }
  452. }},
  453. { "term": {
  454. "salary": {
  455. "value": "3000"
  456. }
  457. }}
  458. ]
  459. }}
  460. ]
  461. }
  462. }
  463. }
  464. # 过滤空和非空数据,首先创建测试数据
  465. POST lagou/testjob2/_bulk
  466. { "index":{ "_id": 1}}
  467. { "tags":[ "search"]}
  468. { "index":{ "_id": 2}}
  469. { "tags":[ "search", "python"]}
  470. { "index":{ "_id": 3}}
  471. { "other_field":[ "some data"]}
  472. { "index":{ "_id": 4}}
  473. { "tags":null}
  474. { "index":{ "_id": 5}}
  475. { "tags":[ "search", null]}
  476. # 查询tags字段不为null的数据
  477. # select tags from testjob2 where tags is not null;
  478. GET lagou/testjob2/_search
  479. {
  480. "query": {
  481. "bool": {
  482. "filter": {
  483. "exists": {
  484. "field": "tags"
  485. }
  486. }
  487. }
  488. }
  489. }

五丶使用scrapy爬取知名技术文章网站

1.创建爬虫项目虚拟环境

2.进入虚拟环境安装scrapy以及requests

3.创建scrapy项目

  • 在cmd终端中执行scrapy startproject ArticleSpider即创建scrapy 爬虫项目ArticleSpider

  • 在Pycharm中打开ArticleSpider项目

  • 创建jobbole爬虫文件

  • 即在项目spider目录下生成jobbole.py文件

4.运行scrapy项目测试是否能够运行成功

  • 在终端执行scrapy crawl jobbole命令,结果报错了

  • 对于windows系统而言报这个错是正常的,使用pip命令安装pypiwin32包即可

  • 安装成功后再次运行则启动scrapy成功

5.爬取伯乐在线网站的某篇文章

  • 在网站全部文章分类中爬取该篇文章

  • 博主这里使用xpath来匹配要爬取的文章的标题丶发布时间丶标签丶文章内容丶点赞数丶收藏数以及评论数

  • 因为Pycharm未提供scrapy模板,要想使用Debug进行断点测试,需要在项目根目录下创建main.py文件,文件代码如下,也就是执行爬虫的命令scrapy crawl jobbole

 
 
  1. from scrapy.cmdline import execute
  2. import sys
  3. import os
  4. sys.path.append(os.path.dirname(os.path.abspath( __file__)))
  5. execute([ "scrapy", "crawl", "jobbole"])
  • 在jobbole.py文件parse方法中使用xpath匹配获取标题丶发布时间丶标签丶文章内容丶点赞数丶收藏数以及评论数数据

 
 
  1. def parse(self, response):
  2. # 标题
  3. title = response.xpath( "//div[@class='entry-header']/h1/text()").extract()[ 0]
  4. # 发表时间
  5. create_date = response.xpath( "//p[@class='entry-meta-hide-on-mobile']/text()").extract()[ 0].strip().replace( " ·", "")
  6. # 点赞数
  7. praise_num = response.xpath( "//h10/text()").extract()[ 0]
  8. # 收藏数
  9. fav_nums = response.xpath( "//span[contains(@class, 'bookmark-btn')]/text()").extract()[ 0]
  10. # 使用re正则匹配获取收藏数
  11. match_re = re.match( ".*(\d+).*", fav_nums)
  12. if match_re:
  13. fav_nums = match_re.group( 1)
  14. # 评论数
  15. comment_nums = response.xpath( "//span[contains(@class, 'hide-on-480')]/text()").extract()[ 0]
  16. # 使用re正则匹配获取评论数
  17. match_re = re.match( ".*(\d+).*", comment_nums)
  18. if match_re:
  19. comment_nums = match_re.group( 1)
  20. # 文章内容
  21. content = response.xpath( "//div[@class='entry']").extract()[ 0]
  22. # 获取文章的tag标签
  23. tag_list = response.xpath( "//p[@class='entry-meta-hide-on-mobile']/a/text()").extract()
  24. # 使用列表生成式过滤评论标签
  25. tag_list = [element for element in tag_list if not element.strip().endswith( '评论')]
  26. tags = ','.join(tag_list)
  27. pass
  • 因为是爬取某一篇文章,所以在jobbole.py中的start_urls需要修改成要爬取的文章地址
start_urls = ['http://blog.jobbole.com/114690/']
 
 
  • Debug运行main.py文件,断点测试获取数据成功且正确

6.爬取伯乐在线网站中的所有文章

  • 在Terminal终端中通过scrapy shell 命令测试获取所有文章页面的数据,并使用xpath来获取页面中文章url地址,命令为scrapy shell http://blog.jobbole.com/all-posts/

  • 当获取到列表页中20篇文章的url后,当scrapy进行页面数据下载后,需要回调给parse_detail方法进行页面字段的提取操作,这是第一步,第二步就是获取列表下一页的页面数据在parse函数中只要next_url提取存在,则会将此页面数据交给parse函数进行处理依次类推重复循环直到news_url不存在

 
 
  1. class JobboleSpider(scrapy.Spider):
  2. name = 'jobbole'
  3. allowed_domains = [ 'blog.jobbole.com']
  4. start_urls = [ 'http://blog.jobbole.com/all-posts/']
  5. def parse(self, response):
  6. """
  7. 1.获取所有文章列表页中文章的url并交给解析函数对具体字段进行解析
  8. 2.获取列表页下一页的url地址并交给scrapy进行页面数据下载,下载完后交给parse函数进行字段获取
  9. :param response:
  10. :return:
  11. """
  12. # 1.获取列表页中所有文章url
  13. post_urls = response.xpath( "//div[@class='post floated-thumb']/div[@class='post-thumb']/a/@href").extract()
  14. for post_url in post_urls:
  15. # 为了防止有些文章链接不带域名前缀,所以需要对对链接地址进行域名凭借,需使用urllib提供的parse工具中的urljoin方法
  16. # 使用scrapy提供的Request类,将获取的文章内容通过callback回调函数交给parse_detail方法对页面内容字段进行获取
  17. yield Request(url=parse.urljoin(response.url, post_url), callback=self.parse_detail)
  18. # 2.获取列表页下一页的url地址并交给scrapy进行页面数据下载
  19. next_url = response.xpath( "//a[@class='next page-numbers']/@href").extract_first( "")
  20. if next_url:
  21. yield Request(url=parse.urljoin(response.url, next_url), callback=self.parse)
  22. def parse_detail(self, response):
  23. """获取文章详情页中的字段数据"""
  24. # 标题
  25. title = response.xpath( "//div[@class='entry-header']/h1/text()").extract()[ 0]
  26. # 发表时间
  27. create_date = response.xpath( "//p[@class='entry-meta-hide-on-mobile']/text()").extract()[ 0].strip().replace( " ·", "")
  28. # 点赞数
  29. praise_num = response.xpath( "//h10/text()").extract()[ 0]
  30. # 收藏数
  31. fav_nums = response.xpath( "//span[contains(@class, 'bookmark-btn')]/text()").extract()[ 0]
  32. # 使用re正则匹配获取收藏数
  33. match_re = re.match( ".*(\d+).*", fav_nums)
  34. if match_re:
  35. fav_nums = match_re.group( 1)
  36. # 评论数
  37. comment_nums = response.xpath( "//span[contains(@class, 'hide-on-480')]/text()").extract()[ 0]
  38. # 使用re正则匹配获取评论数
  39. match_re = re.match( ".*(\d+).*", comment_nums)
  40. if match_re:
  41. comment_nums = match_re.group( 1)
  42. # 文章内容
  43. content = response.xpath( "//div[@class='entry']").extract()[ 0]
  44. # 获取文章的tag标签
  45. tag_list = response.xpath( "//p[@class='entry-meta-hide-on-mobile']/a/text()").extract()
  46. # 使用列表生成式过滤评论标签
  47. tag_list = [element for element in tag_list if not element.strip().endswith( '评论')]
  48. tags = ','.join(tag_list)
  • Debug测试是否成功爬取文章指定字段数据

  • 在上图中红框提取的评论数显示的不是数字而是评论,访问该篇文章,发现该文章并没有评论

  • 回到代码中对评论数和收藏数正则匹配不成功时需要进行逻辑判断,不存在默认为0

 
 
  1. match_re = re.match( ".*(\d+).*", fav_nums)
  2. if match_re:
  3. fav_nums = int(match_re.group( 1))
  4. else:
  5. fav_nums = 0
  6. match_re = re.match( ".*(\d+).*", comment_nums)
  7. if match_re:
  8. comment_nums = int(match_re.group( 1))
  9. else:
  10. comment_nums = 0
  • 再次测试则显示评论数为0

7.将爬取的数据保存到本地项目中

分析:除了需要提取文章详情里面的字段内容外,在文章列表页中每篇文章的封面图的URL地址也是需要进行提取的

  • 因为文章的链接地址与封面图片地址都在a标签节点之下,所以需要修改之前的代码获取a节点列表,再通过遍历获取每一个a节点,在根据a节点来匹配获取文章地址以及封面图地址

  • 在parse_detail方法中获取response中meta字典属性中cover_image_url的值

  • 在items文件中定义数据模型

 
 
  1. class JobBoleArticleItem(scrapy.Item):
  2. title = scrapy.Field()
  3. create_date = scrapy.Field()
  4. url = scrapy.Field()
  5. url_object_id = scrapy.Field()
  6. cover_image_url = scrapy.Field()
  7. cover_image_path = scrapy.Field()
  8. praise_nums = scrapy.Field()
  9. comment_nums = scrapy.Field()
  10. fav_nums = scrapy.Field()
  11. tags = scrapy.Field()
  12. content = scrapy.Field()
  • 在jobbole文件parse_detail方法中将提取的数据保存到items对应字段中

 
 
  1. # 将提取到的字段数据传递给items中
  2. article = JobBoleArticleItem()
  3. article[ 'title'] = title
  4. article[ 'create_date'] = create_date
  5. article[ 'url'] = response.url
  6. article[ 'cover_image_url'] = cover_image_url
  7. article[ 'praise_nums'] = praise_nums
  8. article[ 'comment_nums'] = comment_nums
  9. article[ 'fav_nums'] = fav_nums
  10. article[ 'tags'] = tags
  11. article[ 'content'] = content
  12. yield article
  • 在settings中配置使用pipelines数据管道文件

 
 
  1. ITEM_PIPELINES = {
  2. 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  3. }
  • Debug测试在pipelines中获取item数据

  • 需要将封面图片下载到项目根目录下的images目录下,首先需要在根目录下新建images目录,用于存放下载的封面图;然后需要在settings中pipeline配置中添加scrapy提供的图片下载的管道类ImagesPipeline;紧接着需要settings中指定items中的cover_image_url字段为图片下载地址,最后一步就是settings中指定图片下载后保存的目录路径images

  • 直接run运行main.py文件启动scrapy爬虫项目,结果提示如下错误

  • 因为PIL属于pillow包下的模块,所以安装pillow即可

  • 重新run运行项目,结果又报错了,原因是使用scrapy的ImagesPipeline类,会将settings中配置的IMAGES_URLS_FIELD的值也就是封面图地址数据当作列表数据,但在代码中设置的article['cover_image_url']的值不是列表数据,所以就出现如下异常错误

  • 即在parse_detail函数中将提取的cover_image_url变量修改列表数据即可
article['cover_image_url'] =  [cover_image_url]
 
 
  • 重新启动项目,则成功下载文章封面图到images目录下

  • 在下载图片的时候也需要将图片保存的路径保存起来,需要继承scrapy提供的ImagesPipeline类,并重新父类的item_completed方法在方法中将遍历获取的图片路径保存到items中cover_image_path字段中,首先需要在pipelines文件中定义ArticleImagePipeline类完成逻辑

 
 
  1. class ArticleImagePipeline(ImagesPipeline):
  2. def item_completed(self, results, item, info):
  3. if "cover_image_url" in item:
  4. for ok, value in results:
  5. image_file_path = value[ "path"]
  6. item[ "cover_image_path"] = image_file_path
  7. return item
  • 紧接着在settings中修改管道文件配置为上面定义的管道类

 
 
  1. ITEM_PIPELINES = {
  2. 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  3. # 'scrapy.pipelines.images.ImagesPipeline': 1,
  4. 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  5. }
  • Debug断点测试在执行ArticlespiderPipeline管道类中时是否获取到cover_image_path图片存放路径,说明因为在以上settings中配置的继承scrapy的ImagesPipeline类的管道类ArticleImagePipeline的优先级为1,所以程序在执行管道文件时是先将image_file_path的值也就是图片路径保存到item实例对象的cover_image_path字段中的

  • 接下来在items字段中只差url_object_id的值了,这个值是将response.url也就是文章的地址通过hashlib库中的md5对象的update方法将文章url转换成唯一且长度一致的值,在项目目录下创建utils包并在该包下创建common.py文件,文件代码如下

 
 
  1. import hashlib
  2. def get_md5(url):
  3. if isinstance(url, str):
  4. url = url.encode( "utf-8")
  5. m = hashlib.md5()
  6. m.update(url)
  7. return m.hexdigest()
  8. if __name__ == "__main__":
  9. print (get_md5( "http://jobbole.com"))
  • 执行以上代码,则将http://jobbole.com转换成唯一标识符

  • 在parse_detail函数中设置url_object_id的值
article['url_object_id'] = get_md5(response.url)
 
 
  • Debug测试items中是否存在url_object_id的值

  • 将文章详情页中提取的字段数据保存到本地,需要在pipelines文件中定义管道类将item数据保存到本地文件中

 
 
  1. class JsonWithEncodingPipeline(object):
  2. #自定义json文件的导出
  3. def __init__(self):
  4. self.file = codecs.open( 'article.json', 'w', encoding= "utf-8")
  5. def process_item(self, item, spider):
  6. lines = json.dumps(dict(item), ensure_ascii= False) + "\n"
  7. self.file.write(lines)
  8. return item
  9. def spider_closed(self, spider):
  10. self.file.close()
  • 在settings中配置以上管道文件

 
 
  1. ITEM_PIPELINES = {
  2. 'ArticleSpider.pipelines.JsonWithEncodingPipeline': 2,
  3. # 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  4. # 'scrapy.pipelines.images.ImagesPipeline': 1,
  5. 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  6. }
  •  运行项目,在下项目根目录成功创建article.json文件,并将爬取到的字段数据写入到文件中

  • 还有一种方法就是使用scrapy提供的JsonItemExporter类实例对象的exporting方法将item数据写入到文件对象中

 
 
  1. class JsonExporterPipleline(object):
  2. #调用scrapy提供的json export导出json文件
  3. def __init__(self):
  4. self.file = open( 'articleexport.json', 'wb')
  5. self.exporter = JsonItemExporter(self.file, encoding= "utf-8", ensure_ascii= False)
  6. self.exporter.start_exporting()
  7. def close_spider(self, spider):
  8. self.exporter.finish_exporting()
  9. self.file.close()
  10. def process_item(self, item, spider):
  11. self.exporter.export_item(item)
  12. return item
  • 在settings配置文件中配置以上管道类

 
 
  1. ITEM_PIPELINES = {
  2. 'ArticleSpider.pipelines.JsonExporterPipleline': 2,
  3. # 'ArticleSpider.pipelines.JsonWithEncodingPipeline':2,
  4. # 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  5. # 'scrapy.pipelines.images.ImagesPipeline': 1,
  6. 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  7. }
  •  运行项目,在下项目根目录成功创建articleexport.json文件,并将爬取到的字段数据写入到文件中

8.将爬取的数据保存到数据库中

  • 在mysql数据库中创建数据库以及表

  • 需要在parse_detail方法中对create_date字段数据转换成date格式的数据

 
 
  1. try:
  2. create_date = datetime.datetime.strptime(create_date, "%Y/%m/%d").date()
  3. except Exception as e:
  4. create_date = datetime.datetime.now().date()
  • 安装mysqlclient驱动包

  • 在管道文件中编写存储数据到mysql的管道类

 
 
  1. class MysqlPipeline(object):
  2. #采用同步的机制写入mysql
  3. def __init__(self):
  4. self.conn = MySQLdb.connect( 'localhost', 'root', 'mysql', 'article_spider', charset= "utf8", use_unicode= True)
  5. self.cursor = self.conn.cursor()
  6. def process_item(self, item, spider):
  7. insert_sql = """insert into article(url_object_id, title, url, create_date, fav_nums)VALUES (%s, %s, %s, %s, %s)"""
  8. self.cursor.execute(insert_sql, (item[ "url_object_id"], item[ "title"], item[ "url"], item[ "create_date"], item[ "fav_nums"]))
  9. self.conn.commit()
  • 在settings中配置以上管道类,为了演示将数据保存到mysql数据库所以博主这里将图片管道文件注释掉了

 
 
  1. ITEM_PIPELINES = {
  2. 'ArticleSpider.pipelines.JsonExporterPipleline': 2,
  3. # 'ArticleSpider.pipelines.JsonWithEncodingPipeline':2,
  4. # 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  5. # 'scrapy.pipelines.images.ImagesPipeline': 1,
  6. # 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  7. 'ArticleSpider.pipelines.MysqlPipeline': 1,
  8. }
  • Debug断点测试是否将要保存到数据库的字段数据成功保存到数据库

  • 使用Navicat工具打开article表数据

  • 退出Debug模式直接run运行后,在Navicat工具中查看爬取的字段数据,由于文章太多所以只爬取一定时间的文字字段数据

  • 当爬取的数据量比较大时,可以使用异步方式将数据写入到数据库中,首先需要在pipelines文件中定义MysqlTwistedPipeline类,逻辑代码如下

 
 
  1. class MysqlTwistedPipeline(object):
  2. def __init__(self, dbpool):
  3. self.dbpool = dbpool
  4. @classmethod
  5. def from_settings(cls, settings):
  6. dbparms = dict(
  7. host = settings[ "MYSQL_HOST"],
  8. db = settings[ "MYSQL_DBNAME"],
  9. user = settings[ "MYSQL_USER"],
  10. passwd = settings[ "MYSQL_PASSWORD"],
  11. charset= 'utf8',
  12. cursorclass=MySQLdb.cursors.DictCursor,
  13. use_unicode= True,
  14. )
  15. dbpool = adbapi.ConnectionPool( "MySQLdb", **dbparms)
  16. return cls(dbpool)
  17. def process_item(self, item, spider):
  18. # 使用twisted将mysql插入变成异步执行
  19. query = self.dbpool.runInteraction(self.do_insert, item)
  20. query.addErrback(self.handle_error, item, spider) # 处理异常
  21. def handle_error(self, failure, item, spider):
  22. # 处理异步插入的异常
  23. print(failure)
  24. def do_insert(self, cursor, item):
  25. insert_sql = """insert into article(url_object_id, title, url, create_date, fav_nums)VALUES (%s, %s, %s, %s, %s)"""
  26. cursor.execute(insert_sql, (item[ "url_object_id"], item[ "title"], item[ "url"], item[ "create_date"], item[ "fav_nums"]))
  • 在settings配置文件中配置连接mysql数据库的配置项

 
 
  1. MYSQL_HOST = "localhost"
  2. MYSQL_DBNAME = "article_spider"
  3. MYSQL_USER = "root"
  4. MYSQL_PASSWORD = "mysql"
  • 在settings中配置定义异步写入数据库数据的管道类

 
 
  1. ITEM_PIPELINES = {
  2. # 'ArticleSpider.pipelines.JsonExporterPipleline':2,
  3. 'ArticleSpider.pipelines.JsonWithEncodingPipeline': 2,
  4. # 'ArticleSpider.pipelines.ArticlespiderPipeline': 300,
  5. # 'scrapy.pipelines.images.ImagesPipeline': 1,
  6. # 'ArticleSpider.pipelines.ArticleImagePipeline': 1,
  7. # 'ArticleSpider.pipelines.MysqlPipeline': 1,
  8. 'ArticleSpider.pipelines.MysqlTwistedPipeline': 1,
  9. }

六丶将scrapy爬取到的数据写入到elasticsearch中

重点:因为博主使用的Elasticsearch版本为5.1.1,所以在安装elasticsearch-dsl工具的版本应该在5.0.0,<6.0.0之间,最新的elasticsearch-dsl版本为7.0,该最新版本与前面版本做了一些修改所涉及的代码以及用法都不一样,参考github上的文档即可https://github.com/elastic/elasticsearch-dsl-py


 
 
  1. # Elasticsearch 7.x
  2. elasticsearch-dsl>= 7.0 .0,< 8.0 .0
  3. # Elasticsearch 6.x
  4. elasticsearch-dsl>= 6.0 .0,< 7.0 .0
  5. # Elasticsearch 5.x
  6. elasticsearch-dsl>= 5.0 .0,< 6.0 .0
  7. # Elasticsearch 2.x
  8. elasticsearch-dsl>= 2.0 .0,< 3.0 .0
  • 安装elasticsearch-dsl

  • 在项目models下创建es_types.py文件,在文件中创建索引mapping

 
 
  1. # -*- coding: utf-8 -*-
  2. __author__ = 'cdtaogang'
  3. __date__ = '2019/6/2 12:45'
  4. from elasticsearch_dsl import DocType, Date, Nested, Boolean, analyzer,Completion, Keyword, Text, Integer
  5. from elasticsearch_dsl.connections import connections
  6. connections.create_connection(hosts=[ "localhost"])
  7. class ArticleType(DocType):
  8. title = Text(analyzer= "ik_max_word")
  9. create_date = Date()
  10. url = Keyword()
  11. url_object_id = Keyword()
  12. cover_image_url = Keyword()
  13. cover_image_path = Keyword()
  14. praise_nums = Integer()
  15. comment_nums = Integer()
  16. fav_nums = Integer()
  17. tags = Text(analyzer= "ik_max_word")
  18. content = Text(analyzer= "ik_max_word")
  19. class Meta:
  20. index = "jobbole"
  21. doc_type = "article"
  22. if __name__ == '__main__':
  23. ArticleType.init()
  • 运行es_types.py文件

  • 回到elasticsearch-head可视化页面,成功生成jobbole索引

  • 在pipelines文件中定义管道类ElasticsearchPipeline将数据写入到es中

 
 
  1. class ElasticsearchPipeline(object):
  2. # 将数据写入到es中
  3. def process_item(self, item, spider):
  4. article = ArticleType()
  5. article.title = item[ 'title']
  6. article.create_date = item[ 'create_date']
  7. article.url = item[ 'url']
  8. article.meta.id = item[ 'url_object_id']
  9. article.cover_image_url = item[ 'cover_image_url']
  10. if "cover_image_path" in item:
  11. article.cover_image_path = item[ 'cover_image_path']
  12. article.praise_nums = item[ 'praise_nums']
  13. article.comment_nums = item[ 'comment_nums']
  14. article.fav_nums = item[ 'fav_nums']
  15. article.tags = item[ 'tags']
  16. article.content = remove_tags(item[ 'content'])
  17. article.save()
  18. return item
  • Debug断点测试没有任何报错

  • 在elasticsearch-head页面中查看jobbole索引的doc数据,成功将爬取的数据写入到es中

  • 在Kibana页面中对jobbole索引doc内容的tags标签进行匹配搜索,是否能够搜索出来此篇文章内容

  • 退出Debug,运行项目一段时间,爬取大量数据并写入到es中

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值