![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
看上去很美、
这个作者很懒,什么都没留下…
展开
-
pythonday2
#coding=utf-8''' 不同数据类型之间的转换: type( num1 ) : 实现元素类型的获取. int( num1 ) : 将元素转换为int 类型. str(A) : A转为字符串. bool(A):转为布尔. long(A):转长整型,10进制 float(A) : 转浮点型.'''#num1 = "10"#p...原创 2019-01-11 14:04:26 · 108 阅读 · 0 评论 -
python中如何爬取动态页面内容
下面以爬取智联招聘为例讲解下获取动态数据的一般步骤。首先打开谷歌浏览器输入地址智联招聘地址https://www.zhaopin.com/数据页面,Fn+F12查看网页源代码,然后选择Network——>XHR,可以看到,现在里面什么都没有2.2然后点击谷歌浏览器的刷新按钮或者按F5刷新页面,可以看到,有一条数据出现了,这个链接就是获取数据的页面API,选择Response,可以看到,...原创 2019-01-18 17:25:02 · 8955 阅读 · 4 评论 -
爬取静态页面内容加分页内容
实验网站http://books.toscrape.com/爬取# -*- coding: utf-8 -*-import scrapyclass Book(scrapy.Spider): name = 'book' #爬虫标识名称 # allowed_domains = ['example.com'] start_urls = ['http://boo...原创 2019-01-19 10:49:10 · 747 阅读 · 0 评论 -
pythonday3函数
1、无参函数# coding=utf-8#1无参函数def study(): print "学习"study() #调用函数study#定义有参函数def study1(x,y): print "学习课程为多少天",x,"时间为",ystu = study1(1,10) #调用带参函数print stu...原创 2019-01-14 16:17:11 · 105 阅读 · 0 评论 -
python中爬取到数据以item封装数据存储到mysql
例子:要求1.安装mysql数据库.2.安装pip install pymysql.3.在爬虫项目中: 自定义item,封装爬取结果.4.在爬虫项目中: 自定义itemPipelines管道. 处理爬虫结果,并存储至mysql中.需求: 51job/智联招聘.带分页的爬取和数据的存储....原创 2019-01-20 12:43:40 · 688 阅读 · 0 评论 -
pythonday4
#coding=utf-8#函数定义其它形式:def play( p1 , p2 = 20 ): print '正在玩耍 ~~~' , p1 , '----' , p2 pass#调用:#play( p1 = 10 ) #异常处理: try: except: finally:try: #模拟除法运算报错. #result = 10/0 #print '结果为:',r...原创 2019-01-15 13:15:19 · 141 阅读 · 0 评论 -
scrapy入门
scrapy框架: 实现爬虫.下载: pip install scrapypip install argparse学习: 从官网.第一个scrapy框架项目创建开发: scrapy startproject project1 cd project1 scrapy genspider example example.com 备注: 默认创建了一个项目project...原创 2019-01-17 09:09:07 · 179 阅读 · 0 评论