Python学习
文章平均质量分 66
划过天空
这个作者很懒,什么都没留下…
展开
-
爬虫练习一
# -*- coding:utf-8 -*-import urllib2,urllib,re,string,threadclass qqZone: def __init__(self,myurl): self.url=myurl self.infos=[] #通过正则,有选择的产生的数据 self.title=''原创 2015-11-17 22:37:00 · 317 阅读 · 0 评论 -
python链接爬虫案例
# -*-coding:utf8-*-import reimport urllib.requestimport osdef save(imageName,data): data=urllib.request.urlopen(data).read() name="E:/Scrapy_Project/jdImages/"+imageName file=op原创 2017-11-19 18:40:02 · 251 阅读 · 0 评论 -
python爬取url的某些情形
python网络获取url信息:1、通过add_header()添加报头:Request.add_header(header)---request.urlopen(req).read()import urllib.requesturl="http://www.aqpta.com/sign/examSign/sign_chkLogin.asp"#a. 创建Request对象;原创 2017-11-19 12:27:08 · 782 阅读 · 0 评论 -
Python基础知识总结
1.退出终端:ctrl+D;2.raw_input()与input()区别:前者输入字符串时,无需加入引号,后者需加入引号。3.path='rc:\a' path2=r'c:\\a'print path,path2原始字符串以r 开头,则不会转义\4.a=[1,2,3,4]获取3,4如下:a[2:] 、a[2:4]5.序列:列表 和元组;其中列表可修改,元组不原创 2016-02-19 20:23:22 · 289 阅读 · 0 评论 -
Python基础_继承类
import sys,refile=open("test_input.txt")for line in file.readlines(): print line print '\n'#1.2 在继承模式下,进行方法调用class person: def callback(self,prefix,tag,*args): method=g原创 2015-11-28 14:45:38 · 267 阅读 · 0 评论 -
Python基础_正则表达式学习一
各种符号的意思和多种表达式的解释与应用:一、各种符号理解二、多种表达式的解释三、多种表达式的应用原创 2015-11-28 11:23:19 · 230 阅读 · 0 评论 -
Python基础_即时标记及其相关的语法
Python基础教程中‘即时标记’案例的应用一、‘即时标记’的应用二、相关的属性及方法解释yield原创 2015-11-28 11:27:19 · 549 阅读 · 0 评论 -
Python基础_SAX解析文件
SAX与DOM解析xml是不同的,前者注重效率,减少内存压力,但是一次性解析部分数据,其是通过事件监听,来对xml文件进行解析;后者则可一次性解析全部数据,只是对内存有所要求。python中需导入xml.sax来对文件进行解析,通过parse(文件,handler)对其解析,handler可自定义,即parse.setContentHandler(myHandler)来设置处理器。一、xm原创 2015-11-28 18:29:06 · 668 阅读 · 0 评论 -
python基础_Scrapy爬虫基础学习一
一、scrapy爬虫的步骤: 1、scrapy startproject fww_spider来生成一个scrapy项目;2、建立Item,对应于需爬取的信息,类似对象的属性值;3、建立spider.py,其中包含name(如dmoz,是对外爬去的项目名称)、domain、urls(爬取的对象url);4、进行爬取,可利用管道进行。二、本人模仿其他人编写的代码如下原创 2015-11-24 21:52:14 · 346 阅读 · 0 评论 -
Python基础_scrapy安装心得
pythonpywinzopeinterfacepyopenssltwistedlxmleasytoolscrapy1、安装setupinstall:直接在该文件夹中python ez_setup.py;----得到easy_install easy_install的乐趣:(一般位于python的C:\Python27\Scripts路径下)原创 2015-11-19 22:56:10 · 286 阅读 · 0 评论 -
Fiddler使用总结
一、使用场景:传输数据过程中,截获、重发、编辑、转存数据的过程,即是抓包。Fiddler是一种抓包分析软件,通过对HTTP请求进行分析,来模拟对应的HTTP请求。Fiddler前:客户端---发送Request---服务器----响应Response---客户端;Fiddler后:客户端--发送Request--Fiddler--服务器--响应Response--Fiddler原创 2017-12-24 11:18:33 · 220 阅读 · 0 评论