【Python】
江前云后
若你喜欢彦祖,其实我很帅。
展开
-
string的操作
常用函数测试:#! -*- coding:utf-8 -*-import strings = 'Yes! This is a string'print '原字符串:' + sprint '小写:' + s.lower()print '大写:' + s.upper()print '大小写转换:' + s.swapcase()print '首字母大写:' + s.capitalize原创 2015-04-02 15:44:11 · 1171 阅读 · 0 评论 -
系统学习python语法
之前参考网络博客和其他教程,写了一个简单的python小爬虫,在继续往下进行之前觉得有必要系统地学习一下python基础课程,并在此一并做笔记记录,同时方便后来人。目前参考的网站有:简明Python教程,作为基本参考使用Python Introduction,google的课程,作为每学一段的复习、检测,并用官方习题练手Python 基础教程,参考过stackove原创 2015-04-06 21:00:08 · 522 阅读 · 0 评论 -
[PyQt]第一个测试程序
网上有python的系统中配置PyQt的过程网上很多,不赘述。以下64位Windows下装的32位的python和32位的pyqt4(当初装的是32位python,因此pyqt就装了32位)有任何关于类的疑问请参考:[类介绍](http://pyqt.sourceforge.net/Docs/PyQt4/classes.html)值得一提的是,第一次安装完成后,直接用最简单程序测试,提示找不到原创 2015-05-10 10:33:23 · 2653 阅读 · 0 评论 -
python模拟登录http请求中的Accept-Language
Accept-Language: Zh-CN, zh;q=0.8, en-gb;q=0.8, en;q=0.7原创 2015-04-18 11:23:20 · 1317 阅读 · 0 评论 -
百度图片爬虫
功能说明:依次输入关键字,开始页码,结束页码(每页6张图)其中,由于设定了timeout和其他错误检测,所以每页不一定6张都能爬下来。有需求的拿去爬图用吧,仅供交流参考。不要乱爬,以免百度专门封堵,想用的都用不了了。以后如果有时间再用pyqt做成界面吧。代码如下:#!/usr/bin/env python#! -*- coding: utf-8 -*-import urll原创 2015-08-20 17:42:55 · 3827 阅读 · 1 评论 -
图床爬虫
贴一个知乎的回答不贴代码的都是耍流氓!===========================这是很久以前写的第一个爬虫,为了爬一个新发现的图床网站(没错,服务器在美国,上面有你想要的东西,自己去发掘吧)不过网速很一般,还经常掉线,需要有耐心。不知道会不会被和谐,为了满足大家好奇心放出来吧http://ihostimg.com/几个月之前写的了,刚刚试了下,还可以跑,看来原创 2015-08-20 17:52:12 · 2646 阅读 · 1 评论 -
MySQL-python安装小问题
果然在windows上安装东西还是直接暴力地用exe最方便用pip install MySQL-python安装报错, Failed building wheel for MySQL-pythonSO上也是推荐直接用exe,所以还是赏它个痛快得了。MySQL-python.exe链接在此原创 2015-12-12 10:37:48 · 3034 阅读 · 1 评论 -
Scrapy安装和测试小问题
安装指南如果想通过pip安装,Windows需要先安装pip,然后在命令行中:pip install Scrapy一般来讲会直接安装成功,但是安装过程中还是遇到了一些小bug:1、Failed building wheel for lxml(或twisted),尝试用pip安装lxml时出现,结果提示如上,提示没有安装libxml12和libxslt,那就先手动去安装l原创 2015-12-10 16:08:38 · 3027 阅读 · 2 评论 -
Python下MySQL数据库操作
Python 简单的MySQL数据库操作参考链接1、首先需要下载安装MySQL-python模块2、数据库的操作流程 Python的DB-API,为大多数的数据库实现了接口,使用它连接各数据库后,就可以用相同的方式操作各数据库。Python DB-API使用流程: 引入 API 模块获取与数据库的连接执行SQL语句和存储过程关闭数据库连接测试代码:# -*- encoding: utf-原创 2015-12-16 17:14:05 · 698 阅读 · 1 评论 -
【爬虫】码了个毕业照爬虫
怪不得都说压力山大,连山大服务器压力都太大了。并且编辑直接把图片挂到一个页面上是什么意思= =,一张照片8M+,反正外网速度台有限了。索性写个爬虫让他慢慢下吧,顺便当学习练手了。。。(PS:不知道为什么在windows下面在页面中用迅雷下载全部链接也无效,不知道什么原因?)一共192组图片,前20组由于网页上顺序有问题,后期爬虫写完后又懒得改正则匹配了,所以就这样吧_(:з」∠)_原创 2015-07-08 16:59:27 · 1218 阅读 · 0 评论 -
sublime编辑器实用插件
均通过package control安装1、goto document,安装后可以直接在php函数上点击后按F1跳转到官网帮助文档2、SVN,可以在安装SVN的电脑上直接使用alt+c来commit文件原创 2015-03-26 22:49:30 · 762 阅读 · 0 评论 -
[Python]cannot import name IntEnum
如果已经安装了enum包还报错,则需要再安装下面的包sudo pip install enum34原创 2017-08-30 17:24:50 · 5239 阅读 · 0 评论 -
Python3 错误UnicodeEncodeError: 'ascii' codec can't encode characters in ordinal
问题之前在使用Python2的时候,经常会遇到编码相关的错误,异常头疼。主要是因为Python2字符串设计上有一些固有的缺陷:使用 ASCII 码作为默认编码方式,对中文处理很不友好。把字符串的牵强地分为 unicode 和 str 两种类型,误导开发者与Python2不同,Python3默认使用utf-8编码方式,并且Python3的字符主要由两种:str/byte。因此正常情况...原创 2019-03-20 09:41:34 · 11625 阅读 · 1 评论 -
[python]糗百热点爬虫v2.0【15/4/21更新】
刚刚测试了糗百爬虫,结果第二天糗百的源代码就换格式了= = 重新改了正则表达式发上来:#! -*- coding:utf-8 -*-#! usr/bin/python'''#=====================================================# FileName: Spider_qb.py# Describe: 从糗百下载段子并依次播放#原创 2015-04-21 23:24:02 · 799 阅读 · 0 评论 -
[python][爬虫]暴漫gif下载
说明:和上一个下载百度贴吧图片差不多,修改了正则,加入了页码控制#!/usr/bin/env python#! -*- coding: utf-8 -*-#图片地址样例:src="http://ww2.sinaimg.cn/large/005Yan1vjw1erf95qkbfog307e08uu0y.gif" style="width:460px"import urllib,urllib2i原创 2015-04-26 12:14:56 · 1845 阅读 · 0 评论 -
python输出不换行(同一行输出不同类型数据)
不同类型的数据输出在同一行,在行尾加","即可:#! -*- coding:utf-8 -*- #加这一行可以在文件中使用中文print 'This is a string + int',print '12 + 13 =',print 12+13#另一种方式,在命令行中输出时不换行,还会替换掉原来的一行for i in xrange(1,1000): print 'Downloa原创 2015-04-02 15:54:49 · 9050 阅读 · 0 评论 -
Python中input和raw_input在命令行中读入文件地址的区别
如果直接在命令行中利用input和raw_input读入一个文件来处理,并且想要采用直接将文件拖入命令行来处理的方式,input方法可以直接处理,而如果要采用raw_input的方法的话,读入文件地址会带有引号,还需要自己手动去掉引号才能处理文件。在ipython中测试一下代码:(读入一个图片文件的地址字符串) a = input("input a:\n")print "th原创 2015-02-04 16:45:25 · 3135 阅读 · 0 评论 -
python模拟登录http请求中的Accept-Language
Accept-Language: Zh-CN, zh;q=0.8, en-gb;q=0.8, en;q=0.7其中,最佳语言为中文-中国(默认权重为1),其次为中文,权重为0.8,再次为英国英语,权重为0.8,最后为通用英语,权重0.7原创 2015-04-18 11:28:10 · 3402 阅读 · 0 评论 -
[python]格式化输出
下面代码就能够完全说明问题了name = 'name'age = 22print("I'm %s. I'm %d year old" % (name, age))原创 2015-04-23 12:10:32 · 747 阅读 · 0 评论 -
[python]urllib与urllib2的常用函数
可以把urllib2当作urllib的扩增,比较明显的优势是urllib2.urlopen可以接受Request对象作为参数,从而可以控制HTTP Request的headers,进而实现模拟浏览器、模拟登录等操作。 做HTTP Request时应当尽量使用urllib2库,但是urllib.urlretrieve函数以及urllib.quote等一系列quote和unquote功能没有被加入ur原创 2015-04-23 11:22:31 · 1957 阅读 · 0 评论 -
[python][爬虫]暴漫gif下载
说明:和上一个下载百度贴吧图片差不多,修改了正则,加入了页码控制; 此外也加入了输出格式控制,如果想加入手动设定存储路径功能,可以参考之前的百度贴吧爬虫#!/usr/bin/env python#! -*- coding: utf-8 -*-#图片地址样例:src="http://ww2.sinaimg.cn/large/005Yan1vjw1erf95qkbfog307e08uu0y.gif原创 2015-04-23 12:09:07 · 1171 阅读 · 0 评论 -
[python][爬虫]从网页中下载图片
说明:仅为测试下载图片、正则表达式 测试url为钢铁侠贴吧的一个介绍mark各代盔甲帖子 以下代码将第一页的图片全部下载到本程序根目录#!/usr/bin/env python#! -*- coding: utf-8 -*-import urllib,urllib2import re#返回网页源代码def getHtml(url): html = urllib2.urlopen原创 2015-04-23 11:33:46 · 1557 阅读 · 0 评论 -
Python正则表达式(增加详细示例code)
正则表达式在Python爬虫中的作用就像是老师点名时用的花名册一样,是必不可少的神兵利器。以下内容转自CNBLOG一、 正则表达式基础 1.1.概念介绍 正则表达式是用于处理字符串的强大工具,它并不是Python的一部分。 其他编程语言中也有正则表达式的概念,区别只在于不同的编程语言实现支持的语法数量不同。 它拥有自己独特的语法以及一个独立的处理引擎,在提供了正则表达式的语言里,正则表达式的转载 2015-04-13 16:48:54 · 3249 阅读 · 1 评论 -
[python]包含中文的list输出时乱码
先看代码:item = [['2015',u'中国'],['2013','nian份']]print itemprint item[0][1]输出结果: 在此处有相关讨论 解决办法: python2中,list若包含中文,整体输出时是以十六进制输出的; 链接中的讨论提供的方法试过,没成功。看来python2中只能以for来单独输出了。 当然了python3应该是解决了此类问题的。原创 2015-04-19 15:17:57 · 5878 阅读 · 0 评论 -
百度贴吧爬虫【练手】
参考这个博客,看前面几章没什么感觉,还是到了这一章,参考实际的例子,自己动手写个东西出来的时候,需要自己查string、open等用法,边查边记边写理解的透彻。整体是照葫芦画瓢,为了练手用,也加了一些指定下载目录,默认下载目录等函数,可以直接运行#! -*- coding:utf-8 -*-#! usr/bin/python# 爬贴吧测试程序import string,urllib2原创 2015-04-06 10:59:36 · 1199 阅读 · 0 评论 -
[python]糗百热点爬虫
有小部分的修改,并加入详细注释#! -*- coding:utf-8 -*-#! usr/bin/python'''#=====================================================# FileName: Spider_qb.py# Describe: 从糗百下载段子并依次播放# Modifier: sunny# Sinc原创 2015-04-20 16:14:45 · 861 阅读 · 0 评论 -
[python爬虫]使用urllib函数urlretrieve报错[socket error][Errno 10054]
为了练手,使用爬虫爬一个“你懂得”图床的,使用的是urlretrieve函数,不但速度慢,还总是会报错,不是open的timeout就是上面提到的socket error。在网上找了许多办法诸如在urllib2.Request.urlopen().read()后需要调用close()关闭等方法并未奏效。 由于不想麻烦scrapy等库,所以发现了个简单粗暴的办法: 直接使用urllib自带的ope原创 2015-04-26 12:34:12 · 8910 阅读 · 2 评论 -
Python使用os.path.join只保留最后一个变量的原因
在使用Python的os.path.join('a_path','bbb','/ccc')来合并路径时,合并的结果如果只保留了最后的’/ccc’,是因为最后的一个变量名包含了斜杠,函数会将其识别成绝对路径,因此就会忽略前面所以的其他路径。...原创 2019-06-07 05:56:48 · 689 阅读 · 0 评论