- 博客(20)
- 资源 (11)
- 收藏
- 关注
转载 Python多线程学习
http://www.cnblogs.com/tqsummer/archive/2011/01/25/1944771.html 一、Python中的线程使用: Python中使用线程有两种方式:函数或者用类来包装线程对象。1、 函数式:调用thread模块中的start_new_thread()函数来产生新线程。如下例: view plaincopy to
2014-02-26 15:43:24 462
转载 scripy爬取页面并按目录结构存放页面
http://www.w3c.com.cn/scripy%E7%88%AC%E5%8F%96%E9%A1%B5%E9%9D%A2%E5%B9%B6%E6%8C%89%E7%9B%AE%E5%BD%95%E7%BB%93%E6%9E%84%E5%AD%98%E6%94%BE%E9%A1%B5%E9%9D%A20.00 / 5 51 / 52 / 5
2014-02-26 15:39:01 2171
转载 python enumerate 用法
http://www.pythonclub.org/python-basic/built-inpython enumerate 用法 | 在for循环中得到计数参数为可遍历的变量,如 字符串,列表等; 返回值为enumerate类:import strings = string.ascii_lowercasee = enumerate(s)print spr
2014-02-26 14:30:56 621
转载 enumerate用法
http://www.cnblogs.com/vivilisa/archive/2009/03/19/1417083.html今日发现一个新函数 enumerate 。一般情况下对一个列表或数组既要遍历索引又要遍历元素时,会这样写:for i in range (0,len(list)): print i ,list[i] 但是这
2014-02-26 14:21:10 1823
转载 Python中如何获得访问网页所返回的cookie
http://www.crifan.com/get_cookie_from_web_response_in_python/用Python脚本模拟登陆百度空间。需要先获得最开始登陆的百度空间网页所返回的cookie。【解决过程】1.搜了一番,最后参考这个:利用Python抓取需要登录网站的信息实现了对应的代码:?
2014-02-26 14:20:03 9946
转载 python --enumerate用法
http://blog.csdn.net/suofiya2008/article/details/5603861python cookbook Recipe 2.5. Counting Lines in a File , 今日发现一个新函数 enumerate 。一般情况下对一个列表或数组既要遍历索引又要遍历元素时,会这样写:for i in range
2014-02-26 14:19:34 546
原创 python 时间规范化
from datetime import datetimeprint datetime.strptime('February 24, 2014 23:35:00','%B %d, %Y %H:%M:%S')
2014-02-26 11:30:10 1844
转载 Python日期操作
http://www.cnblogs.com/rollenholt/archive/2012/04/10/2441542.html1. 日期输出格式化所有日期、时间的api都在datetime模块内。1. datetime => stringnow = datetime.datetime.now()now.strftime('%Y-%m-%d %H:%M:%S
2014-02-25 14:32:57 584
转载 python 日期加減
http://blog.csdn.net/liukeforever/article/details/6621677python 中日期類型是datetime.date 可以相加減的類型是datetime.timedeltatimedelta = date1 - date2date1 = date2 + timedeltadatetime.tim
2014-02-25 14:32:07 583
转载 python 获取当前时间
http://www.cnblogs.com/wanpython/archive/2010/08/07/1794598.html我有的时候写程序要用到当前时间,我就想用python去取当前的时间,虽然不是很难,但是老是忘记,用一次丢一次,为了能够更好的记住,我今天特意写下python 当前时间这篇文章,如果你觉的对你有用的话,可以收藏下。取得时间相关的信息的话,要用到pyt
2014-02-25 14:31:03 587
转载 Python中dict详解
http://blog.csdn.net/tianmohust/article/details/7621424#字典的添加、删除、修改操作dict = {"a" : "apple", "b" : "banana", "g" : "grape", "o" : "orange"}dict["w"] = "watermelon"del(dict["a"])dict["g"] =
2014-02-24 13:48:06 614
转载 python变量作用域
在python中,变量查找遵循LGB原则,即优先在局部作用域(local scope)中对变量进行查找,失败则在全局作用域(global scope)中进行查找,最后尝试再内建作用域(build-in scope)内查找,如果还是未找到的话,则抛出异常。后来由于闭包和嵌套函数的出现,作用域又增加了外部作用域,这样变量的查找作用域优先级变为:局部、外部、全局和内建。 作用域由def、class、la
2014-02-21 11:43:03 620
转载 python操作MySQL数据库
http://www.cnblogs.com/rollenholt/archive/2012/05/29/2524327.html坚持每天学一点,每天积累一点点,作为自己每天的业余收获,这个文章是我在吃饭的期间写的,利用自己零散的时间学了一下python操作MYSQL,所以整理一下。我采用的是MySQLdb操作的MYSQL数据库。先来一个简单的例子吧:?
2014-02-19 11:22:27 514
转载 python下的MySQLdb使用
http://drizzlewalk.blog.51cto.com/2203401/448874/下载安装MySQLdblinux版本http://sourceforge.net/projects/mysql-python/ 下载,在安装是要先安装setuptools,然后在下载文件目录下,修改mysite.cfg,指定本地mysql的mysql-config文件的路径wind
2014-02-19 11:21:42 503
转载 [Python]MySQLdb for Python使用指南/Python的数据库操作
http://www.cnblogs.com/czh-liyu/archive/2008/04/13/1151758.html网站就是要和数据库进行交互,否则什么都不用做了...今天我们来看一个叫MySQLdb的库,这个用来和MySQL数据库进行交互.可以从这里获得这个库http://sourceforge.net/projects/mysql-python如果你不确定你的py
2014-02-19 11:20:26 497
转载 distribute_crawler
https://github.com/gnemoug/distribute_crawlerdistribute_crawler使用scrapy,redis, mongodb,graphite实现的一个分布式网络爬虫,底层存储mongodb集群,分布式使用redis实现, 爬虫状态显示使用graphite实现。这个工程是我对垂直搜索引擎中分布式网络爬虫的探索实现,它包
2014-02-14 11:32:25 1365
转载 scrapy在采集网页时使用随机user-agent的方法
http://www.sharejs.com/codes/python/8310默认情况下scrapy采集时只能使用一种user-agent,这样容易被网站屏蔽,下面的代码可以从预先定义的user-agent的列表中随机选择一个来采集不同的页面在settings.py中添加以下代码DOWNLOADER_MIDDLEWARES = {
2014-02-13 17:16:41 11198
转载 Scrapy入门教程
http://www.cnblogs.com/txw1958/archive/2012/07/16/scrapy-tutorial.html关键字:scrapy 入门教程 爬虫 Spider作者:http://www.cnblogs.com/txw1958/出处:http://www.cnblogs.com/txw1958/archive/2012/07/16/scrapy-t
2014-02-13 14:30:14 560
转载 Scrapy CSRF cookies not accepted and results in a 302 Redirect
http://stackoverflow.com/questions/19057746/scrapy-csrf-cookies-not-accepted-and-results-in-a-302-redirectfrom scrapy.http import FormRequestfrom scrapy.spider import BaseSpiderclass LoginSpid
2014-02-13 14:26:36 1013
转载 scrapy 使用代理
http://blog.csdn.net/mldxs/article/details/8701440# Importing base64 library because we'll need it ONLY#in case if the proxy we are going to use requires authenticationimport base64# Start you
2014-02-13 14:25:56 922
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人