python(version 3.5)
california94
这个作者很懒,什么都没留下…
展开
-
python3 unicode bytes decode encode之间联系
首先 decode表示解码 encode表示编码 在python3 文本(包括str 汉字等)都是unicode 而文本在传输过程中或者存储过程中会以bytes的格式 两者转化关系 文本(unicode) -------decode(编码)------->>>> 字节(byt原创 2017-02-28 16:32:06 · 570 阅读 · 0 评论 -
python下使用VTK展示自定义的数据
使用python 调用vtk展示自己定义的数据模型,并进行颜色映射。import vtkx=[[0,0,0],[4,0,0],[4,4,0],[0,4,0],[1,1,1],[3,1,1],[3,3,1],[1,3,1]]y=[[0,1,2,3],[4,5,6,7],[0,1,5,4],[1,2,6,5],[2,3,7,6],[3,0,4,7]]#把点添加到数据结构中points...原创 2018-11-25 16:56:18 · 4799 阅读 · 8 评论 -
爬取智联招聘信息并存储
#-*- coding: utf-8 -*-import urllib.requestimport os,timefrom bs4 import BeautifulSoup#爬取智联招聘网站的招聘种类,然后再爬取某个种类的招聘信息,并将招聘信息以种类名称命名存储。hds=[{'User-Agent': 'Mozilla/5.0 (Windows; U;Windows NT 6.1; e...原创 2018-04-13 10:07:39 · 489 阅读 · 0 评论 -
Python标准库——collections模块的Counter类
转自Pythoner本文原链接地址:Python标准库——collections模块的Counter类1.collections模块collections模块自Python 2.4版本开始被引入,包含了dict、set、list、tuple以外的一些特殊的容器类型,分别是:OrderedDict类:排序字典,是字典的子类。引入自2.7。nam转载 2017-03-24 10:54:57 · 580 阅读 · 0 评论 -
scrapy 学习2
接着上篇文章,自定义了一个spider,scrapy 的schedules(调度器) 调用了自定义的spider的start_requests 方法,该方法会返回一个response类 。后面定义的parse()方法是继承的父类方法,所以他是一个自动调用的回掉函数。不需要手动调用。 今天内容: 1、你可以在shell里直接调用scrapy来访问url sc原创 2017-03-14 18:03:15 · 516 阅读 · 0 评论 -
scrapy 学习1
今天开始学习记录一下scrapy,看的是scrapy 1.3.3的文档。里面说不支持windows上的python3,但是目前没感觉到哪里不支持,这里记录下一些简单的操作吧。文档上说推荐在virtualenv(虚拟环境下)安装python,大家可以试试。 1、创建scrapy项目 scrapy startproject tutorial 生成后的项目列表 我们很多工作原创 2017-03-13 18:05:45 · 456 阅读 · 0 评论 -
安装gensim 结果NotFoundError: no lapack/blas resources found
这是因为gensim依赖的scipy安装失败, 你可以先把scipy安装上再用pip install gensim就可以了安装scipy方法Python Extension Packages for Windows 在这里下载 numpy+mkl找到适合你的版本安装上,然后下载scipy适合的版本安装上。如果scipy安装成功,那gensim就可以顺利安装了。原创 2017-03-22 10:27:16 · 828 阅读 · 0 评论 -
python 上个小爬虫的改进
上一篇写的是个爬取古诗词网上的古诗,并写到文件里,今天做了一下改进。 1、之前写的是网页上显示的折叠诗,就是诗的内容是折叠的,内容短的话可能是诗的全部,如果长的话只是一部分了,所以这里做出改进,让它爬取链接处的内容,因为如果你点击连接后会显示诗的全部内容。 体会:首先你要自己分析好页面在进行爬取。2、 改进了容错性,可能点击链接会失效,这里失效后就爬去下一条内容而非报错终止。以下为原创 2017-03-07 11:16:52 · 483 阅读 · 0 评论 -
python 特别简单的一个小爬虫(看着玩吧 )
环境:python3.5 bs4 lxml这是需要安装的 使用urllib模块来访问页面 bs4解析页面,存到*.txt文件中#-*- coding:utf-8 -*-import urllib.requestimport time,osimport numpy as npfrom bs4 import BeautifulSouphds=[{'User-Age原创 2017-03-02 11:25:26 · 1125 阅读 · 0 评论 -
numpy方法一览表
http://gohom.win/2015/09/15/numpy-use/转载 2019-03-20 09:20:42 · 183 阅读 · 0 评论