- 博客(6)
- 资源 (1)
- 问答 (1)
- 收藏
- 关注
原创 SQL笔记
随便写点SQL笔记。 1,DATE类型,是 年 月 日,TIME,是 时 分 秒,如果存放两者的结合体,则使用TIMESTAMP,表示这些,小白,刚刚开始接触数据库,记录一下以前疏忽的知识。 2,写如数据库事,设置了一个字段,用来描述新闻事件,存放新闻内容,设置为text类型,添加数据的时候,发现并不能正确显示,而是一堆问号,搜索了一下,原来是没有在下面字符集的时候设置文字类型,点开设计表,把它
2017-08-23 19:29:00 166
原创 map()函数
map(a,b)-第一个参数是函数名,第二个参数是可迭代对象 for example:from itertools import permutations list1 = 'abc' list2 = [] print(sorted(list(set(map(''.join,permutations(list1)))))) 输出结果['abc', 'acb', 'bac', 'bca', 'cab'
2017-08-22 20:00:03 2802
转载 map函数学习
函数定义:map(function, iterable, ...)Apply function to every item of iterable and return a list of the results. If additional iterable arguments are passed, function must take that many arguments and is ap
2017-08-03 19:46:29 1438 1
原创 处理淘宝双11数据,使用pandas库快速切分海量csv文件
我们都知道,pandas库可以快速的处理海量数据,对于这样的大数据一般的文本编辑器,都会卡到爆,然而pandas轻松解决import pandas as pdchunks = pd.read_csv(r'C:\Users\zss0330816\Desktop\user_log.csv',iterator = True)#nrows 指定读取文件的行数 chunk = chunks.get_chunk
2017-08-02 16:01:59 1382
原创 爬虫编码问题
在获取网页时会遇到各种各样的编码问题,我们有不同的编码方式,但是在使用BeautifulSoup时,他有自动检测编码的功能,但是这样遍历一遍,知道编码也是一个很慢的过程。而且依然有可能出错。因此我们可以在实例化BeautifulSoup时,加上编码规则,这样就可避免错误。 首先我们先查看爬虫的页面的编码方式,使用下列代码即可获得url = 'http://www.baidu.com' >>> re
2017-08-01 20:56:35 420
原创 爬虫遇到的问题
我在爬取网页过程遇到的问题: 对象可以归纳为4种: Tag , NavigableString , BeautifulSoup , Comment . tag.name获取的是标签名,比如<p>duie </p>返回的是psoup = bs('<div id="sinaTail" style="position: absolute;">jdiejdie</div>','lxml') >>> b
2017-08-01 19:17:05 1371
网易笔试编程题题:魔力手环问题
2017-03-25
TA创建的收藏夹 TA关注的收藏夹
TA关注的人