Python学习
TRS_07170
既是程序猿也是二次猿
展开
-
Python MergeSort
MergeSortdef merge(numbers, i, j, k): merged_size = k - i + 1 # Size of merged partition merged_numbers = [0] * merged_size # Dynamically allocates temporary array # for merged numbers原创 2021-04-27 16:27:38 · 164 阅读 · 0 评论 -
Python模板 Quicksort
Quicksortdef partition(numbers, start_index, end_index): # Select the middle value as the pivot. midpoint = start_index + (end_index - start_index) // 2 pivot = numbers[midpoint] # "low" and "high" start at the ends of the list segme原创 2021-04-25 12:54:54 · 169 阅读 · 0 评论 -
Python模板 Heaps
Heapsclass MaxHeap: def __init__(self): self.heap_array = [] def percolate_up(self, node_index): while node_index > 0: # compute the parent node's index parent_index = (node_index - 1) // 2原创 2021-04-25 12:33:38 · 220 阅读 · 1 评论 -
Python模板 AVL Tree
AVL Treeclass Node: # Constructor with a key parameter creates the Node object. def __init__(self, key): self.key = key self.parent = None self.left = None self.right = None self.height = 0 #原创 2021-04-25 12:30:59 · 142 阅读 · 0 评论 -
Python模板 Binary Search Tree
Binary Search Treeclass Node: # Constructor assigns the given key, with left and right # children assigned with None. def __init__(self, key): self.key = key self.left = None self.right = Noneclass BinarySearchTree原创 2021-04-25 12:27:07 · 205 阅读 · 0 评论 -
小小学习成果:Python爬虫爬取国务院最新政策
当作是这三周实习学到的一点小成果吧。还有很多不会的,要继续加油!写了一个初级爬虫,简单了解了一下,结合一下学到的整理数据的方法。任务就是爬取国务院的最新政策:代码:import requestsimport refrom bs4 import BeautifulSoupfrom pandas import DataFrameurl = 'http://www.gov.cn/zhengce/zuixin.htm'UA = 'Mozilla/5.0 (Windows NT 10.0原创 2021-01-29 14:36:14 · 6275 阅读 · 10 评论 -
焱飞科技实习日志 Day9&10
成为打工人的第九、第十天这两天就没有再往前学,而是停下来复习、夯实一下之前numpy和pandas库的内容。实在是太多了。。。不过今天离开的时候和leader交流了一下,leader说不用刻意去复习,因为你总是不可能把所有的东西都装进脑子里。而是当你需要用到它的时候再去细致的学习,现在脑子里就只需要有个大概的印象。这和我大学计算机老师说的一模一样:程序员具有的一项重要技能就是活用搜索引擎233333。所以这周剩下的三天就要开始有点小作业练手了。明天是去试着自己搞搞爬虫(好兴奋,毕竟久仰爬虫的大名了,马上原创 2021-01-26 22:00:05 · 233 阅读 · 4 评论 -
《利用python进行数据分析》第4章学习笔记(2)
第4章 NumPy基础:数组和矢量计算(Part1)NumPy的ndarray:一种多维数组对象基本的索引和切片一维数组一维数组的索引和切片方式跟Python列表的差不多:#codedata = np.arange(10)print(data[4:7])#output[4 5 6]比较有趣的是数组的赋值操作。当你将一个标量值赋值给一个切片时(如data[4 : 7] = 10),该值会自动传播到整个选区,这也是后面板块会讲到的广播:#codedata = n.原创 2021-01-25 16:24:24 · 384 阅读 · 0 评论 -
《利用python进行数据分析》第4章学习笔记(1)
第4章 NumPy基础:数组和矢量计算NumPy的ndarray:一种多维数组对象NumPy最重要的一个特点就是其N维数组对象(即ndarray)。该对象是一个快速而灵活的大数据容器集。你可以利用这种数组对整块数据执行一些数学运算,其语法跟标量元素之间的运算一样:In [4]: dataOut[4]: array([[1, 3, 4], [6, 2, 5]])In [5]: data + 10Out[5]: array([[11, 13, 14], .原创 2021-01-25 11:05:42 · 746 阅读 · 0 评论 -
焱飞科技实习日志 Day7&8
成为打工人的第七、第八天这周实际上只打了三天工。。。因为之后都陪家人出去旅游了。但由于各种各样的原因,每天都忘记了写日志,所以就这周回家了囤到一起写。这两天发现学的东西太多了,有点吸收不过来。索性停下来,总结前面学的所有东西。目前总结了文件输入输出那个板块,numpy和pandas还没有总结完。只能说自己再梳理一遍,真的会清晰很多。下一周结束,打工生活就告一段落了,因为学校2月1日就开学了。又回归到zoom university了23333。大概就是这样了,希望下周可以能够有任务给我小练一下手吧原创 2021-01-23 12:25:51 · 206 阅读 · 2 评论 -
《利用python进行数据分析》第6章学习笔记(2)
第6章 数据加载、存储与文件格式(Part2)to_csv方法利用DataFrame中的to_csv方法,我们可以将数据写到一个以逗号分隔的文件中。,something,a,b,c,d,message0,one,1,2,3.0,4,1,two,5,6,,8,world2,three,9,10,11.0,12,foo我们读入如上csv文件:file = 'ex5.csv'data = pd.read_csv(file, index_col = 0)将储存数据的Dat..原创 2021-01-19 17:14:35 · 572 阅读 · 1 评论 -
《利用python进行数据分析》第6章学习笔记(1)
第6章 数据加载、存储与文件格式(Part1)目录第6章 数据加载、存储与文件格式csv文件读入pandas中的解析函数:read_csv读入DataFrameread_table读入DataFrameread_csv函数参数header参数names参数index_col参数异形文件处理skiprows参数缺失值处理na_values参数read_csv和read_table常用参数汇总逐块读取文本nrows参数chunksize参数原创 2021-01-19 11:58:44 · 443 阅读 · 0 评论 -
焱飞科技实习日志 Day6
成为打工人的第六天本来以为学完了pandas和numpy就已经差不多可以上手了,但好像这本书连一半都还没有讲到。还有好多东西要学啊。感觉python和c++完全不同的地方在于python的工具太多样化了,甚至出现了很多功能重复的工具,让我眼花缭乱。我手上这本书由于不是最新版,很多函数都因为版本的更替被弃用了,导致我经常很懵逼在3.8这个版本要拿什么函数代替书上的函数。好在有大佬把这本书所有的版本更替导致的错误都整理了出来,我不得不orz。这里把大佬文章的链接贴出来:《利用python进行数据分析》常见问原创 2021-01-18 22:47:08 · 259 阅读 · 0 评论 -
焱飞科技实习日志 Day5
成为打工人的第五天好家伙,成为打工人的第一双休让我快乐昏了头,直接忘记写总结了23333。周六来补上。这周还是按照我的最初计划在进行,成功一周的时间学完了基础的numpy和pandas两个重要的库。但貌似这两个库并不足以支撑我和同事们一起做项目,还有很多很多东西要学,例如不同类型的文件的读取方式等等。书的后面还有很多的实际应用,还要借这些例子熟悉numpy和pandas的运用。看来是任重而道远啊。值得一提的是,昨天和他们一起参加了每月两次(月中和月末)的技术分享会,会上大家一起分享觉得值得学习的原创 2021-01-16 13:19:33 · 251 阅读 · 3 评论 -
焱飞科技实习日志 Day4
成为打工人的第四天今天是摸鱼的一天。。。。pandas学得我脑壳痛,边摸鱼边学,进度比较缓慢。恰好今儿KPL冬冠在打比赛,所以就。。。今儿感觉稍微改变了一下学习策略,不求学的有多快,就把学到的每个函数,每个方法都弄明白,多搜点博客和例子来练练手,反而心里踏实一些。所以今天的学习内容就还是pandas,书的P137 - P156。这短短的十来页,让我来回翻书翻了无数次,可见之前的内容掌握还是不牢靠。学完这两个库之后,还需要多找点实际的例子来综合练习一下。今天比较开心的事情是,我发现程序员小哥哥小姐原创 2021-01-14 21:08:28 · 289 阅读 · 0 评论 -
焱飞科技实习日志 Day3
成为打工人的第三天第三天学下来,只能说pandas远远超过了我的预期。我太低估它了。。。本来觉得numpy里面的操作已经够多了,结果pandas里面更是让人应接不暇。不过还好昨天定任务的时候比较保守(23333),算是完成了昨天的计划。pandas这一章一共四十七页,今天一个下午看了十六页,还算不错。看这本书给我的感觉就像我学英文在抱着字典读。一个操作跟着一个操作,全靠自己慢慢消化。今天下午最后一个小时实在是顶不住了,脑子的运存已经满了,就选择了休(mo)息(yu)。今天的学习内容为:结束了对n原创 2021-01-13 20:12:29 · 177 阅读 · 0 评论 -
焱飞科技实习日志 Day1
成为打工人的第一天从今天起就在成都焱飞科技开始实习生活了。当然,由于本人刚大一,确实没什么真才实学,就只能去涨涨姿势,也感谢贵公司肯收留我。好在大家都很友好,我也算是渐渐融入进新环境了(虽然作为究极混子还是缩在角落不敢说话,最开始连问题都不敢问23333。第一天确实没干什么事儿,我的leader也明白我离真正帮得上忙还有一些距离,就先找给我了一本Python的基础教材(虽然我已经学完大部分基础了,但一开始我是真的不敢说话啊)。就这样闷着头学到了下午,也算是夯实了一下基础,还是学到了很多Python里原创 2021-01-11 20:50:56 · 216 阅读 · 0 评论 -
焱飞科技实习日志 Day2
成为打工人的第二天第二天的学习,还是出了点儿差错。。。昨天没仔细跟leader商量,今儿去学了一早上leader告诉我只用看numpy和pandas那两章就好了。。。巧了我刚好把前面的看完。其实今儿的工作量也是超乎了预期(应该说是低估了这本书里与我无关的内容的量)。所以总结下来,今儿的学习内容主要分为:通过一、二章了解了数据分析主要是干嘛的; 通过第三章了解IPython(虽然这对我暂时没什么帮助,但有助于我加深对Python的整体理解); 第四章还没看完,看到了P116,主要讲解numpy原创 2021-01-12 21:54:08 · 188 阅读 · 0 评论