关闭
当前搜索:

Leetcode 70. Climbing Stairs

题意解析说一个人爬楼梯,共有n阶。每一步可以爬1阶,或者2阶。求爬这个楼梯共有多少种不同的爬法。Accepted Solution有人研究了出了结论,说这个问题的解就是斐波那契数列,没错,这是结论,我们不会推结果怎么来的,只是解决问题那么就很简单了:最简单的递归案例。 本例中阶梯数n与结果的关系:0 1 2 3 4 5 … 1 1 2 3 5 8...
阅读(245) 评论(0)

LeetCode 463. Island Perimeter

题意解析这道题需要看图。说有如下的小岛,小岛就是小岛,四周全都是水,中间没有湖泊之类的。这种布局可以用二维数组来表达,1代表陆地,0代表水。求小岛的周长。 Accepted Solution怎么统计每块陆地贡献的边数呢?如图,黄色的边是有效的,黑色的边是无效的。确立这样的准则:对于每块陆地,最多贡献4条边;检查他的邻居,如果是陆地扣除一条边。然后统计所有陆地的贡献的边数之和,即为答案。class...
阅读(228) 评论(0)

LeetCode 83. Remove Duplicates from Sorted List

题意解析链表操作题,对已经排好序的链表,如果有值重复的节点,则删除重复节点。 举例: 1->1->2 得到1->2 1->1->1->2 得到1->2Accepted Solution/** * Definition for singly-linked list. * struct ListNode { * int val; * ListNode *next; *...
阅读(221) 评论(0)

LeetCode 437. Path Sum III

题意解析在给定的二叉树中找到这样的路径,所有元素的和等于给定整数。 路径不一定从根节点出发,到叶节点结束。而只要它满足是从上至下的。 找出所有路径的数量。Accepted Solution/** * Definition for a binary tree node. * struct TreeNode { * int val; * TreeNode *left; *...
阅读(219) 评论(0)

二叉树按层打印

首先一下算法是以宽度优先算法(BFS)为基础,宽度优先搜索是基于队列实现的。通过设立两个节点变量last(当前打印层的最右节点),nlast(下一打印层的最右节点)来控制换行。算法流程:初始化:last=root (root 是根节点)循环遍历: 出队打印 左右子孩子入队,并赋值nlast 判断:若出队元素与last相等,则换行,并last=nlast 循环终止条件:队列为空C++代码void...
阅读(192) 评论(0)

一个案例看机器学习建模基本过程

machine learning for credit scoringBanks play a crucial role in market economies. They decide who can get finance and on what terms and can make or break investment decisions. For markets and society t...
阅读(852) 评论(0)

中国有嘻哈:网易云、虾米音乐歌词爬虫项目分享

《中国有嘻哈》这款综艺带火了中国的嘻哈音乐,大家问好也都变成了:你有freestyle吗? 相信大家都是因为这篇高大上的微信推送文章来的。 没看到也不要紧,传送带在这里–>爱票子也爱妹子:300万字歌词分析看中国rapper到底在唱什么。 真心觉得寒小阳老师的数据分析技术很厉害~还有小编的文笔也很赞~ 我主要负责了数据采集的部分。通俗点就是编写一个爬虫,把大量歌曲歌词爬下来。 点击右侧链...
阅读(1768) 评论(6)

用spark统计50年美国最常见的20个名字

使用Spark统计从1950到2000年,美国有相同姓名的人出生数目,然后输出头20个最频繁出现的名字from pyspark import SparkContext sc = SparkContext('local', 'pyspark')import os cwd = os.getcwd() cwd'/home/ds/notebooks/CuiZhenlong/qqq' rdd=sc.paral...
阅读(815) 评论(0)

Spark RDD 练习题(python)

from pyspark import SparkContext sc = SparkContext('local', 'pyspark')牛顿法求平方根我们知道牛顿法求 n√\sqrt{n} (达到eps准确度)的算法是这样的:** * 给定一个初始值 x=1.0x = 1.0. * 求xx和n/xn / x的平均(x+n/x)/2(x + n/x)/2 * 根据(x+n/x)/2(x +...
阅读(607) 评论(0)

Python+Hadoop Streaming实现MapReduce任务

Hadoop Streaming Hadoop streaming是Hadoop的一个工具, 它帮助用户创建和运行一类特殊的map/reduce作业。 这些特殊的map/reduce作业是由一些可执行文件或脚本文件充当mapper或者reducer。例如,我们可以用Python来编写脚本:mapper.py和reducer.py。 $HADOOP_HOME/bin/hadoop jar...
阅读(837) 评论(0)

Python可视化seaborn练习题

seaborn —— 课后练✋%matplotlib inline import numpy as np import pandas as pd from scipy import stats, integrate import matplotlib as mpl from matplotlib import pyplot as plt import seaborn as sns## 练习1:鸢...
阅读(761) 评论(0)

Python matplotlib 练习题

matplotlib —— 课后练✋%matplotlib inline import matplotlib as mpl from matplotlib import pyplot as plt import seaborn as sns import numpy as np import pandas as pd 练习1:航班乘客变化分析 分析年度乘客总量变化情况(折线图) 分析乘客在一年中各月...
阅读(1169) 评论(0)

数据分析:pandas分析链家网二手房信息

分析链家网南京市二手房信息链家网二手房数据的采集方法参见之前的博客:数据采集(四):用XPath爬取链家网房价数据总共获取30000条数据记录。import pandas as pd import numpy as np import matplotlib.pyplot as plt house=pd.read_csv('house.csv',sep=' ') house.head()...
阅读(1642) 评论(0)

数据采集(七):爬取豆瓣电影评论(scrapy+模拟登陆)

目标爬取豆瓣电影上至少10部电影的短评数据。本例中爬取开始的链接是豆瓣电影排行榜,可以看到刚好有10部。点击每个电影的标题会切入电影简介页。这个页面仅包含电影的部分评论。通过访问“全部**条”超链,可进入评论页。我们从该页面获取电影的片名、评论用户、评分、评论内容数据。另外为了获得全部的评论数据,需要注意翻页,我们会在程序中处理这种情况。建立scrapy项目通过命令行scrapy startproj...
阅读(1001) 评论(0)

数据采集(六):scrapy爬取搜狗微信新闻+selenium模拟鼠标点击

scrapy是一个流行的爬虫框架,为什么要用它呢?前面我们已经通过xpath或beautifulsoup实现了爬虫,scrapy又有什么不同?我在理解了这个框架之后,感觉它很灵活,很强大。 使用beautifulsoup库我们可以很方便的实现单个爬虫,最后的结果写进了一个字典。但是当考虑一个项目中有多个爬虫,或者需要将最后的结果保存进json、csv文件,mysql数据库、mogodb数据库,或者...
阅读(1202) 评论(0)
75条 共5页1 2 3 4 5 ... 下一页 尾页
    个人资料
    • 访问:111882次
    • 积分:1839
    • 等级:
    • 排名:千里之外
    • 原创:73篇
    • 转载:0篇
    • 译文:2篇
    • 评论:84条
    About Me
    博客专栏
    最新评论