leetecode -- 数组问题(一)

26.删除数组中的重复项 给定一个排序数组,你需要在原地删除重复出现的元素,使得每个元素只出现一次,返回移除后数组的新长度。 不要使用额外的数组空间,你必须在原地修改输入数组并在使用 O(1) 额外空间的条件下完成。 class Solution(object): def remo...

2019-05-27 16:19:20

阅读数 11

评论数 0

Datawhale 第7期 《李宏毅机器学习》任务四

学习打卡内容: 从基础概率推导贝叶斯公式,朴素贝叶斯公式(1) 学习先验概率(2) 学习后验概率(3) 学习LR和linear regreeesion之间的区别(4) 推导sigmoid function公式(5) Q1: 用回归模型是否可以做分类? 最好不要。 如果有一个二分类问题并且已经得...

2019-05-25 21:01:38

阅读数 10

评论数 0

Datawhale第7期-《李宏毅机器学习》作业(二)

文章目录理解偏差和方差误差为什么是由偏差和方差组成,推导相关公式误差、偏差与方差的实际意义过拟合、欠拟合分别对应bias和variance什么情况利用bias和variance分析模型拟合状态redesign 模型交叉验证N-fold 交叉验证梯度下降1.调整学习率AdagradAdagrad进一...

2019-05-17 20:58:31

阅读数 15

评论数 0

hive学习之路(一)

hive的数据类型 整型 数据范围:TINYINT(Y)<SMALLINT(S)<INT(-)<BIGINT(L) 字符串 VARCHAR(1-65355)和CHAR(255) 使用单引号(’’)或双引号(“”)来指定;遵循C-类型的转义字符 ...

2019-05-17 16:12:51

阅读数 21

评论数 0

Datawhale第7期-《李宏毅机器学习》作业(一)

任务: 1.了解什么是Machine learning 2.学习中心极限定理,学习正态分布,学习最大似然估计 3.推导回归Loss function 4.学习损失函数与凸函数之间的关系 5.了解全局最优和局部最优 6.学习导数,泰勒展开 7.推导梯度下降公式 8.写出梯度下降的代码 9.学习L2-...

2019-05-13 21:23:30

阅读数 48

评论数 0

机器学习/推荐系统/NLP/学习链接整合

最近发现一个宝藏级博客,将大佬的学习笔记做一个整合,之后慢慢学习~~~ 文章目录数据处理机器学习SVMEM算法隐马尔科夫LDA条件随机场集成/强化学习深度学习NLPtensorflowsparkpysparkhiveLinux命令行数据结构leetecode刷题剑指offer算法面试总结pytho...

2019-05-01 14:21:21

阅读数 55

评论数 0

吴恩达序列模型课程笔记(Week2)

上一周的课程主要讲解了一些经典的序列模型,例如RNN,GRU,LSTM等,这周的内容将包括NLP的一些概念讲解以及word embedding的内容,将NLP运用在序列模型中。 词汇表述 例如有一个词汇列表:V=[a,arron,…,zulu,],假设当前词汇列表长度为10000,可用1-hot ...

2019-04-28 19:20:50

阅读数 26

评论数 0

matplotlib学习 - scatter

scatter scatter(x, y, s=20, c=None, marker=‘o’, cmap=None, norm=None, vmin=None, vmax=None, alpha=None, linewidths=None, verts=None, edgecolors=None...

2019-04-26 15:01:50

阅读数 15

评论数 0

torch.nn.functioanl及torch.nn(未完待续。。。)

文章目录torch.nn.functional包的内置函数Convolution 函数Pooling函数非线性激活函数Normalization函数线性函数Dropout函数距离函数损失函数vision functionstorch.nn包的内置函数loss function torch.nn.f...

2019-04-26 15:00:53

阅读数 21

评论数 0

招商Fintech学习笔记 - 深度学习 - tensorflow 实现卷积层

TensorFlow 卷积层 TensorFlow 提供了 tf.nn.conv2d() 和 tf.nn.bias_add() 函数来创建你自己的卷积层。 # Output depth k_output = 64 # Image Properties image_width = 10 image...

2019-04-26 15:00:06

阅读数 17

评论数 0

Numpy 学习 -- argwhere函数,random函数

argwhere np.argwhere(expression) 返回满足表达式的元素下标

2019-04-26 14:59:09

阅读数 190

评论数 0

pandas常用函数清单

以下内容转载自https://www.jianshu.com/p/6eb5499cd07d 文件读取 df = pd.read_csv(path='file.csv') 参数:header=None 用默认列名,0,1,2,3... names=['A', 'B', 'C'...] 自...

2019-04-23 21:17:55

阅读数 44

评论数 0

吴恩达序列模型课程笔记(Week1)

下面开始学习吴恩达深度学习之序列模型系列课程。学习资源 examples of sequence data 序列模型常用于处理监督学习问题,输入x和输出y均为序列,但对应长度可以相等也可以不相等。 定义标识 以Named-entity recognition(常用于搜索引擎中) 为例,即从一个序...

2019-04-23 16:51:24

阅读数 33

评论数 0

吴恩达卷积神经网络笔记(Week2)

上周课程讲述了CNN的在多维上的实现过程,以及重要的卷积层(convolution、pooling、stride等,笔记链接)。这周课程将通过一些经典的网络层来学习如何设置这些超参数。 outlineClassic networks:ResNetInceptionpractical advice ...

2019-04-22 10:50:58

阅读数 62

评论数 0

吴恩达卷积神经网络笔记(Week1)

卷积神经网络笔记(Week1) 1.卷积层 1.1卷积核的计算方式 左侧是一个66矩阵,每次选择一个33的矩阵(假设是x11x12x13x21x22x23x31x32x33\begin{matrix} x_{11}&x_{12}&x_{13}\\x_...

2019-04-20 21:34:38

阅读数 70

评论数 0

pytorch函数 - ge,cat,randn

文章目录torch.mmtorch.logtorch.randn torch.mm torch.log torch.randn

2019-04-17 21:58:09

阅读数 145

评论数 0

pandas学习 - get-dummies,drop,join函数

get-dummies 将分类变量转换为哑变量/指示变量 pd.get_dummies(data, prefix=None, prefix_sep=’_’, dummy_na=False, columns=None, sparse=False, drop_first=False) data为d...

2019-04-17 21:49:54

阅读数 53

评论数 0

Jupyter Notebook使用

Magic 关键字 Magic 关键字是可以在单元格中运行的特殊命令,能让你控制 notebook 本身或执行系统调用(例如更改目录)。例如,在 notebook 中可以使用 %matplotlib 将 matplotlib 设置为以交互方式工作。 Magic 命令的前面带有一个或两个百分号(% ...

2019-04-17 11:26:21

阅读数 24

评论数 0

python学习--lambda函数、format函数

文章目录lambda 函数 lambda 函数 lambda表达式,通常是在需要一个函数,但是又不想费神去命名一个函数的场合下使用,也就是指匿名函数。 基本使用方式: add = lambda x, y : x+y add(1,2) # 结果为3 通常遇到使用匿名函数的情况: 排序 li...

2019-04-17 09:16:18

阅读数 49

评论数 0

pytorch 入门 - L1,L2正则,Dropout

文章目录Dropoutdropout 简介dropout具体工作流程dropout 数学表达dropout如何解决过拟合dropout 使用场景Dropout的numpy实现PyTorch中实现dropout参考资料 Dropout dropout 主要用于解决训练过程中模型出现过拟合的问题。在模...

2019-04-17 09:14:29

阅读数 56

评论数 0

提示
确定要删除当前文章?
取消 删除