- 博客(6)
- 资源 (3)
- 收藏
- 关注
原创 使用Apriori算法进行关联分析--代码学习
#-*- coding: utf-8 -*-def loadDataSet(): return [[1,3,4],[2,3,5],[1,2,3,5],[2,5]]#构建集合C1,C1是大小为1的所有候选项集的集合def createC1(dataSet): C1 = [] #创建一个空列表,用来存储所有不重复的项值 #遍历数据集中的所有交易记录,transactio
2015-12-27 20:45:07 1270
原创 Python对象——Pickle腌制
在Python中如果我们有一些对象需要持久性存储,并且不丢失我们这个对象的类型与数据,我们则需要将这些对象进行序列化,序列化之后,需要使用的时候,我们再恢复为原来的数据。序列化的这种过程,我们称其为pickle (腌制)。恢复的过程称为反的pickle将对象进行pickle有两种形式,一种是将对象序列化,另一种是将对象存储在文件中来序列化在python中有pickle这个模块,我们只需导入
2015-12-21 17:52:19 2655
原创 Python 常量与变量
Python中在程序运行时不会被更改的量称之为常量,比如数字7和字符串“abc"在运行时一直都是数字7和字符串”abc“,不会更改成其他的量,这些都是常量,除此之外,还可以定义任意的字符串为指定值的常量。常量有一个特点,就是:一旦绑定,不能更改。比如,我们定义标识符”cd“为常量,然后把数字5这个值赋给”cd“这个常量,一旦赋给cd这个常量后,cd这个常量的就一直是5,不能被改变。
2015-12-21 16:36:30 9668
转载 理解dropout
理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini
2015-12-16 10:49:56 1409
转载 正则化方法:L1和L2 regularization、数据集扩增、dropout
正则化方法:L1和L2 regularization、数据集扩增、dropout标签:机器学习 正则化 过拟合 本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtra
2015-12-16 10:11:55 747
转载 Deep Learning 读书笔记(一)
Deep Learning 读书笔记(一):ImageNet Classification with Deep Convolutional Neural Networks本文来自:http://blog.csdn.net/tuqinag/article/details/40077333 这篇文章的内容是描述作者在ImageNet LS
2015-12-16 09:25:41 2149 1
利用VS2010发布程序安装包讲解及遇到的问题解决
2016-03-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人