- 博客(11)
- 资源 (2)
- 收藏
- 关注
原创 (PAT 04-树4)二叉搜索树(BST)的建立以及判断是否为同一颗BST
题目地址:https://pta.patest.cn/pta/test/3512/exam/4/question/7345304-树4 是否同一棵二叉搜索树 (25分)给定一个插入序列就可以唯一确定一棵二叉搜索树。然而,一棵给定的二叉搜索树却可以由多种不同的插入序列得到。例如分别按照序列{2, 1, 3}和{2, 3, 1}插入初始为空的二叉搜索树,都得到一样的结果。于是对
2017-03-29 15:13:35 428
原创 py2.7《机器学习实战》使用Apriori算法进行关联分析
一、关联分析关联分析的主要样例就是:啤酒->尿布。一、(1)频繁项集:经常出现在一起的物品的集合(2)关联规则:两种物品之间有很强的联系二、(1)支持度:数据集中包含该项集的记录的所占比例,书中给出了:{豆奶}=4/5 ,所以豆奶的支持度为4/5; {豆奶,尿布} = 3/5 , 所以后者为3/5;(2)可信度/置信度 : 是针对关联规则的一种操作,书中: {尿布}->
2017-03-27 23:45:10 684
原创 py2.7《机器学习实战》利用SVD简化数据
一、SVD的应用1.LSI,LSA2.推荐系统SVD的本质就是分解矩阵,将分解后的矩阵有效部分提取再结合为新矩阵二、Python实现SVD#-*- coding:utf-8 -*-def loadData(): return [[1,1,1,0,0], [2,2,2,0,0], [1,1,1,0,0],
2017-03-25 20:49:42 900
原创 py2.7《机器学习实战》利用PCA来简化数据
最近看了PCA降维,很多地方还是不理解,还是线代学的太差了,但是书上总结的还是挺精简的一、在Numpy中实现PCA1、伪代码:(1)去除平均值(2)计算协方差矩阵(3)计算协方差矩阵的特征值和特征向量(利用Numpy中的linalg方法)(4)将特征值从大到小排序(5)保留最上面的N个特征向量(6)将数据转换到上述N个特征构建的新空间中
2017-03-24 17:57:00 759
原创 py2.7《机器学习实战》利用k-means聚类算法对未标数据分组
一、支持函数from numpy import *def loadDataSet(fileName): dataMat = [] fr = open(fileName) for line in fr.readlines(): curLine = line.strip().split('\t') fltLine = map(float,c
2017-03-16 18:48:38 781
原创 Python NetworkX库实现复杂网络
1.具有社团结构的网络(Networks with Community Structure)定义: 对于一个图G而言,如果其中有一个完全子图(任意两个节点之间均存在边),节点数是k,那么这个完全子图就可称为一个k-clique。进而,如果两个k-clique之间存在k-1个共同的节点,那么就称这两个clique是“相邻”的。彼此相邻的这样一串clique构成最大集合,就可以称为一个社区,且社区
2017-03-13 18:33:00 8893
原创 py2.7 : 《机器学习实战》树回归 3.8号 CART算法用于回归
9.3将CART算法用于回归在python中可以直接以字典这个数据结构来实现树的生成而且CART是给定切分特征值,用来划分特征集是归于左边还是右边def binSplitDataSet(dataSet, feature, value):#数据集合,待切分特征和特征的值 mat0 = dataSet[nonzero(dataSet[:,feature] > value)[0],:
2017-03-08 14:28:14 467
原创 [剑指offer]从尾到头打印链表
题目描述输入一个链表,从尾到头打印链表每个节点的值。算法分析很简单的数据结构题,考虑到从头遍历,而且又从尾打印,如此和栈相似。直接模拟栈就好,这里使用的是递归模拟;唯一坑的地方就是牛客网是拿类写的,不是很适应,CE了一万次。最终多加了一个vector用push_back把节点信息压进去return后过了Code/*** str
2017-03-06 17:13:59 366
原创 [剑指Offer]二维数组查找
题目描述在一个二维数组中,每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数。题解:思路相当清晰的一道水题,唯一坑的地方就是忘了vector怎么用了。已知了矩阵的构造是从小到大的,所以最右边一列都是对于当前列最大的数,从最右上角搜索,如果遇到和查找数一样的,返回T
2017-03-05 15:44:14 484
原创 最小二乘法的证明以及最优化系数的求解 Least squares
定理:最小二乘法就是通过最小化误差的平方和寻找数据的最佳函数匹配,使得最后预测和真实值之差的平方的最小值最小一、矩阵求导∇Af(A) 代表的意思是:对于一个A矩阵(M x N), ij系数满足 ∂f/∂Aij ,即对矩阵里的元素求导For example : A为一个2 x 2矩阵即有函数f(X)则根据上面对矩阵求导法则二、矩
2017-03-02 14:15:54 11317 2
原创 py2.7 : 《机器学习实战》3.1号:预测数值型数据:回归
一、线性回归# -*- coding: utf-8 -*-from numpy import *def loadData(fileName): numFeat = len(open(fileName).readline().split('\t')) - 1 #通过这样的划分得到特征数 #print "numFeat = " , numFeat dataMat = [
2017-03-01 16:41:07 573
V-Net:Fully Convolutional Neural Networks
2017-05-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人