机器学习&深度学习
哈喽林先森
这个作者很懒,什么都没留下…
展开
-
torch 矩阵合并
for i in range(1210): if 1210%(i+1)==0: print(i+1)import numpy as npa = np.array([[1, 1, 2], [9, 4, 5], [5, 7, 8]])b = np.array([[3, 2, 4], [6, 8, 6], [3, 5, 16]])#水平组合c = np.hstack((a, b))c1 = np.concaten.原创 2020-07-18 10:08:29 · 1746 阅读 · 0 评论 -
机器学习随笔之KNN分类
其实想想手写那么多字,偶内心是比较拒绝的。不过今天随笔写一点,刚好手边书翻到了KNN分类,那就写一个哈~~不过还是期待我的机器学习&深度学习十部曲把!!!!!是不是应该加一句颤抖吧!地球人!!!看这个就明白的哈~~http://blog.csdn.net/sunshine_java_l/article/details/77905865OK~现在的主题KNN分类,不知道你们对于这个是怎么考虑,不知道你原创 2017-09-09 11:04:55 · 355 阅读 · 0 评论 -
BPNN
BP神经网络原创 2017-12-21 21:18:24 · 2107 阅读 · 0 评论 -
遗传算法
import numpy as npimport matplotlib.pyplot as pltN_CITIES = 20CROSS_RATE = 0.1MUTATE_RATE = 0.02POP_SIZE = 500N_GENERATOR = 500 class GA(object): def __init__(self, DNA_size, cross_rate,原创 2018-01-21 13:49:05 · 322 阅读 · 0 评论 -
python a与a[:]区别
a[:] 是深复制 ,在python的赋值中,是通过对象的地址引用进行的赋值,a[:]修改的是堆中的内容,意思是指针还指向这里而a是浅复制,修改a就新开辟了一个地址空间understand??????????原创 2018-01-21 22:56:26 · 17157 阅读 · 0 评论 -
梯度下降
梯度下降是通过求得F(x)的偏导数得到的最大下降方向,同时声明导数的含义导数就是函数f(x)在x轴上某一点处沿着x轴正方向的变化率/变化趋势这个就是梯度方向,而梯度下降就是根据梯度方向来跟新向量,记得向量中的每个值都有自己对应的梯度方向原创 2018-01-23 16:34:01 · 232 阅读 · 0 评论 -
python 循环数据赋值
python在数值赋值的时候可以采用数值内循环赋值,很方便如下a = [x for x in range(10)]这样a = [0,1,2,3,4,5,6,7,8,9]这里循环得到的是x,x是每次循环的值,这里就是0123456789如果需要用到x如下d = [np.random.rand(10,x) for x in range(10)]print(d)d 第一次循环产生10个20行1列的二原创 2018-01-19 11:43:16 · 21142 阅读 · 0 评论