![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
分类算法
BigSnakeLin
这个作者很懒,什么都没留下…
展开
-
机器学习的小石子--knn最优算法总结
#机器学习之K近邻算法# ##欧氏距离## 欧式距离(Euclidean Distance)计算公式:两个n维向量a(x11,x12,…,x1n)a(x11,x12,…,x1n)与b(x21,x22,…,x2n)b(x21,x22,…,x2n)间的欧氏距离: 注:除欧氏距离外,还有其他距离,如夹角余弦,汉明距离,曼哈顿距离,闵可夫斯基距离等 ##Python代码实现## # -*- codin...原创 2019-04-23 16:37:40 · 133 阅读 · 0 评论 -
手写数字识别--tensorflow
#练习手写数字识别 tensorflow框架 #加载数据集 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('MNIST_data/',one_hot=True) W0814 14:23:30.529140 8456 deprecation.py:323] ...原创 2019-08-30 16:25:58 · 137 阅读 · 0 评论 -
多层感知机--tensorflow
#多层感知机 from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf mnist = input_data.read_data_sets("MNIST_data",one_hot = True) sess = tf.InteractiveSession() WARNING: Loggi...原创 2019-08-30 16:26:59 · 746 阅读 · 0 评论 -
AlexNet网络实现--TensorFlow
AlexNet Relu激活函数应用 --解决sigmoid在网络较深时的梯度弥散问题 dropout机制避免模型过拟合 CNN使用重叠的最大池化,而AlexNet使用最大池化,避免平均池化的模糊效果 提出使用LRN层,创建局部神经元竞争机制,增强模型泛化机制 使用CUDA加速训练过程 数据增强–PCA降维 AlexNet:8个训练层(不包含pool和LRN层),前五层conv层,后三层full...原创 2019-08-30 16:28:47 · 113 阅读 · 0 评论 -
VGGNet-16(D级)实现--TensorFlow
VGGNet 优势: 探索卷积神经网络的深度与其性能之间的关系—>反复堆叠3 * 3 kernel 和 2 * 2 最大池化层—>成功构建了16~19层深度卷积神经网络—>迁移和泛化能力强,网络结构简单 [外链图片转存失败(img-JWb9qJR3-1567153752204)(attachment:image.png)] A —> E 六个级别网络结构 [外链图片转存失...原创 2019-08-30 16:30:10 · 238 阅读 · 0 评论 -
ResNet_V2_152层---TensorFlow
ResNet #实现ResNet_V2_152 import tensorflow as tf import collections import time from datetime import datetime import math slim = tf.contrib.slim WARNING: Logging before flag parsing goes to stderr. W...原创 2019-08-30 16:31:33 · 1078 阅读 · 0 评论 -
Google--Inception Net V3 实现--TensorFlow
Google Inception Net Inception V1 控制了计算量和参数量:一.参数越多模型越庞大,学习的数据量就必须越大。二.参数越多,耗费资源越多。 22层深,优势一在于去除了最后的全连接层,用全局平均池化层取代(全连接层几乎占据AlexNet和VGGNet中90%的参数量,还会引起过拟合),优势二在于设计的Inception Module 提高了参数的利用率------>...原创 2019-08-30 16:32:11 · 117 阅读 · 0 评论