自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 SVM学习笔记

初步理解 【五分钟机器学习】向量支持机SVM: 学霸中的战斗机_哔哩哔哩_bilibili1.基础思想首先,确定我们的目标是将数据准确的进行分类。下面两个效果更好的就是c2,因为c2中的分类和两个类别之间的距离更大。当出现新的待分类的点后,c2的效果更好。svm添加边界分界面来衡量决策分界面和边界分界面之间的距离,距离越大越好。按照上图中的距离公式,我们可以推出svm的损失函数。svm另一个机制时加入容错率,保证大局上的正确性。上述说的都是用一条直线去分割两类,但是遇到下...

2021-11-02 21:51:16 186

原创 BP神经网络学习笔记

先上链接:最容易听懂的BP神经网络教程----萌新入门首选课_哔哩哔哩_bilibili下图是整个模型的结构。再看一下BP神经网络训练的整个过程。1.网络拓扑结构:网络分为三层,输入层、隐含层和输出层。若有多个隐含层,就可以称之为深度神经网络。通常使用全连接的方式。 输入层 :接收外部信息和数据 隐藏层 :对信息进行处理、调整权值、反馈 输出层 :对计算结果进行输出 全连接神经网络是指当前层的每个神经元...

2021-11-02 14:28:01 734

原创 LSTM学习笔记

LSTM是RNN(循环神经网络)的变体,所以我们可以基于RNN来了解长短期记忆(Long Short-Term Memory, 简称 LSTM).1.基础认知什么是RNN:什么是循环神经网络 RNN (深度学习)?_哔哩哔哩_bilibili什么是循环神经网络 RNN (深度学习)?_哔哩哔哩_bilibili什么是长短时记忆网络LSTM?【知多少】_哔哩哔哩_bilibili2.LSTM结构理解LSTM网络:理解 LSTM 网络 - 简书https://colah.github

2021-10-31 17:27:34 429

原创 keras学习笔记--使用模型

导包import numpy as npimport tensorflow as tffrom keras.datasets import mnistfrom keras.utils import np_utilsfrom tensorflow.keras.models import Sequentialfrom keras.layers import Densefrom tensorflow.keras.optimizers import SGDfrom tensorflow.ker.

2021-10-26 16:23:59 544

原创 keras学习笔记--保存模型

import numpy as npimport tensorflow as tffrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom keras.layers import Densefrom tensorflow.keras.optimizers import SGD#载入数据(x_train,y_train),(x_test,y.

2021-10-23 17:09:03 119

原创 keras学习笔记--RNN应用

import numpy as npfrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom tensorflow.keras.layers import Densefrom keras.layers.recurrent import SimpleRNN,LSTM,GRUfrom tensorflow.keras.optimizers impor.

2021-10-23 17:07:47 203

原创 keras学习笔记--CNN应用于手写数字识别

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此:keras入门_哔哩哔哩_bilibili语言:python,编程工具jupyter卷积的解释未免太多,累了累了。import numpy as npfrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom tensorflow.keras.layers import Dense,Dro

2021-10-23 17:06:28 110

原创 keras学习笔记--优化器

import numpy as npimport tensorflow as tffrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom keras.layers import Densefrom tensorflow.keras.optimizers import SGD,Adam#载入数据(x_train,y_train),(x_t.

2021-10-23 17:02:57 297

原创 keras学习笔记--正则化应用

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此:keras入门_哔哩哔哩_bilibili语言:python,编程工具jupyter同样是基于mnist的分类问题,使用正则化。import numpy as npimport tensorflow as tffrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom keras.lay

2021-10-23 17:01:38 255

原创 keras学习笔记--Dropout使用方法

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此:keras入门_哔哩哔哩_bilibili语言:python,编程工具jupyter本文还是基于手写数字识别的,增加了Dropout的使用,目的是减少中间层神经元个数,防止过拟合。Dropout用法:深度学习中Dropout原理解析_Microstrong-CSDN博客_dropout代码如下:import numpy as npimport tensorflow as tffrom keras.datasets import m

2021-10-23 16:28:56 3989 1

原创 keras学习笔记--交叉熵

交叉熵是一种损失函数,常用于分类问题中。原文章讲的 很清楚:损失函数|交叉熵损失函数 - 知乎如何用看下面这个例子:#修改交叉熵;在做分类问题时,使用交叉熵迭代效果会更好,效率也更高model.compile( optimizer = sgd, loss ='categorical_crossentropy', metrics=['accuracy'],)此处配置模型时将损失函数直接修改为交叉熵。本文的例子是基于上一篇的MNIST手写数字识别来的,将损失函数

2021-10-23 16:19:40 1258

原创 keras学习笔记--MNIST数据集分类

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此:keras入门_哔哩哔哩_bilibili语言:python,编程工具jupytermnist是自带的一个手写数字识别的库。(1)导包import numpy as npimport tensorflow as tffrom keras.datasets import mnistfrom keras.utils import np_utilsfrom keras.models import Sequentialfrom kera

2021-10-23 16:07:12 416

原创 keras学习笔记--非线性回归

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此:keras入门_哔哩哔哩_bilibili语言:python,编程工具jupyter2.非线性回归对y=+noise的值进行预测,与线性回归不同之处在于不能再继续用一条直线来预测结果了,需要绘制一条平滑的曲线去描述结果。(1)导包import tensorflow as tfimport tensorflow.kerasimport numpy as npimport matplotlib.pyplot as pltfrom

2021-10-23 15:50:16 296

原创 keras学习笔记--线性回归

该文章是基于哔哩哔哩上贾老师的视频记录的,链接在此,供自己学习使用:keras入门_哔哩哔哩_bilibili本课程资料和代码下载地址为:http://www.ai-xlab.com/article/43免费人工智能慕课平台AI MOOC:mooc.ai-xlab.comhttps://www.bilibili.com/video/BV1Ct411H7rm?p=11.线性回归...

2021-10-23 11:00:24 167

原创 cannot import name ‘SGD‘ from ‘keras.optimizers‘ 报错

将from keras.optimizers import SGD修改为from tensorflow.keras.optimizers import SGD

2021-10-20 10:25:08 15270 10

原创 LeetCode刷题笔记第四题(C++实现)

1.问题描述给定两个大小分别为 m 和 n 的正序(从小到大)数组 nums1 和 nums2。请你找出并返回这两个正序数组的 中位数 。示例 1:输入:nums1 = [1,3], nums2 = [2]输出:2.00000解释:合并数组 = [1,2,3] ,中位数 2示例 2:输入:nums1 = [1,2], nums2 = [3,4]输出:2.50000解释:合并数组 = [1,2,3,4] ,中位数 (2 + 3) / 2 = 2.52.实现代码class.

2021-08-31 16:28:20 236 1

原创 C++实现LeetCode刷题笔记01

1.问题描述给定一个整数数组 nums和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那两个整数,并返回它们的数组下标。示例 1:输入:nums = [2,7,11,15], target = 9输出:[0,1]解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。示例 2:输入:nums = [3,2,4], target = 6输出:[1,2]示例 3:输入:nums = [3,3], target =...

2021-08-30 20:20:11 249

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除