自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 机器学习笔记——人工神经网络(2)——后向传播算法

后向传播算法,简称BP算法,适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。后向传播算法(Back Propagation)主要思想:梯度下降发求局部极值(Gradient Descent Method)假设有函数 f(ω),我们希望找到这个函数上.

2021-09-29 20:15:35 2161

原创 机器学习笔记————人工神经网络(1)————感知器算法

感知器是人工神经网络中的一种典型结构, 它的主要的特点是结构简单,对所能解决的问题 存在着收敛算法,并能从数学上严格证明,从而对神经网络研究起了重要的推动作用。1957年,Frank Rosenblatt 从纯数学的角度,指出能够从一些输入输出对(X,y)中通过学习算法获得权重 ω和b。问题:给定一些输入输出对(X,y),其中 y = +1或-1,求一个函数,使:f( X )= y感知器算法:设定 f(X)=sign(ωTX+b),从一堆输入输出中自动学习,获得 ω 和 b。感知器算法(Perc.

2021-09-26 20:58:32 831 2

原创 机器学习笔记——支持向量机(4)——核函数与总结

引言在上一节中已经介绍了svm中原问题与对偶问题的相关知识。这一节将对svm进行总结并介绍一些常用的核函数svm算法总结我们从训练流程与测试流程两个方面进行总结训练流程输入{(xi,yi)} (i=1~N)解优化问题:最大化:限制条件:(可以使用SMO算法求解)计算b找一个 0 < αi < C , 有测试流程输入测试样本x①若则 y = 1②若则 y = -1SVM内核总结1.Linear (线性内核)当使用线性核去解原问题和对偶问题时,其答

2021-08-11 11:41:13 577

原创 机器学习笔记——支持向量机(3)——原问题和对偶问题

引言在上一节我们介绍了支持向量机svm解决非线性相关的问题。如何利用已知的K和未知的ψ去解决优化问题是关键。在这一节将针对原问题原对偶问题进行学习。优化理论原问题(Prime Problem)最小化:f (ω)限制条件:① gi(ω)<=0 ( i=1~K );② hi(ω)=0 ( i=1~M )原问题是一个非常普适(general)的定义。首先,最小化中 ω 是自变量,同时也是向量,待优化参数的自变量。f 是其函数。对于最小化的 f(ω),有最大化的 - f (ω)。而在限制

2021-08-11 01:38:46 3100

原创 二维码提升对比度文献调研(1)--Fast Image Processing with Fully-Convolutional Networks

简介1.论文(期刊和发表时间)Fast Image Processing with Fully-Convolutional Networks(ICCV会议2017)2.论文链接https://openaccess.thecvf.com/content_iccv_2017/html/Chen_Fast_Image_Processing_ICCV_2017_paper.html3.源代码链接https://github.com/CQFIO/FastImageProcessing主要idea大部分

2021-08-04 11:24:37 173

原创 tensorflow2.5.0:tensorflow.python.framework.errors_impl.UnknownError: Failed to get convolution

问题描述今天尝试在pycharm中运行建议的卷积神经网络,最开始使用cpu运行,但是无奈嫌弃运行速度较慢,于是在更新tensorflow-gpu后,尝试切换至gpu运行,但是程序在运行时有如下报错信息对于这个问题,我查了很多相关的帖子,其中常见的解释无非两种:1.cuda和cudnn版本不符2.显存不够对于这两种解释,我个人倾向于第二种显存不够的问题。于是参考各种帖子的对策:在代码头部添加几行代码,这里我给两种普遍的答案,各位也可以搜索得到可以得知,这些方法的本质无非是控制显存的使用(百分比)

2021-08-04 01:24:00 268

原创 机器学习笔记——支持向量机(2)——处理非线性问题

引言由上一章内容我们可以了解到,针对线性模型问题,svm提供了最优解,换句话说,当数据集满足线性可分时,满足使用最优解的条件。那么,针对非线性可以分的数据集,应采用怎样的处理方法?本一节将针对非线性数据集进行探讨与学习。先写出非线性问题的最小化与限制条件:最小化其中第二项整体成为正则项(Regulation Term),而εi成为松弛变量(Slack Variable)两个限制条件在线性条件下,我们找出一个ω和b,使得限制条件被满足。但是在非线性条件下,我们不能找到ω和b满足这个条件,于是

2021-07-31 00:02:35 2428

原创 机器学习笔记——支持向量机(1)——线性模型问题

目录1.svm简述2.最大间隔超平面2.线性回归问题的图像描述3.线性回归问题的数学描述一.支持向量机(Support Vector Mechine)支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。SVM的的学习算

2021-07-28 22:29:00 646

原创 机器学习笔记——入门篇

机器学习笔记——入门篇一.有监督式学习二.无监督式学习三.半监督学习四.侦查学习五.没有免费午餐定理一.有监督式学习(Supervised learing)监督式学习(英语:Supervised learning),是一个机器学习中的方法,可以由训练资料中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练资料是由输入物件(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。有监督学习强调有数

2021-07-28 11:33:54 281

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除