机器学习
文章平均质量分 83
三省少年
路漫漫其修远兮,吾将上下而求索!
展开
-
Deep learning-based CSI Feedback for Beamforming 2
system modelsingle-cell modely=hHx+ny=\mathbf{h}^H\mathbf{x}+ny=hHx+nwhere h∈CNt×1\mathbf{h}\in \mathbb{C}^{N_t\times 1}h∈CNt×1 is the downlink channel between the BS and the user, ???? is the complex additive Gaussian noise (AWGN) with zero mean and v原创 2021-01-06 11:49:19 · 429 阅读 · 0 评论 -
Iterative Algorithm Induced Deep-Unfolding Neural NetworksPrecoding Design for MultiuserMIMOSystem 1
1.AbstractAbstract—Optimization theory assisted algorithms have received great attention for precoding design in multiuser multiple-input multiple output (MU-MIMO) systems. Although the resultant optimization algorithms are able to provide excellent perfo原创 2020-12-25 16:26:44 · 686 阅读 · 0 评论 -
Deep learning for joint channel estimation and feedback in massive MIMO systems(2)
3.channel estimation and feedback networkIn this section, two joint channel estimation and feedback networks will be developed, where quantization method will also be discussed. Training strategy of each network will also be described at the end of this s原创 2020-12-19 21:31:42 · 378 阅读 · 1 评论 -
卷积神经网络CNN
Content1.引入2.边缘检测一些工具1.矩阵灰度图化代码1.引入思考这样一个问题:我们要对100010003的图片进行分类,怎么用机器学习完成这样的工作呢?如果用全连接网络(FCN)来实现,这意味着第一层网络会有3×1063\times 10^63×106这么多个节点,网络的参数量将会是不可接受的。基于此,我们开始研究新的网络2.边缘检测对于前面提到的图像分类问题,我们一般会检测出其边缘,据此来确定图形长什么样子。边缘检测分为垂直边缘检测和水平边缘检测,怎么做边缘检测呢?假设有小的灰度图片原创 2020-11-11 22:07:13 · 317 阅读 · 3 评论 -
支持向量机(Support Vector Machine SVM)
1.摘要这篇文章主要介绍支持向量机的有关内容,主要包括支持向量机的推导,支持向量机的特性,支持向量机简单的数学原理介绍,核函数,最后还对比了一下逻辑回归,支持向量机,神经网络,简单说明他们各自的适用情况。关键词:支持向量机,核函数。2.正文2.1支持向量机的引入推导支持向量机是一种强大的拟合非线性方程的工具,首先介绍一下它的引入。由前面学习,我们可以知道,对于逻辑回归的一组样本,我们有代价函数:J(θ)=−ylog11+eθTx−(1−y)log(1−11+eθTx)J(\theta)=-ylo原创 2020-08-19 23:02:33 · 781 阅读 · 0 评论 -
简单机器学习系统的构建以及对于不对称性的分类介绍和性能评价
1.前言这篇文章主要是总结简单机器学习系统的构建,简单的误差分析,特别的,对于不对称性分类的误差评估做了介绍,并对这种情况做了性能指标的规定。关键词:机器学习系统 不对称性分类 查准率 召回率目录1.前言2.内容介绍2.1构建机器学习系统的简单例子2.2不对称性分类的误差评估2.2.1不对称性类的介绍2.2.2新的误差评估方法2.2.3查准率和召回率的权衡2.2.4评价指标3.reference2.内容介绍2.1构建机器学习系统的简单例子假设我们需要做一个垃圾邮件屏蔽器,要怎么开始做呢?首先原创 2020-08-16 21:43:02 · 564 阅读 · 0 评论 -
机器学习算法性能评价,改进的理论基础以及改进措施
在开始介绍这部分内容之前,首先要给出吴恩达在课上的一段话So if you like you can to think of this as a way of avoiding whats sometimes called premature optimization in computer programming. And this idea that says we should let evidence guide our decisions on where to spend our time原创 2020-08-12 16:34:13 · 788 阅读 · 0 评论 -
Machine Learning for Communication Networks
Introduction越读越觉的写的很好,写篇文章给大家分享一下Main partIn order to exemplify applications of supervised and unsupervised learning, we will offer annotated pointers to the literature on machine learning for communication systems. Rather than striving for a comprehens原创 2020-06-18 15:57:20 · 921 阅读 · 0 评论 -
How to use neural network to realize logic 'and' and 'or'?
content1.Realize logic 'and'1.1precondition1.2way to realize it1.Realize logic ‘and’1.1precondition我们有两个输入,分别是x1x_1x1&x2x_2x2,且他们只能取0或者1.神经网络的模型为同时,我们有hθ(x)=11+eθTxh_{\theta}(x)=\frac{1}{1...原创 2020-03-31 15:07:08 · 184 阅读 · 0 评论 -
Model Representation--machine learning
content1.How does the nervous system work2.What do we learn from nervous system?1.How does the nervous system work这是一个简单的模型,一个神经元接受来自其他神经元的输入,并且输出信息到其他神经元。考虑到神经元之间的联系,我们有更加复杂的模型几个神经元作为一个神经元的输入,这个...原创 2020-03-27 22:51:36 · 205 阅读 · 0 评论 -
Neurons and the brains
Neurons and the brains1.what is it?2.why have one learning algorithm?3.why we need deep learning?3.1example11.what is it?Origins:Algorithms that try to mimic the brainWas very widely uesd in 80s a...原创 2020-03-03 17:15:26 · 185 阅读 · 0 评论 -
logistic regression编程作业--sigmoid function,Cost function and gradient,Evaluating logistic regression
看着挺简单的,但是若是对matlab没有一定的熟悉程度,是无法顺利的做下这些问题的。下面给出这些问题的代码sigmoid functionfunction g = sigmoid(z)%SIGMOID Compute sigmoid function% g = SIGMOID(z) computes the sigmoid of z.% You need to return t...原创 2019-08-29 16:11:00 · 271 阅读 · 0 评论 -
谈谈Cost function and gradient的matlab写法
Cost function and gradient的matlab写法1.cost function2.gradient参考做ex2的时候,遇到了将cost function and gradient转化为matlab的问题。1.cost functionJ(θ)=1m∑i=1m[−y(i)log(hθ(x(i)))−(1−y(i))log(1−hθ(x(i)))]J(\theta)=...原创 2019-08-28 21:42:33 · 1074 阅读 · 0 评论 -
matlab之find函数
find函数的用法1.引入2.介绍3.进阶技巧4.参考1.引入今天做吴恩达机器学习的题目的时候,发现了一个之前没有接触过的函数,find函数!在这里对find函数做一个简单的用法介绍2.介绍返回向量或矩阵中不为0的元素的位置索引向量很明显不用做过多介绍,但是矩阵的find函数就很耐人寻味了。他是从上向下,从左至右依次编号,取出不为零的编号作为列向量的值(因为matlab存储矩阵是...原创 2019-08-26 19:55:50 · 6713 阅读 · 0 评论 -
Regularization:The problem of overfitting过度拟合问题----吴恩达机器学习
Regularization:The problem of overfittingdefinition of overfitting解决过度拟合参考definition of overfitting定义:给定一个假设空间H,一个假设h属于H,如果存在其他的假设h’属于H,使得在训练样例上h的错误率比h’小,但在整个实例分布上h’比h的错误率小,那么就说假设h过度拟合训练数据。判断方法一...原创 2019-08-22 23:03:27 · 220 阅读 · 0 评论 -
Regularized linear regression(正则化线性回归)----吴恩达机器学习
Regularized linear regression1.引入1.1梯度下降法1.2正规方程法1.引入接着上一篇文章的讲述,在上一篇文章中,我们将代价函数变为J(θ)=12m[∑i=1m(hθ(x)−y)2+λ∑i=1nθj2]J(\theta)=\frac{1}{2m}[\sum_{i=1}^m(h_{\theta}(x)-y)^2+\lambda \sum_{i=1}^n\theta_...原创 2019-08-23 15:42:42 · 393 阅读 · 0 评论 -
Multi-class classification:One-vs-all
Multi-class classification:One-vs-all引入如何确定预测函数?引入之前我们介绍的是二元分类问题,现在我们考虑多元分类问题,即:邮件分类:工作,朋友,家庭,爱好哪个胜率高:琪亚娜,芽衣,德丽莎,空之律者天气:晴天,阴天,雨天,雪天给这些类标上号:1,2,3,4如何确定预测函数?采取一种一对其余的办法具体来说就是,选取一种作为一类,将其余的类别...原创 2019-08-22 20:16:17 · 581 阅读 · 0 评论 -
高级优化方法fminunc----吴恩达机器学习
Advanced optimization1.本节课中的用法1.step1:写出J(θ)和θ的一阶导数2.调用fminunc2.举例3.更多用法参考1.本节课中的用法主要介绍fminunc的用法1.step1:写出J(θ)和θ的一阶导数写出J(θ)J(\theta)J(θ)的计算式写出∂∂θjJ(θj)\frac{\partial}{\partial{\theta_j}}J(\thet...原创 2019-08-22 17:45:39 · 799 阅读 · 0 评论 -
归类问题:简单的代价函数和梯度下降----吴恩达机器学习
Logistic Regression--Simplified Cost Function and Gradient Descent1.Cost fuction2.Gradient Descent1.Cost fuctionWe can compress our cost function’s two conditional cases into one case:Cost(hθ(x),y)=...原创 2019-08-22 16:59:03 · 194 阅读 · 0 评论 -
平方和误差函数--代价函数(机器学习)
文章目录引入选择的依据平均平方和误差代价函数的定义线性回归有一个训练集,我们选择了线性回归,那么要如何选择合适的参量使得我们的预测更为准确呢??引入选择的依据我们知道了现有的数据是准确的,那么预测就要以现有的数据为根基,尽量的贴合现有的数据,使得差距最小,怎么衡量这个差距呢???我们把∑i=1i=m(h(xi)−yi)2\sum_{i=1}^{i=m}(h(x^i)-y^i)^2i=1∑...原创 2019-03-21 10:08:31 · 12464 阅读 · 1 评论 -
代价函数的意义
我们来复习上一节的知识:假设函数:hθ(x)=θ0+θ1xh_\theta(x)=\theta_0+\theta_1xhθ(x)=θ0+θ1x参数:θ0,θ1\theta_0,\theta_1θ0,θ1代价函数:J(θ0,θ1)=12m∑i=1i=m(h(xi)−yi)2J(\theta_0,\theta_1)=\frac{1}{2m}\sum_{i=1}^{i=m}(h(x^i)...原创 2019-03-21 18:59:07 · 1449 阅读 · 0 评论 -
代价函数的作用(2)--机器学习
加上θ0\theta_0θ0的情况每组θ0\theta_0θ0andθ1\theta_1θ1都对应着不同的h(x)h(x)h(x)和J(θ0,θ1)J(\theta_0,\theta_1)J(θ0,θ1)图一图二图三θ0\theta_0θ0θ0\theta_0θ0h(x)h(x)h(x)J(θ0,θ1)J(\theta_0,\theta_1)J(θ...原创 2019-03-21 23:18:44 · 590 阅读 · 0 评论 -
梯度下降(二)--机器学习
文章目录1.提出问题2.简化3.导数部分的工作原理4.学习因子$\alpha$起到的作用4.1决定收敛的快慢4.2在局部最优点的情况4.3梯度下降能聚焦到局部最优解,即使$\alpha$不变1.提出问题α\alphaα和∂∂θjJ(θ0,θ1)\frac{\partial}{\partial \theta_j}J(\theta_0,\theta_1)∂θj∂J(θ0,θ1)起到的作用...原创 2019-03-23 10:25:11 · 180 阅读 · 0 评论 -
梯度下降(一)--机器学习
文章目录1.梯度算法介绍2.特点3.梯度下降的数学原理我们开始考虑怎样优化θ0,θ1\theta_0,\theta_1θ0,θ1,使得我们获取到最小的J(θ0,θ1)J(\theta_0,\theta_1)J(θ0,θ1)?解决方法时我们要讨论的梯度下降算法。1.梯度算法介绍我们先在图上随便选一个点,环顾四周,选择下降最快的那个点,选定步伐,到达下一个点,继续前一步操作,在这个点上...原创 2019-03-22 23:39:22 · 175 阅读 · 0 评论 -
多元梯度下降法--machine learning
多元梯度下降法--machine learning1.概念2.例子2.1n=1的情况2.2n大于1的情况1.概念回顾上节课所学:梯度下降算法,针对每一个θj\theta_jθj2.例子2.1n=1的情况2.2n大于1的情况θj\theta_jθj的更新法则...原创 2019-04-03 22:55:30 · 466 阅读 · 0 评论 -
将梯度下降运用到线性回归
计算方法将J(θ0,θ1)J(\theta_0,\theta_1)J(θ0,θ1)用真正的函数代替,我们得到下图。对θj\theta_jθj求导原创 2019-03-24 11:28:33 · 146 阅读 · 0 评论 -
特征和多项式回归--machine learning
特征和多项式回归1.特征1.特征在拟合特征时,我们可以通过理性的分析来选择创造合适的特征来实现精准的预测,例如:有一个房子,我们知道了它的frontage和depth 如上图所示,依照之前的经验,我们可能会你和拟合...原创 2019-04-10 17:29:36 · 292 阅读 · 1 评论 -
多元线性回归--machine learning
多元线性回归1.表示2.函数式3.简化表达1.表示用下标表示这是第几个特征值,用上标表示这是第几组数据举例:x(1)=[20145145]x^{(1)}=\left[ \begin{matrix} 2014\\ 5 \\ 1 \\ 45 \end{matrix} \right]x(1)=⎣⎢⎢⎡20145145⎦⎥⎥⎤x1(2)=1416x^{(2)}_1=1416x1(...原创 2019-04-02 20:04:55 · 182 阅读 · 0 评论 -
多元梯度下降法演练(1)--特征缩放(特征归一化),Feature Scaling,mean normalization machine learning
多元梯度下降法演练(1)--特征缩放(特征归一化)1.目的2.怎么做2.1 Feature Scaling(特征归一化)2.1.1 公式2.1.2 举例:2.1.3 注意2.2 mean normalization(均值归一化)2.2.1公式1.目的将特征值归一化的目的是让代价函数收敛的速度变快。2.怎么做2.1 Feature Scaling(特征归一化)2.1.1 公式公式为:xi...原创 2019-04-09 16:36:26 · 611 阅读 · 0 评论 -
多元梯度下降法(2)--学习率α machine learning
学习率1.怎么确保梯度下降算法在正确的工作??1.1画出J-n曲线1.2自动收敛测试2.选择合适的学习率2.1学习率太大会出现的情况2.2如何选择合适的α1.怎么确保梯度下降算法在正确的工作??1.1画出J-n曲线在使用梯度下降算法时,我们会画出J(θ)−nJ(\theta)-nJ(θ)−n曲线,其中,J(θ)J(\theta)J(θ)是代价函数,nnn是迭代次数。当J(θ)J(\theta...原创 2019-04-09 19:25:36 · 464 阅读 · 0 评论 -
待编辑
文章目录1.正规方程解法正文2.问题1.正规方程解法正文如何对一个类似于J(θ)=aθ2+bθ+cJ(\theta)=a\theta^2+b\theta+cJ(θ)=aθ2+bθ+c的方程求最小值呢?有过一些导数知识的同学可能知道需要对这个函数求导,解出其结果的最小值。如果是形如J(θ1,θ2,...,θm)=12m∑i=1m(hθ(xi−yi)2)J(\theta_1,\theta_2,...原创 2019-04-16 16:01:03 · 191 阅读 · 0 评论 -
Normal Equation----machine learning
The design matrix X (in the bottom right side of the slide) given in the example should have elements x with subscript 1 and superscripts varying from 1 to m because for all m training sets there are ...原创 2019-07-24 09:34:57 · 150 阅读 · 0 评论 -
Computing the cost J(θ)----吴恩达机器学习作业
文章目录1.Question2.my code1.QuestionAs you perform gradient descent to learn minimize the cost function J(θ),it is helpful to monitor the convergence by computing the cost. In thissection, you will imp...原创 2019-07-31 16:16:23 · 670 阅读 · 0 评论 -
gradientDescent----吴恩达机器学习作业
文章目录1.Question2.code3.Result1.QuestionNext, you will implement gradient descent in the le gradientDescent.m.The loop structure has been written for you, and you only need to supply the updates to θ...原创 2019-08-01 11:37:10 · 1042 阅读 · 0 评论 -
Regularized logistic regression(正则化逻辑回归)----吴恩达机器学习
Regularized logistic regression1.具体的实现1.1梯度下降法1.2高级优化算法2.后继1.具体的实现这一篇文章和上一篇文章类似,其实没有什么好讨论的,无非是做了以下几点改变:J(θ)J(\theta)J(θ)增加了正则项J(θ)J(\theta)J(θ)的导数增加了正则项我就不一一再像上篇文章一样详细展开讲了。直接附上ppt,大家看看就可以了。1....原创 2019-08-23 21:44:07 · 672 阅读 · 0 评论 -
线性回归--深度学习
文章目录是什么拓展是什么是一种预测监督式学习的方法,它通常表现为如下形式表现形式h(x)=θ0+θ1∗xh(x)=\theta_0+\theta_1*xh(x)=θ0+θ1∗xh(x)h(x)h(x)代表从x到y的映射函数,xxx代表输入,yyy代表输出。对数据集进行简单的拟合,最简单的模型。表现形式为一次函数。比如拓展监督式学习Supervised learnin...原创 2019-03-20 23:38:34 · 1436 阅读 · 0 评论