![](https://img-blog.csdnimg.cn/adab24ee0f0a44d0a9e4b353dbc14d5e.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习
文章平均质量分 50
主要介绍机器学习相关的算法和一些机器学习的实例
不羁_神话
追寻先烈的遗志,纵观古今得心志。
要么一往无前,要么一败涂地。
故不积跬步,无以至千里。
大道至简,短小精悍。
有志者,事竟成。
展开
-
ML(机器学习)softmax函数实现简单电影类别的二分类
我接着跟大家分享一波softmax函数。表达式如下:y = exp(input_data) / sum(exp(input_data))简单解释一下,就是将输入数据进行指数化,然后再除以输入数据指数化后数据的求和。代码实现如下:import numpy as npimport matplotlib.pyplot as pltimport osimport timedef softmax(inx): exp_input = np.exp(inx) sum_exp = np.s原创 2022-02-14 11:44:35 · 1573 阅读 · 2 评论 -
ML(机器学习)ReLU函数,构建3层神经网络,恒等函数实现
今天,接着跟大家分享一波ReLU函数。这个函数也是激活函数。表达式如下:y = {x,x>00,x<=0}代码实现如下:def ReLU(inx): return np.maximum(0,inx)绘图: Inx = np.arange(-5,5,0.5) y = ReLU(Inx) plt.plot(Inx,y) plt.ylim(-0.5,5) plt.show()可以从图像看出ReLU函数是非线性函数,相比阶跃函数,它的原创 2022-02-12 16:31:04 · 1313 阅读 · 0 评论 -
ML(机器学习)神经网络,阶跃函数,sigmoid激活函数
我们在上一篇文章说了单层感知机实现简单逻辑电路,多层感知机实现异或门电路。引入了阈值θ,偏置b。现在,我们根据上一篇的表达式,现实激活函数。我们之前感知机的表达式如下:y = {x1w1+x2w2+b >0 return 1x1w1+x2w2+b <=0 return 0}现在,我们将x1w1+x2w2+b这个整体令它等于α,现在有一种特殊的映射关系,当α>0时,使得h(α)=1。当α<=0时,使得h(α)=0。这里的h(α)函数就称为激活函数。激活函数就是将输入总和转换成输出原创 2022-02-11 15:02:50 · 1332 阅读 · 0 评论 -
ML(机器学习)感知机的权重,偏置,阈值(与门,非与门,或门,异或门)实现。
今天,学机器学习的基础,感觉还不错,有点上头。接着跟大家分享一波。import numpy as npimport matplotlib.pyplot as pltimport timeimport os"""#encoding="utf-8"#Author:Mr.Pan_学狂#finish_time:2022/9 1:03""""""感知机**线性可分**当对应变量的权重乘以输入的变量再求和的求和值与阈值θ比较大小,若是小于等于阈值θ,那么就返回0大于阈值θ,就返回1.原创 2022-02-09 01:07:36 · 2076 阅读 · 0 评论 -
ML(机器学习)预备知识
我的毕设是做一个深度学习的项目。所以,现在正在学机器学习方面的知识。我继续跟大家分享一波。import numpy as npimport matplotlib.pyplot as plt#encoding = "utf-8"#Author:Mr.Pan_学狂#finish_time:2022/2/8 23:48def array_Matrix(): x_array = np.array([1.0,2.0,3.0]) print(x_array) print(type(原创 2022-02-08 23:49:10 · 781 阅读 · 0 评论