人工智能
百变珍珑兽
我在,对抗熵增
展开
-
人工智能专题目录
机器学习: 通过学习算法从数据中学习模型的过程监督学习分类问题(预测离散值)分类方法实现:鸢尾花分类回归问题(预测连续值)实现:房价预测原创 2021-11-16 19:38:57 · 211 阅读 · 0 评论 -
搭建神经网络----keras
SequentialSequential可以认为是一个容器,容器中封装了神经网络结构model=tf.keras.Sequential([网络结构])classclass类封装神经网络结构from tensorflow.keras import Modelclass MyModel(Model): def __init__(self): super(MyModel,self).init() #定义网络结构块 def call(self,x):原创 2021-12-03 21:01:30 · 702 阅读 · 0 评论 -
循环神经网络RNN(Recurrent Neural Network)
循环核:参数时间共享,循环层提取时间信息循环核具有记忆力,通过不同时刻的参数共享,实现了对时间序列的提取。RNN擅长处理序列数据原创 2021-12-03 20:22:05 · 766 阅读 · 0 评论 -
人工神经网络(Artificial Neural Network)
神经网络俗称人工神经网络(ANN),由简单神经元经过相互连接行程网状结构,通过调节各连接的权重值,改变链接的强度,进而实现感知判断。反向传播(Back Propagation,BP)算法的提出,进一步推动了神经网络的发展。传统神经网络主要分为一下几类前馈型神经网络Feed Forward Neural Network,是一种单向多层的网络结构,即信息从输入层开始,逐层向一个方向传递,一直到输出层结束。前馈是指输入信号的传播方向为前向,在此过程中并不调整各层的权值参数。而反传播时是将误差逐层向后原创 2021-12-02 21:20:09 · 2749 阅读 · 0 评论 -
经典卷积网络---LeNet、AlexNet、VGGNet、InceptionNet、ResNet [北京大学曹健老师人工智能学习笔记]
Yann LeCun于1998年提出,通过共享卷积核减少了网络的参数。LeNet有2个卷积层和3个全连接层。在特征提取阶段,卷积层以外的标准化、池化、激活等都看做是卷积层的附属,不计入层数统计。原创 2021-11-18 20:31:32 · 1018 阅读 · 1 评论 -
卷积神经网络实现---cifar10数据集
cifer数据集提供的是6万张32*32大小的三通道彩色图像,共有10类分别为:飞机,汽车,鸟,猫,鹿,狗,青蛙,马,船,卡车结构: 一层卷积,两层全连接6个5×5的卷积核,步长为12×2的最大值池化,步长为2import tensorflow as tfimport numpy as npimport matplotlib.pyplot as pltfrom tensorflow.keras import Modelimport pandas as pd(x_train,y_train原创 2021-11-18 18:25:42 · 1021 阅读 · 0 评论 -
卷积神经网络CNN----mnist数据集识别手写数字图像实现
卷积核: 一个n×n的矩阵感受野: 一个神经元所接受并响应的刺激区域卷积神经网络(Convolutional Neural Networks): 借助卷积核提取特征后,送入全连接网络注:卷积神经网络采用局部连接和权值共享,与全连接神经网络相比更接近生物神经网络,且同一层神经元的权值相同,可以并行学习。卷积核中的权值是从数据中学习得到的一个卷积核只能提取一个特征,同时提取多个特征就需要同时使用多个卷积核。神经网络结构: 多层前馈型神经网络[划分为:特征提取阶段、分类识别阶段]特征提取阶原创 2021-11-17 18:35:53 · 842 阅读 · 0 评论 -
贝叶斯定理----
贝叶斯公式贝叶斯公式描述的是已经确定B发生的情况下,Ai发生的概率已知样本空间Ω,B为事件,A1,A2,,,Ai为Ω的一个划分,事件B在不同划分中发生的概率不同。贝叶斯公式的分母为全概率公式,即事件B发生的概率。P(Ai|B)=(Ai发生的概率)*(Ai情况下B发生的概率)/(事件B发生的概率)几个概念先验概率(prior probability):统计得到的或者自身依据经验得到的已知概率后验概率:已经发生了某事,“由果求因”确定是哪个原因引起的。后验概率的计算要以先验概率为基础似然概率:原创 2021-11-16 21:21:12 · 507 阅读 · 0 评论 -
sklearn库
sklearn库官方文档sklearn库共分为六大部分,分别用于完成分类任务、回归任务、聚类任务、降维任务、模型选择和数据预处理。原创 2021-11-16 16:37:36 · 767 阅读 · 0 评论 -
分类问题相关概念
分类问题是有监督学习的一个核心问题性能度量分类准确率(accuracy): 分类器正确分类的样本数与总样本之比accuracy=(TP+TN)/(P+N) [假设只有两类样本,正例(Positive)和负例(Negative)]精确率(precision): 反应模型判定的正例中真正正例的比重precision=TP/(TP+FP)召回率(recall): 总正例中被模型正确判断的比重recall=TP/PP-R曲线: 即precision-recall曲线,r为自变量p为因变量F值(F原创 2021-11-16 16:12:38 · 280 阅读 · 0 评论 -
梯度下降法
梯度下降法的计算过程就是沿梯度下降的方向求极小值,或沿梯度上升方向求极大值解析解是经过严格计算后,得到的方程的精确解,能在任意精度下满足方程。在某些无法得到解析解的时候,我们可以通过数值分析的方法得到近似解,也就是数值解。数值解只在给定条件下满足方程。梯度下降法就是常用的求数值解的方法之一。从某一点出发,向他的周围的方向前进寻找极值点,易得步长越长,我们找到极值的速度就越快。但是当步长过长时,可能会引起震荡,导致无法收敛。极值点斜率为零,我们可以得到斜率越大,距离极值点相对越远。我们可以采取斜率原创 2021-11-15 21:33:51 · 352 阅读 · 0 评论 -
解析法多元线性回归的实现
前置内容假设影响房价的因素有面积和房间数,根据已有数据获得两个因素的影响权重,对未知房价进行预测在这里求的是解析解,为确定值步骤加载样本数据数据处理学习模型,计算W预测Y=XWLoss=(Y-XW)T(Y-XW)解析解公式W=(XTX)-1XTY*注:(XTX)须为满秩矩阵代码import numpy as npimport tensorflow as tfx1=tf.constant([137.97,104.50,100.00,124.32,79.20,99.20,12原创 2021-11-15 20:52:06 · 668 阅读 · 0 评论 -
回归问题----主要为线性回归问题
机器学习 通过学习算法从数据中学习模型的过程学习算法 从数据中产生模型的算法(已知数据和答案,推测规则)监督学习 数据集带标签,主要可以分为回归问题(预测连续值)和分类问题(预测离散值)回归问题 通过数据点拟合出最优的曲线一元线性回归估计值:Yi=wXi+b残差、拟合误差:Yi(实际)-Yi=Y(实际)-(wXi+b)最佳拟合曲线应该使所有点的累计残差值最小Loss:损失函数,表示模型预测值与真实值的不一致程度平方损失函数为消除正负值的影响的方便求导,我们对残差的平方求和并乘以二分之一原创 2021-11-15 18:31:34 · 301 阅读 · 0 评论 -
人工神经网络实现鸢尾花分类
神经网络的设计神经网络的结构: 单层前馈形型神经网络激活函数: softmax函数损失函数: 交叉熵损失函数原创 2021-11-07 00:51:51 · 3012 阅读 · 0 评论