人工智能
*wsj*
why do we fall down? Beacause we will get up
展开
-
人工智能5
一、for循环实现卷积,池化,激活import numpy as np x = np.array([[-1, -1, -1, -1, -1, -1, -1, -1, -1], [-1, 1, -1, -1, -1, -1, -1, 1, -1], [-1, -1, 1, -1, -1, -1, 1, -1, -1], [-1, -1, -1, 1, -1, 1, -1, -1, -1], [原创 2022-05-22 21:53:02 · 147 阅读 · 0 评论 -
人工智能作业4
这里写自定义目录标题人工智能作业4-卷积作业之前:先做个卷积神经网络的介绍一:卷积、卷积核、多通道、特征图、特征选择二:卷积核原理及介绍三:code四:总结人工智能作业4-卷积作业之前:先做个卷积神经网络的介绍卷积神经网络的层级结构• 数据输入层/ Input layer • 卷积计算层/ CONV layer • ReLU激励层 / ReLU layer • 池化层 / Pooling layer • 全连接层 / FC layer数据输入层:去均值与归一化,去相关与白化原创 2022-05-11 20:30:13 · 354 阅读 · 0 评论 -
人工智能作业3
一:利用pytorch实现列题import torch x1, x2 = torch.Tensor([0.5]), torch.Tensor([0.3])y1, y2 = torch.Tensor([0.23]), torch.Tensor([-0.07])print("=====输入值:x1, x2;真实输出值:y1, y2=====")print(x1, x2, y1, y2)w1, w2, w3, w4, w5, w6, w7, w8 = torch.Tensor([0.2]), tor原创 2022-05-09 20:44:13 · 337 阅读 · 0 评论 -
人工智能作业2
反向传播神经元:神经网络的基本单位分为输入层,隐藏层,输出层层内不互联损失对参数梯度的反向传播可以被这样直观解释:由A到传播B,即由 [公式] 得到 [公式] ,由导数链式法则 [公式] 实现。所以神经网络的BP就是通过链式法则求出 [公式] 对所有参数梯度的过程import numpy as npw1, w2, w3, w4, w5, w6, w7, w8 = 0.2, -0.4, 0.5, 0.6, 0.1, -0.5, -0.3, 0.8x1, x2 = 0.5, 0.3y原创 2022-05-01 16:05:46 · 695 阅读 · 0 评论 -
人工智能作业1
Python 环境安装因之前学习机器学习时已配置好pycharm + Asconvigator 环境,所以直接->show time! 个人建议:因python环境包太复杂,最好有个Anaconda Navigator来帮助管理,特别是在学习人工智能时。...原创 2022-05-01 15:14:05 · 44 阅读 · 0 评论