深度学习
爱抖腿的小松鼠
即将成为研二的师兄,也还是菜鸡,不忘初心,加油!
展开
-
2021-10-01 深度学习之线性回归
综述线性回归:其实就是一层神经网络线性回归是对n维输入的加权,外加偏差假设x是影响房价的因素,x可以是卫生间,居住面积等等,成交价就是y=w1x1+w2x2,w是权重,b是偏置。y = w1x1+w2x1+…+b那么衡量预估质量,也就是房屋售价和估价的差距,也就是损失函数了。这里利用均方误差:**训练数据:**就是收集一些数据点来决定参数值,比如过去六个月卖的房子。梯度下降 在机器学习算法中,在最小化损失函数时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数,和模型参数值。反原创 2021-10-01 18:34:15 · 245 阅读 · 0 评论 -
python入门的一些题目
num = input("请输入一个数字:")if int(num) <10: print(num)else: print("shabi")请输入一个数字:55shabinum = input("请输入一个数字:")print(num if int(num)<10 else "shabi")请输入一个数字:55shabi## 输入学生成绩,90以上为A,80以上为B,70为C,60以上为Dnum = int(input("请输入成绩:"))if n原创 2021-09-06 09:45:38 · 249 阅读 · 0 评论 -
2021-07-01 (二)深度学习入门第二天
1. 数据驱动基本思路不管处理什么问题,神经网络都可以将数据直接作为原始数据,进行端到端的学习。比如,不管要求解的识别s还是人脸,神经网络都是通过不断的学习所提供的数据,尝试发现待求解的问题的方案。2. 损失函数总结2.1 均方误差 mean squared errory = [0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]t = [0, 0, 1, 0, 0, 0, 0, 0, 0, 0]def mean_squared_err原创 2021-07-01 22:50:52 · 143 阅读 · 1 评论 -
2021-06-30 (一)深度学习入门笔记总结第一天!!
1.感知机多个输入,一个输出。缺点就是形成异或门的局限性。没什么太多好说的,原理也很简单,直接上代码了。##1.1与门的代码import numpy as npdef AND(x1, x2): #定义与门的函数和两个参数 x = np.array([x1, x2]) w = np.array([0.5, 0.5]) b = -0.7 tmp = np.sum(w*x) + b if tmp <= 0: return 0原创 2021-06-30 23:53:05 · 137 阅读 · 2 评论 -
2021-07-04 深度学习第三天
1.利用神经网络来实现求梯度!import sys, ossys.path.append(os.pardir) # 为了导入父目录中的文件而进行的设定import numpy as npdef softmax(x): if x.ndim == 2: x = x.T x = x - np.max(x, axis=0) y = np.exp(x) / np.sum(np.exp(x), axis=0) return y.T原创 2021-07-04 00:54:30 · 258 阅读 · 0 评论 -
(一)python入门基础课程
1.怎么定义类!!class Calculator: #首字母要大写,冒号不能缺 name='Good Calculator' #该行为class的属性 price=18 def add(self,x,y): print(self.name) result = x + y print(result) def minus(self,x,y): result=x-y print(res原创 2021-07-13 10:13:19 · 67 阅读 · 0 评论 -
2021-07-04 (四)深度学习第四天!
1 误差反向传播法能够高效计算权重参数的梯度的方法。1.1 乘法层的实现 MulLayer , 并且实现例子import numpy as npclass MulLayer: def __init__(self): #定义初始值 self.x = None self.y = None def forward(self, x, y): #前向传播,输入的x和y相乘 self.x = x self.y = y原创 2021-07-04 23:47:49 · 153 阅读 · 1 评论