自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

转载 真正搞懂hashCode和hash算法【转载】

再补充一点点,其实并不是非得右移16位右移8位右移12位都能起到很好的扰动效果,但是hash值的二进制码是32位,所以最理想的肯定是折半咯,雨露均沾。上面这两段话就是理解>>>16和 ^ 运算的精髓所在,如果没看懂,建议你休息一会儿再回来看,总之记住,HashMap的长度总是2^n(不知道的去看它的扩容机制),而位运算肯定速度更快,因此~。所以,让hash和n-1做与运算,可能性更多,结果也更分散。其实>>>16和 ^ 运算是相辅相成的关系,这一套操作是为了。equals的效率是没有hashCode高的,

2024-08-06 21:26:44 31

原创 神经网络_图灵_6第六章_与学习相关的技巧

参数的更新SGD随机梯度下降法为了找到最优参数,我们将参数的梯度(导数)作为了线索。使用参数的梯度,沿梯度方向更新参数,并重复这个步骤多次,从而逐渐靠近最优参数,这个过程称为随机梯度下降法,简称SGD。class SGD: def __init__(self, lr): self.lr = lr def update(self, params, grads): for key in params.keys(): params[ke

2021-02-07 22:05:17 90

原创 神经网络_图灵_5第五章

第五章节点的正向传播和反向传播简单加法乘法层的实现# 乘法层的实现class MulLayer: def __init__(self): self.x = None self.y = None def forward(self, x, y): self.x = x self.y = y out = x * y return out def backward(self, dout

2021-02-07 14:21:34 237

原创 神经网络_图灵_4第四章

第四章机器学习中使用的数据集分为训练数据和测试数据神经网络用训练数据进行学习,并用测试数据评价学习到的模型的泛化能力神经网络的学习以损失函数为指标,更新权重参数,以使损失函数的值减小利用某个给定的微小值的差分求导数的过程,称为数值微分利用数值微分,可以计算权重参数的梯度数值微分虽然费时间,但实现起来简单。下一章中要实现的稍微复杂一些的误差反向传播法可以高速的计算梯度损失函数损失函数是表示神经网络性能的“恶劣程度”的指标,“使性能的恶劣程度达到最小”和“使性能的优良恶劣程度达到最大”

2021-02-07 14:17:15 101

原创 神经网络_图灵_3第三章

第三章激活函数实际上,上一章的感知机和接下来要介绍的神经网络的主要区别就在于这个激活函数。**跃函数的实现

2021-02-04 22:57:37 155

原创 神经网络_图灵_2第二章

第2章感知机的实现使用感知机实现与门、与非门、或门、异或门我们给三种电路分别设置的权重和偏置为:ANDNANDORw10.5-0.50.5w20.5-0.50.5b-0.70.7-0.2import numpy as npdef AND(x1, x2): x = np.array([x1, x2]) w = np.array([0.5, 0.5]) b = -0.7 tmp = np.sum(x*w) + b if tm

2021-02-04 18:20:55 85

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除