4.1 二进制、十进制和十六进制

进制,看似很简单的东西,但很多同学还是不能彻底理解。这里先简单介绍一些注意事项,然后还是从实验中讲解会比较深刻。

1) 十进制就不多说了,逢十进位,一个位有十个值: 0 ~ 9,我们的生活中到处都是它的身影。二进制就是逢二进位,它的一个位只有两个值:0 和 1,但它却是实现计算机系统的最基本的理论基础,计算机(包括单片机)芯片是基于成万上亿个的开关管组合而成的,他们每一个都只能有开和关两种状态,再难找出第三个状态了(不要辩解半开半关这个状态,它是不稳定态,是极力避免的),所以他们只能对应于二进制的 1 和 0 两个值,而没有 2、3、4......,理解二进制对于理解计算机的本质很有帮助。书写二进制数据时需加前缀 0b,每一位的值只能是 0 或 1。十六进制就是把 4 个二进制位组合为一位来表示,于是它的每一位有 0b0000 ~ 0b1111 共 16 个值,用 0 ~ 9 再加上 A ~ F(或 a ~ f)表示,那么它自然就是逢十六进位了,它本质上同二进制是一样的,是二进制的一种缩写形式,也是我们程序编写中常用的形式。书写十六进制数据时需加前缀 0x,下表是三种进制之间的对应关系。

表 4-1 进制转换
十进制 二进制 十六进制
00b00x00
10b10x01
20b100x02
30b110x03
40b1000x04
………………
90b10010x09
100b10100x0A
110b10110x0B
120b11000x0C
130b11010x0D
140b11100x0E
150b11110x0F
160b100000x10
170b100010x11
..................

2) 对于二进制来说, 8 位二进制我们称之为一个字节,二进制的表达范围值是从0b00000000 ~ 0b11111111,而我们在程序中用十六进制表示的时候就是从 0x00 到 0xFF,这里教大家一个二进制转换十进制和十六进制的方法,二进制 4 位一组,遵循 8/4/2/1 的规律比如 0b1010,那么从最高位开始算,数字大小是 8*1+4*0+2*1+1*0 = 10,那么十进制就是 10,十六进制就是 0xA。尤其二进制转十六进制的时候,十六进制一位刚好是和二进制的 4 位相对应的,这些大家不需要强行记忆,多用几次自然就熟练了。

3)  对于进制来说,只是数据的表现形式,而数据的大小不会因为进制表现形式不同而不同, 比如二进制的 0b1、十进制的 1、十六进制的 0x01,他们本质上是数值大小相等的同一个数据。我们在进行 C 语言编程的时候,我们只写十进制和十六进制,那么不带 0x 的就是十进制,带了 0x 符号的就是十六进制。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值