第四代计算机使用的语言是二进制么,计算机的语言-二进制

我们现实生活中用的最多的就是十进制,逢十进一.

但是我们的计算机为什么要采用二进制?

如果懂电路的朋友就很容易理解.用双稳态电路表示二进制数字0和1是很容易的事情。但是用上十进制将会及其复杂.

当然二进制数0和1正好与逻辑量“真”和“假”相对应,因此用二进制数表示二值逻辑显得十分自然。

进制之间可以互相转换,最常用的是 二进制 八进制 十进制 十六进制

十进制

二进制

八进制

十六进制

100

1100100

144

64

1000

1111101000

1750

3e8

以上简单枚举两个数的转换.下面来介绍下如何进制转换.

十进制转二进制

方法为:十进制数除2取余法,即十进制数除2,余数为权位上的数,得到的商值继续除2,依此步骤继续向下运算直到商为0为止。

下图是 十进制的100 转为二进制的演示:

37ba52991e4b

image

从最后一个余数读到第一个的,所以十进制的100转为二进制就是: 1100100

二进制转为十进制

把二进制数按权展开、相加即得十进制数。

我们继续以 1100100 为例.

我们展开后:

(1 * 2^7) + (1 * 2^6) + (0 * 2^5) + (0 * 2^4) + (1 * 2^3) + (0 * 2^2) + (0 * 2^1) = 100

二进制转换十六进制

十六进制取四合一,不足时补0

这次以 101111 为例.

我们可以把 1100100 分成两个部分 0010 和 1111. 每四个为一组.一组最大是1111,也就是十进制的15.

十进制

十六进制

10

A

11

B

12

C

13

D

14

E

15

F

所以结果就是2F.

这里就不过多介绍啦.这上面是我常用的方法.有兴趣的可以去百度来了解更多方法.

计算机中所有数据都已二进制保存,我们已经知道0010 1111 对应的是 十进制的 15, 那么 -15 将如何在计算机中表示呢? 我们将引入 原码,反码,补码 三个概念.

原码

第一位用来表示符号位,其余表示值.正数的符号为0,负数的符号位为1

100 的二进制原码是:0110 0100

-100 的二进制原码是: 1110 0100

但原码有个缺陷就是有两个数可以表示0, 1000 0000 和 0000 0000

反码

正数的反码是本事,负数的反码是符号位保持不变,其余位取反.

100 的二进制反码是:0110 0100

-100 的二进制反码是: 1001 1011

补码

正数的补码是其本身,负数的补码是在其反码的基础上+1

100 的二进制补码是:0110 0100

-100 的二进制补码是: 1001 1100

计算机选择补码作为数字的存储方式,是有原因的.

使用补码表示负整数,那么ALU在做整数之间的操作时,就不用区分符号了,所有位都会参与运算。

这部分比较难理解.只要了解这三个概念即可.随着深入学习会慢慢理解为什么采用补码.

同样我们也知道了一个问题就是int类型的取值范围为什么是-2147483648 — 2147483647

int 类型有四个字节, 一个字节有8位.总长度32位.

按照补码方式存储最大值是 0111 1111 1111 1111 1111 1111 1111 1111

最小为 1000 0000 0000 0000 0000 0000 0000 0001

通过更深入的学习,我们可以知道计算机是通过CPU执行命令.但是没有提供直接加减法操作的逻辑.我们只可以通过位运算来实现.

什么是位运算呢?

位运算符

说明

举例

按位与(&)

相应位上的数都是1时,该位才取1,否则该为为0

1 & 0 = 0, 1 & 1 = 1

按位或(|)

只要相应位上存在1,那么该位就取1,均不为1,即为0

1 & 0 = 1, 0 & 0 = 0

按位异或(^)

只有当相应位上的数字不相同时,该为才取1,若相同,即为0

1 ^ 0 = 1, 1 ^ 1 = 0

取反(~)

取反运算,每个位上都取相反值,1变成0,0变成1

~0 = 1 , ~1 =0

左移(<

将一个数各二进制位全部向左移动若干位

2 (0010) << 2 = 8(1000)

右移(>>)

将一个数各二进制位全部向右移动若干位

12(1100) >> 2 = 3(0011)

那如何实现我们的加法操作呢?

以 1 + 2为例

1 .... (0001)

2 .... (0010)

-------------

0011

这有点像我们上面的 按位异或 运算.我们再试一个 3 + 5

3 .... (0011)

5 .... (0101)

-------------

1000

这次的运算我们需要进位,不用进位那结果就是 0110 和按位异或运算结果一样.那我们如何判断是否需要进位呢. 只有当对应数为 1 的时候才考虑进位.可以使用按位与运算符来判断.直到按位与的结果为0时,就不需要进位了.

我们重新理一遍步骤.

0011 与 0101 进行按位异或运算得出结果 0110

0011 与 0101 进行按位与运算判断是否需要位移 0001,结果不为0需要位移,位移后结果为0010

0110 与 0010 进行按位异或运算得出结果 0100

0110 与 0010 进行按位与运算判断是否需要位移 0010,结果不为0需要位移,位移后结果为0100

0100 与 0100 进行按位异或运算得出结果 0000

0100 与 0100 进行按位与运算判断是否需要位移 0100,结果不为0需要位移,位移后结果为1000

0000 与 0100 进行按位异或运算得出结果 0100

0000 与 0100 进行按位与运算判断是否需要位移 0000,结果为0不需要再位移.所以结果就是 0100

总结:异或实现两数相加不进位,按位与实现进位

下面贴出一个C写的代码

#include

int bitAdd(int a, int b)

{

int sum, carry;

if (b == 0){return a;} // 当按位与的结果为0 则表示已无需进位

sum = a ^ b;

carry = (a & b) << 1;

return bitAdd(sum, carry);

}

int main()

{

printf("运算结果: %d", bitAdd(3, 5));

return 0;

}

减法的实现再底层也是加法. 5 - 3 就相当于 5 + (-3). 同理乘除也是一样.

这篇的最后一个知识点—字节序.

计算机硬件有两种储存数据的方式: 大端字节序(big endian)和小端字节序(little endian)

比如1000 用大端字节序表示就是 0×03E8。

我们习惯读写大端字节序。所以,除了计算机的内部处理,其他的场合几乎都是大端字节序,比如网络传输和文件储存。不同处理器的存储方式也是不同的.

我们写个Demo看看本机是如何存储的.笔者使用的是Win10

#include

int main()

{

int a = 1000;

printf("存放地址: %p", &a);

return 0;

}

通过Visual Studio提供的调试工具我们查看内存.

37ba52991e4b

image

内存中存储的是 e803 . 这就是小端存储.

#include

int main()

{

int a = 0*1234;

char* p;

p = (char*)& a;

if (p == 0*12)

{

printf("大端存储");

}

else

{

printf("小端存储");

}

return 0;

}

利用这种方法可以判断本机的存储方式.

好啦。今天的分享就到这啦.

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值