操作符详解

一、算数操作符

+    -   *   /   %

(1)对于 / 操作符如果两个操作数都为整数,执行整数除法。而只要有浮点数执行的就是浮点数除法

二、移位操作符

<< 左移操作符

>> 右移操作符

(1)移位操作符的操作数只能是整数。

(2)移动的是二进制位

整数的二进制表示形式有三种:

原码、反码、补码

原码:

(1) 按照数值正负,直接写出的二进制序列

(2) 对于无符号整数来说,符号位为1表示负数、0表示正数

     对于无符号整数来说,没有符号位(unsigned int)

反码:

原码符号位不变,其他位置按位取反

补码:

(1) 反码的二进制+1

(2) 整数在内存中存储的是补码,计算的时候使用的也是补码

(3) 减一取反得到原码

(对于正的整数:原码、反码、补码相同)

(对于负的整数:原码、反码、补码需计算)

<<左移操作符:

二进制补码左边丢弃一位,右边空位补0(相当于乘2)

>> 右移操作符:

右移运算分两种:编译器不同,选择不同

(1) 逻辑右移

右边丢弃,左边用0填充(与左移类似)(相当于除2)

(2) 算术右移

右边丢弃,左边用原该值的符号位填充

与原正负相同

三、位操作符:

& 按位与:

对应二进制补码中,两个同时为1才为1(0大)

| 按位或:

对应二进制补码中,两个同时为0才为0(1大)

^ 按位异或:

相同为0,相异为1

a^a=0

a^0=a

操作数必须是整数

不创建临时变量(第三个变量),实现两个数的交换

编写代码实现:求一个整数存储在内存中的二进制中1的个数

一个整数在内存中有32比特位

&1能得到最低位

>>1

(作业)

四、赋值操作符:

五、复合赋值符

+=  -=  *=  /=  %=  >>=  &=  |=  ^=

六、单目操作符(只有一个操作符)

!           逻辑反操作

-           负值

+           正值

&           取地址

*           间接访问操作符(解引用操作符)

sizeof      操作数的类型长度(以字节为单位)

(1)sizeof 是在计算类型创建变量或者变量的大小,单位是字节

(2)sizeof 计算的结果是size_t 类型,是无符号整型的,对size_t 类型的数据进行打印,可以使用%zd

(3)sizeof 后面的括号在括号中写的不是类型的时候,括号可以省略,说明sizeof不是函数,而是操作符 - 单目操作符

~           对一个数的二进制按位取反

--          前置、后置--

++          前置、后置++

对本身无影响,都是自增1,但是对被赋值的数有影响,前置为自增后的值,后置为原值

(类型)       强制类型转换

七、条件操作符

exp1 ? exp2 : exp3

唯一的一个三目操作符

八、逗号表达式

exp1, exp2, exp3, …expN

逗号表达式,从左向右依次执行。整个表达式的结果是最后一个表达式的结果

九、访问一个结构的成员

. 结构体.成员名

-> 结构体指针->成员名

十、表达式求值

隐式类型转换

整型提升(类型<=int)

char short

表达式中的字符和短整型操作数在使用之前被转换为普通整型

int - signed int、unsigned int

char 到底是signed char还是unsigned char是不确定的,C语言标准没有明确指定,是取决于编译器的

在当前使用的VS上,char == signed char

实例2中的,c只要参与表达式运算,就会发生整形提升,表达式 +c ,就会发生提升,所以 sizeof(+c) 是4个字节

表达式 -c 也会发生整形提升,所以 sizeof(-c) 是4个字节,但是 sizeof(c) ,就是1个字节

算术转换(类型>=int)

如果某个操作符的各个操作数属于不同的类型,那么除非其中一个操作数的转换为另一个操作数的类型,否则操作就无法进行

寻常算术转换

long double

double

float

unsigned long int

long int

unsigned int

int

从下往上转换(下小上大)

十一、操作符的属性

一些问题表达式

a*b + c*d + e*f

c + --c;

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值