数据类型 运算符 变量 常量

一、数据类型

1、八大基本数据类型:对象世界里最底层的不可再细分的东西

类型关键字值的范围
逻辑booleanfalse或true
字节byte-128~127
短整数short-32768~32767
整数int-2的31次方~2的31次方-1
长整数long-2的63次方~2的63次方-1
浮点数float7位有效数字
双精度浮点数double15位有效数字
字符char所有字符

2、整数有4种类型:字节、短整数、整数和长整数;浮点数有两种类型:浮点数和双精度浮点数
3、字符串
字符串不是基本数据类型,在Java中用类String来表达字符串,一个字符串常量由一串字符组成
4、逃逸字符
逃逸字符用来表达容易混淆的字符

逃逸字符意义
\b后退一个字符
\t到下一个制表定位处
\n换行
\r回车
\”双引号
\’单引号
\ \反斜杠本身

二、运算符

1、运算符是指进行运算的动作;表达式是一系列运算符和算子的组合,用来计算一个值。
2、赋值表达式
赋值是给一个已经存在的变量进行赋值,如sides = 7;
与之易混淆的初始化是指声明一个变量并赋值,如int sides = 7;
3、算术运算
(1)几种运算符及优先级

优先级运算符运算结合关系
1-单目的-从右到左
2* / %乘 除 取余从左到右
3+ -加 减从左到右
4=赋值从右到左

注:两个整数/的结果是除法结果的整数部分,如5/2结果为2
参与运算的两个算子有一个是浮点数,整数会先自动转换为浮点数再计算
%意思是取余,如5%2结果为1
注意结合关系,有时候会习惯性的从左到右运算,如计算result = 2; result = (result=result*2)6(result=3+result);

(2)++和–
++和–叫单目运算符,意思是只有一个算子,而且必须是变量,作用是+1或-1
a++,a做自加以前的值;++a,a做自加以后的值,不过最后都+1。
例子:a = 14; t1 = a++; t2 = ++a; t1值为14,t2值为15

(3)累计赋值
+=,-=,*=,/=和%=
记住一点:= 右边的表达式要先计算,然后再和左边的变量进行计算。

4、类型转换
类型转换即各种不同基本数据类型之间的转换,分为自动类型转换和强制类型转换。
(1)自动类型转换:可以自动进行

转换到
byteshort,int,long,float,double
shortint,long,float,double
charint,long,float,double
intlong,float,double
longfloat,double
floatdouble

(2)强制类型转换:把要转换的值前边加上小括号,括号里面写上要转换的类型,如
int a = (int)5.0;注意,不是所有的都能转换。
5、关系运算和逻辑运算
(1)关系运算符

运算符意义
==相等
!=不相等
<小于
<=小于或等于
>大于
>=大于或等于

(2)逻辑运算符

运算符描述样例
!!a
&&a&&b
||a| |b

三、变量

1、概念:变量是程序中存放数据的地方
2、格式:类型名 变量名 = 初始值;或 类型名 变量名
3、例子:int count; double d1 = 3;
4、规则:在Java中必须先声明再使用

四、常量

1、概念:常量是一种特殊的变量,它的值被设定后,在程序运行过程中不允许被改变
2、格式:final 常量名=值;
3、例子:final double PI = 3.14; final String LOVE = “imooc”;
4、规则:常量名一般使用大写字符,内含单词间用_连接,必须初始化。
5、作用:程序中使用常量可以提高代码的可维护性。例如,在项目开发时,我们需要指定用户的性别,此时可以定义一个常量SEX,赋值为”男”,在需要指定用户性别的地方直接调用此常量即可,避免了用户的不规范赋值导致程序出错的情况。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值