萌新的java学习日记

Java学习——jdk安装和配置

前言

您好,感谢您能观看我的博客。作为一个对java非常爱好的入门者,我将会记录下我的学习和成长历程。希望各位大佬能够对我的错误和不足提出纠正和指导,如果您是和我一样的小白,希望能对看到的您有所帮助!!!

jdk的简介

JDK是 Java 语言的软件开发工具包,主要用于移动设备、嵌入式设备上的java应用程序。JDK是整个java开发的核心,它包含了JAVA的运行环境(JVM+Java系统类库)和JAVA工具。
以上资料来源于百度百科
———————————————————————————————————————————————————————
以上的都是专业官方的解释说法,个人认为作为了解,知道是java编译运行的工具就好。

jdk的下载及安装细节

  • 下载–jdk下载,无需太多赘述,需要注意的就是两个点,第一是版本,不一定最新的就是最好的,具体的按照你学习的来决定。第二是你的操作系统,需要看你是64还是32位位的操作系统。(查看方法右键我的电脑–属性–系统类型)

  • 安装–找到你下载的地址,打开安装文件。进入安装界面后点击更改,将其安装到你想要安装的地址。(不需要再安装jre,因为jdk自带就有jre)安装完成后文件是这样的。
    -在这里插入图片描述

  • 配置
    安装好了之后,我们该怎样在我的电脑的任意地址都能使用它呢。这就需要我们去配置了。
    首先我们需要右键我的电脑—属性–高级系统设置。
    在这里插入图片描述
    点开后会出现这样的界面,找到环境变量这个选项点击它。
    在这里插入图片描述
    点击新建一个JAVA_HOME的环境变量(变量值为你点开jdk文件后的路径)。
    在这里插入图片描述
    在这里插入图片描述
    环境变量创建完毕之后,我们还需要安装一个path环境变量。(变量值输出:%JAVA_HOME%\bin)、
    在这里插入图片描述
    这一切完成后,我们的配置就算完成了,现在来检验一下我们的是否安装成功。win+r打开dos命令窗口,然后输出cmd
    在这里插入图片描述
    用dos窗口输出java,java -version去查看是否完成
    在这里插入图片描述
    到这里所有的配置就已经完成了。

                                             									java学习第二天-------与其青梅酒
    
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值