自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 第七章 继承

继承是java面向对象编程技术的一块基石,因为它允许创建分等级层次的类。继承就是子类继承父类的特征和行为,使得子类对象(实例)具有父类的实例域和方法,或子类从父类继承方法,使得子类具有父类相同的行为。习惯地称子类与父类是"is-a”关系。父类更通用,子类更具体。我们来举个例子:动物有很多种,是一个比较大的概念。在动物的种类中,我们熟悉的有猫(Cat)、狗(Dog)等动物,它们都有动物的一般特征(比如能够吃东西,能够发出声音),不过又在细节上有区别(不同动物的吃的不同,叫声不一样)。

2023-06-06 23:00:25 144

原创 第六章 类与方法进阶

因为它接受的是多个参数的数组。这样可以避免在调用方法时出现参数歧义。

2023-05-30 13:28:49 144

原创 第五章 类与面向对象初步

在本章中,我们将研究Java编程中非常重要的概念 - 面向对象编程。我们将学习什么是面向对象编程,以及如何编写我们自己的类并从中创建对象。

2023-05-24 18:11:50 129

原创 第四章 控制语句

Java语言使用控制语句来引导程序执行流程并根据程序状态的变化进行分支。Java的程序控制语句可以分为以下几类:选择语句、迭代语句和跳转语句。选择语句使程序能够根据表达式的结果或变量的状态选择不同的执行路径。迭代语句使程序能够重复执行一个或多个语句(即迭代语句形成循环)。跳转语句允许程序以非线性方式执行。在这一章我们将讨论所有的控制语句。

2023-04-27 11:13:47 135

原创 第三章 操作符

Java 提供了丰富的操作符。它的大部分操作符可以分为以下四组:算术、位、关系和逻辑操作符。Java 还定义了一些处理特定情况的额外操作符。本章节介绍了除类型比较运算符 instanceof和箭头运算符(−>)之外的所有Java运算符。

2023-04-19 23:11:29 230

原创 第二章 变量

答:在Java中,常量是指不可更改的值,也称为“final变量”。它们可以是基本数据类型,如int和double,也可以是引用类型,如字符串和数组。声明常量时必须使用关键字“final”,一旦赋值,就不能再更改。什么是自动装箱和自动拆箱?答:在Java中,自动装箱是指将基本数据类型转换为其相应的包装器类型的过程,例如将int转换为Integer。自动拆箱是指将包装器类型转换为其相应的基本数据类型的过程,例如将Integer转换为int。这些转换由Java编译器自动完成。什么是类型推断?

2023-04-12 12:58:02 117

原创 第一章 JAVA概述

JRE(Java运行时环境):JRE(Java运行时环境)是一个包含了JVM(Java虚拟机)、Java类库和其他必要组件的软件环境,用于在计算机上运行Java程序。与JDK不同,JRE只提供了运行Java程序所必需的组件,而不包括开发Java程序所必需的工具。JDK指的是Java Development Kit,是一个由Oracle提供的Java开发工具包,包含了开发Java应用程序所需的各种组件,如Java编译器、Java运行时环境(JRE)、Java API类库、Java文档等等。

2023-04-06 12:16:39 67

原创 Vision Transformer(VIT)

Vision Transformer(ViT)是一种新兴的图像分类模型,它使用了类似于自然语言处理中的Transformer的结构来处理图像。这种方法通过将输入图像分解成一组图像块,并将这些块变换为一组向量来处理图像。然后,这些向量被输入到Transformer编码器中,以便对它们进行进一步的处理。ViT在许多计算机视觉任务中取得了与传统卷积神经网络相当的性能,但其在处理大尺寸图像和长序列数据方面具有优势。

2023-03-26 01:23:13 3958

原创 Transformer导论之GPT

GPT全称为Generative Pre-trained Transformer,它使用了Transformer中的Decoder架构,并通过大规模的无监督预训练来提高模型的表现力。在预训练阶段,GPT通过处理大量的无标注文本数据,学习到了语言的统计规律和上下文信息。在实际应用时,GPT可以通过微调(fine-tuning)的方式,根据具体任务的需求,对预训练的模型进行微小的调整,从而适应不同的文本生成、问答等任务。GPT在自然语言生成和处理任务上表现出色,在多个公开数据集上都取得了很好的成绩。

2023-03-25 15:59:05 1977

原创 Transformer导论之—Bert

BERT,全称为“Bidirectional Encoder Representations from Transformers”,是一种预训练语言表示的方法,意味着我们在一个大型文本语料库(如维基百科)上训练一个通用的“语言理解”模型,然后将该模型用于我们关心的下游NLP任务(如问答)。BERT的表现优于之前的传统NLP方法,因为它是第一个用于预训练NLP的无监督的、深度双向系统。Bert是利用无标签建模的,当谈到NLP语料库中的无标签和有标签数据时,一个常见的例子是将文本分类任务。

2023-03-25 01:58:43 315

原创 Transformer导论1 Transformer

Self-attention机制是一种将输入序列的不同部分关联起来的方法,可以在不引入循环或卷积结构的情况下学习到序列中的全局依赖关系。在self-attention中,每个输入元素都会计算一个注意力得分,该得分衡量它与其他元素之间的相对重要性,并用这些得分来计算一个加权和。

2023-03-24 23:09:54 241

原创 PAT (Basic Level) Practice (中文)1044 火星数字 (20 分) map 映射的应用

PAT (Basic Level) Practice (中文)1044 火星数字 (20 分) map 映射1. std::maptemplate < class Key, // map::key_type class T, // map::mapped_type class Compare = less&l

2022-02-05 21:46:52 111

原创 I Think I Need a Houseboat

水题DescriptionFred Mapper is considering purchasing some land in Louisiana to build his house on. In the process of investigating the land, he learned that the state of Louisiana is actually shrinking by 50 square miles each year, due to erosion caused by

2020-10-31 00:33:44 90

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除