再多学一点就爆炸,初识JAVA面向对象,超详解!

再多学一点就会爆炸,在近一点就会融化!今天我们学的是面向对象。

面向对象

与我们之前学过的c语言不同,它是面向过程的语言,而Java是一门纯面向对象的语言(OOP),那么什么是面向过程,什么是面向对象?

举一个大家都听过的脑筋急转弯,把大象装进冰箱要分几步?如果我们按照面向过程的思想去思考的话,我们需要想怎么打开冰箱门,怎么把大象装进去,怎么关上冰箱门。而我们按照面向对象的思想去思考的话就是,打开冰箱门,把大象装进去,关上冰箱门。这整个过程是人,大象,冰箱三个对象之间交互完成的,至于冰箱是怎么打开的,大象是怎么装进去的,人不需要去关心,人只需要打开冰箱,把大象塞进去,关上冰箱即可。

注意:面向过程和面向对象不是一门语言,而是解决问题的方法。

类和对象

《Java编程思想》中提到“万物皆为对象”的概念。对象又是个什么呢?我就是一个对象,如何描述我这个对象呢?这时候就引出了类的概念,类是用来描述一个对象,通过class这个关键字来实现一个类,类名一般用大驼峰方式取名,类由对象的属性和方法(行为)构成,例如我的属性有身高、体重等等,行为有吃饭、睡觉等。一个类可以构造很多的对象,就像你可以根据一份图纸(类),构造出许多的房子(对象),用上面的我这个对象来说,你可以构造一个高富帅的我,也可以构造很高很富很帅的我,用new这个关键字创实例化对象。

class Person{
//属性(成员变量)
public double height;
public boolean wealthy;
public boolean handsome;

//行为
public void sleep(){
System.out.print("我在睡觉");
}

public void eat(){
System.out.print("我在吃饭");
}

}
public class Main{
public static void mian(String[] args){
Person person1 = new Person();
Person person2 = new Person();
}
}

 此代码实例化了2个对象,person1、person2,这2个变量是在虚拟机栈区的,但对象是在堆区的,类中定义的属性也在堆区但是方法在方法区(方法不占内存,当调用时才会在方法区开辟内存)。person1、person2这两个是引用变量(类似于c中的指针变量)用来接收堆区对象的地址的哈希值(跟地址一样值是唯一的)。

上面谈到了内存区,我们就来简单说说Java的内存。

1.方法区 2.Java栈  3.本地方法栈(用来写c语言) 4.堆区 5.程序计数器 

如何初始化对象(5种方法)

1.就地初始化

class Person{
//属性(成员变量)
public double height = 1.8;
public boolean wealthy = true;
public boolean handsome = true;
}

2.带有参数构造方法初始化

什么是构造方法呢?构造方法是方法名和类名一样,没有返回值(void也不行,不然会报错),一般用public修饰。要想实例化一个对象,必须得有构造方法。那上面代码为什么没有构造函数,那是因为JAVA在我们没写构造函数时会默认提供一个无参的构造函数。但需要注意的是,如果你写了构造函数,JAVA不会提供默认的构造函数。

class Person{
//属性(成员变量)
public double height;
public boolean wealthy;
public boolean handsome;


public Person(int height,boolean wealthy,boolean handsome){
this.height = height; //this.代表是这个类的成员变量,如果不加该段代码会报错
this.wealthy = wealthy;
this.handsome = handsome;
}

}

public class Main{
public static void mian(String[] args){
Person person1 = new Person(1.8,true,true);
Person person2 = new Person();//注意这段代码会报错,因为你已经写了带有两个参数的构造函数,JAVA不会提供无参的构造函数,而此时你调用了无参的构造函数,所以会报错;
}
}

3.引用初始化

当我们实例化了一个对象之后,我们该如何去调用该对象的成员和方法呢?这时我用.这个运算符就能找到并使用该对象的成员和方法了。

class Person{
//属性(成员变量)
public double height;
public boolean wealthy;
public boolean handsome;
}

public class Main{
public static void mian(String[] args){
Person person = new Person();
person.height = 1.8;
person.wealthy = true;
person.handsome = true;
}
}

4.代码块初始化

代码块分为1.局部代码块(用的少):在方法定义中定义的{},作用是限定局部变量的生命周期。

                  2.构造代码块:{};在执行构造方法之前先执行构造代码块,然后对成员变量初始化。

                 3. 静态代码块:static{};在类加载的时候就执行,该代码块中只能有静态变量。注意:不管你new多少个对象,静态代码块只执行一次,因为这是属于类的,所有对象共用一个。

注意:当三种形式不止一次出现,同优先级是按照先后顺序执行的。

    class Test {
    public double height;
    public boolean wealthy;
    public boolean handsome;

    {
        System.out.println("构造块");
        this.height = 1.8;
        this.wealthy = true;
        this.handsome = true;
    }

    static {
        System.out.println("静态块");
    }

    public Test() {
        System.out.println("构造方法代码");
    }

}
public class Main{
public static void main(String[] args) {
   {
   System.out.println("局部代码块");
   int y = 10;
   }
//System.out.println(y);该代码错误,因为y这个变量生命周期没了
       Test test1 = new Test();
       Test test2 = new Test();
    }
}

上述代码运行结果是: 

5.调用函数初始化

class Person{
//属性(成员变量)
public double height;
public boolean wealthy;
public boolean handsome;

public void setHeight(double height){
this.height = height;
}

public double getHeight(double height){
return this.height;
}

}

public class Main{
public static void mian(String[] args){
Person person = new Person();
person.setHeight(1.8);

}
}

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: Spark是一种大数据处理的框架,它可以处理大量的数据并进行分析。初者可以通过习Spark的基本概念和使用方法,了解Spark的工作原理和应用场景。在习Spark的过程中,需要掌握Spark的核心组件和API,例如Spark Core、Spark SQL、Spark Streaming等。此外,还需要习Spark的部署和调优,以及与其他大数据技术的集成。 ### 回答2: Spark是一种基于内存的分布式计算框架,是大数据处理中最流行的技术之一。Spark简单易用,能够快速地处理海量数据,尤其是在机器习和数据挖掘领域中表现突出。本文将从初识Spark的角度入手,介绍Spark的基本概念和使用。 一、Spark的基本概念 1. RDD RDD全称为Resilient Distributed Datasets,中文意思是弹性分布式数据集,它是Spark的核心数据结构。RDD是一个不可变的分布式的对象集合,可以跨越多个节点进行并行处理。一个RDD可以分为多个分区,每个分区可以在不同的节点上存储。 2. DAG DAG即Directed Acyclic Graph(有向无环图),它是Spark中的一个概念,用来表示作业的依赖关系。Spark将一个作业拆分成一系列具有依赖关系的任务,每个任务之间的依赖形成了DAG。 3. 窄依赖和宽依赖 对于一个RDD,如果一个子RDD的每个分区只依赖于父RDD的一个分区,这种依赖就称为窄依赖。如果一个子RDD的每个分区依赖于父RDD的多个分区,这种依赖就称为宽依赖。宽依赖会影响Spark的性能,应尽量避免。 二、Spark的使用 1. 安装Spark 要使用Spark,首先需要在本地或者集群上安装Spark。下载安装包解压缩即可,然后设置环境变量,即可在命令行中运行Spark。 2. Spark Shell Spark Shell是Spark的交互式命令行界面,类似于Python的交互式控制台,可以快速测试Spark代码。在命令行中输入spark-shell即可进入。 3. Spark应用程序 除了Spark Shell,Spark还支持以应用程序的形式运行。要创建一个Spark应用程序,可以使用Scala、Java、Python等语言进行编写。使用Spark API,读取数据、处理数据、保存数据等操作都可以通过编写代码完成。 总之,Spark是一种优秀的分布式计算框架,能够在海量数据处理中发挥出强大的作用。初者可以从掌握RDD、DAG、依赖关系等基本概念开始,逐步深入习Spark的使用。 ### 回答3: Spark是一种快速、分布式数据处理框架,它能够在成千上万个计算节点之间分配数据和计算任务。Spark的优势在于它支持多种语言和数据源,可以在内存中快速存储和处理数据。 在初Spark时,我们需要对Spark的架构和核心组件有一些了解。首先,Spark的核心组件是Spark Core,它是一个可以用于建立各种应用程序的计算引擎。与此同时,Spark持有丰富的库,包括Spark SQL、Spark Streaming、MLLib和GraphX等,以支持在各种数据类型(文本、图像、视频、地理定位数据等)上运行各种算法。 若想要在Spark中进行任务,有两种编程API可供选择:Spark的核心API和Spark的SQL及DataFrame API。Spark的核心API基于RDDs(弹性分布式数据集),它是不可变的分布式对象集合,Spark使用RDD来处理、缓存和共享数据。此外,Spark的SQL及DataFrame API提供了更高层次的语言,可以处理结构化和半结构化数据。 除了组件和API之外,我们还需要了解Spark的4个运行模式:本地模式、Standalone模式、YARN模式和Mesos模式。本地模式由单个JVM上单个线程(本地模式)或四个线程(local[*]模式)运行。Standalone通常用于小规模集群或开发和测试环境。在YARN或Mesos模式下,Spark将任务提交给集群管理器,并通过管理器分配和管理资源。 总体来说,初Spark时,我们需要了解Spark的核心组件、编程API和运行模式。熟悉这些概念以及Spark的架构,可以帮助我们更好地理解Spark和构建高效且可扩展的Spark应用程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值