Java学习13--面向对象学习 1.初识面向对像

OOC: object-oriented programming面向对象编程

  • 面向对象编程

面向对象编程OOP-object oriented programming是java的核心思想
面向对象object,多人协作,适合处理复杂问题(将整体工作拆解,每个人写一个模块,需要交工的时候,按一定顺序互相调动彼此模块的输出,即能快速出活,这么干的原因是,一个人按部就班干活干不完,而且太慢了,地基泥匠水电瓦工全得一个人弄,技术要求高而且一步一步来太慢了)

面向对象学习 1.初识面向对像

知识回顾:
方法method定义:method就是仅在召唤时候才动弹的代码块,可以喂给它data或者parameter;有特定功能的method叫做function
“属性Field”和“方法method” 汇聚在一起 就形成了 一个“类class”

举例:男孩(boy)和女孩(girl)和婴儿toddler都在people类(class)之中,而具体的每个人为该类的对象(object);
换言之 10岁boy 或者8岁girl或者1岁toddler 同属于people class里面不同的object 

class是一个模板,他描述了某一类object的行为和状态

再举例 有一个class是车类

其下面的object可能是

2009年产红色nissan micra	
2015年产绿色jeep cherokee	
2021年产蓝色volvo XC90	
2027年产黑色volkswagen atlas

所以新建一个class车类,就是新建一个写着很多属性Field的class 其中,这些属性Field都是有关车的东西,比如颜色 生产年份 出品商 产地 型号等等

知识补充:面向过程(Process-oriented programming) v.s. 面向对象

与面向object对应的,还有面向process;
面向object更多是块状的,但是面向process更多是线性的。

举例,比如需要【喝一口茶】,对于面向process,过程类似一条线:
第一步洗茶壶茶碗烧水壶;第二步打开水龙头接凉水到烧水壶;第三步打开煤气将烧水壶放下;第四步等待水温度到100度并关火;第五步将茶叶放在茶壶中;第六步将烧开的水倒进茶壶中;第七步将茶水倒进茶碗中;第八步【喝一口茶】

需要【喝一口茶】,对于面向object,过程类似激活各个模块
第一步启动function烧水,给予input 凉水 等待return 热水
第二步启动function泡茶,给予input 热水+茶叶+茶壶+茶杯 等待return 茶水+茶杯
第三步【喝一口茶】

从宏观讲肯定是object-oriented,因为如果需要完成一个复杂的project,可以把它先拆解成几个大模块,这就是面向object。
具体到每个模块需要怎么完成,在微观层面来说,那属于Process-oriented,终究还是得面向process(一步一步按顺序来)。

什么是面向对象

面向对象的本质:以class的方式组织编码,用object的组织封装数据。(如果不理解skip这里 先往下看)

建立class本质就是抽象,将很多object抽出一些共同点,建立出class。比如医生class,里面可能包含有 工号 性别 姓名 科室等。

class带着object们提取的共同点,制作出包含这些object的field的模板,这就是class。

面向对象的三大特性–1封装2继承和3多态:

  • 封装(就是有一定功能的代码块,可给它喂数据,它会吐结果)
  • 继承(比如 骨科医生class是医生class的子类,那么骨科医生class也有 工号 性别 姓名 等field,这些工号 性别 姓名 是从医生class那里继承的)
  • 多态(同一个模块,随着给的输入不同,输出结果不同)
  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一种大数据处理的框架,它可以处理大量的数据并进行分析。初学者可以通过学习Spark的基本概念和使用方法,了解Spark的工作原理和应用场景。在学习Spark的过程中,需要掌握Spark的核心组件和API,例如Spark Core、Spark SQL、Spark Streaming等。此外,还需要学习Spark的部署和调优,以及与其他大数据技术的集成。 ### 回答2: Spark是一种基于内存的分布式计算框架,是大数据处理中最流行的技术之一。Spark简单易用,能够快速地处理海量数据,尤其是在机器学习和数据挖掘领域中表现突出。本文将从初识Spark的角度入手,介绍Spark的基本概念和使用。 一、Spark的基本概念 1. RDD RDD全称为Resilient Distributed Datasets,中文意思是弹性分布式数据集,它是Spark的核心数据结构。RDD是一个不可变的分布式的对象集合,可以跨越多个节点进行并行处理。一个RDD可以分为多个分区,每个分区可以在不同的节点上存储。 2. DAG DAG即Directed Acyclic Graph(有向无环图),它是Spark中的一个概念,用来表示作业的依赖关系。Spark将一个作业拆分成一系列具有依赖关系的任务,每个任务之间的依赖形成了DAG。 3. 窄依赖和宽依赖 对于一个RDD,如果一个子RDD的每个分区只依赖于父RDD的一个分区,这种依赖就称为窄依赖。如果一个子RDD的每个分区依赖于父RDD的多个分区,这种依赖就称为宽依赖。宽依赖会影响Spark的性能,应尽量避免。 二、Spark的使用 1. 安装Spark 要使用Spark,首先需要在本地或者集群上安装Spark。下载安装包解压缩即可,然后设置环境变量,即可在命令行中运行Spark。 2. Spark Shell Spark Shell是Spark的交互式命令行界面,类似于Python的交互式控制台,可以快速测试Spark代码。在命令行中输入spark-shell即可进入。 3. Spark应用程序 除了Spark Shell,Spark还支持以应用程序的形式运行。要创建一个Spark应用程序,可以使用Scala、Java、Python等语言进行编写。使用Spark API,读取数据、处理数据、保存数据等操作都可以通过编写代码完成。 总之,Spark是一种优秀的分布式计算框架,能够在海量数据处理中发挥出强大的作用。初学者可以从掌握RDD、DAG、依赖关系等基本概念开始,逐步深入学习Spark的使用。 ### 回答3: Spark是一种快速、分布式数据处理框架,它能够在成千上万个计算节点之间分配数据和计算任务。Spark的优势在于它支持多种语言和数据源,可以在内存中快速存储和处理数据。 在初学Spark时,我们需要对Spark的架构和核心组件有一些了解。首先,Spark的核心组件是Spark Core,它是一个可以用于建立各种应用程序的计算引擎。与此同时,Spark持有丰富的库,包括Spark SQL、Spark Streaming、MLLib和GraphX等,以支持在各种数据类型(文本、图像、视频、地理定位数据等)上运行各种算法。 若想要在Spark中进行任务,有两种编程API可供选择:Spark的核心API和Spark的SQL及DataFrame API。Spark的核心API基于RDDs(弹性分布式数据集),它是不可变的分布式对象集合,Spark使用RDD来处理、缓存和共享数据。此外,Spark的SQL及DataFrame API提供了更高层次的语言,可以处理结构化和半结构化数据。 除了组件和API之外,我们还需要了解Spark的4个运行模式:本地模式、Standalone模式、YARN模式和Mesos模式。本地模式由单个JVM上单个线程(本地模式)或四个线程(local[*]模式)运行。Standalone通常用于小规模集群或开发和测试环境。在YARN或Mesos模式下,Spark将任务提交给集群管理器,并通过管理器分配和管理资源。 总体来说,初学Spark时,我们需要了解Spark的核心组件、编程API和运行模式。熟悉这些概念以及Spark的架构,可以帮助我们更好地理解Spark和构建高效且可扩展的Spark应用程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值