深入浅出的理解js的原型链

什么是原型链

JavaScript是面向对象的,每个实例对象都有一个__proto__属性,该属性指向它的原型对象,这个实例对象的构造函数有一个原型属性prototype,与实例的proto属性指向同一个对象。当一个对象在查找一个属性的时候,自身没有就会根据__proto__向它的原型进行查找,如果都没有,则向它的原型的原型继续查找,直到查到Object.prototype.proto_为null,这样也就形成了原型链。

1、 简单看一下使用构造函数创建对象的原型体现

在这里插入图片描述
字写的太难看,简单看下,嘿嘿
js通过new 构造函数生成一个实例对象,实例对象的__proto__ 指向原型对象,构造函数通过prototype指向原型对象,而原型对象通过cunstructor指回构造函数
在这里插入图片描述通过实例对象的__proto__和构造函数的prototype做比较我们得到的上面如图所示的原型体现,从而衍生出原型链

通过图示以及代码实例我们清楚的认识到通过构造函数生成的实例对象可以通过__proto__指向到构造函数的原型对象。

但是我们也知道通过实例对象可以访问toString/toValues/isPrototypeOf方法,虽然在构造函数中我们没有往原型对象中添加这些方法,所以我们得到了所有函数的原型默认是 Object的实例,那么由此可以得到如下图所示
在这里插入图片描述
那我们就知道构造函数为啥能访问oString/toValues/isPrototypeOf这些方法了,因为这些方法挂载在Object的原型对象上,而所有函数的原型默认是 Object的实例,也就是说我们能通过一条链能访问到这些原型方法,这条链就是原型链。如下图所示
在这里插入图片描述

这就是通过构造函数生成的一条原型链,原型链的找到最顶级为null.
此次分享就到这里,希望能帮到大家
本人的字有点丑,好久不写字了,见谅!!!!!

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一个基于内存计算的分布式计算框架,它的工作原理可以简单概括为以下几个步骤: 1. Spark将输入数据划分成多个分区,并将这些分区分配到不同的节点上进行并行处理。 2. 在每个节点上,Spark会将数据加载到内存中,并对其进行转换和计算。这些计算可以包括过滤、排序、聚合等操作。 3. Spark使用RDD(弹性分布式数据集)来管理数据。RDD是一个不可变的分布式数据集合,可以在不同节点之间进行传输和操作。 4. Spark会将计算结果缓存在内存中,以便后续的计算可以更快地访问这些数据。 5. 当需要将计算结果输出时,Spark会将结果合并并输出到指定的存储介质中。 总的来说,Spark的工作原理可以归纳为分布式计算、内存计算和RDD管理。这些特性使得Spark在大规模数据处理和机器学习等领域具有很高的性能和灵活性。 ### 回答2: Spark是一个快速通用的集群计算系统,可以在分布式存储上快速进行数据处理。Spark的工作原理可以简单地概括为:将数据分成小块并分配到不同的计算机节点上并行处理,在块内使用内存计算来加速数据处理速度,最后将计算结果输出到分布式存储中。以下将从Spark的核心概念和工作流程两个方面进行深入浅出的详细解读。 第一部分:Spark的核心概念 1. Resilient Distributed Datasets(RDD): RDD是Spark的一个核心概念,它代表一个不可变的、分布式的数据集合,可以被并行处理。RDD可以计算的原因是因为它可以被分割成多个partition,在每个partition上都可以进行计算。 2. Transformation: Transformation是指从一个RDD中创建一个新的RDD,并且在新的RDD上执行计算。例如:map、filter、reduceByKey等操作均为Transformation。 3. Action: Action是指将RDD上进行计算并返回结果,这将触发Spark进行实际的计算。例如:count、collect、saveAsTextFile等操作均为Action。 第二部分:Spark的工作流程 1. Spark的运行基于Master和Worker节点之间的交互。数据被分割成一系列的RDDs,并且这些数据被分配到多个Worker节点上并行处理。 2. Worker节点上的Executor使用内存计算来加速计算过程。 3. 程序开始时,SparkContext对象创建一个Driver程序。Driver程序是指整个Spark程序的控制中心。 4. 驱动程序通过Cluster Manager向集群申请Executor资源。 5. 一旦资源分配完成后,驱动程序将计算任务打包成TaskSet,向Executor发出任务。 6. Executor开始执行计算任务,并将计算结果返回给Driver程序。 7. Driver程序将最终结果输出到外部存储系统(例如:HDFS、S3等)。 综上所述,Spark的工作原理可以总结为将数据分割成小块并分配到不同的计算机节点上并行处理,在块内使用内存计算来加速数据处理速度,最后将计算结果输出到分布式存储中。这一特点使Spark成为一个快速、通用的集群计算系统,被广泛应用于各种大小和类型的数据处理和分析任务。 ### 回答3: Apache Spark是一种大数据处理引擎,可以处理大规模的数据集并提供分布式计算功能。它是基于内存的计算框架,可在磁盘上存储数据集并在内存中进行处理,比传统的MapReduce框架快得多。Spark的主要组件是Spark Core,它提供了分布式任务调度,内存管理和相关功能的API。 在Spark中,任务被划分成多个阶段,每个阶段会被分成多个任务并在不同的集群节点上执行。Spark使用RDD(Resilient Distributed Dataset)作为其基本数据结构,RDD是一个可容错的不可变数据集合,它可以在集群节点上并行化处理以提高数据处理效率。它有两种操作类型:转换和动作。转换操作会返回新的RDD,而动作操作会返回结果或副作用。 Spark工作原理的基本流程如下: 1. 对输入数据进行划分和并推测计算 2. 对数据进行转换和过滤等操作 3. 对转换后的数据进行缓存 4. 进行计算和处理 5. 释放缓存的数据 Spark利用内存进行数据处理,因此其关键可以分为两方面: 1. 内存管理:Spark使用了管理内存的方法,对该方法的操作会影响Spark的性能。Spark中使用了三种方式来管理内存:堆内存、堆外内存、磁盘内存。堆内存是Spark的基本内存管理机制,堆外内存主要用来处理针对大数据的操作,磁盘内存通常被用来处理超过内存上限的数据。 2. 分布式计算:Spark的分布式计算是一个非常复杂的问题。为了保证计算负载的均衡,Spark采用了一种叫做Spark SQL的框架,这个框架可以让开发者通过写SQL查询语句来访问Spark的数据集。 总之,Spark是一个面向内存计算的框架,它提供了高度分布式、容错能力强且易于使用的API,以方便处理大规模的数据集。为了保证计算任务的高效运行,Spark使用了内存管理方法和复杂的分布式计算算法,这些算法可以优化数据集的处理,提供更好的计算结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值