Java面试集锦-----Java内存模型及内存间交互操作

今年9月份要找工作,无意间看到一篇博客,就想着把里面的知识点总结一下,巩固一下基础知识,为找工作做一些准备:
http://blog.csdn.net/pistolove/article/details/46753275

  • Java内存模型
  • 内存间交互操作

Java内存模型的概述

内存模型概念:屏蔽掉各种硬件和操作系统的内存访问差异,以实现让Java程序在各种平台下都能达到一致的内存访问效果。

Java内存模型目标: 定义程序中各变量的访问规则,即在虚拟机中将变量存储到内存和从内存中取出变量这样的底层细节。

  • Java内存模型的规定
    • 所有的变量都存储在主内存中。
    • 每条线程都有自己的工作内存。
    • 不同的线程之间无法直接访问对方工作内存中的变量,线程间变量值的传递均需要通过主内存才能完成。
  • 注意事项
    • 上述的变量包括实例字段、静态字段和构成数组对象的元素,但不包括局部变量和方法参数(以为它们是线程私有的,不共享)。
    • 线程的工作内存中存储了被改线程使用到的变量的主内存的副本拷贝,线程对所有操作都必须在工作内存中进行,而不能直接读写主存中的变量。
    • 这里讲的主内存、工作内存与Java内存区域中的Java堆、栈、方法区并不是同一层次的内存划分, 基本上没有关系。

内存间交互操做

存在两个问题:
1、一个变量如何从主内存拷贝到工作内存?
2、如何从工作内存同步回主内存?
对于这两个问题,Java内存模型中定义了8种操作来完成,虚拟机实现时必须保证下面提及的每一个操作都是原子的、不可再分的(double、long类型除外)。

  • 8种操作
    • lock(锁定):作用于主内存的变量,把一个变量标识为一条线程独占的状态。
    • unclock(解锁):作用于主内存的变量,把一个处于锁定状态的变量释放出来,释放后的变量才可以被其他线程锁定。
    • read(读取):作用于主内存的变量,把一个变量的值从主内存传输到线程的工作内存,以便随后的load动作使用。
    • load(载入):作用于工作内存的变量,把read操作从主内存中得到的变量值放入工作内存的变量副本中。
    • use(使用):作用于工作内存的变量,把工作内存中一个变量的值传递给执行引擎。
    • assign(赋值):作用于工作内存的变量,把执行引擎接收到的值赋给工作内存的变量。
    • store(存储):作用于工作内存的变量,把工作内存中一个变量的值传送给主内存中,以便随后的write操作使用。
    • write(写入):作用于主内存的变量,把store操作从工作内存中得到的变量的值放入主内存的变量中。
  • 操作的规定
    • 不允许read和load、store和write操作之一单独出现,即不允许一个变量从主内存中读取了但工作内存不接受,或者工作内存发起了回写但主内存不接受的情况出现。
    • 不允许一个线程丢弃它的最近的assign操作,即变量在工作内存中改变了之后必须把该变化同步到主内存。
    • 不允许一个线程无原因地(没有发生任何assign操作)把数据从线程的工作内存同步到主内存。
    • 一个新的变量只能在主内存中诞生,不允许在工作内存中直接使用一个未被初始化(load或assign)的变量,换句话说,就是对一个变量use、store操作之前,必须先执行过了assign和load操作。
    • 一个变量在同一时刻只允许一个线程对其进行lock操作,但lock操作可以被同一条线程重复执行多次,多次执行lock后,只有执行相同次数的unclock操作,变量才会被解锁。
    • 如果对一个变量执行lock操作,那么会清空工作内存次变量的值,在执行引擎使用这个变量前,需要重新执行load或assign操作初始化变量的值。
    • 如果对一个变量执行lock操作,那么会清空工作内存次变量的值,在执行引擎使用这个变量前,需要重新执行load或assign操作初始化变量的值。
    • 对一个变量执行unclock之前,必须先把此变量同步回主内存中(执行store、write操作)。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,以下是大数据分析工程师面试集锦3中关于sql/sparksql/hiveql的问题和回答: 1. 什么是SQL? SQL(Structured Query Language)是一种用于管理关系型数据库的标准语言,它可以用来查询、插入、更新和删除数据。 2. 什么是SparkSQL? SparkSQL是Apache Spark中的一个模块,它提供了一种用于处理结构化数据的API,可以将结构化数据作为RDD(Resilient Distributed Datasets)来处理,同时还支持SQL查询和DataFrame API。 3. 什么是HiveQL? HiveQL是Apache Hive中的一种查询语言,它类似于SQL,但是可以用于查询和分析存储在Hadoop分布式文件系统中的大数据集。 4. 什么是SQL注入攻击? SQL注入攻击是一种利用应用程序中的漏洞,向数据库中注入恶意代码的攻击方式。攻击者可以通过注入恶意代码来获取敏感信息或者破坏数据库。 5. 什么是Spark的RDD? RDD(Resilient Distributed Datasets)是Spark中的一个核心概念,它是一个不可变的分布式数据集,可以被分区和并行处理。RDD可以从Hadoop分布式文件系统、本地文件系统、Hive、HBase等数据源中创建。 6. 什么是Hive的分区? Hive的分区是将数据按照某个字段进行划分,将相同字段值的数据存储在同一个分区中,以便于查询和管理。分区可以提高查询效率和数据管理的灵活性。 7. 什么是Hive的Bucket? Hive的Bucket是将数据按照某个字段进行划分,并将相同字段值的数据存储在同一个Bucket中。Bucket可以提高查询效率和数据管理的灵活性,同时还可以用于数据的随机抽样和均匀分布。 8. 什么是Hive的UDF? Hive的UDF(User-Defined Function)是用户自定义的函数,可以用于扩展Hive的查询功能。UDF可以是一元函数、二元函数或者聚合函数,可以用Java或者其他编程语言编写。 9. 什么是Hive的UDAF? Hive的UDAF(User-Defined Aggregation Function)是用户自定义的聚合函数,可以用于扩展Hive的聚合查询功能。UDAF可以用Java或者其他编程语言编写。 10. 什么是Hive的UDTF? Hive的UDTF(User-Defined Table-Generating Function)是用户自定义的表生成函数,可以用于扩展Hive的查询功能。UDTF可以返回一个或多个表,可以用Java或者其他编程语言编写。 ### 回答2: 随着大数据技术的不断发展,大数据分析工程师的需求越来越大。在大数据分析工程师的面试中,SQL、Spark SQL和HiveQL都是必须掌握的技能。 SQL常见问题: 1.请简单说明什么是SQL语言? SQL(Structured Query Language)是一种用于管理关系数据库的语言,它可以用来创建、读取、更新和删除数据库中的数据。 2.请介绍SQL中的SELECT语句? SELECT语句是SQL中最常用的语句之一,它可用于从数据库中查询信息。SELECT语句所包含的子句有FROM、WHERE、GROUP BY、HAVING和ORDER BY等。 3.如何用SQL实现表的关联查询? 表的关联查询是SQL中非常常见的操作之一。对于两个表的关联查询,我们需要使用JOIN子句,JOIN子句必须指定两个表之的连接条件。 Spark SQL常见问题: 1.请简单说明什么是Spark SQL? Spark SQL是Spark生态系统中的一部分,它是一个高性能的分布式SQL引擎,可以在Hadoop上运行,支持SQL语言和Spark的数据操作,并且提供比基本RDD操作更有效的数据处理方法。 2.请简单介绍Spark SQL的DataFrame? DataFrame是Spark SQL的一项核心功能,类似于传统SQL中的表,它是一个分布式的行列数据集合。DataFrame支持多种数据源,包括HDFS、Hive、MySQL等,并支持多种数据格式。 3.如何使用Spark SQL进行聚合操作? Spark SQL支持所有常见的聚合操作,例如COUNT、SUM、AVG、MAX和MIN等。聚合操作需要使用GROUP BY 子句对数据进行分组,然后使用聚合函数对数据进行汇总。 HiveQL常见问题: 1.请简单说明什么是HiveQL? HiveQL是Apache Hive用于查询和分析数据的SQL-like语言。它将Hadoop HDFS中的结构化数据映射为一张数据库表,并提供了一个HiveQL控制台,可以使用标准的SQL语言对表进行查询和增强。 2.请简单介绍HiveQL中的自定义函数(UDF)? UDF(User-Defined Function)是HiveQL中的一项常见功能,它允许用户自定义函数来处理数据。用户可以根据具体需求编写自己的UDF函数。 3.如何使用HiveQL进行数据导入导出? HiveQL可以通过LOAD DATA和INSERT INTO语句实现数据导入和导出。HiveQL支持多种格式的数据源,例如CSV、JSON和Parquet等。 总之,SQL、Spark SQL和HiveQL都是大数据分析工程师必须熟练掌握的技能,面试时需要注意细节,并根据具体情况进行灵活应对。 ### 回答3: SQL/SparkSQL/HiveQL是大数据分析工程师必备的技能之一,因此在面试过程中也会经常涉及到这方面的问题。下面将针对SQL/SparkSQL/HiveQL的面试题目予以分析。 1. SQL语言的优势? SQL是结构化查询语言的缩写,主要用于管理关系数据库中的数据。在数据管理方面,SQL具有以下几个优点: (1)数据统计分析方便 (2)适合大规模数据处理 (3)易于使用,不需要编程技能 (4)容易维护和管理数据库 (5)支持事务管理 2. SQL的五种语句分类? SQL语言的五种语句分类分别为:数据定义语言DDL,数据查询语言DQL,数据操纵语言DML,事务控制语言TCL及数据控制语言DCL。 (1)数据定义语言DDL:用于定义数据库的结构,包括创建、修改和删除表、视图、索引等。 (2)数据查询语言DQL:用于查询数据库中的数据,包括SELECT语句,其中包含子查询、聚合函数、连接查询等。 (3)数据操纵语言DML:用于对数据库中的数据进行操作,包括插入、更新和删除等。 (4)事务控制语言TCL:用于维护数据库中的事务,包括COMMIT、ROLLBACK、SAVEPOINT等。 (5)数据控制语言DCL:用于控制数据库用户的访问权限和安全性,包括GRANT和REVOKE等。 3. SparkSQL与HiveQL的联系和区别? SparkSQL是Apache Spark中的SQL解决方案,支持在Spark平台上对数据进行分析和处理。它能够支持多种数据源,这是它与HiveQL最大的不同点。 HiveQL是Apache Hadoop生态圈中的数据仓库模块,在处理大规模数据分析方面有很强的优势。与SparkSQL的数据源兼容性不同,HiveQL主要支持Hadoop生态圈中的各种存储格式。 另外,SparkSQL支持交互式分析和实时计算,而HiveQL更适合批处理分析。在实时处理方面,SparkSQL有更好的性能表现。 4. HiveQL中mapreduce与tez的区别?优点? MapReduce是Hadoop生态圈中最核心的应用框架之一,用于处理和分析大批量数据。在HiveQL的MapReduce模式中,所有的查询都需要经过MapReduce的过程进行计算和处理。 与之不同的是,Tez运行MapReduce作业时,它自己通过DAG(有向无环图)自动完成Map和Reduce操作。这对于那些需要耗费大量计算资源的任务来说是非常有好处的。此外,Tez可以减少HiveQL中的查询时,提高查询效率,适用于大规模数据处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值