JSON学习之XOM的认识

开始学习JSON了,那么很自然的,我开始要熟悉一些基本的JSON语法

{}代表对象,[]代表数组,好了,看起来都挺简单的。

然后我开始学着用json-lib来转换对象到json

先来看一段代码

public void JSONObjectTest001() {
		JSONObject jsonObject = JSONObject.fromObject(new Book());
		System.out.println(jsonObject);

	}
可是光这样是不能执行的,我们还需要有maven的包依赖配合

<dependency>
			<groupId>net.sf.json-lib</groupId>
			<artifactId>json-lib</artifactId>
			<version>2.4</version>
			<classifier>jdk15</classifier>
		</dependency>

关于为什么在classifier这里加入jdk15我在另一篇文章中有提到过,这里就不多说了


然后开始从JSON对象转换成XML

public void JSONObjectToXML001() {
		JSONObject jsonObject = JSONObject.fromObject(new Book());
		try {
			XMLSerializer xml = new XMLSerializer();
			String xmlStr = xml.write(jsonObject);
			System.out.println(xmlStr);
		} catch (Exception e) {
			e.printStackTrace();
		}
	}
好了,这么一来看起来不错吧,但是问题就来了,报了个错误
Exception in thread "main" java.lang.NoClassDefFoundError: nu/xom/Serializer

at cn.edu.ken.commons.TestMain.JSONObjectToXML001(TestMain.java:17)

at cn.edu.ken.commons.TestMain.main(TestMain.java:28)

Caused by: java.lang.ClassNotFoundException: nu.xom.Serializer

at java.net.URLClassLoader$1.run(URLClassLoader.

别急,我去网上又搜索了一下,果然是少了什么包,好原来是少了XOM的包,那么我们用maven再次导入

<dependency>
			<groupId>xom</groupId>
			<artifactId>xom</artifactId>
			<version>1.2.5</version>
		</dependency>

这样,程序执行后,xml就正常的输出了

<?xml version="1.0" encoding="UTF-8"?>
<o><author type="string"/><id type="number">0</id><name type="string"/></o>

最后来总结下,xom是个什么东西

根据http://www.xom.nu/解释:XOM™ is a new XML object model. It is an open source (LGPL), tree-based API for processing XML with Java that strives for correctness, simplicity, and performance, in that order.

是新型的xml对象模型,开源,树形的java api。好处就是可以有保证xml的正确性,渐变性和高执行性能。


同样的问题,在这里看到解决方案

http://www.coderanch.com/t/545109/vc/JSON-XMLSerializer-class-error



  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL与普通SQL的不同主要有以下几点: 1. 数据源:Spark SQL可以处理多种数据源,包括Hive、JSON、Parquet、ORC等,而普通SQL只能处理关系型数据库的数据源。 2. 执行引擎:Spark SQL采用分布式计算引擎执行SQL查询,可以利用Spark的分布式计算能力,支持海量数据的处理和分析;而普通SQL采用传统的关系型数据库执行引擎,无法进行分布式计算。 3. 数据处理方式:Spark SQL支持流式的数据处理方式,使得它可以处理实时数据流;而普通SQL只能处理静态的数据。 4. 扩展性:Spark SQL具有很好的扩展性,可以通过自定义函数、聚合函数等方式扩展SQL的功能;而普通SQL的扩展性较弱。 5. 性能:Spark SQL在处理大规模数据时,由于采用了分布式计算的方式,可以获得较好的性能表现;而普通SQL的性能在处理大规模数据时会受到限制。 ### 回答2: 在学习Spark SQL的过程中,需要认识到与普通SQL相比,Spark SQL具有以下不同之处。 首先,Spark SQL是构建在Apache Spark之上的,它是Spark生态系统中的一部分。相比于传统的SQL,Spark SQL能够处理更大规模的数据集,并进行分布式计算,提供更高的性能和可伸缩性。 其次,Spark SQL不仅支持传统的结构化查询语言(SQL),还支持使用DataFrame和DataSet这两种数据抽象的API进行编程。DataFrame是一种以RDD为基础的分布式数据集,它能够提供更高级的数据操作和优化。而DataSet是对DataFrame的一种类型安全的封装,提供了更丰富的编程接口。 另外,Spark SQL还提供了更多的数据源连接选项,可以连接多种数据源,如Hive、Avro、Parquet等。这使得开发者可以使用不同的数据源,在一个查询中同时处理多种类型的数据。 此外,Spark SQL还具有更强大的数据处理和分析能力。它支持复杂的分析操作,如窗口函数、聚合操作、连接操作等。同时,Spark SQL还提供了内置的机器学习库(MLlib),可以在查询中直接使用机器学习算法,实现更复杂的数据分析和挖掘功能。 最后,Spark SQL具有更好的生态系统支持。由于其广泛的应用和社区参与,Spark SQL拥有丰富的文档、教程和示例,方便开发者学习和使用。同时,其与其他Spark组件的集成也使得开发者可以在一个项目中同时使用Spark SQL和其他组件,如Spark Streaming、Spark ML等。 ### 回答3: 在学习Spark SQL的过程中,需要认识到它与普通SQL有以下几个不同之处。 首先,Spark SQL是Apache Spark生态系统中的一部分,它提供了一种在分布式环境下处理结构化数据的高性能数据处理引擎。相比普通SQL,Spark SQL可以处理更大规模的数据量并提供更快的执行速度。 其次,Spark SQL不仅支持传统的SQL查询语句,还提供了一系列扩展功能。它可以与其他Spark组件(如Spark Streaming和Spark MLlib)无缝集成,支持流式数据和机器学习算法的查询和处理。 另外,Spark SQL还引入了DataFrame和DataSet的概念,用于表示分布式数据集。DataFrame是以表格形式组织的数据集合,类似于关系数据库中的表,可以进行查询和转换操作。DataSet是强类型的DataFrame,可以通过编程语言的类型来定义数据集的结构,提供了更加丰富的类型安全性和编译时错误检查。 此外,Spark SQL还提供了一种基于Catalyst优化器的查询优化和执行引擎。Catalyst是Spark SQL内部使用的一种语言无关的查询优化框架,它可以将查询计划转换为更高效的物理执行计划,并进行优化和推测执行。 最后,Spark SQL还支持多种数据源,包括Hive、HBase、Parquet、Avro等。这使得用户可以方便地将不同格式的数据导入和导出到Spark SQL中进行处理和分析。 综上所述,在学习Spark SQL的过程中,需要认识到它与普通SQL在功能、性能和扩展性方面的不同,以便更好地使用和发挥其强大的数据处理能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值