scala和java数据类型转换

在java和scala共同使用的时候,有时候涉及数据类型的相互转化,比如在使用scala json4s的时候很多地方不支持java数据类型。

java数据类型转换为scala数据类型

import scala.collection.JavaConverters._
var json = JObject()
val links = value.getLink_id_vec.asScala.map { x => x.toLong }.toList
json = json.~("link_id_vec" -> links)

scala数据类型转化为java数据类型

import scala.collection.JavaConverters._

val l = List(1L,2L,3L,4L)

l.map(java.lang.Long.valueOf).asJava
// or 
l.map(_.asInstanceOf[AnyRef]).asJava
// or
l.map(Long.box).asJava

 

转载于:https://my.oschina.net/u/2000675/blog/1802203

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
scala是一种现代化的编程语言,被广泛应用于大数据分析领域。它是一种静态类型的语言,具有高度的可扩展性和灵活性,有助于开发高效且易于维护的代码。ScalaJava有着密切的关系,因此可以很方便地与现有的Java代码进行交互。 而Spark是一个用于大规模数据处理的分布式计算框架。它提供了一套丰富的API和工具,使得大数据分析过程可以更加高效地进行。Spark支持各种常见的大数据处理任务,包括数据清洗、转换、模型训练和预测等。在Spark中,我们可以使用Scala编写分析代码,利用其强大的函数式编程特性和并行计算能力,来处理大规模的数据集。 将Scala和Spark结合起来,可以获得一个强大而灵活的大数据分析平台。Scala的简洁语法和函数式编程特性可以减少代码的编写量,并提供高度抽象的表达能力。而Spark的分布式计算框架可以以高性能处理海量的数据,并提供各种优化策略,以确保数据分析的效率和准确性。 因此,Scala和Spark的组合是大数据分析领域的一种理想选择。它们的结合可以提供高效、可扩展和易维护的大数据分析解决方案,帮助我们更好地处理和分析海量的数据,并从中获取有价值的信息和洞察力。无论是在商业还是学术领域,Scala和Spark都在大数据分析领域发挥着重要的作用,并为我们带来了更快、更有效的数据分析方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值