Java\Scala\Python三种语言求解经典编程实例(一)——求水仙花数

本文介绍如何用Java, Scala和Python在Linux环境下解决水仙花数问题。水仙花数是每位数字的n次幂之和等于其本身的n位数。文章提供100~999间的水仙花数的代码实现,包括Java的严谨实现,Scala的简洁map函数应用,以及Python的解决方案。" 138925900,8204070,Android 14.0 自动授予OP_REQUEST_INSTALL_PACKAGES权限,"['Android开发', '权限管理', '安装权限']
摘要由CSDN通过智能技术生成

三种语言求解经典编程实例,全部是在Linux下编码实现的。

配置参数文章: 快速配置Linux下的编程环境变量

Linux下运行Python的文章:

安装Python交互式数据处理工具——IPython

Linux下创建并执行python脚本


水仙花数是指一个n位数(n≥3),它的每个位上的数字的n次幂之和等于它本身。水仙花数只是自幂数的一种,严格来说三位数的3次幂数才成为水仙花数。
例如:1^3+5^3+3^3=153。
求100~999之间所有的水仙花数。


1、Java代码实现,这是最经典也是最实用的方式,编码风格严谨

import java.util.*;
public class ArmStrongNum{
        public static void main(String[] args){
                for(int i = 100 ; i <= 100000 
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Java实现: ```java import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import scala.Tuple2; import java.util.ArrayList; import java.util.List; public class GlomExample { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("GlomExample").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); List<Integer> data = new ArrayList<>(); for (int i = 1; i <= 10; i++) { data.add(i); } JavaRDD<Integer> rdd = sc.parallelize(data, 2); JavaRDD<List<Integer>> glomRdd = rdd.glom(); List<List<Integer>> result = glomRdd.collect(); for (int i = 0; i < result.size(); i++) { System.out.println("Partition " + i + ": " + result.get(i)); } sc.stop(); } } ``` Scala实现: ```scala import org.apache.spark.{SparkConf, SparkContext} object GlomExample { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("GlomExample").setMaster("local") val sc = new SparkContext(conf) val data = 1 to 10 val rdd = sc.parallelize(data, 2) val glomRdd = rdd.glom() val result = glomRdd.collect() for (i <- result.indices) { println(s"Partition $i: ${result(i).toList}") } sc.stop() } } ``` Python实现: ```python from pyspark import SparkConf, SparkContext conf = SparkConf().setAppName("GlomExample").setMaster("local") sc = SparkContext(conf=conf) data = range(1, 11) rdd = sc.parallelize(data, 2) glom_rdd = rdd.glom() result = glom_rdd.collect() for i in range(len(result)): print(f"Partition {i}: {list(result[i])}") sc.stop() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值