乱七八糟的记录

       本文纯属记录今天的心情,一点技术的内容也没有,所以。。。。。大家懂的。。。。。

      今天测试机调试完了之后,没问题了,三遍确定没问题了之后,parner跟我说放上正式环境试试,其实内心是有点拒绝的,正式环境啊,万一弄挂了岂不是罪恶滔天,但是又有点蠢蠢欲试,所以说干就干。怕死不当程序员,哈哈,放上去之后果然不出所料,挂了,挂了,挂了。然后用万能的(其实是只有一种方法)yarn logs -applicationId xxy来查看问题,然后我懵了,尼玛出现的问题我居然看不懂,看不懂,看不懂 ,然后火急火燎的去找管理员,然后他说他也不懂。当时那个心情真的是。。。。只有死马当活马医了,自己动手,老老实实的去看问题,人如果有依赖,很快就会放弃自己的潜力。终于看出一点端倪,原来是提交的时候参数设置有问题,结果导致一直说什么standby和vertual cores <0 的问题。嗯恩,改完之后,程序果然老老实实的报些看得懂的错误了,然后发现程序没有记录日志,然后急急忙忙的修改了一版放上去,最后看到程序一直running 的日志,心情真的那个舒畅。。。。。。



第一次见识到那么大的集群,说实在的,心里有点小激动。但是一看到分配给自己的资源,立马就蔫了,才3个container,5个core,以下是一些日志打印情况:

16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getListing took 65ms
16/07/06 16:18:59 INFO losuti.LosutiInfoService: [开始从Hdfs中读取数据,读取数据路径为:/data/xxyy/20160706/15]
16/07/06 16:18:59 ERROR losuti.LosutiInfoService: [从/data/xxxx/yyyy/20160706/15获取数据出错,出错信息为:]
java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext
    at org.apache.spark.SparkContext.org$apache$spark$SparkContext$$assertNotStopped(SparkContext.scala:104)
    at org.apache.spark.SparkContext.defaultParallelism(SparkContext.scala:2061)
    at org.apache.spark.SparkContext.defaultMinPartitions(SparkContext.scala:2074)
    at org.apache.spark.SparkContext.textFile$default$2(SparkContext.scala:825)
    at org.apache.spark.api.java.JavaSparkContext.textFile(JavaSparkContext.scala:184)
    at com.telecom.losuti.LosutiInfoService.getCallRdd(LosutiInfoService.java:195)
    at com.telecom.losuti.LosutiInfoService.main(LosutiInfoService.java:84)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.spark.deploy.yarn.ApplisutiMaster$$anon$2.run(ApplisutiMaster.scala:525)
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw sending #40
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw got value #40
16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getFileInfo took 35ms
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw sending #41
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw got value #41
16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getListing took 39ms
16/07/06 16:18:59 INFO losuti.LosutiInfoService: [开始从Hdfs中读取数据,读取数据路径为:/data/xxyy/20160706/15]
16/07/06 16:18:59 ERROR losuti.LosutiInfoService: [从/data/data/xxyy/20160706/15获取数据出错,出错信息为:]
java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext
    at org.apache.spark.SparkContext.org$apache$spark$SparkContext$$assertNotStopped(SparkContext.scala:104)
    at org.apache.spark.SparkContext.defaultParallelism(SparkContext.scala:2061)
    at org.apache.spark.SparkContext.defaultMinPartitions(SparkContext.scala:2074)
    at org.apache.spark.SparkContext.textFile$default$2(SparkContext.scala:825)
    at org.apache.spark.api.java.JavaSparkContext.textFile(JavaSparkContext.scala:184)
    at com.telecom.losuti.LosutiInfoService.getCallRdd(LosutiInfoService.java:195)
    at com.telecom.losuti.LosutiInfoService.main(LosutiInfoService.java:84)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.spark.deploy.yarn.ApplisutiMaster$$anon$2.run(ApplisutiMaster.scala:525)
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw sending #42
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw got value #42
16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getFileInfo took 55ms
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw sending #43
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw got value #43
16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getFileInfo took 40ms
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw sending #44
16/07/06 16:18:59 DEBUG ipc.Client: IPC Client (1554752953) connection to NM-304-RH5885V3-BIGDATA-002/10.142.113.2:54310 from wzfw got value #44
16/07/06 16:18:59 DEBUG ipc.ProtobufRpcEngine: Call: getListing took 35ms
16/07/06 16:18:59 INFO losuti.LosutiInfoService: [开始从Hdfs中读取数据,读取数据路径为:/data/xxyy/20160706/15]
16/07/06 16:18:59 ERROR losuti.LosutiInfoService: [从/data/xxyy/20160706/15获取数据出错,出错信息为:]
java.lang.IllegalStateException: Cannot call methods on a stopped SparkContext
    at org.apache.spark.SparkContext.org$apache$spark$SparkContext$$assertNotStopped(SparkContext.scala:104)
    at org.apache.spark.SparkContext.defaultParallelism(SparkContext.scala:2061)
    at org.apache.spark.SparkContext.defaultMinPartitions(SparkContext.scala:2074)
    at org.apache.spark.SparkContext.textFile$default$2(SparkContext.scala:825)
    at org.apache.spark.api.java.JavaSparkContext.textFile(JavaSparkContext.scala:184)
    at com.telecom.losuti.LosutiInfoService.getCallRdd(LosutiInfoService.java:195)
    at com.telecom.losuti.LosutiInfoService.main(LosutiInfoService.java:84)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:606)
    at org.apache.spark.deploy.yarn.ApplisutiMaster$$anon$2.run(ApplisutiMaster.scala:525)



  虽然是跑通了,但是一个应用跑下来半个小时妥妥的,半个小时啊,这个mr有什么区别,今天过来的时候发现居然相同的任务要2个小时,没错,绝对没看错,超过了两个小时。这是绝对不能接受的,因此大家开始了优化代码的讨论了,讨论来讨论去,结果代码没有什么需要修改的。其实我一直有个疑问,为什么会给我分配那么少的资源呢,后来才知道其实是分配了好多的资源,只是分配给应用的很少。所以我尝试着修改了一下参数如下: 
/home/wzfw/spark-1.5.1/bin/spark-submit  --name loc--master yarn-cluster --driver-memory 8g --executor-memory 8g  --executor-cores 4  --num-executors 1600 --class com.tel.loc.LocService  /home/fw/jars/loc-0.0.1-SNAPSHOT.jar $1 $2 10

--driver-memory 8g --executor-memory 8g  --executor-cores 4  --num-executors 1600主要修改了这几个参数,其中--num-executors 1600是最为关键的。1600个并发。

然后神奇的只用了2分钟不到。我去,果断关机回家

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
没法下载,到这里折腾一把试试。 本文由abc2253130贡献 doc文档可能在WAP端浏览体验不佳。建议您优先选择TXT,或下载源文件到本机查看。 C#(WINFORM)学习 一、 C#基础 基础 类型和变量 类型和变量 类型 C# 支持两种类型:“值类型”和“引用类型”。值类型包括简单类型(如 char、int 和 float 等)、枚举类型和结构类型。引用类型包括类 (Class)类 型、接口类型、委托类型和数组类型。 变量的类型声明 变量的类型声明 每个变量必须预先声明其类型。如 int a; int b = 100; float j = 4.5; string s1; 用 object 可以表示所有的类型。 预定义类型 下表列出了预定义类型,并说明如何使用。 类型 object 说明 所有其他类型的最终 基类型 字符串类型; 字符串是 Unicode 字符序列 8 位有符号整型 16 位有符号整型 32 位有符号整型 64 位有符号整型 示例 object o = null; 范围 string sbyte short int long string s = "hello"; sbyte val = 12; short val = 12; int val = 12; long val1 = 12; -128 到 127 -32,768 到 32,767 -2,147,483,648 2,147,483,647 -9,223,372,036,854,775,808 到 第1页 C#(WINFORM)学习 long val2 = 34L; 到 9,223,372,036,854,775,807 byte ushort 8 位无符号整型 16 位无符号整型 byte val1 = 12; ushort val1 = 12; uint val1 = 12; uint 32 位无符号整型 uint val2 = 34U; ulong val1 = 12; ulong val2 = 34U; ulong 64 位无符号整型 ulong val3 = 56L; ulong val4 = 78UL; float 单精度浮点型 float val = 1.23F;7 位 double val1 = 1.23; double 双精度浮点型 double val2 = ±5.0 × 10?324 ±1.7 × 10 308 0 到 255 0 到 65,535 0 到 4,294,967,295 0 到 18,446,744,073,709,551,615 ±1.5 × 10?45 ±3.4 × 10 38 到 到 4.56D;15-16 布尔型;bool 值或为 真或为假 字符类型;char 值是 一个 Unicode 字符 精确的小数类型, 具有 28 个有效数字 bool val1 = true; bool val2 = false; char val = 'h'; decimal val = bool char decimal DateTime ±1.0 × 10?28 ±7.9 × 10 28 到 1.23M;28-29 变量转换 简单转换: float f = 100.1234f; 可以用括号转换: short s = (short)f 也可以利用 Convert 方法来转换: string s1; s1=Convert.ToString(a); MessageBox.Show(s1); 常用 Convert 方法有: 第2页 C#(WINFORM)学习 C# Convert.ToBoolean Convert.ToByte Convert.ToChar Convert.ToDateTime Convert.ToDecimal Convert.ToDouble Convert.ToInt16 Convert.ToInt32 Convert.ToInt64 Convert.ToSByte Convert.ToSingle Convert.ToString Convert.ToUInt16 Convert.ToUInt32 Convert.ToUInt64 备注 Math 类 常用科学计算方法: C# Math.Abs Math.Sqrt Math.Ro
WPS文字转Word文档格式乱七八糟可能是由于以下几个原因导致的: 1. 版本兼容性问题:WPS和Word是两款不同的办公软件,它们使用的文件格式不完全相同。当你使用WPS文字转换为Word文档时,某些格式可能无法完全转换或被转换成不同的格式,导致文档格式混乱。 2. 复杂格式处理问题:如果原始文档中包含复杂的格式,如表格、图表、插图等,WPS文字转换为Word可能无法完全保留原始格式,并且可能会出现错位、缺失或乱码等问题。 3. 字体兼容性问题:WPS和Word使用的字体库有所不同,如果原始文档中使用了某些特殊字体,在转换过程中可能会导致字体替换或无法显示的问题,进而影响整体文档的格式。 为避免格式混乱,你可以尝试以下方法: 1. 使用相同软件:如果可能的话,建议在同一款软件中完成文档的编辑和转换,例如,在WPS中编辑的文档最好在WPS中进行转换。 2. 简化格式:在进行转换前,尽量避免使用过多的复杂格式和特殊字体,尽量使用常见的字体和格式,以增加转换的成功率。 3. 逐步转换:如果你的文档比较复杂,可以将文档分成多个部分进行转换,以便更好地处理格式问题。 4. 检查转换结果:在转换后,务必仔细检查文档的格式,并进行必要的调整和修复,以确保文档的可读性和准确性。 需要注意的是,由于WPS和Word是两个不同的软件,无法保证在转换过程中完全保留原始文档的格式,因此可能会存在格式混乱的情况。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值