java.util.Collections.copy()方法注意点

今天发现单独的将一个ArrayList的对象添加到另外一个ArrayList的时候,总是源列表和目的列表相同的内存地址。原因如下:

偶然看到了Collections的copy(List desc,List src)方法.当时就想这个方法和初始化一个List desc = new  ArrayList(List c)【参数必须实现Collection接口】的区别。

两者的差别很大,后者是一个浅拷贝,只是对源list的元素进行拷贝,拷贝的只是引用。拷贝后两个list的元素(引用)不同,但是引用所指向的对象是一 样的。即是两个list的每个元素指向的还是通一内存。然而前者是深拷贝,不光拷贝的是src的元素(引用),src内每个元素的所指向的对象都进行一次 拷贝。即是两个list的每个元素所指向的不是同一内存。

所以使用了Collections.copy()方法来进行拷贝,但是这样就接触到了此方法所报出的异常:

使用后者进行拷贝的结果是:当你的desc链表发生改变时,src也将会随之改变。
使用前者进行拷贝时你又必须要注意目标链表的长度必须要比源链表的长度大或者相等。

举例如下:
List src1
= new  ArrayList( 3 )
src1.add(
" a " );
src2.add(
" b " );
src3.add(
" c " );

如果你使用下面方法copy链表
/** **************************** */
List des1
= new  ArrayList( 3 );
Collections.copy(des1,src1);
/** **************************** */
将会出错,抛出数组越界异常。
当时我怎么想都想不明白为什么,明明已经设置了长度为3,为什么还会出错!
后来打印出des1.size()才知道des1的长度为0;3表示的是这个List的容纳能力为3,并不是说des1中就有了3个元素。查看api才知 道,它的capacity(容纳能力大小)可以指定(最好指定)。而初始化时size的大小永远默认为0,只有在进行add和remove等相关操作 时,size的大小才变化。然而进行copy()时候,首先做的是将desc1的size和src1的size大小进行比较,只有当desc1的 size 大于或者等于src1的size时才进行拷贝,否则抛出IndexOutOfBoundsException异常。

所以可以通过下面的方法指定目标desc的大小
/** **************************** */
List des1
= new  ArrayList(Array.asList( new  object[src1.size])); // 注意:new ArrayList(Collection col)参数必须要实现Collection 接口。
Collections.copy(des1,src1);
/** **************************** */
执行第一句后size的大小是3,其实它是对一个空数组的浅拷贝。

使用这位仁兄的方法,我这边一直报错说找不到此构造函数,估计是因为我使用了jdk6的原因,后来使用了替代方法,用apache的CollectionUtils:

dest1  =   new  ArrayList();
CollectionUtils.addAll(dest1, 
new  Object[src1.size()]);
Collections.copy(dest1, src1);
  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
要将这两个参数转换为 `java.util.HashMap` 和 `org.apache.hadoop.conf.Configuration` 类型的参数,你可以使用 Py4j 库的相关功能来完成。 首先,我们将第一个参数 `{"path": "s3://novartisrs3acndevcnbjf1prelanding001/pre_landing/tmp/liangyum/copy_file.xlsx"}` 转换为 `java.util.HashMap` 类型的参数。可以按照以下步骤进行转换: ```python from py4j.java_collections import MapConverter import java.util.HashMap # 创建一个空的 HashMap hash_map = java.util.HashMap() # 添加键值对到 HashMap hash_map.put("path", "s3://novartisrs3acndevcnbjf1prelanding001/pre_landing/tmp/liangyum/copy_file.xlsx") # 使用 MapConverter 将 Python 的 dict 转换为 Java 的 HashMap java_hash_map = MapConverter().convert(hash_map, gateway._gateway_client) # 将 java_hash_map 作为参数传递给构造函数 ``` 接下来,我们将第二个参数 `self.spark._sc._jsc.hadoopConfiguration()` 转换为 `org.apache.hadoop.conf.Configuration` 类型的参数。可以按照以下步骤进行转换: ```python from py4j.java_gateway import JavaObject # 创建一个空的 Configuration 对象 configuration = JavaObject("org.apache.hadoop.conf.Configuration")() # 使用 self.spark._sc._jsc.hadoopConfiguration() 对象的设置值来更新 configuration 对象 configuration.set(self.spark._sc._jsc.hadoopConfiguration()) # 将 configuration 作为参数传递给构造函数 ``` 现在,你可以使用转换后的参数来实例化 `WorkbookReader` 类,并调用相应的方法。 请注意,上述代码中的 `gateway` 对象是指 Py4j 的网关对象,你需要将其传递给适当的位置。具体情况可能因你的代码结构而有所不同。 希望这可以帮助你解决问题!如果你有任何进一步的问题,请随时提问。
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值