java 中 list集合去重

java代码编写是 我们会遇见Arraylist集合进行性数据去重过滤。

提供一下三种方案

1、双层for循环

2、利用set的元素不可重复性

3、用list里面contains方法比较是否存在去重


模拟代码

List<Map<String,Object>> listMap = new ArrayList<Map<String,Object>>();
		Map<String,Object> map1 = new HashMap<String, Object>();
		map1.put("id", "1");
		map1.put("name", "2");
		
		Map<String,Object> map2 = new HashMap<String, Object>();
		map2.put("id", "1");
		map2.put("name", "2");
		
		Map<String,Object> map3 = new HashMap<String, Object>();
		map3.put("id", "2");
		map3.put("name", "3");
		
		Map<String,Object> map4 = new HashMap<String, Object>();
		map4.put("id", "3");
		map4.put("name", "3");
		
		listMap.add(map1);
		listMap.add(map2);
		listMap.add(map3);
		listMap.add(map4);

1、双重for循环 我开始就是使用的是这种方式,感觉性能不好后来放弃了

for (int i = 0; i < listMap.size(); i++) {
			Map m1 = list.get(i);
			for (int j = i + 1; j < listMap.size(); j++) {
				Map m2 = listMap.get(j);
				if (m1.get("id").equals(m2.get("id"))) {
					listMap.remove(j);
					continue;
				}
			}
		}

2、利用set集合的元素不可重复性  这种效率比第一种要高很多,(如果是准对对象去重,可以重写实体类的hashcode和equals方法 

Set set = new HashSet<>(listMap);
		List<Map<String,Object>> listMapp = new ArrayList<Map<String,Object>>();
		listMapp = new ArrayList<>(set);
		for(int i = 0;i<listMapp.size();i++){
			System.out.println(listMapp.get(i));
	}

3、用list里面contains方法比较是否存在去重

public static List removeDuplicateWithOrder(List list) {
    List newList = new ArrayList();
    for (Object o : list) {
        if (!newList .contains(o)) newList.add(o);
    }
    return newList;
}

版权声明:【分享也是一种提高】个人转载请在正文开头明显位置注明出处

https://blog.csdn.net/java_student_x/article/details/80609581

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值