java代码编写是 我们会遇见Arraylist集合进行性数据去重过滤。
提供一下三种方案
1、双层for循环
2、利用set的元素不可重复性
3、用list里面contains方法比较是否存在去重
模拟代码
List<Map<String,Object>> listMap = new ArrayList<Map<String,Object>>();
Map<String,Object> map1 = new HashMap<String, Object>();
map1.put("id", "1");
map1.put("name", "2");
Map<String,Object> map2 = new HashMap<String, Object>();
map2.put("id", "1");
map2.put("name", "2");
Map<String,Object> map3 = new HashMap<String, Object>();
map3.put("id", "2");
map3.put("name", "3");
Map<String,Object> map4 = new HashMap<String, Object>();
map4.put("id", "3");
map4.put("name", "3");
listMap.add(map1);
listMap.add(map2);
listMap.add(map3);
listMap.add(map4);
1、双重for循环 我开始就是使用的是这种方式,感觉性能不好后来放弃了
for (int i = 0; i < listMap.size(); i++) {
Map m1 = list.get(i);
for (int j = i + 1; j < listMap.size(); j++) {
Map m2 = listMap.get(j);
if (m1.get("id").equals(m2.get("id"))) {
listMap.remove(j);
continue;
}
}
}
2、利用set集合的元素不可重复性 这种效率比第一种要高很多,(如果是准对对象去重,可以重写实体类的hashcode和equals方法
Set set = new HashSet<>(listMap);
List<Map<String,Object>> listMapp = new ArrayList<Map<String,Object>>();
listMapp = new ArrayList<>(set);
for(int i = 0;i<listMapp.size();i++){
System.out.println(listMapp.get(i));
}
3、用list里面contains方法比较是否存在去重
public static List removeDuplicateWithOrder(List list) {
List newList = new ArrayList();
for (Object o : list) {
if (!newList .contains(o)) newList.add(o);
}
return newList;
}
版权声明:【分享也是一种提高】个人转载请在正文开头明显位置注明出处
https://blog.csdn.net/java_student_x/article/details/80609581