在Java 8中,Stream API是一个强大的工具,它允许以声明性的方式处理数据集合,使得代码更加简洁且易于理解。distinct()
和distinctByKey()
是两种用于过滤重复元素的方法,虽然后者不是标准库直接提供的,但可以通过一些技巧实现类似功能。
1. distinct()
方法
首先,让我们从distinct()
开始。这个方法是Stream API的一个内置中间操作,它的主要职责是从数据流中移除重复的元素。当你调用distinct()
时,Stream会检查每个元素的equals()
和hashCode()
方法来确定哪些元素是重复的。如果两个元素通过equals()
比较结果为真,并且它们的hashCode()
相同,那么在结果中就只会保留其中一个。这意味着,对于基本类型和实现了这些方法的自定义对象,distinct()
能很好地工作。
使用示例: 假设你有一个整数列表,想要去除重复的数字:
1List<Integer> numbers = Arrays.asList(1, 2, 2, 3, 4, 4, 5);
2List<Integer> uniqueNumbers = numbers.stream().distinct().collect(Collectors.toList());
在这个例子中,uniqueNumbers
将只包含[1, 2, 3, 4, 5]。
2. distinctByKey()
的实现
distinctByKey()
并不是Stream API直接提供的方法,但它是一个常见的需求,特别是在处理复杂对象时,我们可能只想基于对象的某个特定属性去重。要实现这样的功能,我们可以借助于Collectors.groupingBy()
或者利用TreeSet
的自然排序和去重能力,或者通过自定义Predicate来实现。
示例:基于属性去重 假设有这样一个Person
类,包含姓名(name)和年龄(age)属性,我们想基于姓名去重:
1class Person {
2 String name;
3 int age;
4 // 构造器、getters、setters省略
5}
6
7List<Person> people = ... // 初始化人员列表
我们可以这样实现基于姓名的去重:
1Function<Person, String> byName = Person::getName;
2Set<Person> uniquePeopleByName = people.stream()
3 .collect(Collectors.collectingAndThen(
4 Collectors.toCollection(() -> new TreeSet<>(Comparator.comparing(byName))),
5 ArrayList::new));
6
7// 或者使用filter方法配合自定义Predicate实现类似逻辑
8Predicate<Person> distinctByKey = new Predicate<Person>() {
9 Set<String> seen = ConcurrentHashMap.newKeySet();
10 @Override
11 public boolean test(Person person) {
12 return seen.add(person.getName());
13 }
14};
15List<Person> uniquePeopleByNameFilter = people.stream()
16 .filter(distinctByKey)
17 .collect(Collectors.toList());
在这段代码中,我们利用了TreeSet
的排序和唯一性来确保每个名字只出现一次。而第二种方法则是通过自定义的Predicate,利用ConcurrentHashMap的键唯一性来实现去重。
distinct()
是Stream API提供的一个内置方法,它利用对象的equals()
和hashCode()
方法去除流中的重复元素,适用于基本类型和实现了这些方法的对象。distinctByKey()
虽然不是标准API的一部分,但通过一些技巧,我们可以实现在复杂对象集合中根据某个属性去重的功能,这在处理具有多个属性的对象时非常有用。- 实现
distinctByKey()
时,选择合适的方法(如使用TreeSet
或自定义Predicate)取决于具体的需求和场景,但核心思想都是利用某种形式的键值唯一性来达到去重的目的。
希望这样的解释能帮助你理解distinct()
和如何实现类似distinctByKey()
的功能,以及它们在处理数据集合时的应用。