HashSet的去重原理是基于HashMap的Key部分实现的。
HashSet底层使用HashMap来存储元素,将元素作为Key存储在HashMap中,而Value则是一个固定的Object对象。当我们向HashSet中添加元素时,HashSet会将该元素作为Key存储到HashMap中,而Value则是一个固定的Object对象。当我们再次向HashSet中添加相同的元素时,HashSet会先判断该元素是否已经存在于HashMap中,如果已经存在,则不会再次添加,从而实现了去重。
那么他的原理是什么样的,我们先看看源码:
我们可以看到,在HashSet的源码里面重写的add方法,就是用的map的put方法返回的。
参数e进入到put方法就是put方法里面的key
在put方法里面用传入的key调用了一个hash方法,通过hash方法算出一个hash地址值,如果地址值不一样,会直接存储,这也是为什么两个对象在参数项都相同可以存进去的原因,因为它们都是new出来的地址值算出来的hash地址值都不一样,会直接存储。所以这个时候要重写equals方法。用对象里面的参数项算出一个hash值。
用重写后的equals方法算出来的hash值如果还存在重复。那么回到put方法底层的putval方法中。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
如果hash值地址相同,会在去用equals方法作比较,因为在传入的对象之中不存在equals方法,所以调用的equals方法是父类的。比较的还是地址值,所以需要再去重写equals方法再去判断是否内容都是相同的。如果hash地址值相同,equals重写后判断的内容也相同,那么去重。
总结:
1,.调用add(E e)方法的时候,会在底层调用map的put方法,在put方法里面用元素e算出对象的地址值。
2.如果地址值不一样,直接存储。
3.如果地址值一样时,会调用元素的equals方法判断元素的内容是否一样
4.如果equals判断返回false表示内容不相同,直接存储。
5.如果equals判断返回true表示内容相同,此时hash值地址和内容都相同,那么去重。