数据结构
hashmap1.7 :先讲链表,再讲 hashmap 的数据结构数据结构描述的是在虚拟机堆中对象与对象之间的一种关系。在 hashmap1.7 的底层是使用数组加链表的形式。使用数组作用是可以根据 key 值计算它的 hashCode,再根据 hashCode 的值可以快速定位到当前的 entry 是保存到数组的哪个元素(每个数组的元素都可以组成一个链表,当前元素是链表的尾节点)对应的链表上,再对这个元素在这个链表上做添加或者删除或者其它操作。
所以 在 hashmap1.7 是使用 N 个链表组成的数据结构,使用空间换时间的思想,使用数组把创建的 N 个链表关联起来,其本质上还是对链表的操作。如果在计算 hashCode 的值存在 hash 碰撞严重的话,那么所有的 entry 都会集中到数组某一个元素对应的链表上,这就并不能减少对 entry 的增删改查的时间消耗,反而会因为创建底层的数据而占用过多的内存空间,而这些节点的存在都没有实际的意义,造成一定程度的内存浪费。
扩容死锁
hashmap 的死锁问题主要是在扩容的时候,而扩容的方法是 transfer ,对方法 transfer 简化如下,
void transfer(Entry[] newTable, boolean rehash) {
for (Entry<K,V> e : table) {
while(null != e) {
Entry<K,V> next = e.next;
e.next = newTable[i];
newTable[i] = e;
e = next;
}
}
}
假设现在有两个线程 t1 丶 t2 和 t3 在运行这段代码,当 t1 线程运行了 e.next = newTable[i]; 的时候, t2 执行 next = e.next; 然后 t3 运行 newTable[i] = e; 和 e = next; 那么就会存在 e.next = newTable[i]; 和 newTable[i].next = e; 从而造成死循环。