-
底层数据结构,1.7与1.8有何不同?
- 1.7数组+链表, 1.8数组+(链表 | 红黑树)
-
为何要用红黑树,为何一上来不树化,树化阈值为何是8,何时会树化,何时会退化为链表?
- 红黑树用来避免DoS攻击,防止链表超长时性能下降,树化应当是偶然情况
-
hash表的查找,更新时间复杂度是O(1),而红黑是的查找,更新时间复杂程度是O(log₂,n),TreeNode占用空间也比普通Node的大,如非必要,尽量还是使用链表
-
hash值如果足够随机,则在hash表内按泊松分布,在负载因子0.75的情况下,长度超过8的链表出现概率是0.00000006,选择8就是为了让树化几率足够小
-
-
树化两个条件:链表长度超过树化阈值;数组容量>=64
-
退化情况1:在扩容时如果拆分树时,树元素个数<=6则会退化链表
-
退化情况2:remove树节点时,若root、root,left、root.right、root.left.left有一个为null,也会退化为链表
- 红黑树用来避免DoS攻击,防止链表超长时性能下降,树化应当是偶然情况
hashmap默认桶是16,负载因子是0.75,如果里面的值大于16*0.75=12就会扩容
桶下标是根据二次hash%桶的容量算出来的
-
索引如何计算?hashCode都有了,为何还要提供hash()方法?数组容量为何是2的n次幂?
- ① 计算对象的hashCode(),再进行调用HashMap的hash()方法进行二次哈希,最后&(capacity-1)得到索引
- ② 二次hash()是为了综合高位数据,让哈希分布更为均匀
- ③ 计算索引时,如果是2的n次幂可以使用位与运算代替取模,效率更高;扩容时hash&oldCap==0的元素留在原来位置,否则新位置=旧位置+oldCap
- ④ 但是①、②、③都是为了配合容量为2的n次幂时的优化手段,例如Hashtable的容量就不是2的n次幂,并不能说哪种设计更优,应该是设计者综合了各种因素,最终选择了使用2的n次幂作为容量
-
介绍一下 put 方法流程,1.7 与 1.8 有何不同?
- ①HashMap 是懒惰创建数组的,首次使用才创建数组
- ②计算索引(桶下标)
- ③如果桶下标还没人占用,创建 Node 占位返回
- ④如果桶下标已经有人占用
- ①已经是 TreeNode 走红黑树的添加或更新逻辑
- ②是普通 Node,走链表的添加或更新逻辑,如果链表长度超过树化阈值,走树化逻辑
- ⑤返回前检查容量是否超过阈值,一旦超过进行扩容
- ⑥不同
- ①链表插入节点时,1.7 是头插法,1.8 是尾插法
- ②1.7 是大于等于阈值且没有空位时才扩容,而 1.8 是大于阈值就扩容
- ③1.8 在扩容计算 Node 索引时,会优化
-
加载因子为何默认是 0.75f
- ①在空间占用与查询时间之间取得较好的权衡
- ②大于这个值,空间节省了,但链表就会比较长影响性能
- ③小于这个值,冲突减少了,但扩容就会更频繁,空间占用多
-
多线程下会有啥问题?
- ①扩容死链(1.7)
- ②数据错乱(1.7,1.8)
-
key 能否为 null,作为 key 的对象有什么要求?
- ①HashMap 的 key 可以为 null,但 Map 的其他实现则不然
- ②作为 key 的对象,必须实现 hashCode 和 equals,并且 key 的内容不能修改(不可变)
-
String 对象的 hashCode() 如何设计的,为啥每次乘的是 31
- 目标是达到较为均匀的散列效果,每个字符串的 hashCode 足够独特
- ①字符串中的每个字符都可以表现为一个数字,称为 Si,串中的每个字符都可以表现为一个数字,称为 S_i,其中 i 的范围是 0 ~ n - 1
- ②散列公式为: 𝑆0∗ 31𝑛−1+ 𝑆1∗ 31𝑛−2+ … 𝑆𝑖 ∗ 31𝑛−1−𝑖+ … 𝑆𝑛−1∗310为: S_0∗〖 31〗^(n-1)+ S_1∗〖 31〗^(n-2)+ … S_i ∗ 31^(n-1-i)+ …〖 S〗_(n-1) 〖∗31〗^0
- ③31 代入公式有较好的散列特性,并且 31 * h 可以被优化为
- ①即 32 ∗h −h 32 ∗h -h
- ②即 25 ∗h −h 2^5 ∗h -h
- ③即 h≪5 −hh≪5 -h
-
Hashtable vs ConcurrentHashMap
- 1. Hashtable 与 ConcurrentHashMap 都是线程安全的 Map 集合
- 2. Hashtable 并发度低,整个 Hashtable 对应一把锁,同一时刻,只能有一个线程操作它
- 3. 1.8 之前 ConcurrentHashMap 使用了 Segment + 数组 + 链表的结构,每个 Segment 对应一把锁,如果多个线程访问不同的 Segment,则不会冲突
- 4. 1.8 开始 ConcurrentHashMap 将数组的每个头节点作为锁,如果多个线程访问的头节点不同,则不会冲突。首次生成头节点时如果发生竞争,利用 cas 而非 syncronized,进一步提升性能