HashMap大家都知道吧:先看看jdk1.7中的HashMap和jdk1.8中的有什么不一样
jdk1.7之前是数组加链表,扩容重新散列元素使用头插法(容易形成循环列表),数据元素通过散列函数获取位置下标,映射到桶数组对应位置,如果发生hash冲突,用拉链法解决冲突,不给初始大小默认16,给初始大小的话,也不是按照你给定的的初始大小创建的,他会像上寻找最近的2的n次方(例如你传17他向上寻找就是32,因为2的四次方<17<2的五次方),扩容因子为0.75,map中的元素数量超过他的大小×扩容因子就会进行扩容,每次扩容为之前的两倍大小(hashtable为两倍加一),HashMap是快速失败的(fail-fast),当 HashMap 在迭代过程中,元素被修改或者删除了,会抛出 ConcurrentModificationException 错误,最后——HashMap是线程不安全的。
jdk1.8之后HashMap加入了红黑树(数组加链表加红黑树),扩容重新散列元素使用尾插法(避免形成循环链表),如果链表长度>8&数组大小>=64,链表转为红黑树,如果红黑树节点个数<6 (因为如果设置为7的话,他要是7-8-7的反复,会一直转化会造成额外的资源开销,所以设置了一个类似缓冲区的东西)转为链表。
Tip:1.为什么不用二叉树或者平衡二叉树?
不用二叉树是因为红黑树是一种平衡的二叉树,插入、删除、查找的最坏时间复杂度都为 O(logn),避免了二叉树最坏情况下的O(n)时间复杂度(也就是最坏情况下,他的时间复杂度是高于红黑树的)。
不用平衡二叉树的原因是平衡二叉树是比红黑树更严格的平衡树,为了保持保持平衡,需要旋转的次数更多,也就是说平衡二叉树保持平衡的效率更低,所以平衡二叉树插入和删除的效率比红黑树要低(也就是平衡二叉树,他必须时刻保持平衡,怎么保持呢,只能旋转,旋转是不是要造成额外的开销)。
2.为什么链表大于8转化,7不行吗?
这个结果是根据泊松分布算出来的,别问啥是泊松分布,我也不会。
接下来重头戏,手写一个HashMap
首先,写肯定是写数组加链表那一款的,红黑树我也手撕不出来(看明白都费劲),不多比比,上代码:
注释都写的很详细了复制就能跑
先创建key和value两个对象,类型给object
import lombok.Data;
@Data
public class K {
private Object K ;
}
import lombok.Data;
@Data
public class V {
private Object V ;
}
然后是HashMap的实现代码,有点长但是请一定从头到尾敲一遍,注释我都写的很详细了,每一步都写了。
import com.example.demo.*;
public class Mapss<K,V> {
class Node<K, V> {
/**
* K hashmap的key
* V hashmap的value
* Node 用来实现数组+链表的
*/
private K key;
private V value;
private Node<K,V> next;
public Node(K key, V value) {
this.key = key;
this.value = value;
}
public Node(K key, V value,Node<K,V> next) {
this.key = key;
this.value = value;
this.next=next;
}
}
//DEFAULT_CAPACITY 不给初始容量默认为16
final int DEFAULT_CAPACITY=16;
//扩容因子为0.75
final float LOAD_FACTOR=0.75f;
private int size;
//元素为链表的数组
Node<K,V>[] buckets;
/**
* 不给初始容量默认为16
* DEFAULT_CAPACITY=16
*/
public Mapss(){
buckets=new Node[DEFAULT_CAPACITY];
size=0;
}
/**
* 给初始容量
* 就按给定大小创建
*/
public Mapss(int capacity){
buckets=new Node[capacity];
size=0;
}
/**
* hashmap是数组+链表 这个方法是返回元素在数组中的哪个位置,注意是数组
* @param key
* @param length
* @return
*/
private int getIndex(K key,int length){
int hashCode=key.hashCode();
int index=hashCode % length;
return Math.abs(index);
}
/**
* hashmap的添加元素,先看容量够不够,不够就先扩容然后再插入,够了就直接插入
* 插入用的putVal方法
* @param key
* @param value
*/
public void put(K key,V value){
if(size>=buckets.length*LOAD_FACTOR) resize();
putVal(key,value,buckets);
}
/**
* 将元素插入map中数组或链表的方法
* @param key
* @param value
* @param table
*/
private void putVal(K key,V value ,Node<K,V>[] table){
//现获取元素应该放在数组中几号桶里(数组的几号位置)
int index=getIndex(key,table.length);
//获得该位置的节点
Node node=table[index];
//如果节点为空 ,说明该位置上没有元素,就直接插入,并对size++
if(node==null){
table[index]=new Node<>(key,value);
size++;
return;
}
//如果节点不为空,就使用拉链法,也就是挂在元素后面
while (node != null) {
//先看看key的hashcode是否一样,一样的话再看字符串是否一样,都一样的话说明key相同直接覆盖
if ((node.key.hashCode()==key.hashCode())
&&(node.key==key||node.key.equals(key))) {
//key相同直接修改value
node.value=value;
return;
}
//获取链表中下一个Node节点,用while进行循环判断
node=node.next;
}
//说明数组中该链表上没有与要put的key相同,就创建一个新的Node节点,将数组中对应位置上的节点的next指向自己
Node newNode= new Node(key,value,table[index]);
//将新建的节点放进数组中
table[index]=newNode;
//记录map的元素的个数
size++;
}
/**
* 这方法是扩容的
*/
private void resize(){
//直接扩容两倍
Node<K,V>[] newBuckets=new Node[buckets.length*2];
//调用rehash方法对map中元素重新散列并摆放
rehash(newBuckets);
buckets=newBuckets;
}
/**
* 对当前桶数组中的元素重新进行散列
* @param newBuckets
*/
private void rehash(Node<K,V>[] newBuckets){
//重置map大小
size=0;
//将元素放进扩容两倍大小的数组中
for (int i = 0; i < buckets.length; i++) {
//看节点是否为空,为空就跳过
if(buckets[i]==null){
continue;
}
Node<K,V> node=buckets[i];
while (node!=null){
//将元素放入新数组中
putVal(node.key,node.value,newBuckets);
//对下一个元素进行重新散列
node=node.next;
}
}
}
/**
* 根据key获取value
* @param key
* @return
*/
public V get(K key){
//获取该key在数组的几号位置
int index=getIndex(key, buckets.length);
//查看该数组是否为空
if(buckets[index]==null) return null;
Node<K,V> node=buckets[index];
//查找链表
while (node!=null){
//看该节点的key的hashcode和字符是不是与传进来的一样,完全相同就直接返回value
if((node.key.hashCode()==key.hashCode())
&&(node.key==key||node.key.equals(key))){
return node.value;
}
//不相同的话就查看链表中的下一个元素
node=node.next;
}
return null;
}
/**
* 返回map中元素的个数
* @return
*/
public int size(){
return size;
}
}
最后来测试一下: