目录
从源码看HashMap和HashTable的区别
1.继承的父类不同
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable
public class Hashtable<K,V>
extends Dictionary<K,V>
implements Map<K,V>, Cloneable, java.io.Serializable
可以看到,HashMap继承是AbstractMap类,Hashtable继承的是Dictionary,但是二者都实现了Map接口。 AbstractMap和Dictionary都是抽象类。
2.默认容量和扩容方式不同
(1)默认容量
//HashMap
/**
* The default initial capacity - MUST be a power of two.
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* The maximum capacity, used if a higher value is implicitly specified
* by either of the constructors with arguments.
* MUST be a power of two <= 1<<30.
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* The load factor used when none specified in constructor.
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//Hashtable
private static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
public Hashtable(int initialCapacity) {
this(initialCapacity, 0.75f);
}
/**
* Constructs a new, empty hashtable with a default initial capacity (11)
* and load factor (0.75).
*/
public Hashtable() {
this(11, 0.75f);
}
public Hashtable(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal Capacity: "+
initialCapacity);
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal Load: "+loadFactor);
if (initialCapacity==0)
initialCapacity = 1;
this.loadFactor = loadFactor;
table = new Entry<?,?>[initialCapacity];
threshold = (int)Math.min(initialCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
}
HashMap的默认容量是16,而且规定了它的容量只能是2的整数次幂,对输入的initialCapacity会通过tableSizeFor函数获取大于initialCapacity的下一个2的整数幂作为容量,并且指定了最大容量为2的30次方;Hashtable的默认容量是11,最小值是1,最大值为MAX_ARRAY_SIZE = Integer.MAX_VALUE-8,即2的31次方-9,二者的默认扩容因子都是0.75,这表示当容量超过了当前容量的0.75时,会自动扩容。
(2)扩容方式
//HashMap
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//threshold=tableSizeFor(initialCapacity),这个函数的功能是找到下一个比initialCapacity大的2的整数幂
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
//容量到达极限,无法扩容
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//如果容量没达到最大,扩容方式是翻倍
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
可以看到HashMap扩容时,会判断旧容量和其2倍是否大于最大容量,如果大于或等于,无法继续扩容,否则就newThr = oldThr << 1,新容量是旧容量的2倍。
protected void rehash() {
int oldCapacity = table.length;
Entry<?,?>[] oldMap = table;
// overflow-conscious code
int newCapacity = (oldCapacity << 1) + 1;
if (newCapacity - MAX_ARRAY_SIZE > 0) {
if (oldCapacity == MAX_ARRAY_SIZE)
// Keep running with MAX_ARRAY_SIZE buckets
return;
newCapacity = MAX_ARRAY_SIZE;
}
Entry<?,?>[] newMap = new Entry<?,?>[newCapacity];
modCount++;
threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
table = newMap;
for (int i = oldCapacity ; i-- > 0 ;) {
for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) {
Entry<K,V> e = old;
old = old.next;
int index = (e.hash & 0x7FFFFFFF) % newCapacity;
e.next = (Entry<K,V>)newMap[index];
newMap[index] = e;
}
}
}
可以看到Hashtable扩容时newCapacity = (oldCapacity << 1) + 1,说明它扩容时,新容量是旧容量的2倍+1,如果计算出来的新容量大于最大容量,最多只能取最大容量。
3.线程安全性不同
(1)是否使用synchronized关键字
//HashMap
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
//Hashtable
public synchronized V put(K key, V value) {
// Make sure the value is not null
if (value == null) {
throw new NullPointerException();
}
// Makes sure the key is not already in the hashtable.
Entry<?,?> tab[] = table;
int hash = key.hashCode();
int index = (hash & 0x7FFFFFFF) % tab.length;
@SuppressWarnings("unchecked")
Entry<K,V> entry = (Entry<K,V>)tab[index];
for(; entry != null ; entry = entry.next) {
if ((entry.hash == hash) && entry.key.equals(key)) {
V old = entry.value;
entry.value = value;
return old;
}
}
addEntry(hash, key, value, index);
return null;
}
可以看到,HashMap在插入新的键值对做put操作的时候,如果在并发开发中,需要自己实现同步,而Hashtable的put方法使用了synchronized关键字,不需要自己实现同步。所以HashMap是线程不安全的,Hashtable线程安全。
这就导致,若两个线程同时对同一个数组位置插入一个新节点,会导致先写入的数据被后写入的数据覆盖,正常来说,应该将后写入的数据插入该位置作为链表头。
(2)使用的hash值不同
//HashMap
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//Hashtable
/***
* @return a hash code value for this object.
* @see java.lang.Object#equals(java.lang.Object)
* @see java.lang.System#identityHashCode
*/
public native int hashCode();
在(1)中的代码里可以看到,HashMap在put新的键值对时,使用的是hash(key),即key的哈希值与其哈希值的高16位进行^运算,目的是让下标值更加散列。详细内容可以参考HashMap中hash(Object key)原理,为什么(hashcode >>> 16)。
而Hashtable直接就使用的key的哈希值。
(3)key和value是否允许null值
由(1)中的代码可以看见,Hashtable的value若为空会报出NullPointerException异常,换言之,Hashtable的value值不允许为空,而key在后面调用了它的hashcode方法,所以同样不许为空,而HashMap则无此限制。
所以,Hashtable的key、value均不能为null,而HashMap都可以为null。
4.是否实现contanins方法
HashMap把Hashtable的contains方法去掉了,改成containsValue和containsKey,因为contains方法容易让人引起误解。
Hashtable则保留了contains,containsValue和containsKey三个方法,其中contains和containsValue功能相同。
5.遍历方式的不同
Hashtable、HashMap都使用了 Iterator。而由于历史原因,Hashtable还使用了Enumeration的方式 。
//Hashtable
public synchronized Enumeration<V> elements() {
return this.<V>getEnumeration(VALUES);
}
总结
- 继承的父类不同:HashMap继承是AbstractMap类,Hashtable继承的是Dictionary。
- 初始容量不同:HashMap的默认容量是16,而且规定了它的容量只能是2的整数次幂;Hashtable的默认容量是11,最小值是1,最大值为2的31次方-9.
- 扩容方式不同:HashMap扩容新容量=旧容量*2,Hashtable新容量=旧容量*2+1.
- 线程是否安全:HashMap是线程不安全的,Hashtable线程安全;后者的put方法使用了synchronized关键字。
- hash值不同:HashMap使用hash(key),会对key的哈希值重新计算,Hashtable使用key.hashcode(),即key的哈希值.
- key、value能否为null:HashMap二者均可为null;Hashtable均不能为null.
- 是否实现contains方法:HashMap去掉了contains方法;Hashtable保留有contains方法,其功能与containsValue相同。
- 遍历方式的不同:Hashtable还使用了Enumeration;HashMap没有.
参考文献
[1]https://www.cnblogs.com/williamjie/p/9099141.html
[2]HashMap中hash(Object key)原理,为什么(hashcode >>> 16)