Java 集合之面试必问

1.Map集合中HashMap,Hashtable,LinkHashMap,TreeMap的区别?

        HashMap是Java编程中最常用的数据结构之一,本文基于JDK1.8从源码角度来分析HashMap的存储结构和常用操作。HashMap实现了Map接口,Map接口的实现类还有Hashtable、LinkedListHashMap和TreeMap。具体的继承结构请参考JDK Document。

  学过数据结构的同学都知道Hash表的实现方式,其实HashMap就是Hash表的一个实现。HashMap是key-value结构的,根据key的hashCode可以快速访问到key对应的value,访问操作的时间复杂度为O(1)。但HashMap在多线程的场景下并不能保证数据的一致性,如果要在多线程的场景下使用Map结构,可以考虑使用Collections工具类的synchronizedMap方法使HashMap变为线程安全的,同时也可以考虑使用ConcurrentHashMap。

  那HashMap和其他几个Map接口的实现类有什么区别呢?

  和Hashtable的区别:Hashtable是线程安全的,是JDK的遗留类,内部实现使用synchronized关键字对方法加锁,效率和并发性不好。在线程安全的场景下可以使用ConcurrentHashMap替代,ConcurrentHashMap内部实现使用了分段锁,效率和并发性都要比Hashtable好。另一个区别是HashMap可以有有个null键和多个null值,Hashtable是不可以的。

  和LinkedHashMap的区别:LinkedHashMap是Map的实现类同时也是HashMap子类,与HashMap不同的地方在于LinkedHashMap底层使用链表实现,因此LinkedHashMap能够维护记录插入顺序,能够按次序访问,而HashMap的key是无序的,这一点和HashSet一致。

  和TreeMap的区别:TreeMap实现了Map的同时也实现了SortedMap接口,底层基于RB-Tree(红黑树)实现,TreeMap能够根据自然序或者给定的比较器维护记录的存储顺序。需要注意的是,在使用TreeMap的时候key对象需要实现Comparable接口或者在构造TreeMap时传入自定义Comparator,否则会在运行时抛出java.lang.ClassCastException异常。

  在使用Map时,需要确保key对象是不可变的,也就是说key的hash是不会改变的,如果key的hash发生变化,就会出现key访问不到value的情况。需要保证equals()方法和hashCode()方法所描述的对象是一致的,即两个对象的equals()方法返回true那么这两个对象的hashCode()方法也要返回相同的值。这也是重写equals()方法通常也要重写hashCode()方法的原因。 

 

2.谈谈你对HashMap中put/get方法的认识?

    在HashMap中put方法用于存储成对对象的集合,具有 key(键)-value(值)对映射关系的集合,一个 key 对应着 一个 value,key不允许重复的。

    HashMap 判断两个 key 相等的标准是:两个 key 通过 equals() 方法返回 true,hashCode 值也相等。

    HashMap 判断两个 value相等的标准是:两个 value 通过 equals() 方法返回 true。

//下面来鉴赏一下HashMap中put方法源码:
public V put(K key, V value) { 
    // 处理key为null,HashMap允许key和value为null 
    if (key == null) 
        return putForNullKey(value); 
    // 得到key的哈希码 
    int hash = hash(key); 
    // 通过哈希码计算出bucketIndex 
    int i = indexFor(hash, table.length); 
    // 取出bucketIndex位置上的元素,并循环单链表,判断key是否已存在 
    for (Entry<K,V> e = table[i]; e != null; e = e.next) {
        Object k; 
        // 哈希码相同并且对象相同时 
        if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { 
            // 新值替换旧值,并返回旧值 
            V oldValue = e.value; 
            e.value = value; 
            e.recordAccess(this); 
            return oldValue; 
        } 
    } 
    // key不存在时,加入新元素 
    modCount++; 
    addEntry(hash, key, value, i); 
    return null; 
}

3.谈谈HashMap的扩容机制?默认大小是多少?什么是加载因子?什么是吞吐临界值?

     构造一个具有默认初始容量 (16) 和默认加载因子 (0.75) 的空HashMap;

     吞吐临界值:默认初始容量 (16) *默认加载因子 (0.75) ;

     到达吞吐临界值的时候每次*2;

     HashMap有两个参数影响其性能:初始容量和加载因子。默认初始容量是16,加载因子是0.75。容量是哈希表中桶(Entry数组)的数量,初始容量只是哈希表在创建时的容量。加载因子是哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,通过调用 rehash 方法将容量翻倍。

/**
 * The default initial capacity - MUST be a power of two.
 */ 
static final int DEFAULT_INITIAL_CAPACITY = 16;// 默认初始容量为16,必须为2的幂 

/**
 * The maximum capacity, used if a higher value is implicitly specified
 * by either of the constructors with arguments.
 * MUST be a power of two <= 1<<30.
 */ 
static final int MAXIMUM_CAPACITY = 1 << 30;// 最大容量为2的30次方 

/**
 * The load factor used when none specified in constructor.
 */ 
static final float DEFAULT_LOAD_FACTOR = 0.75f;// 默认加载因子0.75 

/**
 * The table, resized as necessary. Length MUST Always be a power of two.
 */ 
transient Entry<K,V>[] table;// Entry数组,哈希表,长度必须为2的幂 

/**
 * The number of key-value mappings contained in this map.
 */ 
transient int size;// 已存元素的个数 

/**
 * The next size value at which to resize (capacity * load factor).
 * @serial
 */ 
int threshold;// 下次扩容的临界值,size>=threshold就会扩容 


/**
 * The load factor for the hash table.
 *
 * @serial
 */ 
final float loadFactor;// 加载因子 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员学习圈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值