Java Map接口的常见实现类

Java 进阶篇

笔记首页

序号内容链接地址
1Java核心Apihttps://blog.csdn.net/weixin_44141495/article/details/108277753
2Java集合框架接口https://blog.csdn.net/weixin_44141495/article/details/108146574
3List实现类https://blog.csdn.net/weixin_44141495/article/details/108146613
4Set实现类https://blog.csdn.net/weixin_44141495/article/details/108146744
5Map实现类https://blog.csdn.net/weixin_44141495/article/details/108146656
6常见接口https://blog.csdn.net/weixin_44141495/article/details/108269208

Java Map接口的常见实现类

HashMap

概述

HashMap 是Map 的子类,此类的定义如下:

public class HashMap<K,V> extends AbstractMap<K,V>
                        implements Map<K,V>, Cloneable, Serializable

​ 此类继承了AbstractMap 类,同时可以被克隆,可以被序列化下来。

特点

  • HashMap是 Map 接口使用频率最高的实现类。

  • 允许使用null键和null值,与HashSet一样,不保证映射的顺序。

  • 所有的key构成的集合是Set:无序的、不可重复的。所以,key所在的类要重写:equals()和hashCode()

  • 所有的value构成的集合是Collection:无序的、可以重复的。所以,value所在的类要重写:equals()

  • 一个key-value构成一个entry

  • 所有的entry构成的集合是Set:无序的、不可重复的

  • HashMap 判断两个 key 相等的标准是:两个 key 通过 equals() 方法返回 true,hashCode 值也相等。

  • HashMap 判断两个 value相等的标准是:两个 value 通过 equals() 方法返回 true。

HashMap的存储结构

  • JDK 7及以前版本:HashMap是数组+链表结构(即为链地址法)

  • JDK 8版本发布以后:HashMap是数组+链表+红黑树实现。

img

HashMap的存储结构示意图

HashMap源码中的重要成员属性

常量

  • ULT_INITIAL_CAPACITY : HashMap的默认容量,16

  • MAXIMUM_CAPACITY HashMap的最大支持容量,2^30

  • DEFAULT_LOAD_FACTOR:HashMap的默认加载因子

  • TREEIFY_THRESHOLD:Bucket中链表长度大于该默认值,转化为红黑树

  • UNTREEIFY_THRESHOLD:Bucket中红黑树存储的Node小于该默认值,转化为链表

  • MIN_TREEIFY_CAPACITY:桶中的Node被树化时最小的hash表容量。(当桶中Node的数量大到需要变红黑树时,若hash表容量小于MIN_TREEIFY_CAPACITY时,此时应执行。扩容操作这个MIN_TREEIFY_CAPACITY的值至少是TREEIFY_THRESHOLD的4倍。)

变量

  • entrySet:存储具体元素的集

  • size:HashMap中存储的键值对的数量

  • modCount:HashMap扩容和结构改变的次数。

  • threshold:扩容的临界值,=容量*填充因子

  • loadFactor填充因子

内部类

Node

static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }
}

TreeNode

static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
        TreeNode<K,V> parent;  // red-black tree links
        TreeNode<K,V> left;
        TreeNode<K,V> right;
        TreeNode<K,V> prev;    // needed to unlink next upon deletion
        boolean red;
        TreeNode(int hash, K key, V val, Node<K,V> next) {
            super(hash, key, val, next);
        }

        /**
         * Returns root of tree containing this node.
         */
        final TreeNode<K,V> root() {
            for (TreeNode<K,V> r = this, p;;) {
                if ((p = r.parent) == null)
                    return r;
                r = p;
            }
        }
}

HashMap的初始化

  • 当实例化一个HashMap时,系统会创建一个长度为Capacity的Entry数组,这个长度在哈希表中被称为容量

    (Capacity),在这个数组中可以存放元素的位置我们称之为“桶”(bucket),每个bucket都有自己的索引,系统可以根据索引快速的查找bucket中的元素。

  • 每个bucket中存储一个元素,即一个Entry对象,但每一个Entry对象可以带一个引

    用变量,用于指向下一个元素,因此,在一个桶中,就有可能生成一个Entry链。

    而且新添加的元素作为链表的head。

HashMap添加元素的过程

  • 通过hash算法计算位置:

    向HashMap中添加entry1(key,value),需要首先计算entry1中key的哈希值(根据

    key所在类的hashCode()计算得到),此哈希值经过处理以后,得到在底层Entry[]数

    组中要存储的位置i。

  • 判断是否可添加:

    如果位置i上没有元素,则entry1直接添加成功。如果位置i上已经存在entry2(或还有链表存在的entry3,entry4),则需要通过循环的方法,依次比较entry1中key和其他的entry。如果彼此hash值不同,则直接添加成功。如果hash值不同,继续比较二者是否equals。如果返回值为true,则使用entry1的value去替换equals为true的entry的value。如果遍历一遍以后,发现所有的equals返回都为false,则entry1仍可添加成功。entry1指向原有的entry元素。

HashMap的扩容

当HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,因为数组的

长度是固定的。所以为了提高查询的效率,就要对HashMap的数组进行扩容,而在

HashMap数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算

其在新数组中的位置,并放进去,这就是resize。

HashMap进行扩容的时机:

HashMap中的元素个数超过数组大小(数组总大小length,不是数组中个数(size)*填充因子(loadFactor) 时就会进行数组扩容。

  1. loadFactor:

loadFactor的默认 值 (DEFAULT_LOAD_FACTOR)为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小(DEFAULT_INITIAL_CAPACITY)为16,那么当HashMap中元素个数超过16x0.75=12(这个值就是代码中的threshold值,也叫做临界值)的时候,就把进行扩容。

  1. 容量翻倍

HashMap的扩容是扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。

  1. 树化和反树化

当HashMap中的其中一个链的对象个数如果达到了8个,此时如果capacity没有达到64,那么HashMap会先扩容解决,如果已经达到了64,那么这个链会变成树,结点类型由Node变成TreeNode类型。当然,如果当映射关系被移除后,下次resize方法时判断树的结点个数低于6个,也会把树再转为链表。

总结:

JDK1.8相较于之前的变化:

  1. HashMap map = new HashMap();//默认情况下,先不创建长度为16的数组

  2. 当首次调用map.put()时,再创建长度为16的数组

  3. 数组为Node类型,在jdk7中称为Entry类型

  4. 形成链表结构时,新添加的key-value对在链表的尾部(七上八下)

  5. 当数组指定索引位置的链表长度>8时,且map中的数组的长度> 64时,此索引位置上的所有key-value对使用红黑树进行存储。

面试题:

负载因子值的大小,对HashMap有什么影响?

  • 负载因子的大小决定了HashMap的数据密度。

  • 负载因子越大密度越大,发生碰撞的几率越高,数组中的链表越容易长,造成查询或插入时的比较次数增多,性能会下降。

  • 负载因子越小,就越容易触发扩容,数据密度也越小,意味着发生碰撞的几率越小,数组中的链表也就越短,查询和插入时比较的次数也越小,性能会更高。但是会浪费一定的内容空间。而且经常扩容也会影响性能,建议初始化预设大一点的空间。

  • 按照其他语言的参考及研究经验,会考虑将负载因子设置为0.7~0.75,此时平均检索长度接近于常数。


TreeMap

TreeMap 子类是允许key 进行排序的操作子类,其本身在操作的时候将按照key 进行排序,另外,key 中的内容可以为任意的对象,但是要求对象所在的类必须实现Comparable 接口。

public class TreeMap<K,V>
    extends AbstractMap<K,V>
    implements NavigableMap<K,V>, Cloneable, java.io.Serializable

特点

  • TreeMap存储 Key-Value 对时,需要根据 key-value 对进行排序。TreeMap 可以保证所有的 Key-Value 对处于有序状态。
  • TreeSet底层使用红黑树结构存储数据

img

红黑树存储结构示意图
  • TreeMap 的 Key 的排序:
  • 自然排序:TreeMap 的所有的 Key 必须实现 Comparable 接口,而且所有的 Key 应该是同一个类的对象,否则将会抛出 ClasssCastException
  • 定制排序:创建 TreeMap 时,传入一个 Comparator 对象,该对象负责对TreeMap 中的所有 key 进行排序。此时不需要 Map 的 Key 实现Comparable 接口
  • TreeMap判断两个key相等的标准:两个key通过compareTo()方法或者compare()方法返回0。

示例

public static void main(String[] args) {
    Map<String, String> map = new TreeMap<String, String>();
    map.put("ZS", "张三");
    map.put("LS", "李四");
    map.put("WW", "王五");
    map.put("ZL", "赵六");
    map.put("SQ", "孙七");
    Set<String> set = map.keySet(); // 得到全部的key
    Iterator<String> iter = set.iterator();
    while (iter.hasNext()) {
        String i = iter.next(); // 得到key
        System.out.println(i + " --:> " + map.get(i));
    }
}

输出结果

LS --:> 李四
SQ --:> 孙七
WW --:> 王五
ZL --:> 赵六
ZS --:> 张三

此时的结果已经排序成功了,但是从一般的开发角度来看,在使用Map 接口的时候并不关心其是否排序,所以此类只需要知道其特点即可。


其他Map实现类

Hashtable

  • Hashtable是个古老的 Map 实现类,JDK1.0就提供了。不同于HashMap,Hashtable是线程安全的。

  • Hashtable实现原理和HashMap相同,功能相同。底层都使用哈希表结构,查询速度快,很多情况下可以互用。

  • 与HashMap不同,Hashtable 不允许使用 null 作为 key 和 value

  • 与HashMap一样,Hashtable 也不能保证其中 Key-Value 对的顺序

  • Hashtable判断两个key相等、两个value相等的标准,与HashMap一致。


Properties

  • Properties 类是 Hashtable 的子类,该对象用于处理属性文件

  • 由于属性文件里的 key、value 都是字符串类型,所以 Properties 里的 key 和 value 都是字符串类型

  • 存取数据时,建议使用setProperty(String key,String value)方法和getProperty(String key)方法

Properties pros = new Properties();

pros.load(new FileInputStream("jdbc.properties"));

String user = pros.getProperty("user");

System.out.println(user);

LinkedHashMap

  • LinkedHashMap 是 HashMap 的子类

  • 在HashMap存储结构的基础上,使用了一对双向链表来记录添加元素的顺序

  • 与LinkedHashSet类似,LinkedHashMap 可以维护 Map 的迭代顺序:迭代顺序与 Key-Value 对的插入顺序一致

static class Entry<K,V> extends HashMap.Node<K,V> {
        Entry<K,V> before, after;
        Entry(int hash, K key, V value, Node<K,V> next) {
            super(hash, key, value, next);
        }
    }
} 

ConcurrentHashMap

概述

  • ConcurrentHashMap和 HashMap 非常类似,唯一的区别就是其中的核心数据如 value ,以及链表都是 volatile 修饰的,保证了获取时的可见性。

  • ConcurrentHashMap 采用了分段锁技术,其中 Segment 继承于 ReentrantLock。不会像 HashTable 那样不管是 put 还是 get 操作都需要做同步处理,理论上 ConcurrentHashMap 支持 CurrencyLevel (Segment 数组数量)的线程并发。每当一个线程占用锁访问一个 Segment 时,不会影响到其他的 Segment。

  • CorrentHashMap是线程安全的Map,包含两个静态内部类 HashEntry 和 Segment:

HashEntry :

用来封装映射表的键 / 值对;

static final class HashEntry<K,V> { 
       final K key;                       // 声明 key 为 final 型
       final int hash;                   // 声明 hash 值为 final 型 
       volatile V value;                 // 声明 value 为 volatile 型
       final HashEntry<K,V> next;      // 声明 next 为 final 型 

       HashEntry(K key, int hash, HashEntry<K,V> next, V value) { 
           this.key = key; 
           this.hash = hash; 
           this.next = next; 
           this.value = value; 
       } 
}

Segment:

用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶(HashEntry对象,若干个HashEntry对象组成HashEntry数组,相当于一个HashMap)。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。

static final class Segment<K,V> extends ReentrantLock implements Serializable { 

       transient volatile int count; 

       transient int modCount; 

       transient int threshold; 

       transient volatile HashEntry<K,V>[] table; 

       final float loadFactor; 

       Segment(int initialCapacity, float lf) { 
           loadFactor = lf; 
           setTable(HashEntry.<K,V>newArray(initialCapacity)); 
       } 
}

img

ConcurrentHashMap存储结构示意图
  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值