• 注册
当前位置:1313e > java >正文

浅析Java源码之HashMap

  写这篇文章还是下了一定决心的,因为这个源码看的头疼得很。

  老规矩,源码来源于JRE1.8,java.util.HashMap,不讨论I/O及序列化相关内容。

  该数据结构简介:使用了散列码来进行快速搜索。(摘自Java编程思想)

  那么,文章的核心就探讨一下,内部是如何对搜索操作进行优化的。

  先来一张帅气的图片总览:

  预备知识:

1、Map没有迭代器,但是可以通过Map.entry()生成一个Set容器,然后通过Set的迭代器遍历map元素。

2、HashMap是乱序的。

3、HashMap元素根据散列码分散在一个数组的不同索引中,利用了数组的快速搜索特性对get操作进行了优化。

4、HashMap元素的保存形式为单向链表,是一个静态内部类。

  先过一遍这个内部类:

    static class Node implements Map.Entry {// hash值、key、value、后指针final int hash;final K key;V value;Node next;Node(int hash, K key, V value, Node next) {this.hash = hash;this.key = key;this.value = value;this.next = next;}public final K getKey()        { return key; }public final V getValue()      { return value; }public final String toString() { return key + "=" + value; }public final int hashCode() {return Objects.hashCode(key) ^ Objects.hashCode(value);}public final V setValue(V newValue) {// ...
        }public final boolean equals(Object o) {// ...
        }}

  代码非常简单,常规的get/set/equals,构造函数仅有一个指向下一个节点的指针,属于单向链表。

  还有一个新建Node的方法:

    Node newNode(int hash, K key, V value, Node next) {return new Node<>(hash, key, value, next);}

 

  总览一下类的声明:

public class HashMap extends AbstractMap
implements Map, Cloneable, Serializable {// code...
}

  其中AbstractMap类实现了大部分常规方法,诸如get、contain、remove、size等方法,但是put方法是一个没有实现的方法,仅抛出一个错误。

  至于Map接口,下载的源码包没有这个class的,所以暂时不知道内部的代码,不过影响不大。

  这里比较奇怪的是,类AbstractMap中实现了Map接口,这里HashMap又重新声明实现Map接口,不太懂为啥。

  

变量

  HashMap中的变量比较多,如下:

    // 容器默认容量 必须为2的次方static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;// 容器最大容量static final int MAXIMUM_CAPACITY = 1 << 30;// 默认负载参数static final float DEFAULT_LOAD_FACTOR = 0.75f;// 容器参数final float loadFactor;// 一个节点数组 HashMap的容器transient Node[] table;// 保存所有map的Set容器 可以用来遍历、查询等transient Set> entrySet;// map对象数量transient int size;// 容量临界值 触发resizeint threshold;// 将红黑树转换回链表的临界值static final int UNTREEIFY_THRESHOLD = 6;// 链表转树的临界值static final int TREEIFY_THRESHOLD = 8;// (感谢指正)当某一个数组索引处的Node数量大于此值时 触发resize并重新分配Nodestatic final int MIN_TREEIFY_CAPACITY = 64;

  所有的容量与参数都是table相关,table就是开篇所讲的数组。

 

构造函数

  

1、无参构造函数

    public HashMap() {this.loadFactor = DEFAULT_LOAD_FACTOR;}

  简单的将默认负载参数赋值给负载参数。

 

2、int单参数构造函数

    public HashMap(int initialCapacity) {this(initialCapacity, DEFAULT_LOAD_FACTOR);}

  调用另外一个构造函数,第二个参数为默认的负载参数。

 

3、int、float双参数构造函数

    public HashMap(int initialCapacity, float loadFactor) {if (initialCapacity < 0)throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);if (initialCapacity > MAXIMUM_CAPACITY)initialCapacity = MAXIMUM_CAPACITY;if (loadFactor <= 0 || Float.isNaN(loadFactor))throw new IllegalArgumentException("Illegal load factor: " +loadFactor);this.loadFactor = loadFactor;this.threshold = tableSizeFor(initialCapacity);}

  错误处理就不管了,这里负载参数是正常的直接赋值,但是初始容器大小就不太一样了,是通过一个函数返回。

  这个函数很有意思:

    static final int tableSizeFor(int cap) {int n = cap - 1;n |= n >>> 1;n |= n >>> 2;n |= n >>> 4;n |= n >>> 8;n |= n >>> 16;return (n < 0) ? 1 : n + 1;}

  第一次看没搞懂,后面也没太看懂,于是尝试用个测试代码看一下输入值从0-100会输出什么。

  测试代码:

public class suv {static final int tableSizeFor(int cap) {int n = cap - 1;n |= n >>> 1;n |= n >>> 2;n |= n >>> 4;n |= n >>> 8;n |= n >>> 16;return (n < 0) ? 1 : n + 1;}public static void main(String[] args){for(int i=1;i<100;i++){System.out.print(tableSizeFor(i) + ",");if(i%20 == 0){System.out.println();}}}
}

  输出如下:

  有非常明显的规律:

1、输出均为2的次方

2、输入值为大于该值的最小2次方数

  例如:输入5,大于5的最小2次方数为2的三次方8,所以输出为8。

  如果还不懂,可以看我自己写的方法,输出跟上面一样:

    static final int diyFn(int cap){int start = 1;for(;;){if(start >= cap){return start;}start = start << 1;}}

  这里暂时不需要知道原因,只需要知道容量必须是2的次方。

 

4、带有初始化集合的构造函数

    public HashMap(Mapextends K, ? extends V> m) {this.loadFactor = DEFAULT_LOAD_FACTOR;putMapEntries(m, false);}

  这里负载参数设置为默认的,然后调用putMapEntries方法初始化HashMap。

  这个方法会初始化一些参数,稍微看一下:

    final void putMapEntries(Mapextends K, ? extends V> m, boolean evict) {int s = m.size();if (s > 0) {// 初始table为nullif (table == null) { // pre-size// 用负载参数进行计算float ft = ((float)s / loadFactor) + 1.0F;// 与最大容量作比较 返回对应的int类型值int t = ((ft < (float)MAXIMUM_CAPACITY) ?(int)ft : MAXIMUM_CAPACITY);// The next size value at which to resize (capacity * load factor).if (t > threshold)threshold = tableSizeFor(t);}// 扩容else if (s > threshold)resize();// 插入处理for (Map.Entryextends K, ? extends V> e : m.entrySet()) {K key = e.getKey();V value = e.getValue();putVal(hash(key), key, value, false, evict);}}}

  这里的扩容类似于ArrayList的grow函数,不同的是这里扩容的算法是每次乘以2,并且存在一个负载参数来修正初次扩容的步数。

  threshold可以看注释,这是一个扩容临界值。当容器大小大于这个值时,就会进行resize扩容操作,临界值取决于当前容器容量与负载参数。

  接下来应该要进入resize函数,参照之前的ArrayList源码,这里也是先扩容得到一个新的数组,然后将所有节点进行转移。

  函数有点长,一步一步来:

    final Node[] resize() {// 缓存旧数组Node[] oldTab = table;// 旧容量int oldCap = (oldTab == null) ? 0 : oldTab.length;// 旧的临界值int oldThr = threshold;int newCap, newThr = 0;if (oldCap > 0) {// 旧容量已经达到上限时 返回旧的数组if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}// 容量与临界值同时<<1else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1;}// 下面的else均代表旧数组为空else if (oldThr > 0)// 新容量设置为旧的临界值newCap = oldThr;else {// 当容器为空时 初始化所有参数newCap = DEFAULT_INITIAL_CAPACITY;newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}// 这里的情况是初始化一个空HashMap 然后调用putAll插入大量元素触发的resize// 新临界值为新容量与负载参数相乘if (newThr == 0) {float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);}// 新临界值threshold = newThr;// ...数组操作}

  首先第一步是参数修正,包括临界值与容器容量。

  接下来就是数组操作,如下:

    final Node[] resize() {// 参数修正
        @SuppressWarnings({"rawtypes","unchecked"})// 根据新容量生成新数组Node[] newTab = (Node[])new Node[newCap];table = newTab;// 如果旧数组是空的 直接返回扩容后的数组if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {Node e;// 遍历旧数组if ((e = oldTab[j]) != null) {// 释放对应旧数组内存oldTab[j] = null;// 数组仅存在一个元素if (e.next == null)// 将节点复制到新数组对应索引newTab[e.hash & (newCap - 1)] = e;// 使用红黑树结构保存的节点 这里暂时不管else if (e instanceof TreeNode)((TreeNode)e).split(this, newTab, j, oldCap);else { // preserve orderNode loHead = null, loTail = null;Node hiHead = null, hiTail = null;Node next;// 遍历数组对应索引的链表元素do {next = e.next;// 两个分支都是执行链表的链接// 由于数组扩容 所以对于(length-1) & hash的运算会改变 所以对原有的数组内容重新分配if ((e.hash & oldCap) == 0) {if (loTail == null)loHead = e;elseloTail.next = e;loTail = e;}else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);// 数组对应索引存储的是链表的第一个节点if (loTail != null) {loTail.next = null;newTab[j] = loHead;}if (hiTail != null) {hiTail.next = null;// oldCap为旧容量newTab[j + oldCap] = hiHead;}}}}}return newTab;}

  至此,可以看出,数组保存了一系列单向链表的第一个元素。

 

核心讲解

  这里存在一个核心运算,即:

    newTab[e.hash & (newCap - 1)] = e;

  之前讲过扩容,每次扩容的容量都是2的次方,为什么必须是呢?这里就给出了答案。

  开篇讲过,该数据结构是通过hash值来优化搜索,这里就用到了hash值。但是hash值是不确定的,如何保证元素分配到的索引平均分配到数组的每一个索引,并且不会超过索引呢?

  答案就是这个运算,这里举一个例子:

  比如说容量为默认的16,此时的二进制表示为10000,减1后会得到01111。

  与运算应该都不陌生,两个都为1时才会返回1。

  由于高位会自动补0,所以任何数与01111做与运算时,高位都是0,范围限定在 00000 ~ 01111,十进制表示就是0 - 15,巧的是,容量为16的数组,索引恰好是[0] - [15]。

  这就解释了为什么容量必须为2的次方,而且元素是如何被平均分配到数组中的。

 

    (e.hash & oldCap) == 0

  这是用来区分lo、hi的运算,注释中已经解释了为什么需要做切割,这里给一个简图说明一下:

  

  首先,假设这个tab容量目前是8,而索引0中的节点太多了(这里应该是树,懒得画了),于是触发了resize,并将该索引每个节点的hash值按照上面的那个计算,判断是否需要移动。

  经过重分配,数组大概变成了这样:

  扩容后,会进行插入操作,留到下一部分解释。

  由于大体上的思想已经很明显了,下面看一下增删改查的API。

 

方法

  按照增删改查的顺序。

  首先看一眼

    public V put(K key, V value) {return putVal(hash(key), key, value, false, true);}

  方法需要传入键值对,返回值。这里调用了内部的添加方法,其中散列码用的是key的,这里的hash并不是直接用hashCode方法,而是内部做了二次处理。

    static final int hash(Object key) {int h;return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}

  这个运算没啥讲的,当成返回一个随机数就行了。

  下面是putVal的完整过程:

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {Node[] tab;Node p;int n, i;// 初始化HashMap后第一次添加会调用resize初始化if ((tab = table) == null || (n = tab.length) == 0)// 返回扩容后的长度 默认情况下为1<<4n = (tab = resize()).length;// 又是位运算 这里代表该索引位没有链表 于是新建一个Nodeif ((p = tab[i = (n - 1) & hash]) == null)tab[i] = newNode(hash, key, value, null);else {Node e;K k;// 传入元素的key与链表第一个元素的key相同if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))e = p;// 树节点 暂时不管else if (p instanceof TreeNode)e = ((TreeNode) p).putTreeVal(this, tab, hash, key, value);else {for (int binCount = 0;; ++binCount) {// 到达尾部进行插入节点if ((e = p.next) == null) {p.next = newNode(hash, key, value, null);// 当链表的长度大于临界值时 调用treeifyBinif (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);break;}// 当中途遇到key相同的元素时 跳出循环if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))break;p = e;}}if (e != null) { // existing mapping for keyV oldValue = e.value;// 赋值if (!onlyIfAbsent || oldValue == null)e.value = value;// 链表链接成功的钩子函数
                afterNodeAccess(e);return oldValue;}}++modCount;// 临界值检测if (++size > threshold)resize();// 新建链表的钩子函数
        afterNodeInsertion(evict);return null;}

  这里的过程可以简述为:通过key的hash值计算出一个值作为索引,然后对索引处的链表进行插入或者修改操作

  但是这里还是有几个特殊的点:

1、钩子函数

2、当链表长度大于某个值时,会调用treeifyBin方法将链表转换为红黑树

  钩子函数是我自己取的名字,因为让我想到了vue生命周期的钩子函数。这两个方法都是本地已定义但是没有具体内容,是用来重写的函数。

  另外一个是treeifyBin方法,该方法将链表转换为红黑树结构保存:

    final void treeifyBin(Node[] tab, int hash) {int n, index; Node e;// 若小于最低树临界值 触发resizeif (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)resize();// 该索引处有元素else if ((e = tab[index = (n - 1) & hash]) != null) {TreeNode hd = null, tl = null;do {// 将索引处第一个链表元素转为红黑树结构TreeNode p = replacementTreeNode(e, null);// 针对第一个元素if (tl == null)hd = p;// 前指针与后指针的链接操作else {p.prev = tl;tl.next = p;}tl = p;} while ((e = e.next) != null);// 这里是真正的红黑树转换if ((tab[index] = hd) != null)hd.treeify(tab);}}

  可以看出,当链表的长度大于某一临界值时,会将数据结构转换为红黑树。

  当然,这个链表的Node比一般的链表还是牛逼一点,采用的键值对的泛型,而TreeNode本身是一个静态内部类,目前仅需要知道继承于LinkedHashMap.Entry,元素按照插入顺序进行排序。

  关于TreeNode转换的详解可以单独分一节讲了,这里暂时跳过吧。

 

  下面是

    public V remove(Object key) {Node e;return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value;}

  直接看removeNode的实现:

    final Node removeNode(int hash, Object key, Object value,boolean matchValue, boolean movable) {Node[] tab; Node p; int n, index;if ((tab = table) != null && (n = tab.length) > 0 &&(p = tab[index = (n - 1) & hash]) != null) {Node node = null, e; K k; V v;// 当对应索引第一个链表元素就与key相等if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))node = p;else if ((e = p.next) != null) {// 红黑树删除if (p instanceof TreeNode)node = ((TreeNode)p).getTreeNode(hash, key);else {// 遍历链表对key做比较do {if (e.hash == hash &&((k = e.key) == key ||(key != null && key.equals(k)))) {node = e;break;}p = e;} while ((e = e.next) != null);}}if (node != null && (!matchValue || (v = node.value) == value ||(value != null && value.equals(v)))) {// 红黑树结构删除节点if (node instanceof TreeNode)((TreeNode)node).removeTreeNode(this, tab, movable);// 当第一个元素被删除时 下一个被指定为索引处元素else if (node == p)tab[index] = node.next;// 重新链接nextelsep.next = node.next;++modCount;--size;// 钩子函数
                afterNodeRemoval(node);// 返回删除的节点return node;}}return null;}

  这里很简答,通过hash值快速找到对应的索引处,遍历链表或者红黑树进行查询,找到就删除节点并重新执行next链接。

  同样,这里也有一个钩子函数,参数为被删除的节点。

 

  由于改的情况在增的情况中已经提及,所以这里就跳过。

 

  最后看一眼查:

    public V get(Object key) {Node e;return (e = getNode(hash(key), key)) == null ? null : e.value;}public boolean containsKey(Object key) {return getNode(hash(key), key) != null;}

  一个获取,一个查询,都指向同一个方法,所以看getNode的实现:

    final Node getNode(int hash, Object key) {Node[] tab; Node first, e; int n; K k;if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {// 查第一个元素if (first.hash == hash && // always check first node((k = first.key) == key || (key != null && key.equals(k))))return first;// 然后遍历if ((e = first.next) != null) {if (first instanceof TreeNode)return ((TreeNode)first).getTreeNode(hash, key);do {if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))return e;} while ((e = e.next) != null);}}return null;}

  没啥营养,常规的找索引,遍历,返回节点或者null。

 

  至此,HashMap的基本内部实现已经完事,红黑树转换另外开一篇单独弄。

转载于:https://www.cnblogs.com/QH-Jimmy/p/7804356.html

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 162202241@qq.com 举报,一经查实,本站将立刻删除。

最新评论

欢迎您发表评论:

请登录之后再进行评论

登录
相关推荐