由浅入深了解HashMap源码

这篇具有很好参考价值的文章主要介绍了由浅入深了解HashMap源码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

       由经典面试题引入,讲解一下HashMap的底层数据结构?这个面试题你当然可以只答,HashMap底层的数据结构是由(数组+链表+红黑树)实现的,但是显然面试官不太满意这个答案,毕竟这里有一个坑需要你去填,那就是在回答HashMap的底层数据结构时需要考虑JDK的版本,因为在JDK8中相较于之前的版本做了一些改进,不仅仅是增加了红黑树的数据结构、还包括了链表结点的插入由头插法改成了尾插法,这些都是底层数据结构的优化问题。

 JDK8中HashMap的数据结构

由浅入深了解HashMap源码

        从上面数据结构原理图中我们能看出数组和链表是如何组合使用的,数组不是实际保存数据的结构,数组保存的是Node<K,V>的对象引用地址,实际保存数据的是Node<K,V>结点类。数组中的每个位置只能保存一个Node<K,V>对象,通过链表可以在同一位置保存多个数据,还有链表会在一定条件下转化为红黑树。

  • table数组
// 用于保存 Node<K,V> 类型的数组
transient Node<K,V>[] table;
  •  HashMap的默认初始化容量,指的是table数组大小
 // HashMap的默认初始化容量为16,1位运算左移4位
 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; 
  •  HashMap的默认负载因子,用于计算阈值
// HashMap的负载因子用于计算阈值,超过阈值即负载过大需要数组扩容
static final float DEFAULT_LOAD_FACTOR = 0.75f;
  •  HashMap的阈值,当HashMap中的元素个数超过阈值时,数组会扩容为原大小的2倍
 // 扩容的阈值(默认阈值 = 默认数组容量 * 负载因子),默认为12 = 16 * 0.75
 int threshold;
  •  HashMap的链表转换为红黑树的阈值
// 树化的阈值,不是唯一条件,而是必须条件
static final int TREEIFY_THRESHOLD = 8;
  • Node<K,V>结点类
 // HashMap源码的静态内部类
static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;    // 保存key计算出的hash码
        final K key;       // 保存key的值
        V value;           // 保存value的值
        Node<K,V> next;    // 保存下一个结点的引用地址

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }
        ...
 }

 HashMap的构造方法

  • HashMap的无参构造
// 此时只设置了默认的负载因子,即数组未初始化
public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; 
 }
  • HashMap的带负载因子和数组容量的构造方法
 // 可设置自定义负载因子和数组容量
public HashMap(int initialCapacity, float loadFactor) {
     // 数组容量不能小于0
     if (initialCapacity < 0)
         throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);
     // 数组容量不能大于MAXIMUM_CAPACITY
     if (initialCapacity > MAXIMUM_CAPACITY)
         initialCapacity = MAXIMUM_CAPACITY;
     // 负载因子不能小于等于0
     if (loadFactor <= 0 || Float.isNaN(loadFactor))
         throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
     this.loadFactor = loadFactor;
     // 用于计算table数组的最终大小,因为数组大小必需为2的n次方数
     this.threshold = tableSizeFor(initialCapacity);
}
  • HashMap的可传入Map集合数据的构造方法
public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    // 遍历Map取出集合的数据依次放入HashMap中
    putMapEntries(m, false);
}

 HashMap的put方法

  •  HashMap的put方法,实际调用了putVal方法
public V put(K key, V value) {
    // 计算key的哈希值,创建Node<K,V>结点放入数组中
    return putVal(hash(key), key, value, false, true);
}
  •  HashMap的hash方法返回的哈希值,并不是直接调用Object对象的hashCode()方法返回的那个哈希值,而是经过了异或运算后的哈希值。
// 计算key的哈希值的方法
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
  •  异或运算就是两个二进制数值按位比较,同位的值相同为0,同位的值不同为1。我们分析一下,先计算出key的哈希值用作第一个数,再把key的哈希值右移16位作为第二个数,然后再把两个数值进行异或运算(^)。因为增加了高16位的参与,这样计算出的哈希值会利用到了key的所有信息参与运算,增加了扰动因素,能降低哈希冲突的概率。还有在后面计算数组下标时我们会发现,由于是使用与运算(&),在数组的长度没有达到2的17次方的情况下,高16位是无法使用到的,所以这也是增加高16位运算的原因。
// 425918570 对应的32位的二进制哈希值 

// 高16位                    低16位
0001 1001 0110 0011 --- 0000 0000 0110 1010     // 原始哈希值
0000 0000 0000 0000 --- 0001 1001 0110 0011     // 原始哈希值右移16位的值,即高16位     
0001 1001 0110 0011 --- 0001 1001 0000 1001     // 异或运算得到的哈希值
  • putVal方法是添加数据的核心方法,table数组会在第一次添加元素时进行初始化,默认初始化容量为16,在添加数据时需要通过哈希值计算出数据放入的table数组所在的索引下标位置。添加完元素后需要判断数组是否需要扩容,扩容大小是原数组的两倍。
 // HashMap添加数据的核心方法,
 // onlyIfAbsent = false表示key相等时会覆盖旧value
 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // table数组是第一次使用时才进行初始化,懒惰使用
        if ((tab = table) == null || (n = tab.length) == 0)
            // resize()包括了数组的初始化和扩容
            n = (tab = resize()).length;
        // table数组当前计算出的下标位置还未保存过元素
        if ((p = tab[i = (n - 1) & hash]) == null)
            // 创建新结点,直接放入计算出的数组下标位置中
            tab[i] = newNode(hash, key, value, null);
         else {
            Node<K,V> e; K k;
            // 出现哈希冲突,需要判断是否是相同key,因为不同key也可能有相同的哈希值
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                // key相同,赋值给e,走下面更新新值并返回旧值代码
                e = p;
            // 当前计算的数组下标保存的是树结点,即红黑树结构
            else if (p instanceof TreeNode)
                // 采用红黑树的插入方法
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                // 从数组下标所在的头结点开始遍历链表
                for (int binCount = 0; ; ++binCount) {
                     // 找到尾结点,在尾结点后插入新结点,即尾插法
                    if ((e = p.next) == null) {
                        // 先插入结点,再判断阈值,故链表长度大于8时才是树化必须条件
                        p.next = newNode(hash, key, value, null);
                        // 链表的长度大于8时,走树化方法
                        if (binCount >= TREEIFY_THRESHOLD - 1) 
                            treeifyBin(tab, hash);
                        break;
                    }
                    // 如果当前遍历到的链表结点和需要添加的数据key相同,则无需插入,直接退出
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 添加结点数据时发现key已经存在,此时不是插入而是更新
            if (e != null) { 
                V oldValue = e.value;
                 // put相同key的数据时会覆盖旧值
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                // 返回当前key的旧值
                return oldValue;
            }
        }
        ++modCount;
        // HashMap中元素个数大于阈值,进行扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);   
        return null;
}
  • putVal方法中添加Node<K,V>的结点元素时,如何计算元素所在的table数组下标位置呢?这里就需要用到我们的哈希值了,我们可以利用哈希值对数组的长度进行取模运算,这样就可以把取模运算的结果当做数组的下标位置。但是实际源码中并不是这样做的,而是采用了与运算(&),利用哈希值和数组的最大索引下标进行按位与运算。这两种方式都可以保证算出的下标都可能取到数组的所有桶下标,且不会数组越界,但是与运算效率更高。
// 32位的二进制哈希值

// 高16位                    低16位
0001 1001 0110 0011 --- 0001 1001 0000 1001   // 最终计算出的哈希值
0000 0000 0000 0000 --- 0000 0000 0000 1111   // table数组的最大索引下标,使用默认大小就是15
0000 0000 0000 0000 --- 0000 0000 0000 1001   // 与运算(&)的结果 9,即下标位置

HashMap的数组长度为2的n次方数的原因

  • 面试经常会问HashMap的数组长度为什么强制使用2的幂次方数?要回答这个问题,那么我们就需要知道数组长度在哪个地方用到了,通过源码我们发现数组的长度被用于添加元素时计算数组的下标位置。数组下标是通过与运算(&)计算出来的,与运算的特点是(全1为1,有0为0),而2的幂次方数减一正好保证后面全为1,这样就可以使与运算计算的结果降低相同值的概率,本质就是减少哈希冲突的概率。
// 数组下标计算公式
int i = (n - 1) & hash

// 当hash值为10,数组长度n为9时
// 高16位                    低16位
0000 0000 0000 0000 --- 0000 0000 0000 1010   // 影响&运算的有效位为1位,容易产生哈希冲突
0000 0000 0000 0000 --- 0000 0000 0000 1000   // (n - 1)的值为8
0000 0000 0000 0000 --- 0000 0000 0000 1000   // 计算出的数组下标为8

// 当hash值为10,数组长度n为16时
// 高16位                    低16位
0000 0000 0000 0000 --- 0000 0000 0000 1010   // 影响&运算结果的有效位为4位,不易产生哈希冲突
0000 0000 0000 0000 --- 0000 0000 0000 1111   // (n - 1)的值为15
0000 0000 0000 0000 --- 0000 0000 0000 1010   // 计算出的数组下标为10

  • 数组扩容后Node<K,V>元素的存放的数组下标位置变化不大,只有两种可能,不是在新数组的原索引值位置就是在原索引值+原数组长度的位置。我们知道数组扩容是在原数组容量的基础上乘以2,根据原理可推断,在重新计算元素保存的数组下标位置时,(n - 1)带来的影响很小,只会增加一个有效位的计算。即扩容前(n - 1) = 15是4个1,扩容后(n - 1) = 31是5个1。
// 数组下标计算公式
int i = (n - 1) & hash
 
// 当hash值为10,扩容前,数组长度n为16
// 高16位                    低16位
0000 0000 0000 0000 --- 0000 0000 0000 1010   // &运算结果的有效位为4位
0000 0000 0000 0000 --- 0000 0000 0000 1111   // (n - 1)的值为15
0000 0000 0000 0000 --- 0000 0000 0000 1010   // 计算出的数组下标为10
 
// 当hash值为10,扩容后,数组长度n为32
// 高16位                    低16位
0000 0000 0000 0000 --- 0000 0000 0000 1010   // &运算结果的有效位为5位,增加一位有效位计算
0000 0000 0000 0000 --- 0000 0000 0001 1111   // (n - 1)的值为31
0000 0000 0000 0000 --- 0000 0000 0000 1010   // 计算出的数组下标还是10

HashMap的链表树化的条件

  •  链表什么时候树化,我们可以查看在添加结点时判断是否需要树化的源码逻辑。
// 树化的阈值,不是唯一条件,而是必须条件
static final int TREEIFY_THRESHOLD = 8;

 // 当遍历的结点数大于等于8时
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
     // 进入是否需要树化的方法
     treeifyBin(tab, hash);
  •   从源码中我们可以了解到链表转换为红黑树需要满足两个条件:一是数组的容量需要大于64二是链表的长度要大于阈值8。当必要条件链表的长度要大于8时,才会选择优化缩短链表长度,此时不一定就需要直接转换为红黑树,还可以通过扩容数组的方式来使链表长度变短,所以当数组的容量小于64时,是采取数组扩容来优化链表的。
// 将链表结点转换为红黑树,如果数组容量太小则先扩容数组
final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        // 数组为空或容量小于64,扩容数组
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
        // 找到当前链表的头结点
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            TreeNode<K,V> hd = null, tl = null;
            // 遍历普通结点链表转换为树结点的双向链表
            do {
                // 链表结点替换成树结点返回
                TreeNode<K,V> p = replacementTreeNode(e, null);
                 // 第一次保存树的头结点
                if (tl == null)
                    hd = p;
                else {
                    // 树结点间建立双向链表关系
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            // 将数组中的普通结点链表替换成树结点的双向链表
            if ((tab[index] = hd) != null)
                // 构造生成红黑树
                hd.treeify(tab);
        }
 }

 JDK8的HashMap为什么在链表中使用尾插法代替了头插法

  • 链表结点的头插法,就是在链表的头部插入数据,就是每次插入的新结点数据都会成为链表的头结点。JDK7的HashMap中是否真的使用了头插法,我们可以从源码中求证。
 // 用于添加Entry<K,V>结点的方法,jdk1.7叫Entry
void createEntry(int hash, K key, V value, int bucketIndex) {

    // table数组保存的头结点Entry保存到e变量
    Entry<K,V> e = table[bucketIndex];
    
    // 1. 把e元素作为新结点的next结点,即原头结点作为新结点的下一个结点
    // 2. 新结点作为头结点保存到table[bucketIndex],即头插法
    table[bucketIndex] = new Entry<>(hash, key, value, e);

    // HashMap中保存的元素总数+1
    size++;

}
  • 链表结点的尾插法,就是在链表的尾部插入数据,这样就需要遍历链表找到尾结点,使尾结点的Node<K,V> next结点指向新结点。JDK8的HashMap添加结点使用尾插法的源码实现就是如此,前面在源码中已经看到过。
 // 从数组下标所在的头结点开始遍历链表
for (int binCount = 0; ; ++binCount) {
      // 找到尾结点,在尾结点后插入新结点,即尾插法
      if ((e = p.next) == null) {
           // 新结点作为尾结点的next结点,并成为新尾结点
           p.next = newNode(hash, key, value, null);
          // 链表的长度大于8时,走树化方法
          if (binCount >= TREEIFY_THRESHOLD - 1) 
              treeifyBin(tab, hash);
          break;
      }
      // 如果当前遍历到的链表结点和需要添加的数据key相同,则无需插入,直接退出
      if (e.hash == hash &&
             ((k = e.key) == key || (key != null && key.equals(k))))
           break;
      p = e;
}
  •  了解了头插法和尾插法的区别,那么JDK8中的HashMap为什么抛弃了头插法而使用尾插法呢?这是因为头插法在数组扩容时,链表重新在新数组中生成时会导致链表元素倒序,这里比较难理解。因为链表的遍历是从头结点开始的,而链表插入是头插法,会一直更新头结点;所以就是最早插入的结点成为尾结点,最后插入的结点成为头结点,这是头插法的特点。这里的链表元素倒序表面上看起来问题不大,但是在多线程同时操作一个HashMap的情况下容易产生死链问题,这才是根本的。

 由浅入深了解HashMap源码

  •   JDK7中的HashMap在数组扩容时为什么会死链,当然这是并发问题,是可能出现,不是说一定就会死链。我们要结合扩容的源码进行分析,不一定要非常深入理解,能找到问题所在就行。
// jdk1.7的扩容过程
void transfer(Entry[] newTable, boolean rehash) {
     // 获取新数组的容量
     int newCapacity = newTable.length;
     // 遍历旧数组,获取头结点,单节点也是链表
     for (Entry<K,V> e : table) {
          // 遍历链表
          while(null != e) {
              // 取出当前结点的next结点
             Entry<K,V> next = e.next;
              // 判断是否需要重新计算hash值
             if (rehash) {
                  e.hash = null == e.key ? 0 : hash(e.key);
             }
             // 因为数组扩容了,重新计算元素存放的数组位置
             int i = indexFor(e.hash, newCapacity);

              // 当前添加的结点e作为头结点,所以它的e.next指向旧的头结点
             e.next = newTable[i];
             // 最新添加的结点成为新数组保存的头结点,每次更新头结点,即头插法
             newTable[i] = e;
               
             // 遍历的写法,取下一个节点,
             e = next;    
          }
     }
}
  •  分析Entry[ ] newTable作为外部传入的引用变量存在线程安全问题,Entry[ ] table不是方法的局部变量也存在线程安全问题。我们通过分析知道,头插法会导致链表结点元素倒序,即从A > B > C变为C > B > A,这就出现了大问题。在多线程环境下,如果一个线程完成了扩容,Entry[ ] table会引用新数组Entry[ ] newTable,由于链表结点引用指向发生了倒序,那么另一个线程就会产生死链,在遍历中产生死链会陷入死循环。
// 假设扩容前当前遍历的链表为: A > B > C
// 分析t1线程发生死链的情况,有两个线程 t1 和 t2,都在执行扩容操作
 while(null != e) {
     
      // t2线程未扩容成功时,t1线程执行,当 e = B,e.next一定为 C
      Entry<K,V> next = e.next;

      // t1线程发生上下文切换,此时t2线程先完成了扩容
      // 由于链表倒序为:C > B > A,当 e = B时,e.next的引用变为了 A, next还是引用 C
      if (rehash) {
          e.hash = null == e.key ? 0 : hash(e.key);
      }
      int i = indexFor(e.hash, newCapacity);
      // B结点指向头结点C,即 B > c > B,发生死链
      e.next = newTable[i];
      // B结点变为头结点
      newTable[i] = e;
   
     // 继续遍历,下一个节点变为C,由于死链会变为死循环
     e = next;    
}

JDK8的HashMap为什么引入了红黑树的数据结构

  •  红黑树是一种自平衡二叉搜索树,并不是完全平衡的二叉树。完全平衡二叉树需要自旋多次才能达到平衡,而红黑树不需要多次自旋,同样有很好的查询性能,缺点是引入了结点颜色维护,变得更加复杂。

由浅入深了解HashMap源码文章来源地址https://www.toymoban.com/news/detail-412209.html

  • 《算法导论》中对于红黑树的定义:①每个结点不是红结点就是黑结点 ;②根结点是黑色的; ③每个叶子节点(NIL)都是黑的;④如果一个节点是红的,那么它的两个儿子都是黑的;⑤对于任意一个结点,其到叶子节点(NIL)的所有路径上的黑结点数都是相等的。HashMap中使用红黑树的目的是为了提升查询效率,因为链表过长,会导致查询效率变低。HashMap中的链表会在数组容量大于64和链表长度大于8时转换为红黑树,同时红黑树也会在结点数小于等于6时退化为链表。 

到了这里,关于由浅入深了解HashMap源码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker由浅入深(一)

    容器化技术介绍 介绍容器化之前,我们得先知道,为什么会出现容器化,容器化之前都经历了什么 物理机时代 部署非常慢 成功很高 浪费资源 难于扩展与迁移 受制于硬件 虚拟化时代 在同一个物理机上安装多个虚拟机,每个虚拟机安装操作系统和应用, 虚拟机之间物理资源

    2024年02月03日
    浏览(53)
  • React - redux 使用(由浅入深)

    中文文档: http://www.redux.org.cn/ 英文文档: https://redux.js.org/ Github: https://github.com/reactjs/redux 可直接参照 目录十 进行使用 react-redux redux 是一个专门用于做状态管理的JS库(不是react插件库)。 它可以用在 react, angular, vue 等项目中, 但基本与 react 配合使用。 作用: 集中式管理 re

    2024年02月07日
    浏览(52)
  • 由浅入深Netty代码调优

    序列化,反序列化主要用在消息正文的转换上 序列化时,需要将 Java 对象变为要传输的数据(可以是 byte[],或 json 等,最终都需要变成 byte[]) 反序列化时,需要将传入的正文数据还原成 Java 对象,便于处理 目前的代码仅支持 Java 自带的序列化,反序列化机制,核心代码如

    2024年02月05日
    浏览(46)
  • 【个人笔记】由浅入深分析 ClickHouse

    项目中不少地方使用到ClickHouse,就对它做了一个相对深入一点的了解和研究。并对各种知识点及整理过程中的一些理解心得进行了汇总并分享出来,希望对其他同学能有帮助。 本文主要讲解ClickHouse的特点、读写过程、存储形式、索引、引擎、物化视图等特性。 适合 入门和

    2024年01月20日
    浏览(47)
  • 【由浅入深学习MySQL】之索引进阶

    本系列为:MySQL数据库详解,为千锋资深教学老师独家创作 致力于为大家讲解清晰MySQL数据库相关知识点,含有丰富的代码案例及讲解。如果感觉对大家有帮助的话,可以【关注】持续追更~ 文末有本文重点总结,技术类问题,也欢迎大家和我们沟通交流! 从今天开始本系列

    2024年02月05日
    浏览(45)
  • 手拉手Vue组件由浅入深

    组件 (Component) 是 Vue.js 最强大的功能之一,它是html、css、js等的一个聚合体,封装性和隔离性非常强。 组件化开发:     1、将一个具备完整功能的项目的一部分分割多处使用     2、加快项目的进度     3、可以进行项目的复用 组件注册分为:全局注册和局部注册 目录

    2024年01月18日
    浏览(46)
  • 由浅入深介绍 Python Websocket 编程

    1.1 websocket 协议简介 Websocket协议是对http的改进,可以实现client 与 server之间的双向通信; websocket连接一旦建立就始终保持,直到client或server 中断连接,弥补了http无法保持长连接的不足,方便了客户端应用与服务器之间实时通信。 适用场景 html页面实时更新, 客户端的html页面

    2024年02月03日
    浏览(42)
  • Springboot3+EasyExcel由浅入深

    环境介绍 技术栈 springboot3+easyexcel 软件 版本 IDEA IntelliJ IDEA 2022.2.1 JDK 17 Spring Boot 3 EasyExcel是一个基于Java的、快速、简洁、解决大文件内存溢出的Excel处理工具。 他能让你在不用考虑性能、内存的等因素的情况下,快速完成Excel的读、写等功能。 官网https://easyexcel.opensource.ali

    2024年01月16日
    浏览(47)
  • 由浅入深理解C#中的事件

    本文较长,给大家提供了目录,可以直接看自己感兴趣的部分。 前面介绍了C#中的委托,事件的很多部分都与委托类似。实际上,事件就像是专门用于某种特殊用途的简单委托,事件包含了一个私有的委托,如下图所示: 有关事件的私有委托需要了解的重要事项如下: 1、事

    2024年02月03日
    浏览(44)
  • 【由浅入深学MySQL】- MySQL连接查询

    本系列为:MySQL数据库详解,为千锋教育资深Java教学老师独家创作 致力于为大家讲解清晰MySQL数据库相关知识点,含有丰富的代码案例及讲解。如果感觉对大家有帮助的话,可以【点个关注】持续追更~ 文末有重点总结和福利内容! 技术类问题,也欢迎大家和我们沟通交流!

    2024年02月05日
    浏览(63)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包