一文解读所有HashMap的面试题

开发 前端
一说这个,肯定都是非常基础的面试题,都知道 HashMap 是属于那种线程不安全的类,为什么不安全,他不安全到底会提现在哪个地方,难道面试的时候,你就只会说他的内部没有被 synchronize 关键字控制么?

关于 HashMap 阿粉相信大家再面试的时候,是非常容易被问到的,为什么呢?因为至少是在 JDK8 出来之后,非常容易被问到关于 HashMap 的知识点,而如果对于没有研究过他的源代码的同学来说,这个可能只是说出一部分来,比如线程安全,链表+红黑树,以及他的扩容等等,今天阿粉就来把 HashMap 上面大部分会被在面试中问到的内容,做个总结。

HashMap

说到 HashMap 想必大家从脑海中直接复现出了一大堆的面试题,

  • HashMap 的数据结构
  • JDK7 和 JDK8 HashMap哪里不一样
  • HashMap是否安全
  • HashMap 的扩容机制

说到这里,我们就来挨着分析一下这个 HashMap 的这写面试题。

HashMap 的数据结构

这个 HashMap 的数据结构,面试官这个问题,属于那种可大可小的,往大了说,那就是需要你把所有的关于 HashMap 中的内容都详细的解释明白,但是如果要是往小了说,那就是介绍一下内部结构,就可以了。

阿粉今天来分析一下这个数据结构了。

HashMap 里面有几个比较重要的参数:

//默认初始容量——必须是2的幂
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//当没有构造函数中指定使用的负载系数
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//扩容的阈值,等于 CAPACITY * LOAD_FACTOR
static final int TREEIFY_THRESHOLD = 8;
//降容的阈值
static final int UNTREEIFY_THRESHOLD = 6;
//扩容的另外一个参数
static final int MIN_TREEIFY_CAPACITY = 64;

参数我们都看到了上述的这些内容了,如果用大白话,怎么去形容这些参数呢?其实这就涉及到这个后面的 JDK8 中的 HashMap 不一样的结构了,

我们也知道 JDK8 中的 HashMap ,如果在横向上是数组的话,那么他的纵向的每一个元素上面,都是一个单项的链表,而这个链表,会根据长度,来进行不通的演化,而这个演化就是扩容成为树结构和降容成为链表结构的关键,而这些关键,都是通过这些参数来进行的定义。

CAPACITY 就相当于是 HashMap 中的默认初始容量。

LOAD_FACTOR 负载因子

TREEIFY_THRESHOLD 树化的阈值,也就是说table的node中的链表长度超过这个阈值的时候,该链表会变成树

UNTREEIFY_THRESHOLD 树降级成为链表的阈值(也就是说table的node中的树长度低于这个阈值的时候,树会变成链表)

MIN_TREEIFY_CAPACITY 树化的另一个参数,就是当hashmap中的node的个数大于这个值的时候,hashmap中的有些链表才会变成树。

transient Node<K,V>[] table Hash 表

有些小伙伴在面试的时候,就会说,当 HashMap中的某个 node 链表长度大于 8 的时候,HashMap 中的这个链表就会变成树,实际上不是的,这个还和 MIN_TREEIFY_CAPACITY 有关系,也就是说整个 HashMap 的 node 数量大于64,node 的链表长度大于 8 才会变成树。

JDK7 和 JDK8 HashMap哪里不一样

JDK7我们大家也都知道,如果按照横向是数组,那么他的纵向每个元素上面,都是一个单向的链表,而横向上,每一个实体,就相当于是一个 Entry 的实例。

而这每一个 Entry 中都包含了四个属性,

  • key
  • value
  • hash值
  • 用于单项列表的next

就像下图这个样子:

图片

JDK7

所以 JDK7 的 HashMap 的数据结构就是 数组+链表 的形式构成

而 JDK8 就不一样了,因为他们的内部很巧妙的给增加了红黑树,如下图:

图片

JDK8

所以 JDK8 的 HashMap 的数据结构就是 数组+链表+红黑树 的形式构成了。

HashMap是否安全

一说这个,肯定都是非常基础的面试题,都知道 HashMap 是属于那种线程不安全的类,为什么不安全,他不安全到底会提现在哪个地方,难道面试的时候,你就只会说他的内部没有被 synchronize 关键字控制么?

所以,说起 HashMap 的不安全,那么就得从 put 和 get 方法说起了。

这个直接先看内部实现,我们先来看 put 方法,然后去分析这个 put 方法,

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//在这里先进行 Hash表的初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//通过 Hash 值计算在 Hash 表中的位置,并将这个位置的元素赋值给P 如果等于空的话创建一个新的 node
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//Hash表的当前的 index 已经存在了元素,向这个元素后追加链表
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
//新建接点,并且追加到列表
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

看到源码之后,我们猜想一下都会有哪些地方会出问题呢?比如,这时候如果有两个线程同时去执行 put

一个线程 A 执行put("1","A");

一个线程 B 执行put("2","B");

如果这个时候线程 A 和 B 都执行了 if ((p = tab[i = (n - 1) & hash]) == null)​ 但是,如果这个时候线程 A 先执行了 tab[i] = newNode(hash, key, value, null); 这时候,内部是没啥问题的,已经放进去了,

这时候如果线程 B 去执行 tab[i] = newNode(hash, key, value, null); 就会导致 A 线程中的 key 为 1 的元素 A 丢失。直接被线程 B 进行了覆盖,这也是为什么会有一些人说, JDK7 中是对扩容时会造成环形链或数据丢失,而在 JDK8 中是会会发生数据覆盖的情况。

就会出现 null 的问题,这个问题,不论是 JDK7 还是 JDK8 全都有这个问题,如果面试的时候,能够从这个地方分析一下的,至少这个线程不安全,你确实是自己去研究了一下,所以这就可以完美的解释了,HashMap 的线程不安全的问题了。

HashMap 的扩容机制

我们在上面也都列举了一下 HashMap 的一些关键参数,接下来,就来分析他的扩容是怎么实现的 ,

public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}

这段代码,写的看起来非常的舒服,指定了初始容量和加载因子,下一次需要扩容的容量 threshold​ 值由 tableSizeFor 方法得出

static final int tableSizeFor(int cap) {
int n = cap - 1;
// >>>:无符号右移。无论是正数还是负数,高位通通补0。
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

而 tableSizeFor 这个方法是用于计算出大于等于 cap 值的最大的2的幂值,而后续 HashMap 需要扩容时,每次 table 数组长度都扩展为原来的两倍,所以,table 数组长度总是为2的幂值。

为什么用位移运算,不直接使用.pow的方法, 这个东西,很明显, 位运算这种方式,效率可比.pow的效率要高很多,接下来就是正儿八经的扩容方法了。

final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length; //旧容量
int oldThr = threshold;// 旧的需要扩容的阈值
int newCap, newThr = 0;
if (oldCap > 0) {//如果不是第一次扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;// 如果容量大于最大值,将阈值设为最大值,这样不会发生下次扩容
return oldTab;
}
// 扩容容量为上一次容量的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 下次扩容阈值等于本次扩容阈值*2,因为扩容会扩为原来容量的两倍,所以依然满足 newThr = newCap * loadFactor
}
else if (oldThr > 0) // 第一次扩容,并且用户指定了初始容量
newCap = oldThr; // 扩展的容量为阈值
else { // 第一次扩容,并且初始容量和加载因子使用的默认值
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) { // 如果用户指定了初始容量时,并且是第一次扩容
float ft = (float)newCap * loadFactor;
// 下次扩容阈值为 newCap * loadFactor
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];// 新的数组
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) { //将旧数组数据移动到新数组
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null) // 如果还不是链表或红黑树,把数据直接移动到新数组中对应位置
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode) //红黑树时的移动数据
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // 链表时移动数据
// 原来的key的hash值对应的数组位置可能会发生变化
// 因为在做与操作时,现有的数组长度多了两倍,也就是多了一位的与计算
// 所以,链表或红黑树中的元素可能在原来位置,或者在原来位置 + 原来数组长度 的位置
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
....省略不分
}
}
}
}
return newTab;
}

总的来说,扩容就是创建一个新的数组,数组长度为原来的两倍,并将下一次需要扩容的阈值设置为新数组乘以加载因子的大小。

然后将原来数组中的数据移动到新数组中。

如果数组中的元素不是链表和红黑树,那么直接移动到原来旧数组中下标的位置。

否则如果是链表或红黑树,那么其中的数据可能会在原来的位置,或者在原来的位置+原来数组长度的位置,此时将原来的链表或红黑树分为两个链表或红黑树,再把数据移动到相应位置。

你明白了么?

责任编辑:武晓燕 来源: Java极客技术
相关推荐

2020-03-03 17:47:07

UDP TCP面试题

2020-03-31 14:40:24

HashMap源码Java

2020-01-17 09:00:00

HashMapJava编程语言

2023-09-12 11:00:38

HashMap哈希冲突

2023-02-17 14:35:15

HashMapNode类型

2009-06-06 18:34:05

java面试题

2021-10-11 10:19:48

Javascript 高阶函数前端

2022-08-11 10:42:58

Rust

2021-09-02 10:24:54

JavaScript前端语言

2015-09-07 09:15:54

Java面试题HashMap

2022-06-20 09:09:26

IDaaSIAM身份即服务

2019-10-11 08:51:11

Http协议Dubbo

2021-09-09 10:26:26

Javascript 文档对象前端

2019-11-25 11:04:22

Http协议Dubbo

2024-10-30 11:30:02

2020-06-04 14:40:40

面试题Vue前端

2014-09-19 11:17:48

面试题

2023-01-14 07:55:03

2018-05-13 16:06:55

数据科学机器学习面试

2018-01-17 22:14:01

点赞
收藏

51CTO技术栈公众号