透过Java中的HashMap了解Map接口

开发 后端
本篇文章引用了HashMap的一些例子深入对Map的实现机制进行了解。并提供了相应的源码供大家参考。

一直以来似乎都有一个错觉,认为map跟其他的集合类一样继承自Collection,其实不然,Map和Collection在结构层次上是没有任何关系的,通过查看源码可以发现map所有操作都是基于key-value对,而不是单独的元素。

下面以HashMap为例子,深入对Map的实现机制进行了解,在这个过程中,请打开jdk源码。

Hash算法

HashMap使用Hash算法,所以在解剖HashMap之间,需要先简单的了解Hash算法,Hash算法一般也成为散列算法,通过散列算法将任意的值转化成固定的长度输出,该输出就是散列值,这是一种压缩映射,也就是,散列值的空间远远小于输入的值空间。

简单的说,hash算法的意义在于提供了一种快速存取数据的方法,它用一种算法建立键值与真实值之间的对应关系,(每一个真实值只能有一个键值,但是一个键值可以对应多个真实值),这样可以快速在数组等里面存取数据。

下面我们建立一个HashMap,然后往里面放入12对key-value,这个HashMap的默认数组长度为16,我们的key分别存放在该数组的格子中,每个格子下面存放的元素又是以链表的方式存放元素。

  1. public   static   void  main(String[] args) {  
  2.         Map map  =   new  HashMap();  
  3.         map.put( " What " ,  " chenyz " );  
  4.         map.put( " You " ,  " chenyz " );  
  5.         map.put( " Don't " ,  " chenyz " );  
  6.         map.put( " Know " ,  " chenyz " );  
  7.         map.put( " About " ,  " chenyz " );  
  8.         map.put( " Geo " ,  " chenyz " );  
  9.         map.put( " APIs " ,  " chenyz " );  
  10.         map.put( " Can't " ,  " chenyz " );  
  11.         map.put( " Hurt " ,  " chenyz " );  
  12.         map.put( " you " ,  " chenyz " );  
  13.         map.put( " google " ,  " chenyz " );  
  14.         map.put( " map " ,  " chenyz " );  
  15.         map.put( " hello " ,  " chenyz " );  
  16.     }  

当我们新添加一个元素时,首先我们通过Hash算法计算出这个元素的Hash值的hashcode,通过这个hashcode的值,我们就可以计算出这个新元素应该存放在这个hash表的哪个格子里面,如果这个格子中已经存在元素,那么就把新的元素加入到已经存在格子元素的链表中。

运行上面的程序,我们对HashMap源码进行一点修改,打印出每个key对象的hash值

What-->hash值:8

You-->hash值:3

Don't-->hash值:7

Know-->hash值:13

About-->hash值:11

Geo-->hash值:12

APIs-->hash值:1

Can't-->hash值:7

Hurt-->hash值:1

you-->hash值:10

google-->hash值:3

map-->hash值:8

hello-->hash值:0

计算出来的Hash值分别代表该key应该存放在Hash表中对应数字的格子中,如果该格子已经有元素存在,那么该key就以链表的方式依次放入格子中

从上表可以看出,Hash表是线性表和链表的综合所得,根据数据结构的定义,可以得出粗劣的结论,Hash算法的存取速度要比数组差一些,但是比起单纯的链表,在查找和存取方面却要好多。

如果要查找一个元素时,同样的方式,通过Hash函数计算出这个元素的Hash值hashcode,然后通过这个hashcode值,直接找到跟这个hash值相对应的线性格子,进如该格子后,对这个格子存放的链表元素逐个进行比较,直到找到对应的hash值。

在简单了解完Hash算法后,我们打开HashMap源码

初始化HashMap

下面我们看看Map map = new HashMap();这段代码究竟做了什么,发生了什么数据结构的变化。

HashMap中几个重要的属性

transient Entry[] table;

用来保存key-value的对象Entry数组,也就是Hash表

transient int size;

返回HashMap的键值对个数

final float loadFactor;

负载因子,用来决定Entry数组是否扩容的因子,HashMap默认是0.75f

int threshold;

重构因子,(capacity * load factor)负载因子与Entry[]数组容积的乘值

  1. public   class  HashMap < K,V >   
  2.      extends  AbstractMap < K,V >   
  3.      implements  Map < K,V > , Cloneable, Serializable  
  4. {  
  5.      int  threshold;      
  6.  
  7.      final   float  loadFactor;  
  8.  
  9.      transient  Entry[] table;  
  10.  
  11.      static   final   float  DEFAULT_LOAD_FACTOR  =   0.75f ;  
  12.  
  13.      static   final   int  DEFAULT_INITIAL_CAPACITY  =   16 ;  
  14.  
  15.      public  HashMap( int  initialCapacity,  float  loadFactor) {  
  16.          if  (initialCapacity  <   0 )  
  17.              throw   new  IllegalArgumentException( " Illegal initial capacity:  "   +   
  18.                                                initialCapacity);  
  19.          if  (initialCapacity  >  MAXIMUM_CAPACITY)  
  20.             initialCapacity  =  MAXIMUM_CAPACITY;  
  21.          if  (loadFactor  <=   0   ||  Float.isNaN(loadFactor))  
  22.              throw   new  IllegalArgumentException( " Illegal load factor:  "   +   
  23.                                                loadFactor);  
  24.  
  25.          //  Find a power of 2 >= initialCapacity   
  26.          int  capacity  =   1 ;  
  27.          while  (capacity  <  initialCapacity)  
  28.             capacity  <<=   1 ;  
  29.  
  30.          this .loadFactor  =  loadFactor;  
  31.         threshold  =  ( int )(capacity  *  loadFactor);  
  32.         table  =   new  Entry[capacity];  
  33.         init();  
  34.     }  

以public HashMap(int initialCapacity, float loadFactor)构造函数为例,另外两个构造函数实际上也是以同种方式来构建HashMap.

首先是要确定hashMap的初始化的长度,这里使用的策略是循环查出一个大于initialCapacity的2的次方的数,例如 initialCapacity的值是10,那么大于10的数是2的4次方,也就是16

capacity的值被赋予了16,那么实际上table数组的长度是16,之所以采用这样的策略来构建Hash表的长度,是因为2的次方运算对于计算机来说是有相当的效率。

loadFactor,被称为负载因子,HashMap的默认负载因子是0.75f

threshold,接下来是重构因子,由负载因子和容量的乘机组成,它表示当HashMap元素被存放了多少个之后,需要对HashMap进行重构。

通过这一系列的计算和定义后,初始化Entry[] table;

put(key,value)

接下来看一对key-value是如何被存放到HashMap中:put(key,value)

  1.  public  V put(K key, V value) {  
  2.      if  (key  ==   null )  
  3.          return  putForNullKey(value);  
  4.      int  hash  =  hash(key.hashCode());  
  5.       
  6.      int  i  =  indexFor(hash, table.length);  
  7.     System.out.println(key + " -->hash值: " + i); // 这就是刚才程序打印出来的key对应hash值   
  8.      for  (Entry < K,V >  e  =  table[i]; e  !=   null ; e  =  e.next) {  
  9.         Object k;  
  10.          if  (e.hash  ==  hash  &&  ((k  =  e.key)  ==  key  ||  key.equals(k))) {  
  11.             V oldValue  =  e.value;  
  12.             e.value  =  value;  
  13.             e.recordAccess( this );  
  14.              return  oldValue;  
  15.         }  
  16.     }  
  17.  
  18.     modCount ++ ;  
  19.     addEntry(hash, key, value, i);  
  20.      return   null ;  
  21. }  
  22.  
  23.  static   int  hash( int  h) {  
  24.     h  ^=  (h  >>>   20 )  ^  (h  >>>   12 );  
  25.      return  h  ^  (h  >>>   7 )  ^  (h  >>>   4 );  
  26. }  
  27.  
  28.  static   int  indexFor( int  h,  int  length) {  
  29.      return  h  &  (length - 1 );  
  30. }  

这里是整个hash的关键,请打开源码查看一步一步查看。

hash(key.hashCode()) 计算出key的hash码 //对于hash()的算法,这里有一篇分析很透彻的文章

indexFor(hash, table.length) 通过一个与算法计算出来,该key应在存放在Hash表的哪个格子中。

for (Entry e = table[i]; e != null; e = e.next) 然后再遍历table[i]格中的链表,判断是否已经存在一样的key,如果存在一样的key值,那么就用新的value覆盖旧的value,并把旧的value值返回。

addEntry(hash, key, value, i) 如果经过遍历链表没有发现同样的key,那么进行addEntry函数的操作,增加当前key到hash表中的第i个格子中的链表中

  1. void  addEntry( int  hash, K key, V value,  int  bucketIndex) {  
  2.    Entry < K,V >  e  =  table[bucketIndex];  
  3.    table[bucketIndex]  =   new  Entry < K,V > (hash, key, value, e);  
  4.     if  (size ++   >=  threshold)  
  5.        resize( 2   *  table.length);  
  6.   

Entry e = table[bucketIndex];   创建一个Entry对象来存放键值(ps:Entry对象是一个链表对象)

table[bucketIndex] = new Entry(hash, key, value, e); 将Entry对象添加到链表中

if (size++ >= threshold) resize(2 * table.length); ***将size进行自增,判断size值是否大于重构因子,如果大于那么就是用resize进行扩容重构。

  1. void  resize( int  newCapacity) {  
  2.    Entry[] oldTable  =  table;  
  3.     int  oldCapacity  =  oldTable.length;  
  4.     if  (oldCapacity  ==  MAXIMUM_CAPACITY) {  
  5.        threshold  =  Integer.MAX_VALUE;  
  6.         return ;  
  7.    }  
  8.  
  9.    Entry[] newTable  =   new  Entry[newCapacity];  
  10.    transfer(newTable);  
  11.    table  =  newTable;  
  12.    threshold  =  ( int )(newCapacity  *  loadFactor);  
  13.   

这里为什么是否需要扩容重构,其实是涉及到负载因子的性能问题

loadFactor负载因子

上面说过loadFactor是一个hashMap的决定性属性,HashSet和HashMap的默认负载因子都是0.75,它表示,如果哈希表的容量超过3/4时,将自动成倍的增加哈希表的容量,这个值是权衡了时间和空间的成本,如果负载因子较高,虽然会减少对内存空间的需求,但也会增加查找数据的时间开销,无论是put()和get()都涉及到对数据进行查找的动作,所以负载因子是不适宜设置过高

get(key)

接下来看看get(key)做了什么

  1.  public  V get(Object key) {  
  2.      if  (key  ==   null )  
  3.          return  getForNullKey();  
  4.      int  hash  =  hash(key.hashCode());  
  5.      for  (Entry < K,V >  e  =  table[indexFor(hash, table.length)];  
  6.          e  !=   null ;  
  7.          e  =  e.next) {  
  8.         Object k;  
  9.          if  (e.hash  ==  hash  &&  ((k  =  e.key)  ==  key  ||  key.equals(k)))  
  10.              return  e.value;  
  11.     }  
  12.      return   null ;  
  13. }  

这些动作似乎是跟put(key,value)相识,通过hash算法获取key的hash码,再通过indexFor定位出该key存在于table的哪一个下表,获取该下标然后对下标中的链表进行遍历比对,如果有符合就直接返回该key的value值。

keySet()

这里还涉及另一个问题,上面说了HashMap是跟set没有任何亲属关系,但map也一样实现了keySet接口,下面谱析一下keySet在hashMap中是如何实现的,这里给出部分代码,请结合源码查看

  1. public  K next() {  
  2.              return  nextEntry().getKey();  
  3.         }  
  4.  
  5.      final  Entry < K,V >  nextEntry() {  
  6.              if  (modCount  !=  expectedModCount)  
  7.                  throw   new  ConcurrentModificationException();  
  8.             Entry < K,V >  e  =  next;  
  9.              if  (e  ==   null )  
  10.                  throw   new  NoSuchElementException();  
  11.  
  12.              if  ((next  =  e.next)  ==   null ) {  
  13.                 Entry[] t  =  table;  
  14.                  while  (index  <  t.length  &&  (next  =  t[index ++ ])  ==   null )  
  15.                     ;  
  16.             }  
  17.         current  =  e;  
  18.              return  e;  
  19.         }  

代码很简单,就是对每个格子里面的链表进行遍历,也正是这个原因,当我们依次将key值put进hashMap中,但在使用map.entrySet().iterator()进行遍历时候却不是put时候的顺序。

扩容

在前面说到put函数的时候,已经提过了扩容的问题

  1. if  (size ++   >=  threshold)  
  2. resize( 2   *  table.length);  

这里一个是否扩容的判断,当数据达到了threshold所谓的重构因子,而不是HashMap的***容量,就进行扩容。

  1. Entry[] oldTable   
  2.  
  3. threshold   
  4. }  
  5.  Entry[] newTable   
  6.         transfer(newTable);  
  7.         table   
  8.         threshold   
  9.     }  
  10.         Entry[] src   
  11.             Entry  
  12.                 src[j]   
  13.                     Entry  
  14.                     e.next   
  15.                    newTable[i]   
  16.                     e   
  17.                 }   
  18.             }  
  19.         }  
  20.     }  
  21. void  resize( int  newCapacity)   
  22. { =  table; int  oldCapacity  =  oldTable.length; 
  23. if  (oldCapacity  ==  MAXIMUM_CAPACITY) { =  Integer.MAX_VALUE;   
  24. return ; =   new  Entry[newCapacity];
  25.  =  newTable; =  ( int )(newCapacity  *  loadFactor); 
  26. void  transfer(Entry[] newTable) 
  27. { =  table; int  newCapacity  =  newTable.length; 
  28. for  ( int  j  =   0 ; j  <  src.length; j ++ ) { < K,V >  e  =  src[j]; 
  29. if  (e  !=   null ) { =   null ; do  { < K,V >  next  =  e.next; 
  30. int  i  =  indexFor(e.hash, newCapacity); 
  31. =  newTable[i]; =  e; =  next; 
  32. while  (e  !=   null ); 

transfer方法实际上是将所有的元素重新进行一些hash,这是因为容量变化了,每个元素相对应的hash值也会不一样。

使用HashMap

1.不要再高并发中使用HashMap,HashMap是线程不安全,如果被多个线程共享之后,将可能发生不可预知的问题。

2.如果数据大小事固定的,***在初始化的时候就给HashMap一个合理的容量值,如果使用new HashMap()默认构造函数,重构因子的值是16*0.75=12,当HashMap的容量超过了12后,就会进行一系列的扩容运算,重建一个原来成倍的数组,并且对原来存在的元素进行重新的hash运算,如果你的数据是有成千上万的,那么你的成千上万的数据也要跟这你的扩容不断的hash,这将产生高额的内存和cpu的大量开销。

当然啦,HashMap的函数还有很多,不过都是基于table的链表进行操作,当然也就是hash算法,Map & hashMap在平时我们的应用非常多,最重要的是我们要对每句代码中每块数据结构变化心中有数。

【编辑推荐】

  1. Java中对HashMap的深度分析与比较
  2. Java中对HashMap的深度分析
  3. Java中的Collection和Map详解
  4. Scala编程实例:使用Set和Map
责任编辑:金贺 来源: Javaeye博客
相关推荐

2009-12-18 11:22:34

Ruby source

2021-08-30 10:01:01

Map接口HashMap

2010-04-23 10:41:21

链路负载均衡

2016-09-12 14:33:20

javaHashMap

2014-04-28 10:17:01

2015-02-27 16:11:11

春运大数据百度迁徙

2020-12-24 11:19:55

JavaMapHashMap

2023-02-17 18:32:42

JavaAIOIO

2021-03-26 00:00:05

​JavaMap设计

2009-06-25 15:20:28

CollectionMap

2021-05-08 10:36:31

开发Java Map

2022-06-26 09:55:00

接口自动化项目

2020-09-25 08:49:42

HashMap

2021-01-15 05:39:13

HashMapHashTableTreeMap

2023-10-08 08:46:29

Java遍历方式

2017-03-22 14:23:58

Java HashMa实现原理

2022-11-17 15:17:12

Java数据结构Map

2021-01-26 05:26:33

Java抽象类接口

2013-09-11 09:49:18

Java数组集合

2023-11-15 17:12:27

BCIJava
点赞
收藏

51CTO技术栈公众号