天天看点

HashMap的工作原理 importnew

HashMap的工作原理是近年来常见的Java面试题。几乎每个Java程序员都知道HashMap,都知道哪里要用HashMap,知道Hashtable和HashMap之间的区别,那么为何这道面试题如此特殊呢?是因为这道题考察的深度很深。这题经常出现在高级或中高级面试中。投资银行更喜欢问这个问题,甚至会要求你实现HashMap来考察你的编程能力。ConcurrentHashMap和其它同步集合的引入让这道题变得更加复杂。让我们开始探索的旅程吧!

先来些简单的问题

“你用过HashMap吗?” “什么是HashMap?你为什么用到它?”

几乎每个人都会回答“是的”,然后回答HashMap的一些特性,譬如HashMap可以接受null键值和值,而Hashtable则不能;HashMap是非synchronized;HashMap很快;以及HashMap储存的是键值对等等。这显示出你已经用过HashMap,而且对它相当的熟悉。但是面试官来个急转直下,从此刻开始问出一些刁钻的问题,关于HashMap的更多基础的细节。面试官可能会问出下面的问题:

“你知道HashMap的工作原理吗?” “你知道HashMap的get()方法的工作原理吗?”

你也许会回答“我没有详查标准的Java API,你可以看看Java源代码或者Open JDK。”“我可以用Google找到答案。”

但一些面试者可能可以给出答案,“HashMap是基于hashing的原理,我们使用put(key, value)存储对象到HashMap中,使用get(key)从HashMap中获取对象。当我们给put()方法传递键和值时,我们先对键调用hashCode()方法,返回的hashCode用于找到bucket位置来储存Entry对象。”这里关键点在于指出,HashMap是在bucket中储存键对象和值对象,作为Map.Entry。这一点有助于理解获取对象的逻辑。如果你没有意识到这一点,或者错误的认为仅仅只在bucket中存储值的话,你将不会回答如何从HashMap中获取对象的逻辑。这个答案相当的正确,也显示出面试者确实知道hashing以及HashMap的工作原理。但是这仅仅是故事的开始,当面试官加入一些Java程序员每天要碰到的实际场景的时候,错误的答案频现。下个问题可能是关于HashMap中的碰撞探测(collision detection)以及碰撞的解决方法:

“当两个对象的hashcode相同会发生什么?” 从这里开始,真正的困惑开始了,一些面试者会回答因为hashcode相同,所以两个对象是相等的,HashMap将会抛出异常,或者不会存储它们。然后面试官可能会提醒他们有equals()和hashCode()两个方法,并告诉他们两个对象就算hashcode相同,但是它们可能并不相等。一些面试者可能就此放弃,而另外一些还能继续挺进,他们回答“因为hashcode相同,所以它们的bucket位置相同,‘碰撞’会发生。因为HashMap使用链表存储对象,这个Entry(包含有键值对的Map.Entry对象)会存储在链表中。”这个答案非常的合理,虽然有很多种处理碰撞的方法,这种方法是最简单的,也正是HashMap的处理方法。但故事还没有完结,面试官会继续问:

“如果两个键的hashcode相同,你如何获取值对象?” 面试者会回答:当我们调用get()方法,HashMap会使用键对象的hashcode找到bucket位置,然后获取值对象。面试官提醒他如果有两个值对象储存在同一个bucket,他给出答案:将会遍历链表直到找到值对象。面试官会问因为你并没有值对象去比较,你是如何确定确定找到值对象的?除非面试者直到HashMap在链表中存储的是键值对,否则他们不可能回答出这一题。

其中一些记得这个重要知识点的面试者会说,找到bucket位置之后,会调用keys.equals()方法去找到链表中正确的节点,最终找到要找的值对象。完美的答案!

许多情况下,面试者会在这个环节中出错,因为他们混淆了hashCode()和equals()方法。因为在此之前hashCode()屡屡出现,而equals()方法仅仅在获取值对象的时候才出现。一些优秀的开发者会指出使用不可变的、声明作final的对象,并且采用合适的equals()和hashCode()方法的话,将会减少碰撞的发生,提高效率。不可变性使得能够缓存不同键的hashcode,这将提高整个获取对象的速度,使用String,Interger这样的wrapper类作为键是非常好的选择。

如果你认为到这里已经完结了,那么听到下面这个问题的时候,你会大吃一惊。“如果HashMap的大小超过了负载因子(load factor)定义的容量,怎么办?”除非你真正知道HashMap的工作原理,否则你将回答不出这道题。默认的负载因子大小为0.75,也就是说,当一个map填满了75%的bucket时候,和其它集合类(如ArrayList等)一样,将会创建原来HashMap大小的两倍的bucket数组,来重新调整map的大小,并将原来的对象放入新的bucket数组中。这个过程叫作rehashing,因为它调用hash方法找到新的bucket位置。

如果你能够回答这道问题,下面的问题来了:“你了解重新调整HashMap大小存在什么问题吗?”你可能回答不上来,这时面试官会提醒你当多线程的情况下,可能产生条件竞争(race condition)。

当重新调整HashMap大小的时候,确实存在条件竞争,因为如果两个线程都发现HashMap需要重新调整大小了,它们会同时试着调整大小。在调整大小的过程中,存储在链表中的元素的次序会反过来,因为移动到新的bucket位置的时候,HashMap并不会将元素放在链表的尾部,而是放在头部,这是为了避免尾部遍历(tail traversing)。如果条件竞争发生了,那么就死循环了。这个时候,你可以质问面试官,为什么这么奇怪,要在多线程的环境下使用HashMap呢?:)

热心的读者贡献了更多的关于HashMap的问题:

  1. 为什么String, Interger这样的wrapper类适合作为键? String, Interger这样的wrapper类作为HashMap的键是再适合不过了,而且String最为常用。因为String是不可变的,也是final的,而且已经重写了equals()和hashCode()方法了。其他的wrapper类也有这个特点。不可变性是必要的,因为为了要计算hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashcode的话,那么就不能从HashMap中找到你想要的对象。不可变性还有其他的优点如线程安全。如果你可以仅仅通过将某个field声明成final就能保证hashCode是不变的,那么请这么做吧。因为获取对象的时候要用到equals()和hashCode()方法,那么键对象正确的重写这两个方法是非常重要的。如果两个不相等的对象返回不同的hashcode的话,那么碰撞的几率就会小些,这样就能提高HashMap的性能。
  2. 我们可以使用自定义的对象作为键吗? 这是前一个问题的延伸。当然你可能使用任何对象作为键,只要它遵守了equals()和hashCode()方法的定义规则,并且当对象插入到Map中之后将不会再改变了。如果这个自定义对象时不可变的,那么它已经满足了作为键的条件,因为当它创建之后就已经不能改变了。
  3. 我们可以使用CocurrentHashMap来代替Hashtable吗?这是另外一个很热门的面试题,因为ConcurrentHashMap越来越多人用了。我们知道Hashtable是synchronized的,但是ConcurrentHashMap同步性能更好,因为它仅仅根据同步级别对map的一部分进行上锁。ConcurrentHashMap当然可以代替HashTable,但是HashTable提供更强的线程安全性。看看这篇博客查看Hashtable和ConcurrentHashMap的区别。

我个人很喜欢这个问题,因为这个问题的深度和广度,也不直接的涉及到不同的概念。让我们再来看看这些问题设计哪些知识点:

  • hashing的概念
  • HashMap中解决碰撞的方法
  • equals()和hashCode()的应用,以及它们在HashMap中的重要性
  • 不可变对象的好处
  • HashMap多线程的条件竞争
  • 重新调整HashMap的大小

总结

HashMap的工作原理

HashMap基于hashing原理,我们通过put()和get()方法储存和获取对象。当我们将键值对传递给put()方法时,它调用键对象的hashCode()方法来计算hashcode,让后找到bucket位置来储存值对象。当获取对象时,通过键对象的equals()方法找到正确的键值对,然后返回值对象。HashMap使用链表来解决碰撞问题,当发生碰撞了,对象将会储存在链表的下一个节点中。 HashMap在每个链表节点中储存键值对对象。

当两个不同的键对象的hashcode相同时会发生什么? 它们会储存在同一个bucket位置的链表中。键对象的equals()方法用来找到键值对。

因为HashMap的好处非常多,我曾经在电子商务的应用中使用HashMap作为缓存。因为金融领域非常多的运用Java,也出于性能的考虑,我们会经常用到HashMap和ConcurrentHashMap。你可以查看更多的关于HashMap的文章:

Map是映射表,基本思想是键-值(对)关联,可以使用键来查找值。一般常见的Map有HashMap,LinkedHashMap,TreeMap,WeakHashMap,ConcurrentHashMap,IdentityHashMap。

       HashMap不多说,最常见,非线程安全的。

       LinkedHashMap取得“键值对”的顺序是其插入次序,或者是最近最少使用(LRU)的次序。只比HashMap慢一点;而在迭代访问时反应更快,因为它使用的链表维护内部次序。

       TreeMap基于红黑树的实现。查看“键”或“键值对”时,它们会被排序(次序由Comparable或者Comparator决定)。

       WeakHashMap弱键(weak key)映射,允许释放映射所指向的对象。如果映射之外没有引用指向某个“键”,则此“键”对应的值可以被垃圾回收器回收。

       ConcurrentHashMap一种线程安全的Map。

       IdentityHashMap使用==代替equals()对“键”进行比较的散列映射。意思是key在逻辑上可以相等,但是物理地址不能相等。

       要对Map更深入的理解,下面代码有助于理解。

  1. class MyMap<K, V> {

  2. private Object[][] pairs;

  3. private int index;

  4. public MyMap(int length) {

  5. pairs = new Object[length][2];

  6. }

  7. public void put(K key, V value) {

  8. if (index >= pairs.length) {

  9. throw new ArrayIndexOutOfBoundsException();

  10. }

  11. pairs[index++] = new Object[] { key, value };

  12. }

  13. public V get(K key) {

  14. for (int i = 0; i < index; i++) {

  15. if (key.equals(pairs[i][0])) {

  16. return (V) pairs[i][1];

  17. }

  18. }

  19. return null;

  20. }

  21. }

       但实际上,HashMap的实现不那么简单。

  1. public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {

  2. static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 默认初始化大小16

  3. static final int MAXIMUM_CAPACITY = 1 << 30; // 最大容量

  4. static final float DEFAULT_LOAD_FACTOR = 0.75f; // 默认加载因子

  5. transient Node<K,V>[] table;

  6. transient Set<Map.Entry<K,V>> entrySet;

  7. transient int size;

  8. transient int modCount; // 修改次数

  9. int threshold;

  10. final float loadFactor;

  1. static class Node<K,V> implements Map.Entry<K,V> {

  2. final int hash;

  3. final K key;

  4. V value;

  5. Node<K,V> next;

       HashMap的桶是用数组来定的Node<K,V>[] table,但是是根据key进行hash来确定index,即是哪个桶table[index]。每个桶内的元素是Node<K,V>,用链表来存储。也就是说如果由于hash值一样,在桶内是一个链表来存储key-value。

       来看put源码:

  1. public V put(K key, V value) {

  2. return putVal(hash(key), key, value, false, true);

  3. }

  1. final V putVal(int hash, K key, V value, boolean onlyIfAbsent,

  2. boolean evict) {

  3. Node<K,V>[] tab; Node<K,V> p; int n, i;

  4. if ((tab = table) == null || (n = tab.length) == 0)

  5. n = (tab = resize()).length;

  6. if ((p = tab[i = (n - 1) & hash]) == null)

  7. tab[i] = newNode(hash, key, value, null);

  8. else {

  9. Node<K,V> e; K k;

  10. if (p.hash == hash &&

  11. ((k = p.key) == key || (key != null && key.equals(k))))

  12. e = p;

  13. else if (p instanceof TreeNode)

  14. e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);

  15. else {

  16. for (int binCount = 0; ; ++binCount) {

  17. if ((e = p.next) == null) {

  18. p.next = newNode(hash, key, value, null);

  19. if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st

  20. treeifyBin(tab, hash);

  21. break;

  22. }

  23. if (e.hash == hash &&

  24. ((k = e.key) == key || (key != null && key.equals(k))))

  25. break;

  26. p = e;

  27. }

  28. }

  29. if (e != null) { // existing mapping for key

  30. V oldValue = e.value;

  31. if (!onlyIfAbsent || oldValue == null)

  32. e.value = value;

  33. afterNodeAccess(e);

  34. return oldValue;

  35. }

  36. }

  37. ++modCount;

  38. if (++size > threshold)

  39. resize();

  40. afterNodeInsertion(evict);

  41. return null;

  42. }

       首先看table是否初始化过,之后根据hash值定位到对应的Node[]中位置,如果该位置的值不存在,直接加入新节点。如果该位置的值存在,说明该位置对应的节点有多个,则分情况讨论:1.该位置的第一个节点即要追寻的目标节点;2.该位置的节点已经退化为了红黑树(链节点的个数超过8个);3.该位置还是单链,向后遍历寻找目标节点。

       HashMap的扩容机制resize()是比较关键的地方,一般resize()方法的调用是在这些情况:1. table第一次初始化;2. table容量不够,size > threshold;3. 当tab.length < 64, 而Hash冲突过多,linked nodes退化为tree。HashMap使用数组存储元素的,Java里的数组是无法自动扩容的,因此扩容方法是使用一个新的数组代替已有的容量小的数组。

       JDK1.8中也有了改进,解决了JDK1.7中高并发时resize时的死循环(HashMap也不是针对高并发场合的)。

  1. final Node<K,V>[] resize() {

  2. ……

  3. table = newTab;

  4. if (oldTab != null) {

  5. for (int j = 0; j < oldCap; ++j) {

  6. Node<K,V> e;

  7. if ((e = oldTab[j]) != null) {

  8. oldTab[j] = null;

  9. if (e.next == null)

  10. newTab[e.hash & (newCap - 1)] = e;

  11. else if (e instanceof TreeNode)

  12. ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

  13. else { // preserve order

  14. Node<K,V> loHead = null, loTail = null;

  15. Node<K,V> hiHead = null, hiTail = null;

  16. Node<K,V> next;

  17. do {

  18. next = e.next;

  19. if ((e.hash & oldCap) == 0) {

  20. if (loTail == null)

  21. loHead = e;

  22. else

  23. loTail.next = e;

  24. loTail = e;

  25. }

  26. else {

  27. if (hiTail == null)

  28. hiHead = e;

  29. else

  30. hiTail.next = e;

  31. hiTail = e;

  32. }

  33. } while ((e = next) != null);

  34. if (loTail != null) {

  35. loTail.next = null;

  36. newTab[j] = loHead;

  37. }

  38. if (hiTail != null) {

  39. hiTail.next = null;

  40. newTab[j + oldCap] = hiHead;

  41. }

  42. }

  43. }

  44. }

  45. }

  46. return newTab;

  47. }

       扩容时使用的是2次幂的扩展,即长度扩为原来2倍,所以经过rehash之后,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。例如:oldCap是10…00, 而newCap是oldCap的2倍,e.Hash & oldCap==0的话,e.Hash & (oldCap-1)与e.hash & (newCap -1)的值是一样。

       在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看e.hash & (newCap -1)的值是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”。还有一点,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,这也是死循环的原因所在。而JDK1.8则不会倒置。

--------------------- 本文来自 zero__007 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/zero__007/article/details/43492605?utm_source=copy