转载

HashMap使用initialCapacity初始化值进行性能优化

我们一般在写代码时,使用HashMap数据结构存数据时,有时候不会做容量大小设置,这样可能会造成一些内存浪费,所以,在知道存储的键值对数量的情况下,做初始化比较好。

一、创建HashMap

新建一个hashMap的时候,可以通过initialCapacity设置hashMap长度的初始化值。

Map<String, Object> resultMap = new HashMap<String, Object>(initialCapacity: 5);

hashMap源码中initialCapacity的初始值为16,负载因子为0.75;

所以一个hashMap中默认存储长度为16 * 0.75 = 12,也就是如果hashMap.put的键值对数量小于12的时候,hashMap位置够用;但是当添加的键值对数超过12后,hashMap需要扩容,一倍,也就是长度从12扩容到24;

例如键值对一共13个,这样剩余11个位置性能都浪费了,那么如果已知需要添加的键值对数量,就可以通过设置initialMap的值,来避免hashMap扩容,减少性能消耗。

我们需要往hashMap中添加6个键值对,6 / 0.75 = 8;那就可以把initialCapacity设置为9比较合适,节省性能。

二、原理

公式是《阿里巴巴Java开发手册》中的一个建议,在Guava中也是提供了相同的算法,更甚之,这个算法实际上是JDK8中putAll()方法的实现。这是公式的得出是因为, 当HashMap内部维护的哈希表的容量达到75%时(默认情况下),就会触发rehash(重建hash表)操作。而rehash的过程是比较耗费时间的。所以初始化容量要设置成expectedSize/0.75 + 1 的话,可以有效地减少冲突,也可以减小误差"

我的理解是:当数组长度是可容纳长度的75%时,就会重新建立数组,产生额外开销,所以这个预期的数组长度要小于可容纳的长度的75%,也就是 (initialCapacity - 1 ) * 0.75 = 预期数组长度 ,即 initialCapacity * 0.75 > 预期数组长度

三、公式

最后,千言万语都汇成最后这一个容量公式:

initialCapacity = expectedSize/0.75 + 1
原文  https://segmentfault.com/a/1190000023117683
正文到此结束
Loading...