数据结构☞散列表
散列表(Hash Table)散列表的英文叫“Hash Table”,我们平时也叫它“哈希表”或者“Hash 表”。散列表用的是数组支持按照下标随机访问数据的特性,所以散列表其实就是数组的一种扩展,由数组演化而来。可以说,如果没有数组,就没有散列表。key:键或者关键字。散列函数(或“Hash 函数”“哈希函数”):把key值转化为数组下标的映射方法。散列函数计算得到的值就叫作散列值(或“Hash
散列表(Hash Table)
散列表的英文叫“Hash Table”,我们平时也叫它“哈希表”或者“Hash 表”。
散列表用的是数组支持按照下标随机访问数据的特性,所以散列表其实就是数组的一种扩展,由数组演化而来。可以说,如果没有数组,就没有散列表。
- key:键或者关键字。
- 散列函数(或“Hash 函数”“哈希函数”):把key值转化为数组下标的映射方法。
- 散列函数计算得到的值就叫作散列值(或“Hash 值”“哈希值”)。
散列函数
散列函数设计的基本要求:
- 散列函数计算得到的散列值是一个非负整数;
- 如果 key1 = key2,那 hash(key1) == hash(key2);
- 如果 key1 ≠ key2,那 hash(key1) ≠ hash(key2)。(往往这个条件很难办到,key不同可能出现相同的散列值,于是出现散列冲突)
解决散列冲突
1. 开放寻址法
(1)线性探测(Linear Probing)(最好O(1);最坏情况下的时间复杂度为 O(n))
- 插入:如果某个数据经过散列函数散列之后,存储位置已经被占用了,我们就从当前位置开始,依次往后查找,看是否有空闲位置,直到找到为止。
- 查找:过程和插入一样,找到对应数组下标后,对比x与数组中存储的值是否相等,若不等则依次往后查找…
- 删除:删除的元素,特殊标记为 deleted。当线性探测查找的时候,遇到标记为 deleted 的空间,并不是停下来,而是继续往下探测。
(2)二次探测(Quadratic probing)
和线性探测(Linear Probing)类似,只不过每次步长为冲突下标的平方(i^2
)。
(3)双重散列(Double hashing)
所谓双重散列,意思就是不仅要使用一个散列函数。我们使用一组散列函数 hash1(key),hash2(key),hash3(key)……我们先用第一个散列函数,如果计算得到的存储位置已经被占用,再用第二个散列函数,依次类推,直到找到空闲的存储位置。
2. 链表法(HashMap和Hashtable就是这样存储的嘛)
散列表中,每个“桶(bucket)”或者“槽(slot)”会对应一条链表,所有散列值相同的元素我们都放到相同槽位对应的链表中:
装载因子(现在知道为什么HashMap和Hashtable有扩容因子0.75了吧!)
当散列表中数组空闲位置不多的时候,散列冲突的概率就会大大提高。
装载因子的计算公式是:散列表的装载因子=填入数组中的元素个数/数组长度
装载因子越大,说明空闲位置越少,冲突越多,散列表的性能会下降。
思考题
1. 假设我们有 10 万条 URL 访问日志,如何按照访问次数给 URL 排序?
遍历 10 万条数据,以 URL 为 key,访问次数为 value,存入散列表,同时记录下访问次数的最大值 K,时间复杂度 O(N)。
如果 K 不是很大,可以使用桶排序,时间复杂度 O(N)。如果 K 非常大(比如大于 10 万),就使用快速排序,复杂度 O(NlogN)。
2. 有两个字符串数组,每个数组大约有 10 万条字符串,如何快速找出两个数组中相同的字符串?
以第一个字符串数组构建散列表,key 为字符串,value 为出现次数。再遍历第二个字符串数组,以字符串为 key 在散列表中查找,如果 value 大于零,说明存在相同字符串。时间复杂度 O(N)。
(其实就用 Set思想就可以了, 第一个String数组 放到 set中(其实就是个散列表, key 是 String, value 无所谓) 然后 拿散列表和 第二个String数组中元素contains() 有就存在 没有就不存在)
设计散列表
一、散列函数怎么设计?
- **散列函数的设计不能太复杂。**过于复杂的散列函数,势必会消耗很多计算时间,也就间接地影响到散列表的性能。
- 散列函数生成的值要尽可能随机并且均匀分布,这样才能避免或者最小化散列冲突,而且即便出现冲突,散列到每个槽里的数据也会比较平均,不会出现某个槽内数据特别多的情况。
数据分析法:
处理手机号码,因为手机号码前几位重复的可能性很大,但是后面几位就比较随机,(因为随机,所以会分布比较均匀)我们可以取手机号的后四位作为散列值。这种散列函数的设计方法,我们一般叫做“数据分析法”。
二、装载因子过大了怎么办?
为避免低效扩容:
- 当装载因子触达阈值之后,我们只申请新空间,但并不将老的数据搬移到新散列表中。
- 当有新数据要插入时,我们将新数据插入新散列表中,并且从老的散列表中拿出一个数据放入到新散列表。每次插入一个数据到散列表,我们都重复上面的过程。经过多次插入操作之后,老的散列表中的数据就一点一点全部搬移到新散列表中了。
- 这期间的查询操作怎么来做呢?对于查询操作,为了兼容了新、老散列表中的数据,我们先从新散列表中查找,如果没有找到,再去老的散列表中查找。
将一次性扩容的代价,均摊到多次插入操作中:任何情况下,插入一个数据的时间复杂度都是 O(1)。
如何选择冲突解决方法?
Java 中 LinkedHashMap 就采用了链表法解决冲突,ThreadLocalMap 是通过线性探测的开放寻址法来解决冲突。
1. 开放寻址法
- 优点:开放寻址法不像链表法,需要拉很多链表。散列表中的数据都存储在数组中,可以有效地利用 CPU 缓存加快查询速度。而且,这种方法实现的散列表,序列化起来比较简单。链表法包含指针,序列化起来就没那么容易。
- 缺点:开放寻址法解决冲突的散列表,删除数据的时候比较麻烦,需要特殊标记已经删除掉的数据。而且,在开放寻址法中,所有的数据都存储在一个数组中,比起链表法来说,冲突的代价更高。所以,使用开放寻址法解决冲突的散列表,装载因子的上限不能太大。这也导致这种方法比链表法更浪费内存空间。
当数据量比较小、装载因子小的时候,适合采用开放寻址法。 这也是 Java 中的ThreadLocalMap使用开放寻址法解决散列冲突的原因。
2. 链表法
- 首先,链表法对内存的利用率比开放寻址法要高。因为链表结点可以在需要的时候再创建,并不需要像开放寻址法那样事先申请好。
- 对于链表法来说,只要散列函数的值随机均匀,即便装载因子变成 10,也就是链表的长度变长了而已,虽然查找效率有所下降,但是比起顺序查找还是快很多。
- 链表因为要存储指针,所以对于比较小的对象的存储,是比较消耗内存的,(如果我们存储的是大对象,也就是说要存储的对象的大小远远大于一个指针的大小(4 个字节或者 8 个字节),那链表中指针的内存消耗在大对象面前就可以忽略),还有可能会让内存的消耗翻倍。而且,因为链表中的结点是零散分布在内存中的,不是连续的,所以对 CPU 缓存是不友好的,这方面对于执行效率也有一定的影响。
- 实现一个更加高效的散列表。那就是,我们将链表法中的链表改造为其他高效的动态数据结构,比如跳表、红黑树。这样,即便出现散列冲突,极端情况下,所有的数据都散列到同一个桶内,那最终退化成的散列表的查找时间也只不过是 O(logn)。这样也就有效避免了前面讲到的散列碰撞攻击。
基于链表的散列冲突处理方法比较适合存储大对象、大数据量的散列表,而且,比起开放寻址法,它更加灵活,支持更多的优化策略,比如用红黑树代替链表。
HashMap
1. 初始大小
HashMap 默认的初始大小是 16,当然这个默认值是可以设置的,如果事先知道大概的数据量有多大,可以通过修改默认初始大小,减少动态扩容的次数,这样会大大提高 HashMap 的性能。
2. 装载因子和动态扩容
最大装载因子默认是 0.75,当 HashMap 中元素个数超过 0.75*capacity(capacity 表示散列表的容量)的时候,就会启动扩容,每次扩容都会扩容为原来的两倍大小。
3. 散列冲突解决方法
HashMap 底层采用链表法来解决冲突。即使负载因子和散列函数设计得再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响 HashMap 的性能。于是,在 JDK1.8 版本中,为了对 HashMap 做进一步优化,我们引入了红黑树。而当链表长度太长(默认超过 8)时,链表就转换为红黑树。我们可以利用红黑树快速增删改查的特点,提高 HashMap 的性能。**当红黑树结点个数少于 6个的时候,又会将红黑树转化为链表。**因为在数据量较小的情况下,红黑树要维护平衡,比起链表来,性能上的优势并不明显。
4. 散列函数
散列函数的设计并不复杂,追求的是简单高效、分布均匀。
散列表和链表的配合使用
LRU 缓存淘汰算法
一个缓存(cache)系统主要包含下面这几个操作:
- 往缓存中添加一个数据;
- 从缓存中删除一个数据;
- 在缓存中查找一个数据。
其实很简单:
因为链表的查询效率低,而插入和删除的效率高。
于是:利用数组(散列表)的查询效率,用散列表的散列函数给双向链表做一个“索引”:
前驱和后继指针是为了将结点串在双向链表中,hnext 指针是为了将结点串在散列表的拉链中。
1. 查找一个数据
散列表中查找数据的时间复杂度接近 O(1),所以通过散列表,我们可以很快地在缓存中找到一个数据。当找到数据之后,我们还需要将它移动到双向链表的尾部。
2. 删除一个数据
需要找到数据所在的结点,然后将结点删除。借助散列表,我们可以在 O(1) 时间复杂度里找到要删除的结点。因为我们的链表是双向链表,双向链表可以通过前驱指针 O(1) 时间复杂度获取前驱结点,所以在双向链表中,删除结点只需要 O(1) 的时间复杂度。
3.添加一个数据(链表不允许有重复key!!!)
需要先看这个数据是否已经在缓存中。(用散列表去查找)如果已经在其中,需要将其移动到双向链表的尾部;如果不在其中,还要看缓存有没有满。如果满了,则将双向链表头部的结点删除,然后再将数据放到链表的尾部;如果没有满,就直接将数据放到链表的尾部。这整个过程涉及的查找操作都可以通过散列表来完成。
其他的操作,比如删除头结点、链表尾部插入数据等,都可以在 O(1) 的时间复杂度内完成。所以,这三个操作的时间复杂度都是 O(1)。至此,我们就通过散列表和双向链表的组合使用,实现了一个高效的、支持 LRU 缓存淘汰算法的缓存系统原型。
Redis 有序集合
在有序集合中,每个成员对象有两个重要的属性,key(键值)和 score(分值)。我们不仅会通过 score 来查找数据,还会通过 key 来查找数据。
Redis 有序集合的操作,那就是下面这样:
- 添加一个成员对象;
- 按照键值来删除一个成员对象;
- 按照键值来查找一个成员对象;
- 按照分值区间查找数据,比如查找积分在[100,356]之间的成员对象;
- 按照分值从小到大排序成员变量;
散列表配合跳表使用:
1. 利用跳表:按照分值(区间)查找对象(那么链表必须要按分值排序)
2. 再按照键值构建一个散列表:按照 key 来删除、查找一个成员对象(时间复杂度O(1))
LinkedHashMap(有序)
但还是不能重复,链表就是不能重复!
LinkedHashMap 是通过双向链表和散列表这两种数据结构组合实现的。
和上面的LRU 缓存淘汰算法实现原理一样!(只是,LinkedHashMap支持扩容,和HashMap容量、扩容什么的都一样!)
// 10是初始大小,0.75是装载因子,true是表示按照访问时间排序
HashMap<Integer, Integer> m = new LinkedHashMap<>(10, 0.75f, true);
m.put(3, 11);
m.put(1, 12);
m.put(5, 23);
m.put(2, 22);
m.put(3, 26);
m.get(5);
for (Map.Entry e : m.entrySet()) {
System.out.println(e.getKey());//1,2,3,5
}
- 添加数据到双链表尾部
先用散列表查找键值是否已存在:
若存在,则删除存在元素,将新对象插入到双向链表的尾部,并且串在对应散列表的拉链中;
若不存在,则直接将新对象插入到双向链表的尾部,并且串在对应散列表的拉链中。
- 删除就用散列表查询到后删除
- 访问元素后移到双向链表尾部(因为构造LinedHashMap时,第三个参数accessOrder为true)
利用散列表访问到元素后,将元素变为双向链表尾结点(但此过程元素仍然串在对应散列表的拉链中)
为什么散列表和链表经常会一起使用?
就是为了散列表存储下的数据能够有序遍历!!!
因为查找、插入、删除这些散列表自己就可以做!!!
思考题
1.如果把LinkedHashMap双向链表改成单链表,还能否正常工作呢?为什么呢?
不能,因为在双向链表中删除元素O(1),而单链表中这就变成O(n)。
2.假设猎聘网有 10 万名猎头,每个猎头都可以通过做任务(比如发布职位)来积累积分,然后通过积分来下载简历。假设你是猎聘网的一名工程师,如何在内存中存储这 10 万个猎头 ID 和积分信息,让它能够支持这样几个操作:
- 根据猎头的 ID 快速查找、删除、更新这个猎头的积分信息;
- 查找积分在某个区间的猎头 ID 列表;
- 查找按照积分从小到大排名在第 x 位到第 y 位之间的猎头 ID 列表。
答:以积分排序构建一个跳表,再以猎头 ID 构建一个散列表。
1)ID 在散列表中所以可以 O(1) 查找到这个猎头;
2)积分以跳表存储,跳表支持区间查询;
3)这点根据目前学习的知识暂时无法实现。
3.Word 文档中单词拼写检查功能是如何实现的?
常用的英文单词有 20 万个左右,假设单词的平均长度是 10 个字母,平均一个单词占用 10 个字节的内存空间,那 20 万英文单词大约占 2MB 的存储空间,就算放大 10 倍也就是 20MB。对于现在的计算机来说,这个大小完全可以放在内存里面。
所以我们可以用散列表来存储整个英文单词词典。当用户输入某个英文单词时,我们拿用户输入的单词去散列表中查找。 如果查到,则说明拼写正确;如果没有查到,则说明拼写可能有误,给予提示。借助散列表这种数据结构,我们就可以轻松实现快速判断是否存在拼写错误。
我知道你头楞了,来总结一下!
- 需要以A属性区间查找对象 ===> 跳表:以A属性将对象排序构造跳表
- 需要以B属性快速查找(删除 删除前要先查找)===> 散列表:以B属性构建散列表
- 需要有序遍历整体对象 ===> 双向链表:按照插入(访问)顺序维护一个双向链表
万变不离其宗:其实这些都是链表和数组的结合使用,数组有利于随机访问,链表有利于插入删除。各种衍生方式的出现都是按照情况将两者结合,扬其所长、避其所短。
更多推荐
所有评论(0)