一、unordered 系列关联式容器
在 C++98 中,STL 提供了底层为红黑树结构的一些列关联式容器,在查询时效率可以达到 O ( l o g 2 N ) O(log2^N) O(log2N),即最差情况下需要比较红黑树高度次,当树中的结点非常多的时候,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在 C++11 中,STL 又提供了4个 unordered 系列的关联式容器,这四个容器与红黑树结构的关联式容器使用方法基本类似,只是其底层结构不同,本文中只对 unordered_map 和 unordered_set 进行介绍,unordered_multimap 和 unordered_multiset 感兴趣的小伙伴可以自行查阅文档。
二、unordered_map
1.1 unordered_map 介绍
-
unordered_map 是存储 <key,value> 键值对的关联式容器,其允许通过 key 快速的索引到与其对应的 value。
-
在 unordered_map 中,键值通常用于唯一的标识元素,而映射值是一个对象,其内容与此键值关联。键和映射值的类型可能不同。
-
在内部,unordered_map 没有对 <key,value> 按照任何特定的顺序排序,为了能在常数范围内找到 key 所对应的 value,unordered_map 将相同哈希值的键值放在相同的桶中。
-
unordered_map 容器通过 key 访问单个元素要比 map 快,但它通常在遍历元素子集的范围迭代方面效率较低。
-
unordered_map 实现了直接访问操作符(operator[ ]),它允许使用 key 作为参数直接访问 value。
-
它的迭代器至少是前向迭代器(单向迭代器)。
1.2 unordered_map 的接口说明
1.2.1 unordered_map 的构造
函数声明 | 功能介绍 |
---|---|
unordered_map | 构造不同格式的 unordered_map 对象 |
1.2.2 unordered_map 的容量
函数声明 | 功能介绍 |
---|---|
bool empty() const | 检测 unordered_map 是否为空 |
size_t size() const | 获取 unordered_map 有效元素的个数 |
1.2.3 unordered_map 的迭代器
函数声明 | 功能介绍 |
---|---|
begin() | 返回 unordered_map 第一个元素的迭代器 |
end() | 返回 unordered_map 最后一个元素下一个位置的迭代器 |
cbegin() | 返回 unordered_map 第一个元素的 const 迭代器 |
cend() | 返回 unordered_map 最后一个元素下一个位置的 const 迭代器 |
1.2.4 unordered_map 的元素访问
函数声明 | 功能介绍 |
---|---|
operator[ ] | 返回与 key 对应的 value,没有一个默认值 |
小Tips:该函数中实际调用哈希桶的插入操作,用参数 key 与 V() 构造一个默认值往底层哈希桶中插入,如果 key 不在哈希桶中,插入成功,返回 V()。插入失败,说明 key 已经在哈希桶中,将 key 对应的 value 返回。
1.2.5 unordered_map 的查询
函数声明 | 功能介绍 |
---|---|
iterator find(const K& key) | 返回 key 在哈希桶中的位置 |
size_t count(const K& key) | 返回哈希桶中关键码为 key 的键值对的个数 |
小Tips:unordered_map 中 key 是不能重复的,因此 count 函数的返回值最大为1。
1.2.6 unordered_map 的修改操作
函数声明 | 功能介绍 |
---|---|
insert | 向容器中插入键值对 |
erase | 删除容器中的键值对 |
void clear() | 清空容器中有效元素个数 |
void swap(unordered_map& ump) | 交换两个容器中的元素 |
1.2.7 unordered_map 的桶操作
函数声明 | 功能介绍 |
---|---|
size_t bucket_count() const | 返回哈希桶中桶的总个数 |
size_t bucket_size(size_t n) const | 返回 n 号桶中有效元素的总个数 |
size_t bucket(const K& key) | 返回元素 key 所在的桶号 |
三、底层结构
unordered 系列的关联式容器之所以效率比较高,是因为其底层使用了哈希结构。
3.1 哈希概念
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为 O ( N ) O(N) O(N),平衡树中为树的高度,即 O ( l o g 2 N ) O(log2^N) O(log2N),搜索的效率取决于搜索过程中关键码的比较次数。
理想的搜索方法:可以在不经过任何比较,一次直接从表中得到要搜索的元素。如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。在结构中:
-
插入元素:根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放。
-
搜索元素:对元素的关键码进行相同的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜素成功。
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者散列表)
小Tips:用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。但是也会出现问题,以上图为例,再向集合中插入44,计算出来的哈希函数值是4,但是下标为4的位置已经存储的有值了。
3.2 哈希冲突
对于两个数据元素的关键字 k_i
和 k_j
(i != j),有 k_i != k_j
,但有:Hash(k_i
) == Hash(k_j
),即:不同的关键字通过相同的哈希函数计算出相同的哈希值,该种现象称为哈希冲突或哈希碰撞。把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。
3.3 哈希函数
引起哈希冲突的一个原因可能是:哈希函数设计不够合理。设计哈希函数应该遵循以下原则:
-
哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有 m 个地址时,其值域必须在 0~m-1 之间。
-
哈希函数计算出来的地址能均匀分布在整个空间中。
-
哈希函数应该比较简单。
下面给大家列举一些常见的哈希函数。
3.3.1 直接定值法----(常用)
取关键字的某个线性函数为散列地址:
H
a
s
h
(
K
e
y
)
=
A
∗
K
e
y
+
B
Hash(Key) = A*Key +B
Hash(Key)=A∗Key+B
小Tips:此方法的优点是简单、均匀。但是需要事先知道关键字的分布情况。适合查找比较小且连续的情况。
3.3.2 除留余数法----(常用)
设散列表中允许的地址数为 m,取一个不大于 m,但最接近或者等于 m 的质数 p 作为除数,按照哈希函数:
H
a
s
h
(
K
e
y
)
=
K
e
y
%
p
(
p
<
=
m
)
Hash(Key) = Key \% p(p <= m)
Hash(Key)=Key%p(p<=m)
3.3.3 平方取中法----(了解)
假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址;再比如关键字为4321,对它的平方就是18671041,抽取中间的3位671(或710)作为哈希地址。平方取中法适合于不知道关键字的分布,而位数又不是很大的情况。
3.3.4 折叠法----(了解)
折叠法是将关键字从左到右分割成位数相等的几部分(最后一部分位数可以短一些),然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。
3.3.5 随机数法----(了解)
选择一个随机数,取关键字的随机函数值为它的哈希地址,即:
H
a
s
h
(
K
e
y
)
=
r
a
n
d
o
m
(
k
e
y
)
Hash(Key) = random(key)
Hash(Key)=random(key)
小Tips:其中 random 为随机数函数。
3.3.6 数学分析法----(了解)
设有 n 个d 位数,每一位可能有 r 种不同的符号在各个位上出现的频率不一定相同,可能在某些位上分布比较均匀,每种符号出现的机会均等,在某些位上分布不均匀只有几种符号经常出现。可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散列地址。例如:
假设要存储某家公司员工登记表,如果用手机号作为关键字,那么极有可能前7位都是 相同的,那么我们可以选择后面的四位作为散列地址,如果这样的抽取工作还容易出现 冲突,还可以对抽取出来的数字进行反转(如1234改成4321)、右环位移(如1234改成4123)、左环移位、前两数与后两数叠加(如1234改成12+34=46)等方法。
小Tips:数学分析法通常适合处理关键字位数比较大的情况,如果事先知道关键字的分布且关键字的若干位分布较均匀的情况。
注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突。
3.4 哈希冲突解决
解决哈希冲突的两种常见方法是:闭散列和开散列。
3.4.1 闭散列
闭散列也叫开放定址法,当发生哈希冲突时,如果哈希表未被填满,说明在哈希函数表中必然还有空位置,那么可以把 Key 对应的元素存放到冲突位置中的下一个空位置中去。那如何寻找下一个空位置呢?
3.4.1.1 线性探测
从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
插入:
-
通过哈希函数获取待插入元素在哈希表中的位置。
-
如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,使用线性探测找到下一个空位置,插入新元素。
查找:
-
通过哈希函数获取待查找元素在哈希表中的位置。
-
看该位置的值是否是我们要查找的值,如果不是,从当前位置依次往后进行比较,找到就结束,如果遇到空还没有找到,说明当前待查找的元素不在哈希表中。
小Tips:这里简介反映出哈希表中的元素不能太满了,如果太满,那么它的查找效率有可能就变成了 O ( N ) O(N) O(N)。
删除:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其它元素的搜索。比如上图中,删除元素24,如果直接删掉,54查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
扩容:散列表的载荷因子定义为:
α
=
填
入
表
中
的
元
素
个
数
/
散
列
表
的
长
度
α = 填入表中的元素个数 / 散列表的长度
α=填入表中的元素个数/散列表的长度
α α α 是散列表装满成都的标志因子。由于表长是定值, α α α 与“填入表中的元素个数”成正比,所以, α α α 越大,表明填入表中的元素越多,产生冲突的可能性就越大,但是空间利用率越高;反之, α α α 越小,表明填入表中的元素越少,产生冲突的可能性就越小,但是空间浪费会比较多。实际上,散列表的平均查找长度是载荷因子 α α α 的函数,只是不同处理冲突的方式有不同的函数。
对于闭散列(开放定址法),载荷因子是特别重要的因素,应严格限制在 0.7 − 0.8 0.7-0.8 0.7−0.8以下。超过 0.8 0.8 0.8,查表时的 CPU 缓存不命中按照指数曲线上升。因此,一些曹勇开放定址法的 hash 库,如 Java 的系统库限制了载荷因子为 0.75,超过此值将 resize 散列表。
小Tips:扩容后,元素的映射关系会发生变化,所以我们需要重新建立映射,即重新计算元素对应的存储位置。原来冲突的,现在不一定冲突了,原来不冲突的,现在可能冲突了,因此扩容后需要对原来表中的元素重新走一遍插入逻辑。
3.4.1.2 闭散列(开放定址法)模拟实现
enum STATE
{
EXIST,
EMPTY,
DELETE
};
//存储元素的结点
template<class K, class V>
struct HashData
{
pair<K, V> _kv;
STATE _state = EMPTY;
};
//哈希表
template<class K, class V>
class HashTable
{
public:
HashTable()
{
_table.resize(10);
}
bool Insert(const pair<K, V>& kv)
{
//检查负载因子,扩容
/*if ((double)_n / _table.size() >= 0.7)
{
}*/
if (_n * 10 / _table.size() >= 7)
{
size_t newsize = _table.size() * 2;
//重新建立映射关系
//vector<HashData<K, V>> tmp;
//tmp.resize(newsize);
//for (const auto& e : _table)
//{
// if (e._state == EXIST)
// {
// size_t hashi = e._kv.first % tmp.size();
// while (tmp[hashi]._state == EXIST)
// {
// ++hashi;
// //当hashi == size 的时候要让它从 0 开始继续找。
// /*if (hashi >= _table.size())
// {
// hashi = 0;
// }*/
// hashi %= _table.size();
// }
// tmp[hashi] = e;
// }
//
//}
//std::swap(tmp, _table);
HashTable<K, V> newHT;
newHT._table.resize(newsize);
//遍历旧表的数据插入到新表即可
for (size_t i = 0; i < _table.size(); ++i)
{
if (_table[i]._state == EXIST)
{
newHT.Insert(_table[i]._kv);
}
}
_table.swap(newHT._table);
}
//线性探测
size_t hashi = kv.first % _table.size();//注意这里
//如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入
//如果下标为hashi的地方存的有元素,就需要进行线性探测
//EMPTY、DELETE都可存储元素
while (_table[hashi]._state == EXIST)
{
++hashi;
//当hashi == size 的时候要让它从 0 开始继续找。
/*if (hashi >= _table.size())
{
hashi = 0;
}*/
hashi %= _table.size();
}
//注意方括号访问,底层会去断言,下标必须小于size,所以上面模的是size。
_table[hashi]._kv = kv;
_table[hashi]._state = EXIST;
++_n;
return true;
}
HashData<const K, V>* Find(const K& key)
{
//线性探测
size_t hashi = key % _table.size();//注意这里
//如果下标为hashi的地方没有存元素,那么就可以直接在hashi进行插入
//如果下标为hashi的地方存的有元素,就需要进行线性探测
//EMPTY、DELETE都可存储元素
while (_table[hashi]._state != EMPTY)
{
if (_table[hashi]._state == EXIST && _table[hashi]._kv.first == key)
{
return (HashData<const K, V>*)&_table[hashi];//这里会涉及类型转化,有的编译器可能不支持,所以这里最好自己强转一下
}
++hashi;
hashi %= _table.size();
}
return nullptr;
}
bool Erase(const K& key)
{
HashData<const K, V>* ret = Find(key);
if (ret)
{
ret->_state = DELETE;
--_n;
return true;
}
return false;
}
private:
vector<HashData<K, V>> _table;
size_t _n = 0;//因为数据是分散存储的,所以不能用vector中的size去计算哈希表中元素的数量,这个_n存储的就是哈希表中有效数据的个数
};
小Tips:线性探测的优点是:实现起来非常简单。缺点是:一旦发生哈希冲突,所有的冲突连在一起,容易产生数据“堆积”,即:不同关键码占据了可利用的空位置,使得寻找某关键码的位置需要许多次比较,导致搜索效率降低。可以利用下面的二次探测来解决该问题。
3.4.1.3 二次探测
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为: H i H_i Hi = ( H 0 H_0 H0 + i 2 i^2 i2 )% m 或者: H i H_i Hi = ( H 0 H_0 H0 - i 2 i^2 i2 )% m。其中:i = 1,2,3…, H 0 H_0 H0是通过散列函数 Hash(x) 对元素的关键码 key 进行计算得到的位置,m是表的大小。
研究表明:当表的长度为质数且表装载因子 α α α 不超过 0.5 时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表满的情况,但在插入时必须确保表的装载因子 α α α 不超过 0.5,如果超出,必须考虑增容。因此,闭散列最大的缺陷局势空间利用率比较低,这也是哈希的缺陷。
3.4.2 开散列
开散列又叫拉链法,首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
小Tips:从上图中可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。
3.4.2.1 开散列模拟实现
template<class K, class V>
struct HashNode
{
pair<K, V> _kv;
HashNode<K, V>* _next;
HashNode(const pair<K, V>& kv = pair<K, V>())
:_kv(kv)
,_next(nullptr)
{}
};
template<class K, class V, class HashFunc = DefaultHasFunc<K>>
class HashTable
{
typedef HashNode<K, V> Node;
private:
void swap(HashTable<K, V, HashFunc>& hbt)
{
std::swap(hbt._table, this->_table);
std::swap(hbt._n, this->_n);
}
public:
HashTable(size_t size = 10)
{
_table.resize(size, nullptr);
}
//拷贝构造
HashTable(const HashTable<K, V, HashFunc>& htb)
{
_table.resize(htb._table.size());
for (size_t i = 0; i < htb._table.size(); ++i)
{
Node* cur = htb._table[i];
while (cur)
{
Insert(cur->_kv);
cur = cur->_next;
}
}
/* HashTable<K, V, HashFunc> tmp;
tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。
tmp._n = htb._n;
swap(tmp);*/
}
bool Insert(const pair<K, V>& kv)
{
//HashFunc hf;
//先检查哈希桶中是否有这个元素,有就不能插入
if (Find(kv.first))
{
return false;
}
//不扩容,不断插入,某些桶会越来越长,效率得不到保证
//因此还是需要进行适当的扩容
//这里一般把负载因子控制在1
//这样,在理想状态下,平均每个桶一个数据
if (_n == _table.size())
{
//扩容 方法一:会去创建新节点,然后还要把旧结点释放,效率低下
/*HashTable<K, V, HashFunc> newTable(_table.size() * 2);
for (size_t i = 0; i < _table.size(); ++i)
{
if (_table[i] != nullptr)
{
Node* cur = _table[i];
while (cur)
{
newTable.Insert(cur->_kv);
cur = cur->_next;
}
}
}
_table.swap(newTable._table);*/
//扩容 方法二:
vector<Node*> newtable;
newtable.resize(_table.size() * 2, nullptr);
for (size_t i = 0; i < _table.size(); ++i)
{
Node* cur = _table[i];
while (cur)
{
Node* next = cur->_next;
size_t hashi = hf(cur->_kv.first) % newtable.size();
cur->_next = newtable[hashi];
newtable[hashi] = cur;
cur = next;
}
_table[i] = nullptr;
}
_table.swap(newtable);
}
size_t hashi = hf(kv.first) % _table.size();
//检查当前桶里面是否已经有该元素
Node* cur = _table[hashi];
while (cur)
{
if (cur->_kv.first == kv.first)
{
return false;
}
cur = cur->_next;
}
//到这里说明当前桶里没有该元素,可以插入
Node* newnode = new Node(kv);
newnode->_next = _table[hashi];
_table[hashi] = newnode;
++_n;
return true;
}
//打印哈希桶
void Print()
{
for (size_t i = 0; i < _table.size(); ++i)
{
printf("Hash[%d]:", i);
Node* cur = _table[i];
while (cur)
{
cout << cur->_kv.first << ':' << cur->_kv.second << "--->";
cur = cur->_next;
}
cout << "nullptr" << endl;
}
}
//查找
Node* Find(const K& key)
{
size_t hashi = hf(key) % _table.size();
Node* cur = _table[hashi];
while (cur)
{
if (cur->_kv.first == key)
{
return cur;
}
cur = cur->_next;
}
return nullptr;
}
//删除
bool erase(const K& key)
{
size_t hashi = hf(key) % _table.size();
Node* cur = _table[hashi];
Node* prev = nullptr;
while (cur)
{
if (cur->_kv.first == key)
{
if (prev == nullptr)
{
_table[hashi] = cur->_next;
}
else
{
prev->_next = cur->_next;
}
delete cur;
cur = nullptr;
--_n;
return true;
}
prev = cur;
cur = cur->_next;
}
return false;
}
~HashTable()
{
for (size_t i = 0; i < _table.size(); ++i)
{
Node* cur = _table[i];
while (cur)
{
Node* next = cur->_next;
delete cur;
cur = next;
}
_table[i] = nullptr;
}
}
private:
vector<Node*> _table;//指针数组
//这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数
//对于vector的析构函数来说,Node* 是一个指针,属于内置类型
//因此vector的析构函数不会对 Node* 做任何处理
//因此这里我们需要自己写析构函数,去释放哈希桶中的结点
size_t _n = 0;//记录存储的有效数据个数
HashFunc hf;
};
四、模拟实现 unordered_set 和 unordered_map
4.1 哈希表的改造
这里我们使用开散列的方法来实现 unordered_set
和 unordered_map
。
4.1.1 模板参数列表的改造
//哈希表
template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除
class HashTable
小Tips:
-
K:关键码类型。
-
T:不同容器 T 的类型不同,如果是
unordered_map
,T 代表一个键值对,如果是unordered_set
,V 为 K。 -
KeyOfT:因为 T 的类型不同,通过 value 取 key 的方式就不同,详细代码参考下面
unordered_set/map
的实现。 -
HashFunc:哈希函数仿函数对象类型,哈希函数使用除留余数法,需要将 key 转换为整形数字才能取模。
4.1.2 增加迭代器操作
//HashTable.h
//哈希桶的迭代器
template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc>
struct HTIterator
{
typedef HashNode<T> Node;
typedef HTIterator<K, T, Ptr, Ref, KeyOfT, HashFunc> Self;
typedef HashTable<K, T, KeyOfT, HashFunc> Ht;
typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;
Node* _node;
const Ht* _pht;
HTIterator(Node* node = nullptr, const Ht* pht = nullptr)
:_node(node)
,_pht(pht)
{}
HTIterator(const iterator& it)//如果是普通迭代器,这里就是拷贝构造函数
:_node(it._node) //如果是 const 迭代器,这里就是用一个普通迭代器来构造一个 const 迭代器。
, _pht(it._pht)
{}
Self& operator++()
{
if (_node->_next)
{
_node = _node->_next;
}
else
{
//如果_node->_next == nullptr
//说明要到下一个桶去,因此迭代器类里面需要一个哈希表的指针,指向当前迭代器维护的哈希表
//这样才能找到下一个桶
//先找到我当前在那个桶
KeyOfT kot;
HashFunc hf;
size_t hashi = hf(kot(_node->_data)) % _pht->_table.size();
//从下一个位置开始查找下一个不为空的桶
++hashi;
while (hashi < _pht->_table.size())
{
if (_pht->_table[hashi])
{
_node = _pht->_table[hashi];
return *this;
}
else
{
++hashi;
}
}
_node = nullptr;
}
return *this;
}
bool operator != (const Self& s) const
{
return _node != s._node;
}
Ref operator*() const
{
return _node->_data;
}
Ptr operator->() const
{
return &(_node->_data);
}
};
小Tips:因为哈希表本质上是由一个个哈希桶组成,迭代器走完当前桶,需要跳到下一个桶,迭代器要能指向下一个哈希桶,最简单的做法就是在迭代器里面存一份哈希表。实际代码中我们在迭代器中增加了一个哈希表类型的指针,指向当前迭代器维护的哈希表,又因为该指针会去访问哈希表里面的成员变量数组,所以该迭代器类必须是哈希表的友元类,关于友元类的具体声明参考下面修改后的哈希表。这里还有一个问题,迭代器里面使用了哈希表类型,哈希表里面又实用的迭代器类型,这里就会涉及到谁先谁后的问题,我这里的解决方法是将迭代器类定义在哈希表的前面,然后在迭代器的前面对哈希表的类做一个前置声明。其次,因为哈希桶在底层是单链表结构,所以哈希桶的迭代器不需要 - - 操作。
4.1.3 修改后的哈希表
//HashTable.h
//哈希表
template<class K, class T, class KeyOfT, class HashFunc = DefaultHasFunc<K>>//K的作用是为了方便查找和删除
class HashTable
{
//模板的友元
template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc>
friend struct HTIterator;
typedef HashNode<T> Node;
private:
void swap(HashTable<K, T, HashFunc>& hbt)
{
std::swap(hbt._table, this->_table);
std::swap(hbt._n, this->_n);
}
public:
typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;
typedef HTIterator<K, T, const T*, const T&, KeyOfT, HashFunc> const_iterator;
iterator begin()
{
//找第一个桶
for (size_t i = 0; i < _table.size(); ++i)
{
if (_table[i])
{
return iterator(_table[i], this);
}
}
return iterator(nullptr, this);
}
iterator end()
{
return iterator(nullptr, this);
}
const_iterator begin() const
{
//找第一个桶
for (size_t i = 0; i < _table.size(); ++i)
{
if (_table[i])
{
return const_iterator(_table[i], this);
}
}
return const_iterator(nullptr, this);
}
const_iterator end() const
{
return const_iterator(nullptr, this);
}
HashTable(size_t size = 10)
{
_table.resize(size, nullptr);
}
//拷贝构造
HashTable(const HashTable<K, T, HashFunc>& htb)
{
_table.resize(htb._table.size());
for (size_t i = 0; i < htb._table.size(); ++i)
{
Node* cur = htb._table[i];
while (cur)
{
Insert(cur->_data);
cur = cur->_next;
}
}
/* HashTable<K, T, HashFunc> tmp;
tmp._table = htb._table;//这里现代写法行不通,因为_table里面存的是指针,属于内置类型,进行的是浅拷贝。
tmp._n = htb._n;
swap(tmp);*/
}
pair<iterator, bool> Insert(const T& data)
{
HashFunc hf;
KeyOfT kt;
//HashFunc hf;
//先检查哈希桶中是否有这个元素,有就不能插入
if (Find(kt(data)) != end())
{
return make_pair(Find(kt(data)), false);
}
//扩容
if (_n == _table.size())
{
vector<Node*> newtable;
newtable.resize(_table.size() * 2, nullptr);
for (size_t i = 0; i < _table.size(); ++i)
{
Node* cur = _table[i];
while (cur)
{
Node* next = cur->_next;
size_t hashi = hf(kt(cur->_data)) % newtable.size();
cur->_next = newtable[hashi];
newtable[hashi] = cur;
cur = next;
}
_table[i] = nullptr;
}
_table.swap(newtable);
}
size_t hashi = hf(kt(data)) % _table.size();
//到这里说明当前桶里没有该元素,可以插入
Node* newnode = new Node(data);
newnode->_next = _table[hashi];
_table[hashi] = newnode;
++_n;
return make_pair(iterator(newnode, this), true);
}
//查找
iterator Find(const K& key)const
{
HashFunc hf;
KeyOfT kt;
size_t hashi = hf(key) % _table.size();
Node* cur = _table[hashi];
while (cur)
{
if (kt(cur->_data) == key)
{
return iterator(cur, this);
}
cur = cur->_next;
}
return iterator(nullptr, this);
}
//删除
bool erase(const K& key)
{
HashFunc hf;
KeyOfT kt;
size_t hashi = hf(key) % _table.size();
Node* cur = _table[hashi];
Node* prev = nullptr;
while (cur)
{
if (kt(cur->_data) == key)
{
if (prev == nullptr)
{
_table[hashi] = cur->_next;
}
else
{
prev->_next = cur->_next;
}
delete cur;
cur = nullptr;
--_n;
return true;
}
prev = cur;
cur = cur->_next;
}
return false;
}
~HashTable()
{
for (size_t i = 0; i < _table.size(); ++i)
{
Node* cur = _table[i];
while (cur)
{
Node* next = cur->_next;
delete cur;
cur = next;
}
_table[i] = nullptr;
}
}
private:
vector<Node*> _table;//指针数组
//这里的_table属于自定义类型,如果我们不写析构函数,编译器会去调用vector自己的析构函数
//对于vector的析构函数来说,Node* 是一个指针,属于内置类型
//因此vector的析构函数不会对 Node* 做任何处理
//因此这里我们需要自己写析构函数,去释放哈希桶中的结点
size_t _n = 0;//记录存储的有效数据个数
};
小Tips:哈希表的修改主要体现在增加通过 key 获取 value 的操作。
4.2 unordered_set 模拟实现
//unorderedset.h
#include "HashTable.h"
template<class K, class HashFunc = DefaultHasFunc<K>>
class unordered_set
{
private:
struct SetKeyOfT
{
const K& operator()(const K& key)
{
return key;
}
};
public:
typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator iterator;
typedef typename HashTable<K, K, SetKeyOfT, HashFunc>::const_iterator const_iterator;
iterator begin() const
{
return _ht.begin();
}
iterator end() const
{
return _ht.end();
}
pair<iterator, bool> insert(const K& key)
{
/*pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key);
return make_pair(iterator(ret.first._node, ret.first._pht), ret.second);*/
return _ht.Insert(key);//这种写法如果编译器检查的严格可能过不了
//上面两种插入方法都可以,这一块是精华,好好品味
}
K& operator[](const K& key)
{
pair<typename HashTable<K, K, SetKeyOfT, HashFunc>::iterator, bool> ret = _ht.Insert(key);
return *(ret.first);
}
private:
HashTable<K, K, SetKeyOfT, HashFunc> _ht;
};
小Tips:unordered_set 是一种 key 结构,所以它的普通迭代器和 const 迭代器都是不允许被修改的。因此 unordered_set 中的普通迭代器本质上还是 HashTable 中的 const 迭代器。此时就会出现一个问题,插入调用的是 HashTable 中的 Insert,其返回值是一个 pair,其中 first 是一个普通迭代器,而在 unordered_set 这一层,insert 的返回值也是一个 pair,它的 first 看起来是一个普通迭代器,但本质上是用 HashTable 中的 const 迭代器进行封装的,因此这里涉及到从普通迭代器转换成 const 迭代器,随然普通迭代器和 const 迭代器共用同一个类模板,但是它们的模板参数不同,所以普通迭代器和 const 迭代器本质上属于两种不同类型。因此要将一个普通迭代器转化成 const 迭代器本质上涉及类型转换。要用一个 A 类型的对象去创建一个 B 类型的对象 ,可以在 A 类里面增加一个构造函数,该构造函数的参数是 B 类型。因此,这里我们需要在迭代器类里面增加一个用普通迭代器构造 const 迭代器的构造函数。除了这种方法外,上面我还提供了一种方法,即先用 HashTable 中的普通迭代器创建一个 pair 对象 ret 接收 HashTable 中 Insert 的返回值,然后再去取出 pair 里面迭代器中的成员变量,用取出来的成员变量去构造一个 const 迭代器,然后再用这个 const 迭代器去构建一个 pair,最后返回这个 pair。这种方法的前提是迭代器类中的成员变量是 public,否则就不能再迭代器类的外面拿到其成员变量。
4.3 unordered_map 模拟实现
template<class K, class V, class HashFunc = DefaultHasFunc<K>>
class unordered_map
{
private:
struct MapKeyOfT
{
const K& operator()(const pair<K, V>& kv)
{
return kv.first;
}
};
public:
typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::iterator iterator;
typedef typename HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc>::const_iterator const_iterator;
iterator begin()
{
return _ht.begin();
}
iterator end()
{
return _ht.end();
}
const_iterator begin() const
{
return _ht.begin();
}
const_iterator end() const
{
return _ht.end();
}
pair<iterator, bool> insert(const pair<K, V>& kv)
{
return _ht.Insert(kv);
}
V& operator[](const K& key)
{
pair<iterator, bool> ret = _ht.Insert(make_pair(key, V()));
return ret.first->second;
}
private:
HashTable<K, pair<const K, V>, MapKeyOfT, HashFunc> _ht;
};
小Tips:对 unordered_map 结构来说无论是普通迭代器还是 const 迭代器,它的 key 永远都不能被修改。这里的解决方案是在 unordered_map 中用 pair<cons K, V> 去实例化出一个哈希表的模板,此时哈希表的节点中存的就是 pair<const K, V> _data;
,此时无论是普通迭代器还是 const 迭代器去解引用该结点,返回的 _data,它里面的 key 是 const K 类型,是不支持修改的,这样以来问题就解决了。由于这里我们是用 pair<cons K, V> 去实例化的模板,所以 unordered_map 中的哈希表本质上存的就是 pair<cons K, V>,但是在用户层我们插入的是 pair<K, V>,这是两种不同的类型,和上面的普通迭代去创建 const 迭代器一样,这里还是需要通过构造函数来解决,但是这里不需要我们自己来解决,因为 pair 是库中的内容,库中已经帮我们实现好啦,所以这里我们无需做任何处理。这里本质上会去调用下面这个构造函数。
五、结语
今天的分享到这里就结束啦!如果觉得文章还不错的话,可以三连支持一下,春人的主页还有很多有趣的文章,欢迎小伙伴们前去点评,您的支持就是春人前进的动力!文章来源:https://www.toymoban.com/news/detail-713996.html
文章来源地址https://www.toymoban.com/news/detail-713996.html
到了这里,关于【C++杂货铺】一文带你走进哈希:哈希冲突 | 哈希函数 | 闭散列 | 开散列的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!