华为机试-合并表记录

这篇博客探讨了两种在C++中处理哈希表和数据去重的方法。第一种方法使用unordered_map直接进行数据累加,但可能会丢失某些项。第二种方法通过将键存入vector,排序后再去重,确保所有数据都被保留。博客强调了在处理数据时正确去重的重要性,并提供了相关算法的实现细节。
摘要由CSDN通过智能技术生成

思路:
1、先定义哈希表
2、将keyvalue输入
3、判断哈希表!= 0时输出i

#include <iostream>
#include <unordered_map>

using namespace std;
int main()
{
    int n;
    cin >> n;
    unordered_map<int, int> hash;
    while (n--)
    {
        int k, v;
        cin >> k >> v;//cin读取到空格就会停止
        hash[k] += v;
    }
    for (int i = 0; i < hash.size(); i++)
        if (hash[i] != 0)
            cout << i << ' ' << hash[i] << endl;
    return 0;
}

这种方式有问题if (hash[i] != 0)
比如:

0 9
0 -9

在合并的时候就会被舍弃

方法二
思路:
1、将key放入vector中(有重复的)
2、利用sort函数排序
3、利用erase函数去重

#include <iostream>
#include <unordered_map>
#include <vector>
#include <algorithm>

using namespace std;
int main ()
{
    int n;
    cin >> n;
    unordered_map<int, int> hash;
    vector<int> key;//存入vector中
    while(n --)
    {
        int k, v;
        cin >> k >> v;
        key.push_back(k);//有重复的
        hash[k] += v;
    }
    //key的去重
    sort(key.begin(), key.end());//排序
    key.erase(unique(key.begin(),key.end()),key.end());//key中就不重复了
    for(auto x : key)
        cout << x << " " << hash[x] << endl;

    return 0;
}

unique函数是一个去重函数,去除相邻中的重复元素(只留一个)。
1、最关键的是:并不是删除并不是把重复的元素删除,而是全部放倒数组的后面。
2、unique只是去除(相邻)的重复元素,因此,为了去除重复的元素,应该,首先对数组/Vector进行排序,这样保证重复元素在相邻的位置。
unique函数,返回的是去重后的尾地址。
因此对于一个内容为{2, 2, 5, 5, 6}vector,执行unique函数以后,vector大小并没有改变,只不过顺序变成了{2, 5, 6, 2, 5},并且函数的返回值为:3
此时需要删除重复元素,只需要将后面的数据全部删除即可。

排序函数(sort)和去重函数unique都在<algorithm>头文件中。
unique()函数将重复的元素放到vector的尾部 然后返回指向第一个重复元素的迭代器 再用erase函数擦除从这个元素到最后元素的所有的元素
key.erase(unique(key.begin(),key.end()),key.end())将重复的删除

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值