蓝桥杯学习记录||AcWing 1238. 日志统计

AcWing||AcWing 1238. 日志统计

活动地址:https://www.acwing.com/activity/content/19/

考察要点:双指针 滑动窗口

题目要求

小明维护着一个程序员论坛。现在他收集了一份”点赞”日志,日志共有 N 行。

其中每一行的格式是:

ts id
表示在 ts 时刻编号 id 的帖子收到一个”赞”。

现在小明想统计有哪些帖子曾经是”热帖”。

如果一个帖子曾在任意一个长度为 D 的时间段内收到不少于 K 个赞,小明就认为这个帖子曾是”热帖”。

具体来说,如果存在某个时刻 T 满足该帖在 [T,T+D) 这段时间内(注意是左闭右开区间)收到不少于 K 个赞,该帖就曾是”热帖”。

给定日志,请你帮助小明统计出所有曾是”热帖”的帖子编号。

输入格式
第一行包含三个整数 N,D,K。

以下 N 行每行一条日志,包含两个整数 ts 和 id。

输出格式
按从小到大的顺序输出热帖 id。

每个 id 占一行。

数据范围

1≤K≤N≤105,
0≤ts,id≤105,
1≤D≤10000

输入样例:

7 10 2
0 1
0 10
10 10
10 1
9 1
100 3
100 3

输出样例:

1
3

题目地址:https://www.acwing.com/problem/content/1240/

解析:统计热帖,只要帖子在一段时间D火过(一段时间访问量大于K)就算是热帖,输出 所有曾经是热帖的 id

代码思路 :用logs[] 记录每个帖子的记录,然后按时间顺序排序,使用滑动窗口的思路,时间窗口滑动,滑出记录的帖子的数量 – ,进入的记录的帖子++;在这里插入图片描述

#include<iostream>
#include<algorithm>
using namespace std;
const int N = 1e5 + 10;
typedef pair<int, int> PII;
PII logs[N]; //记录日志 los[].ts表示日志时间 los[].id表示日志id
#define ts first
#define id second
bool st[N];  //统计日志是否为热帖 后面虚按序输出
int cnt[N]; //统计d时间段内的点赞数 
int n, d, k;
int main()
{
	cin >> n >> d >> k;
	for(int i = 0; i < n; i ++)  //赋值
	{
		scanf("%d%d",&logs[i].ts,&logs[i].id);
	}
	sort(logs, logs + n); //排序先按时间 后按id
	//遍历日志 可以看看上图 
	for(int i = 0,j = 0; j < n; j ++)  //使用i j指针 实现滑动窗口
	{
		int id = logs[j].id;
		cnt[id] ++; //有该条记录 那么点赞数 ++ 	
		while(logs[j].ts - logs[i].ts >= d)   //日志热门窗口成形了, i使用while追上j 
        {
            cnt[logs[i].id] --;   //前面的i就会退出窗口 所以让 i 记录的帖子的cnt --
            i ++;               //i 跟着窗口挪动
        }
        if(cnt[id] >= k) st[id] = true; //日志为热门
		 
	} 
	for(int i = 0; i <= N; i ++)  //遍历找曾经热门的帖子,测试了一下直接遍历到N快于 在前面统计出最大的id 再来遍历。
     if(st[i]) printf("%d\n",i);
	return 0;
}


本题:AcWing 1238. 日志统计
代码参考:视频讲解

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值