[BZOJ 4170 / 2989] 极光 / 数列

8 篇文章 0 订阅
7 篇文章 0 订阅
BZOJ传送门1
BZOJ传送门2

题目描述

“若是万一琪露诺(俗称rhl)进行攻击,什么都好,冷静地回答她的问题来吸引她。对方表现出兴趣的话,那就慢慢地反问。在她考虑答案的时候,趁机逃吧。就算是很简单的问题,她一定也答不上来。”
—-《上古之魔书》
天空中出现了许多的北极光,这些北极光组成了一个长度为 n n 的正整数数列a[i],远古之魔书上记载到:2个位置的 graze g r a z e 值为两者位置差与数值差的和:

graze(x,y)=|xy|+|a[x]a[y]| g r a z e ( x , y ) = | x − y | + | a [ x ] − a [ y ] | 。

要想破解天罚,就必须支持2种操作(k都是正整数):
Modify x k M o d i f y   x   k :将第 x x 个数的值修改为k
Query x k Q u e r y   x   k :询问有几个 i i 满足graze(x,i)k
由于从前的天罚被圣王lmc破解了,所以rhl改进了她的法术,询问不仅要考虑当前数列,还要考虑任意历史版本,即统计任意位置上出现过的任意数值与当前的 a[x] a [ x ] graze g r a z e k ≤ k 的对数。(某位置多次修改为同样的数值,按多次统计)

输入输出格式

输入格式

1 1 行两个整数n,q。分别表示数列长度和操作数。
第2行 n n 个正整数,代表初始数列。
3q+2行每行一个操作。
N40000 N ≤ 40000 , 修改操作数 60000 ≤ 60000 , 询问操作数 10000 ≤ 10000 , Maxa[i]()80000 M a x a [ i ] ( 含 修 改 ) ≤ 80000

输出格式

对于每次询问操作,输出一个非负整数表示答案

输入输出样例

输入样例#1
3 5
2 4 3
Query 2 2
Modify 1 3
Query 2 2
Modify 1 2
Query 1 1
输出样例#1
2
3
3

解题分析

这道题难点在于转化询问。 显然我们可以将所谓的 a[i] a [ i ] 值视为 yi y i i i 视为xi,所谓的历史版本就成了插入一个点。 那么询问就变成了一个侧放的正方形内有多少个点。如下图, 设询问点为 A A , 而k=2的情况:

这样显然不好查询, 那么我们考虑把它旋转45°, 运用初中的知识有:

A(x, y)  A(xy, x+y) A ( x ,   y )     → A ′ ( x − y ,   x + y )

看看旋转后的矩形是什么样的:

发现变成了一个宽为 2k 2 k 的正放的正方形, 我们就可以用树状数组维护啦。(类似这道题
可能大家会有疑惑:正方形中不是还有一些空点吗?不会多统计吗?实际上这些点是无法通过旋转得到的, 自然也不用考虑。

其余细节见代码:

#include <cstdio>
#include <algorithm>
#include <cctype>
#include <cstring>
#include <cmath>
#include <cstdlib>
#define R register
#define IN inline
#define W while
#define gc getchar()
#define MX 1000005
#define lowbit(i) (i & -i)
template <class T>
IN void in(T &x)
{
    x = 0; R char c = gc;
    W (!isdigit(c)) c = gc;
    W (isdigit(c))
    x = (x << 1) + (x << 3) + c - 48, c = gc;
}
int dot, q, cnt, tree[MX], tot, mn = 99999999, mx = -99999999, get1, get2;
char bf[10];
struct Que
{
    int x, y1, y2, typ, id, ord, del, tim;
}eve[MX << 1], buf[MX << 1];
struct Point
{
    int x, y;
}pt[MX];//存当前最新的一个x坐标为i的点
struct Res
{
    int ans[3];
}res[MX];
IN bool operator < (const Que &x, const Que &y)
{return x.x == y.x ? x.typ < y.typ : x.x < y.x;}
IN void add(R int pos)
{W (pos <= mx) ++tree[pos], pos += lowbit(pos);}
IN int query(R int pos)
{
    int ret = 0;
    W (pos) ret += tree[pos], pos -= lowbit(pos);
    return ret;
}
IN void clear(R int pos)
{
    W (pos <= mx) if(tree[pos]) tree[pos] = 0, pos += lowbit(pos);
    else return;
}
void cdq(const int &lef, const int &rig)
{
    if(lef == rig) return;
    int mid = lef + rig >> 1;
    int lb = lef, rb = mid + 1;
    for (R int i = lef; i <= rig; ++i)
    {
        if(eve[i].tim > mid) buf[rb++] = eve[i];
        else buf[lb++] = eve[i];
    }
    for (R int i = lef; i <= rig; ++i) eve[i] = buf[i];
    lb = lef, rb = mid + 1;
    W (233)
    {
        if(eve[rb].typ)
        {
            W (eve[lb].x <= eve[rb].x && lb <= mid)
            {
                if(!eve[lb].typ)
                add(eve[lb].y1);
                ++lb;
            }
            get1 = query(eve[rb].y1);
            get2 = query(eve[rb].y2);
            res[eve[rb].id].ans[eve[rb].ord] += get1 - get2;
        }
        ++rb;
        if(rb > rig) break;
    }
    for (R int i = lef; i < lb; ++i) if(!eve[i].typ) clear(eve[i].y1);
    cdq(lef, mid), cdq(mid + 1, rig);
}
int main(void)
{
    int a, b;
    in(dot), in(q), cnt = dot;
    for (R int i = 1; i <= dot; ++i)
    {
        in(a);
        eve[i].x = i - a, eve[i].y1 = i + a, eve[i].tim = i;
        mn = std::min(mn, std::min(eve[i].x, eve[i].y1));
        //因为旋转后坐标可能为负, 预先加上最小值的相反数
        mx = std::max(mx, std::max(eve[i].x, eve[i].y1));
        //确定树状数组范围
        pt[i].x = eve[i].x, pt[i].y = eve[i].y1;
    }
    for (R int i = 1; i <= q; ++i)
    {
        scanf("%s", bf); in(a), in(b);
        if(bf[0] == 'M')
        {
            eve[++cnt].x = a - b, eve[cnt].y1 = a + b;
            mn = std::min(mn, std::min(eve[cnt].x, eve[cnt].y1));
            mx = std::max(mx, std::max(eve[cnt].x, eve[cnt].y1));
            eve[cnt].tim = cnt;
            pt[a].x = eve[cnt].x, pt[a].y = eve[cnt].y1;
        }
        else
        {
            eve[++cnt].x = pt[a].x - b - 1, eve[cnt].y1 = pt[a].y + b, eve[cnt].y2 = pt[a].y - b - 1, 
            eve[cnt].typ = 1, eve[cnt].ord = 1, eve[cnt].id = ++tot, eve[cnt].tim = cnt;
            mn = std::min(mn, std::min(eve[cnt].x, eve[cnt].y1));
            mx = std::max(mx, std::max(eve[cnt].x, eve[cnt].y1));
            eve[++cnt].x = pt[a].x + b, eve[cnt].y1 = pt[a].y + b, eve[cnt].y2 = pt[a].y - b - 1, 
            eve[cnt].typ = 1, eve[cnt].ord = 2, eve[cnt].id = tot, eve[cnt].tim = cnt;
            mn = std::min(mn, std::min(eve[cnt].x, eve[cnt].y1));
            mx = std::max(mx, std::max(eve[cnt].x, eve[cnt].y1));
        }
    }
    if(mn <= 0) mn = -mn + 1;
    mx += mn;
    for (R int i = 1; i <=cnt; ++i) eve[i].x += mn, eve[i].y1 += mn, eve[i].y2 += mn;//加成正数
    std::sort(eve + 1, eve + 1 + cnt);
    cdq(1, cnt);
    for (R int i = 1; i <= tot; ++i) printf("%d\n", res[i].ans[2] - res[i].ans[1]);
}
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值