CF895 E. Eyes Closed(线段树 期望)

题意

Sol

今天考试的T3,,我本来留了一个小时去写。但是T2一刚就刚了两个小时

最后也没来的及写。。

然后考完 开始写,,25min就A了。。

感觉自己太高估自己的思维,太低估自己的码力了。。。

这题比较简单吧

期望的和等于和的期望

然后线段树维护每个节点的值就可以了

交换的时候分自己不变和变成哪个数讨论一下

#include<cstdio>
#include<cstring>
#include<algorithm>
#include<map>
#include<vector>
#include<set>
#include<queue>
#include<cmath>
#include<iostream>
#define Pair pair<int, int>
#define MP(x, y) make_pair(x, y)
#define fi first
#define se second
#define ls k << 1
#define rs k << 1 | 1
#define int long long 
#define LL long long 
//#define getchar() (p1 == p2 && (p2 = (p1 = buf) + fread(buf, 1, 1<<22, stdin), p1 == p2) ? EOF : *p1++)
//char buf[(1 << 22)], *p1 = buf, *p2 = buf;
using namespace std;
const int MAXN = 1e6 + 10, INF = 1e9 + 10, mod = 1e9 + 7;
const double eps = 1e-9;
inline int read() {
    char c = getchar(); int x = 0, f = 1;
    while(c < '0' || c > '9') {if(c == '-') f = -1; c = getchar();}
    while(c >= '0' && c <= '9') x = x * 10 + c - '0', c = getchar();
    return x * f;
}
int N, Q;
struct Node {
    int l, r, siz;
    double sum, mul, add;
}T[MAXN];
int a[MAXN];
void pr(int k, int son) {
    T[son].sum *= T[k].mul;
    T[son].sum += T[son].siz * (T[k].add);
    T[son].mul *= T[k].mul;
    T[son].add *= T[k].mul;
    T[son].add += T[k].add;
}
void pushdown(int k) {
    if(T[k].mul == 1 && T[k].add == 0) return ;
    pr(k, ls); pr(k, rs); 
    T[k].mul = 1; T[k].add = 0; 
}
void update(int k) {
    T[k].sum = T[ls].sum + T[rs].sum;
}
void Build(int k, int ll, int rr) {
    T[k].siz = rr - ll + 1; T[k].l = ll; T[k].r = rr; T[k].mul = 1;
    if(ll == rr) {
        T[k].sum = a[ll];
        return ;
    }
    int mid = (ll + rr) >> 1;
    Build(ls, ll, mid); Build(rs, mid + 1, rr);
    update(k);
}
void IntervalMul(int k, int ll, int rr, double val) {
    if(ll <= T[k].l && T[k].r <= rr) {
        T[k].sum *= val; T[k].mul *= val; T[k].add *= val;
        return ;
    }
    pushdown(k);
    int mid = T[k].l + T[k].r >> 1;
    if(ll <= mid) IntervalMul(ls, ll, rr, val); 
    if(rr >  mid) IntervalMul(rs, ll, rr, val);
    update(k);
}
void IntervalAdd(int k, int ll, int rr, double val) {
    if(ll <= T[k].l && T[k].r <= rr) {
        T[k].sum += T[k].siz * val; T[k].add += val;
        return ;
    }
    pushdown(k);
    int mid = T[k].l + T[k].r >> 1;
    if(ll <= mid) IntervalAdd(ls, ll, rr, val); 
    if(rr > mid)  IntervalAdd(rs, ll, rr, val);
    update(k);
}
double Query(int k, int ll, int rr) {
    double ans = 0;
    if(ll <= T[k].l && T[k].r <= rr) {
        ans += T[k].sum; return ans;
    }
    pushdown(k);
    int mid = T[k].l + T[k].r >> 1;
    if(ll <= mid) ans += Query(ls, ll, rr); 
    if(rr > mid)  ans += Query(rs, ll, rr);
    return ans;
}
main() {
    N = read(); Q = read();
    for(int i = 1; i <= N; i++) a[i] = read();
    Build(1, 1, N);
    while(Q--) {
        int opt = read();
        if(opt == 1) {
            int l1 = read(), r1 = read(), l2 = read(), r2 = read();
            double d1 = Query(1, l1, r1);
            double d2 = Query(1, l2, r2), len1 = r1 - l1 + 1, len2 = r2 - l2 + 1;
            IntervalMul(1, l1, r1, (len1 - 1) / len1 ); IntervalMul(1, l2, r2, (len2 - 1) / len2);
            IntervalAdd(1, l1, r1, d2 / len1 / len2); IntervalAdd(1, l2, r2, d1 / len1 / len2);
        } else {
            int l = read(), r = read();
            printf("%.10lf\n", Query(1, l, r));
        }
    }
    return 0;
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于PyTorch的Embedding和LSTM的自动写诗实验LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的序列数据。传统的RNN在处理长序列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多序列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时序预测等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值