Sequence下个值回归1的代码

alter sequence S_BATCH increment by -20 nocache;
select S_BATCH.nextval from dual;
alter sequence S_BATCH increment by 1 nocache;
declare
LastValue integer;
begin
loop
select S_BATCH.currval into LastValue from dual;
exit when LastValue =0;
select S_BATCH.nextval into LastValue from dual;
end loop;
end;
/
alter sequence S_BATCH increment by 1 cache 20;

实际应用中 用以下代码比较方便,上面的是Oracle里直接取的

---系统流水号
select S_SERIALNO.nextval INTO LastValue from dual;
select S_SERIALNO.currval into LastValue from dual;
LastValue := -LastValue;

EXECUTE IMMEDIATE ' alter sequence S_SERIALNO increment by ' || LastValue ||
' nocache';

select S_SERIALNO.nextval INTO LastValue from dual;

EXECUTE IMMEDIATE 'alter sequence S_SERIALNO increment by 1 nocache';

COMMIT;

[@more@]

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/12180666/viewspace-1018329/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/12180666/viewspace-1018329/

Transformer模型通常用于自然语言处理任务,如机器翻译或文本分类,而不是直接处理时间序列数据。然而,我们可以将它应用于序列预测,比如通过自回归的方式将其应用到时间序列回归。以下是一个简化的PyTorch中Transformer处理时间序列回归的伪代码示例: ```python import torch.nn as nn from torch.nn import TransformerEncoder, TransformerEncoderLayer class TimeSeriesTransformer(nn.Module): def __init__(self, input_dim, output_dim, num_layers, d_model, heads, dropout=0.1): super(TimeSeriesTransformer, self).__init__() self.encoder = TransformerEncoder(TransformerEncoderLayer(d_model, heads, dropout), num_layers) self.linear = nn.Linear(d_model, output_dim) # 输出层 def forward(self, x): # x: [batch_size, sequence_length, input_dim] x = x.permute(1, 0, 2) # 将时间维度放在最前面 x = self.encoder(x) x = x.mean(dim=0) # 对每个位置取平均,得到整个序列的表示 x = self.linear(x) return x # 使用示例 model = TimeSeriesTransformer(input_dim=1, output_dim=1, num_layers=2, d_model=64, heads=8) input_seq = torch.randn(32, 50, 1) # 假设输入是一个32批次、长度为50的时间序列,每步只有一个特征 output = model(input_seq) ``` 在这个例子中,我们首先调整了输入的顺序以便于Transformer处理,然后通过Transformer编码器生成对整个序列的表示,最后通过线性层转换为输出值。注意这只是一个简化版本,实际应用可能需要更复杂的结构,如添加位置编码等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值