2764: [JLOI2011]基因补全

2764: [JLOI2011]基因补全

Time Limit: 10 Sec  Memory Limit: 128 MB
Submit: 570  Solved: 187
[ Submit][ Status][ Discuss]

Description

在生物课中我们学过,碱基组成了DNA(脱氧核糖核酸),他们分别可以用大写字母A,C,T,G表示,其中A总与T配对,C总与G配对。两个碱基序列能相互匹配,当且仅当它们等长,并且任意相同位置的碱基都是能相互配对的。例如ACGTC能且仅能与TGCAG配对。一个相对短的碱基序列能通过往该序列中任意位置补足碱基来与一个相对长的碱基序列配对。补全碱基的位置、数量不同,都将视为不同的补全方案。现在有两串碱基序列S和T,分别有n和m个碱基(n>=m),问一共有多少种补全方案。
 

Input

数据包括三行。
第一行有两个整数n,m,表示碱基序列的长度。
第二行包含n个字符,表示碱基序列S。
第三行包含m个字符,表示碱基序列T。
两个碱基序列的字符种类只有A,C,G,T这4个大写字母。
 

Output

 
答案只包含一行,表示补全方案的个数。

Sample Input

10 3
CTAGTAGAAG
TCC

Sample Output

4

HINT

 

样例解释:


TCC的4种补全方案(括号中字符为补全的碱基)


(GA)TC(AT)C(TTC)


(GA)TC(ATCTT)C


(GA)T(CAT)C(TT)C


(GATCA)TC(TT)C


 


数据范围:


30%数据n<=1000,m<=2


50%数据n<=1000,m<=4


100%数据n<=2000,m<=n


 

 

Source

 

题解:一道萌萌哒DP问题,引用某神犇的题解
题解: 
可以考虑算出序列T在序列S里匹配的本质不同方案数,利用dp可以很容易解决这个问题。 
f[i][j]表示序列S前i位匹配序列T至第j位的方案数,则对于f[i][j],若不用S[i]匹配T[j],则为f[i1][j],若能匹配,则可由f[i1][j1]转化至该状态,最终的答案为f[n][m],dp可滚动。 
然后关键来了——数量是完全可能超过\( {2}^{64} \)的,所以可以,或者说必须进行高精度运算,害得我狂WA不止
然后我写了个萌萌哒高精度,于是还是狂WA不止(下面那个数组开炸了请无视TT)
然后最后发现是高精度加法里面没清零= =,然后
没有然后了
 
 1 /**************************************************************
 2     Problem: 2764
 3     User: HansBug
 4     Language: Pascal
 5     Result: Accepted
 6     Time:4380 ms
 7     Memory:4168 kb
 8 ****************************************************************/
 9  
10 type
11     arr=array[0..500] of longint;
12 var
13    i,j,k,l,m,n:longint;ch:char;
14    c:array[0..2005] of arr;
15    a,b:array[0..2005] of longint;
16 function max(x,y:longint):longint;
17          begin
18               if x>y then max:=x else max:=y;
19          end;
20 function add(a,b:arr):arr;
21          var c:arr;i,j,k:longint;
22          begin
23               fillchar(c,sizeof(c),0);
24               c[0]:=max(a[0],b[0])+1;k:=0;
25               for i:=1 to c[0] do
26                   begin
27                        k:=k+a[i]+b[i];
28                        c[i]:=k mod 10;
29                        k:=k div 10;
30                   end;
31               while k>0 do
32                     begin
33                          inc(c[0]);
34                          c[c[0]]:=k mod 10;
35                          k:=k div 10;
36                     end;
37               while (c[0]>1) and (c[c[0]]=0) do dec(c[0]);
38               exit(c);
39          end;
40 procedure outp(a:arr);
41           var i:longint;
42           begin
43                for i:=a[0] downto 1 do write(a[i]);
44                writeln;
45           end;
46 function trans(ch:char):longint;
47          begin
48               case upcase(ch) of
49                    'A':exit(1);
50                    'C':exit(2);
51                    'T':exit(4);
52                    'G':exit(3);
53               end;
54          end;
55 begin
56      readln(n,m);
57      for i:=1 to n do
58          begin
59               read(ch);
60               a[i]:=5-trans(ch);
61          end;
62      readln;
63      for i:=1 to m do
64          begin
65               read(ch);
66               b[i]:=trans(ch);
67          end;
68      readln;fillchar(c[0],sizeof(c[0]),0);c[0][0]:=1;c[0][1]:=1;
69      for i:=1 to n do
70          for j:=m downto 1 do
71              if a[i]=b[j] then c[j]:=add(c[j],c[j-1]);
72      outp(c[m]);
73      readln;
74 end.    

 

转载于:https://www.cnblogs.com/HansBug/p/4436041.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值