【ac自动机·DP】poj3691 DNA Repair

这道题做得相当怀疑人生
先按照poj2778建树建图;
http://blog.csdn.net/nymph_h/article/details/77141849
接下来不用矩阵快速幂用DP
我对DP从来有莫名的恐惧

dp[文本串长度][Trie树节点数];
母串的前I个前缀在TRIE树中遍历,达到某个安全节点j需要修改的最小值dp[I][j];

#define _CRT_SECURE_NO_WARNINGS
#include<iostream>
#include<cstdio>
#include<cstring>
#include<vector>
#include<string>
#include<queue>
using namespace std;
const int maxk = 110;
const int maxn = 1010;
const int mod = 10009;
const int INF = 0x3fffffff;

int n;
int ch[maxn][maxn];
int val[maxn]; //这里做病毒节点标记
int sz;
int dp[maxn][maxn];
char t[maxn];

int idx(char c){
    if (c == 'A') return 0;
    if (c == 'G') return 1;
    if (c == 'C') return 2;
    if (c == 'T') return 3;
}

//构建tire树,常规
void insert(char *s){
    int u = 0, n = strlen(s);
    for (int i = 0; i < n; i++){
        int c = idx(s[i]);
        if (!ch[u][c]){
            memset(ch[sz], 0, sizeof(ch[sz]));
            val[sz] = 0;
            ch[u][c] = sz++;
        }
        u = ch[u][c];
    }
    val[u] = 1;
}

void init(){
    sz = 1;
    memset(ch[0], 0, sizeof(ch[0]));
    for (int i = 1; i <= n; i++){
        char tmp[22]; scanf("%s", tmp);
        insert(tmp);
    }
}
//trie树构建完毕

//构建AC自动机
int nex[maxn];  //失配数组

void getNext(){
    queue<int>q;
    nex[0] = 0;
    for (int c = 0; c < 4; c++){
        int u = ch[0][c];
        if (u) {
            q.push(u); nex[u] = 0;
        }
    }
    while (!q.empty()){
        int fg = 1;
        int r = q.front(); q.pop();
        for (int c = 0; c < 4; c++){
            int u = ch[r][c]; // r表示当前结点标号,u表示下一个节点的标号
            if (!u){
                ch[r][c] = ch[nex[r]][c]; //!如果当前节点子节点为空,让其指向失配节点子节点
                continue;
            }
            q.push(u);
            int v = nex[r];  //v是r的失配节点
            while (v && !ch[v][c]) v = nex[v];  //回溯到原点或者上一个相同字母的节点
            nex[u] = ch[v][c];
            if (val[nex[u]] == 1)   //!如果当前节点的失配节点是病毒点,当前也标为病毒点
                val[u] = 1;
        }
    }
}

int solve(char *s){
    int ls = strlen(s);
    dp[0][0] = 1;
    for (int i = 1; i < sz; i++) dp[0][i] = 0;

    for (int i = 0; i < ls; i++){
        for (int j = 0; j < sz; j++) dp[i + 1][j] = INF;

        for (int j = 0; j < sz; j++){
            if (val[j]) continue;
            for (int k = 0; k < 4; k++){
                int v = ch[j][k];
                dp[i + 1][v] = min(dp[i + 1][v], dp[i][j] + (idx(s[i]) != k));
                //最少修改几次?
                //母串的前i个前缀在trie树中遍历,达到某个安全节点j需要修改的最小值dp[i][j];
            }
        }
    }
    int ans = INF;
    for (int i = 0; i < sz; i++){
        if (!val[i] && dp[ls][i] < ans){
            ans = dp[ls][i];
        }
    }
    if (ans == INF) ans = -1;
    return ans;
}
int main(){
    //freopen("in.txt", "r", stdin);
    //freopen("out.txt", "w", stdout);
    int kase = 0;
    while (~scanf("%d", &n) && n){
        init();
        getNext();
        scanf("%s", t);
        printf("Case %d: %d\n", ++kase,solve(t));
    }

}

【6层】一字型框架办公楼(含建筑结构、计算书) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于像和语音识别、自然语言处理、医学像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如像。它们使用卷积层来提取像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
1、资源项目源码均已通过严格测试验证,保证能够正常运行;、 2项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值