D - I Hate Non-integer Number (选数的计数dp

D - I Hate Non-integer Number
思路:
枚举选 l l l 个数,然后 d p [ i ] [ j ] [ k ] dp[i][j][k] dp[i][j][k] 表示前 i i i 个数选 j j j 个数 % l \%l %l 的和为 k k k 的方案数
那么答案就是所有 l l l 情况下的 d p [ n ] [ l ] [ 0 ] dp[n][l][0] dp[n][l][0] 的加和
code:

#include<bits/stdc++.h>
#define endl '\n'
#define ll long long
#define ull unsigned long long
#define ld long double
#define all(x) x.begin(), x.end()
#define mem(x, d) memset(x, d, sizeof(x))
#define eps 1e-6
using namespace std;
const int maxn = 2e6 + 9;
const int mod = 998244353;
const int inf = 0x3f3f3f3f;
const ll INF = 0x3f3f3f3f3f3f3f3f;
ll n, m;
int a[109];
ll dp[109][109][109];
//  前i个数选j个,和 %l 为 k 的方案数 
ll ans = 0;
void work()
{
	cin >> n;
	for(int i = 1; i <= n; ++i) {
		cin >> a[i];
	}
	for(int l = 1; l <= n; ++l)
	{
		mem(dp, 0);
		dp[0][0][0] = 1;
		for(int i = 1; i <= n; ++i){
			for(int j = 0; j <= i; ++j)
				for(int k = 0; k < l; ++k)
					dp[i][j][k] = dp[i-1][j][k];// 先把不选a_i的情况转移一下
			for(int j = 0; j <= i; ++j){
				for(int k = 0; k < l; ++k){
					if(j >= 1){
						int sum = (a[i] + k) % l;
						(dp[i][j][sum] += dp[i-1][j-1][k]) %= mod;
					}
				}
			}
		}
		(ans += dp[n][l][0]) %= mod;
	}
	cout << ans;
}

int main()
{
	ios::sync_with_stdio(0);
//	int TT;cin>>TT;while(TT--)
	work();
	return 0;
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
朴素贝叶斯是一种常用的机器学习算法,特别适用于自然语言处理任务。它基于贝叶斯定理和特征条件独立假设,通过计算给定特征条件下的类别概率来进行分类。 在自然语言处理中,朴素贝叶斯可以用于文本分类、情感分析、垃圾邮件过滤等任务。它将文本表示为特征向量,其中每个特征表示一个词汇或其他语言相关的属性。然后,通过计算每个类别下的特征概率,可以预测新文本属于哪个类别。 下面是一个使用朴素贝叶斯进行文本分类的示例: ```python from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB # 准备训练数据 train_texts = ['I love this movie', 'This movie is great', 'I hate this movie'] train_labels = ['positive', 'positive', 'negative'] # 特征提取 vectorizer = CountVectorizer() train_features = vectorizer.fit_transform(train_texts) # 训练朴素贝叶斯分类器 classifier = MultinomialNB() classifier.fit(train_features, train_labels) # 预测新文本的类别 test_text = 'This movie is amazing' test_feature = vectorizer.transform([test_text]) predicted_label = classifier.predict(test_feature) print('Predicted label:', predicted_label) # 输出:Predicted label: ['positive'] ``` 在上面的示例中,我们首先准备了一些训练数据,包括文本和对应的类别标签。然后,使用`CountVectorizer`将文本转换为特征向量。接下来,使用`MultinomialNB`训练一个朴素贝叶斯分类器,并使用训练好的模型对新文本进行分类预测。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值