UVA 10623 - Thinking Backward(数论)

UVA 10623 - Thinking Backward

题目链接

题意:给定一个数量,求用圆,椭圆,三角形分割平面,分割出该数量,输出所有情况

思路:有公式2 + 2m(m-1) + n(n-1) + 4mn + 3p(p-1) + 6mp + 6np

由于m和p都是[0,100],所以可以枚举m和p,去求出n,然后判断合不合适

代码:

#include <stdio.h>
#include <string.h>
#include <math.h>
#include <vector>
#include <algorithm>
using namespace std;

//2 + 2m(m-1) + n(n-1) + 4mn + 3p(p-1) + 6mp + 6np

long long N, n;
struct Ans {
	long long m, n, p;
	Ans(long long m, long long n, long long p) {
		this->m = m; this->n = n; this->p = p;
 	}
};

vector<Ans> ans;

bool cmp(Ans a, Ans b) {
	if (a.m != b.m) return a.m < b.m;
	if (a.n != b.n) return a.n < b.n;
	return a.p < b.p;
}

void judge(long long m, long long p) {
	long long a = 1;
	long long b = (4 * m + 6 * p - 1);
	long long c = 2 + 2 * m * (m - 1) + 3 * p * (p - 1) + 6 * m * p - N;
	long long delta = b * b - 4 * a * c;
	if (delta < 0) return;
	long long tmp = (long long)(sqrt(delta));
	if (tmp * tmp != delta) return;
	long long n1 = -b + tmp, n2 = -b - tmp;
	if (n1 % (2 * a) == 0) {
		n1 /= (2 * a);
		if (n1 >= 0 && n1 < 20000)
			ans.push_back(Ans(m, n1, p));
 	}
 	if (n2 % (2 * a) == 0) {
 		n2 /= (2 * a);
 		if (n2 >= 0 && n2 < 20000)
 			ans.push_back(Ans(m, n2, p));
  	}
}

int main() {
	int cas = 0;
	while (~scanf("%lld", &N) && N != -1) {
		printf("Case %d:\n", ++cas);
		if (N == 1) {printf("0 0 0\n"); continue;}
		ans.clear();
  		for (long long m = 0; m < 100; m++) {
			for (long long p = 0; p < 100; p++)
				judge(m, p);
  		}
  		if (!ans.size()) printf("Impossible.\n");
  		else {
  			sort(ans.begin(), ans.end(), cmp);
  			for (int i = 0; i < ans.size(); i++) {
  	  			if (ans[i].m == 0 && ans[i].n == 0 && ans[i].p == 0 && N != 1) continue;
        		printf("%lld %lld %lld\n", ans[i].m, ans[i].n, ans[i].p);
  			}
    	}
 	}
	return 0;
}


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
forward-loss-backward-update 是一种在神经网络中常用的训练方法。它由以下四个步骤组成: 首先是"forward"(前向传播)步骤。在该步骤中,输入数据会通过网络的各个层级进行计算和传递。每一层都会执行一些权重计算和激活函数的操作,将结果传递给下一层。最终,前向传播会生成网络的输出。 接下来是"loss"(损失计算)步骤。该步骤主要用于计算网络的预测结果与真实标签之间的差距,即损失函数。损失函数可以是交叉熵、平方误差等。通过计算损失,我们可以得到一个衡量网络预测准确性的值。 然后是"backward"(反向传播)步骤。在该步骤中,反向传播算法会利用损失函数的梯度信息来计算每个参数的梯度。这些梯度指示了网络中各个参数对最终损失函数的贡献程度。通过反向传播,我们可以得到网络中各个参数的梯度值。 最后是"update"(参数更新)步骤。在该步骤中,我们使用梯度下降法或其他优化算法来更新网络中的参数。通过使用计算得到的梯度信息,我们可以调整网络中的参数,使其向着最小化损失函数的方向更新。 总结起来,forward-loss-backward-update 是一种有效的神经网络训练方法。通过前向传播计算网络输出,计算损失函数评估网络性能,利用反向传播计算参数梯度,最后使用参数更新方法来优化网络性能。这个过程迭代进行,使得网络能够逐渐学习到更好的表示和预测能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值