菜鸡的初入数论(1)——欧几里得与扩展欧几里得小结

emmmm..明明是拿来自己总结的。。却总感觉想要写的像给别人看。。。突然感觉好丢脸。。好了进入正题。

欧几里得算法是指欧几里得用来求最大公因数的方法——辗转相除法。既:gcd(a,b)=gcd(b(a1),a%b(b1))。当b1为零时,则a1为a和b的最大公因数;

代码如下:

int gcd(int a,int b)
{
if(b==0)
return a;
else
return gcd(b,a%b);
}

这里不需要关心a和b的大小关系,因为假如a<b的话,a%b=a;下一次的时候自动就转过去了,所以不需要比大小(好吧。。我经常这么干),对于关于gcd(a,b)=gcd(b,a%b)的证明的话,如下:

设c=gcd(a,b);d=gcd(b,a%b);

因为d是b和a%b的公因数,所以有

b%d=0;(1)

(a%b)%d=0;(2)

又因为a%b=a-(a/b)*b;(/为整除,既抹去后面小数点)

得出a=(a%b)+(a/b)*b(3)

由(1)(2)(3)可得出

a%d=0;(4)

4,5可得出d为a,b公因数

又因为c为a,b的最大公因数

所以有d<=c;

b%c=0;(5)

a%c=0;(6)

由(5)(6)(3)可得出

(a%b)%c=0;(7)

5,7可得出c为a%b,b的公因数

又因为d为最大公因数

所以有c<=d

所以c=d;

欧几里得算法就讲到这里,接下来说扩展欧几里得;

扩展欧几里得,用于求解不定方程:ax+by=gcd

因为是不定方程,所以多解是肯定的(废话),顺便一提,他好像肯定有解。。。。不过我不知道怎么证明;

但他的解肯定为如下:

x=x0+(b/gcd)*t

y=y0-(a/gcd)*t

其中x0,y0为一个特定解,t为一个整数。

这块比较好解释,假设t=1(懒得打t了)

a*x+b*y=a*x0+(b/gcd)*a+y0*b-(a/gcd)*b=a*x0+b*y0=gcd (又是废话。。。不过怕以后看不懂啊。。)

至于这里为什么要使用b/gcd和a/gcd,emmmm。。。。。gcd是a和b的最大公因数,所以a/gcd和b除gcd应该是互相为素数的。。。。。所以这应该就是最小的系数了。。

接下来就是扩展欧几里得的详细解释,先上代码:

void exgcd (int a1,int b1,int gcd,int &x,int &y)//a1*x+b1*y=gcd 
{
	if(b1==0)
	{
		x=1;
		y=0;
	}
	else
	{
		exgcd(b1,a1%b1,gcd,x,y);
		int v=x;
		x=y;
		y=v-(a1/b1)*y;
	}//逆元时a1为需要逆元数,b1为模,x为得数;&为引用,否则无法录入。。。应该没有人和我一样不知道吧。。
}

按照代码解释:

首先当b1=0的时候,a1*x+b1*y=gcd 只有一个解了应该,a1=gcd,x=1

而当b1!=0的时候:

a*x+b*y=gcd;(1

由欧几里得定理可以得知

gcd(a,b)==gcd(b,a%b);

这个证明在上面哦

ok,继续

接下来由于a*x+b*y=gcd(a,b)(这里写的全一些,容易理解),

所以有b*x0+(a%b)*y0=gcd(b,a%b)=gcd(a,b);(反正都一样了,下面就继续用gcd代替了哦)

并且由求余本质(a%b=a-b*(a/b)((这里的‘/’为整除哦)))可以得到下列式子:

b*x0+(a-b*(a/b))*y0=gcd; 

在变形,得到下列式子:

a*y0+b*(x0-(a/b)*y0)=gcd;(2

由(1,(2放在一起可以得出:

x=y0;

y=x0-(a/b)*y0;

emmmm,大功告成,接下来无限递归到b1==0的时候就可以了!

证明终了!(一直想说一次这句话呢)





好吧,还有逆元。。。等下次写逆元专题一块放吧。。。懒得动弹

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值