尾数为零
难度:白银
0时间限制:1秒
巴占用内存:64M
输入正整数N,请在1!,2!,3!…N!中查找尾数为零的数,统计这
样的数字的个数并输出。
#include <bits/stdc++.h>
using namespace std;
int main(){
int n;
cin >>n;
if(n<=4) cout<<"0";
else cout << n-4;
return 0;
}
架构和数据集
Grover使用与GPT2相同的架构:
有三种型号。最小的模型Grover-Base有12层,1.24亿个参数,与GPT和BERT-Base相当
下一个模型Grover Large有24个层和3.55亿个参数,与BERT Large相当
最大的模型Grover Mega有48层和15亿个参数,与GPT2相当
用来训练Grover的RealNews数据集是Grover的作者自己创建的。数据集和创建它的代码是开源的,因此你可以下载并按原样使用它,也可以按照Grover的规范生成自己的数据集。
安装Grover
你可以按照安装说明安装Grover,并在自己的机器上运行它的生成器和检测器工具。请记住,该模型的大小是巨大的(压缩后还有46.2G!)所以在你的系统上安装它可能是一个挑战。
这就是为什么我们会使用在线检测器和生成器工具。
使用Grover进行生成和检测
你可以通过以下链接访问该工具:
https://grover.allenai.org/
你可以玩一下Generate选项,看看Grover生成神经假新闻的能力有多强。因为我们有兴趣检查Grover的检测能力,所以让我们转到“检测”选项卡(或转到以下链接):
https://grover.allenai.org/detect
案例研究1:
我们要测试的文本与前面看到的GPT-2生成的文本相同:
当你点击“检测假新闻”按钮时,你会注意到Grover很容易将其识别为机器生成的:
案例研究2:
我们要测试的下一篇文章来自纽约时报:
你会发现格罗弗确实能认出它是一个人写的:
案例研究3:
这些都是简单的例子。如果我给它一段技术性的文字怎么办?像技术博客里的解释
对于我自己提供的文本,Grover失败了,因为它没有接受过此类技术文章的训练:
但是GPT-2探测器模型却起作用了,因为它是在各种各样的网页上被训练的(800万!)。
这只是为了表明没有一个工具是完美的。
案例研究4:
她是我们要做的最后一个实验。我们将测试机器生成的新闻,这些新闻不是“假的”,只是自动生成新闻的一个例子。本文摘自华盛顿邮报:
有趣的是,GPT-2探测器模型说它根本不是机器生成的新闻:
但同时,Grover能够识别出它是机器编写的文本,概率略低(但它还是能找出答案!):
现在,不管你是否认为这是“假”新闻,事实是它是由机器生成的。如何对这类文本进行分类将取决于你的目标是什么以及你的项目试图实现什么。
————————————————
版权声明:本文为CSDN博主「磐创 AI」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/fendouaini/article/details/106744426