{2018.4.9}盘点一下荀(gou)彧(huo)同学犯的低级错误

接触信奥也有两周多了,接下来就让荀(gou)彧(huo)来总结一下这些日子里犯的那些低级错误。

1>那些被漏掉的‘;’、‘}’哭晕在角落;

把‘i’看成‘1’谁又能明白?

cin和cout的大于小于老是neng反;

以上是荀彧到现在还在犯的低级错误;

end...

2>依稀记得那道坑人的判断三角形;

相信很多嘤才们被坑过;

由于题目没读仔细;

先敲了一长串代码;

然后从头到尾检查了一遍;

丝毫没毛病;

编译的时候也没有问题;

敲了题目提供的数据进去毛看看没毛病;

结果……

放到oj上提交;

华丽丽的40分;

脸上笑嘻嘻,内心mmp(我们是海亮的学生,要三善);

不知道错在哪里;

又一遍一遍的看自己的代码;

没毛病啊;

再提交一遍;

依旧黄色的40;

mmp;

受不了请后面的大佬来看了一眼;

人家还没看就甩下一句话:

“这道题判断正确用的是‘Yse’,不是‘Yes’。”

瞅了瞅自己的代码;

果不其然;

对于自己英语的自信;

华丽丽的打了“Yes”;

虽然说刘老师啊在这道题上很坑人(荀彧同学被卡了半个多钟头);

但是教会了荀彧以后要认真看题目,不要对自己抱有盲目的自信(特别是这种坑人的东西);

不然卡多久都是自己活该;

end...

3>听说这是新手们常犯的错误;

小黑皮上也说了要注意;

荀彧同学依旧脑子进水;

犯了如此低级低级低级……(此时省略n个低级)的错误;

双等号的痛谁又懂?

也不记得是哪一道题了;

反正肯定又是一道在#50前的题目;

应该也是一道判断题;

判断某个数是不是素数;

然后敲好代码;

心里美滋滋诶;

华丽丽按下“f11”编译;

一片血红;

一遍一遍的找错误;

看的眼睛花掉;

mmp错哪里了;

时间一分一秒过去;

荀彧一脸懵逼;

忽然;

看见小黑皮上岳老师刘老师大写加粗的那行字:

“判断两个对象是否相等时,一定注意要使用‘==’而不是‘=’。”

去瞅了瞅自己的代码;

确实只有一个等号;

内心绝望;

被等号君坑到了西伯利亚;

所以下定决心再也不犯双等号敲成了单等号的错误了;

血红的教训啊;

end...

4>这是一道昨天晚上撸的题;

一道数组题吧;

输出的时候有烦人的空格君;

遇到这种空格君的题目cout 的时候总要纠结是先输出空格君再是数字还是先数字在空格君;

但是似乎一般情况下这类型的题目都是分类的;

如果没记错的话应该是

if(.....)   cout<<k[i];

else   cout<<' '<<k[i]<<endl;

自信满满的交给oj;

华丽丽的0分;

鲜红夺目;

不知道自己错在哪里;

改了从第一个cout;

编译后发现输出的时候数字前多了一个空格君;

又老老实实改回来;

改第二个cout;

发现还是不对;

内心绝望,oj脑子进水了?

荀彧和空格君的斗争才刚刚开始;

半节课过去了;

那个空格君一直冥顽不灵;

到后来我才知道;

最后输出的时候末尾多了一个空格(惊不惊喜,意不意外);

还是不懂错哪里;

继续和代码大眼瞪小眼;

一瞬间,看到了我int 的a;

没有赋值;

内心mmp;

就表面冷静内心波涛起伏地敲了a=0;

变量忘记赋值;

多么痛的领悟;

那个a=0在我的脑海中挥之不去;

end...

全文终。

Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
torch.optim.SGD是torch.optim库中的一个优化算法,用于实现随机梯度下降(Stochastic Gradient Descent)算法。通过使用该算法,可以对模型参数进行更新以最小化损失函数。 在动手学深度学习的多层感知机中,updater = torch.optim.SGD(params, lr=lr)的代码中,updater是一个优化器对象,用于更新模型参数。 torch.optim的灵活使用详解中提到了使用SGD优化器的例子 optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)。这里示例了如何使用SGD优化器来设置学习率和动量参数。同样,我们可以使用torch.optim中的其他优化器和参数来自定义优化算法和设置各层的学习率。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [torch.optim.SGD()](https://blog.csdn.net/echo_gou/article/details/119536350)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [关于torch.optim的灵活使用详解(包括重写SGD,加上L1正则)](https://download.csdn.net/download/weixin_38607195/13737986)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值