天梯赛+01训练总结

每次比赛开始总想着不要急时间够用,到最后总是时间不够用.
自己坑自己的事情就是幻想着我灰名哪天一次上分+100就快青了
只要每天打一套cf防止手生.
结果3月2日选拔赛结束,自己就在划水,cf不打就不说了,还不好好补题,校赛mid以上好多类型都没补,一天天都在幻想自己什么时候蓝,什么时候进区域赛…
数论基本题一个都看不进去,oj也不好好刷,懒到这种程度.
结果天梯赛前一天只疯狂在看并查集和图论,STL以为自己还可以,其实ojSTL那套题,说实话,栈和队列这两道真的没有好好理解,到现在写博客还没有复盘看L2那道题.
前1小时L1,看到3道大模拟,就一直模,似懂非懂用substr的模拟出来1个666那题得了14分,之后心里一直在想,不行L1还没达到80,不能开L2,结果自己坑自己,想着1小时内必须结束L1,然后越来越急,最后不得不开L2,其实那句话我也看见了,L2计分点由800降到600,自以为L2和平时刷的算法类似,一直gank大模拟…
剩余有1个小时半左右吧,才开始看L2,我不是一个能安下心读题的选手,尤其是在中午比较迷的时候,降智加抗压能力直线下降,心态爆炸…
图论那道题我看出来是bfs,但由于好久没练dfs/bfs,有思路也不会写,还一直在问自己怎么找到正确的入口???还是入口就按1来,邻接表还写一个vector<vecter > g; 赛后测过1e5直接超内存
连邻接表都写不明白,一会bfs写不出来换dfs,dfs带参数想了半天,结果刷新看通过率换题,看出来是栈,写出来运行不起来,一直在想哪个条件在前,哪个条件在后,到底while到cnt>n还是for循环n次输入,一直没整明白怎么把输入写好,结果3个样例只给自己两个YES/NO???到现在还不知道自己wa在哪,写完博客就去看,我现在有点想哭…
真的,那种无助的感觉只能看着时间一点点在流逝,而自己陷入迷茫…困得不行不行,我的生物钟一直调不好,既影响发挥,又影响心态…
打完后,不敢面对所有人,不敢说话,只是在想我该怎么弥补这个错,自己就这样在2队划水,让158分的jwj哥哥填坑…
我真是个傻逼…

天梯赛打完后的那天下午,我开始自闭…div3直接爆0,我模拟场div3爆0不止1次了,自己对思维题一直都是能读懂,肝不出的状态.补题补题,补题还是有效果的,第二天就把L2的深入虎穴自己ac了(当然我真是个菜鸡不会用vis数组标记找入口),到现在起码每天至少能写出来1道2道模拟场题了,尽管速度还是很慢,罚时爆炸…我知道比我优先努力的选手们都经历过这些,只是我醒悟太晚.
给自己规定的flag是否能够完成???我希望自己能够分配好比赛和学业,好好通过期中考试,并且真的能完成自己的目标,rating1300其实不难,为什么不能中午好好腾出时间去教室做题,就像在大一下学期见过ive正好在我们教室打一样,就像自己曾经中午不吃饭不睡觉在教室看线性代数一样,现在的我真的越来越懒了,意志力哪去了?
4月3日也就是昨天,01场
紧张到不行,签到题没改maxn直接runtime越界,送了20分钟罚时
再看ff题越看越紧张,
换校赛题做,看出来优先队列好像超时,又想了半天,打代码自己就在想,我还能写出来不,结果顺着之前的思路直接写,感觉基本无思考,>=d写的>d wa一发 queue开的ll 取front用int 又wa,自己把ans改为1二分,现在想想还是当时没想明白胡写,最后自闭了对照之前的代码就是ll和ans=1的问题,然后才过…

想通了吃糖果算法是前缀和+双指针,又自己骗自己说爆数组了,1e5???,每个数据1e9,其实用ll,才又回到正道上写,双指针凭感觉wa了一发,才安安宁宁手写推,说到底还是懒…
1小时08分 我又来到ff,看着wa的多的大圆盘,骗自己是个难题,之前一直找不着榜单正确位置,跟不了榜,总觉得是难题,看看了10几人过了,把简单问题想复杂,感觉t大的话可以周期分,还觉得是二分,想了好久才写出来个差值数组排序,想着先写一个前缀和,又感觉自己不对,(到这时候还晕晕乎乎没想明白题),又换二分,结果自闭结束…
赛后问队友ff题怎么回事就是过不了,队友说差分数组或者贪心排序…
到今天晚上才安安静静想明白,这么简单的题,我不会??? 弟弟21名超大罚时

以后比赛还是要稳住读题,静下心来想,不要没想清楚就试探wa点
基础太差,当然得安排自己一下,不然上不了1300就真不当人了!
说实话队友对我都很好,告诉我怎么正确的训练自己,怎么打好基础,循序渐进,希望自己保住自己的位置,我真的不想因为太菜而把队友拱手让人,毕竟这么熟悉,而且hdx在11月带我入门,jwj哥哥一路带我,学了不少东西,我不想走好多人的路,被刷掉,没有参赛资格,那简直就对不起自己的青春!

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值