NOIP2017有感

2017/11/10-2017/11/12
作为刚入OI行业两个月的我,参加了第一次比较正式的比赛——NOIP,对整个旅途,我有许多感想。

车程

说实在的,在大巴上欣赏外面萧条的秋景真的美哉。。。闲暇中阅读名著,更是增添了悠闲的气息

运城市与康杰中学

康杰的校区还是蛮大的,但早有耳闻的高压和阴沉的天气让我觉得有些压抑。然而,这些不算什么,最让人无法忍受的是康节的饭,诡异的饭菜你能吃饱最已经是万幸了。泡面,成了这一切的救星。。。
在运城市闲逛,总是感到压抑,这里的人并不是特别友善。相较于晋城城区的车水马龙,这里显得凄清,显得无趣。

比赛

这是本文的重点。
Day1
T1很快就看出来了,但是很怀疑正确性,于是证20分钟,通过一些奇怪的方法证出来了。然而,因为平常不好的习惯,long long 用%ld也照样AC,成功的犯了个滑稽的错误;
T2因为字符串原来写的题太少,导致对string和char的基础概念混淆不清,仅仅是输入都有很大的困难,不理解怎样在输完某行后跳到下一行,于是花了1.5个小时写了个错误的程序。。。
T3知道用最短路,可考场上忘了dijkstra怎么写,于是,又一次的炸了。。。
总的来说,Day1心态爆炸,不自信的状态蔓延。。。
Day2
因为食堂那过辣的菜和自己喝水少,上火的不良状态来袭。
前一天的不自信持续。怀着这样的状态,上了考场。
T1写了个模拟,没有用大神的什么DFS,排序后计算两相邻点之间的的距离,和半径比较,利用了初中数学的相切原理。
然而大样例过不去。。。
T2懵逼,想了1个小时多,从搜索到动态规划,从并查集到最短路,最后借运气瞎写了个。。。
T3注意到了数据范围,直接暴力肯定MLE,于是便写了个小暴力,+30分;
In conclusion,无论是精神上还是身体上,这次都比较遭,但是还有很多其他原因,这个请看后文。

杂记

成绩不太理想的我,在其他人玩的时候写题,错失了这一机会。不过还是希望自己期中考试能在数理化生英好好发挥;
和一个朋友交谈,意识到了一些过去不知道的东西,颇有收获;
认识了一些dalao,%%%;(%dalao666)
愿关帝开眼,赐予每个oier运气:)

总结与分析

1首先是态度不正,没有把所有精力放在比赛的事上,对月考的重视更大一些
2长车程和不够的睡眠使精力萎靡
粗劣的饭菜和不足的饮水使疾病乘虚而入;
3基础知识的不牢固。
对于字符串这么基础的东西,我竟然没有重视起来,反而重视了那些是重点但目前还达不到大师水平的项目上。这是个很值得思考的问题——是抓重点?还是抓基础?在有限的时间内,要想达到目标,就一定要处理好这两者的关系。
4心态爆炸
不自信的心态从最初就有,但是对它的忽略+Day1的失败,使其倍增;
对自己的怀疑;
5个人知识的才疏学浅
有很多重要的知识依旧未学或处于极不扎实的状态,比较虚,没有经过实践的沉淀;
对于已学过的东西,没有很好的运用;

未来的方向

无论结果,无论得失,这都是一条艰险但有趣的道路,在两个多月的竞赛道路中,我找到了这件事的乐趣。既然已经选择了这条路,就一定要坚持不懈。
1巩固基础知识 练习字符串等不熟练的项目,不让基础拖后腿
2继续学习新的知识,并且要对其进行完全的理解和消化,通过实践来增长融合度;
3经常做一些锻炼思维的动规题,是自己的思维处于一个高度亢奋的模式;
4经常返回头来看看自己学过的还有什么不理解的,掌握不好的,及时补洞
5增强时间观念,提高做题效率;
6不要因为学习而错失交往的机会;

愈挫愈勇,砥砺前行!
The End.

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值