2021考研 | 假如时光倒流一年,我会如何调整复习

2021考研 | 假如时光倒流一年,我会如何调整复习

考研数学

  • 计算量很大,时间上来不及,概统最后一个大题因为时间仓促,算错一个很简单的定积分,最后一个填空题因为考虑不充分,直接送走5分,补上这5分才能做到理想中的选填满分,线代大题第二问来不及写,虽然来得及也不一定能做出来,在试卷上写了对二次型矩阵的一些分析,希望能部分得分。
  • 第18题求幂级数的和函数,看到题目的时候就想到了x=0时可能需要单独讨论,于是验证之,但是x=0不在定义域内,却忽略了x=1时幂级数收敛,需要单独讨论。
  • 12月27日考数学,12月24日晚上才做2020年数一真题,虽然说对2020考研数学命题风格突变早有了解,但一直按以往的真题风格进行复习。应当最迟10月真正了解新的命题风格,更有针对性的备考复习,而不是放弃做很有难度的模拟卷。
  • 10月及10月以前的很长时间都用来反复刷习题册了,接触真题后才发现真题风格、侧重点和习题册完全不同,虽然说8月就有做过几套模拟卷,但是复习重心还是在习题册错题上,既然准备了很多模拟卷,就应该多做模拟卷。

考研英语

  • 从1月到8月,一直在背单词,一直一直在背单词,背需要时间,复习还需要时间,背单词的时间超过了英语复习时间的一半,而背的不全考。从应考角度来看,没有必要背太多大纲以外的单词。

  • 英语阅读理解错了整整4个,错得比完形填空还要多,看到新题型是七选五我第一反应就是要拿全对,结果花了10几分钟,做出来的还是错了两个。这反映出细心程度有待提高,在备考过程中对于新题型旺旺麻痹大意,没有刻意重视,自讨苦吃。

  • 本就该多做阅读,大家都说“得阅读者得天下”,多体会阅读真题的命题逻辑,增强语感,而单词只不过是基础中的基础。

  • 看到英一大作文题目,觉得可以有多种立意,可以写传统文化,也可以写坚持初心,审题时觉得命题老师侧重对传统文化的传承和发展,但看到男孩父亲让他坚持,对于传统文化方面的话题很不擅长,于是写了对兴趣的坚持,怕略微偏题。考完对答案看到范文就是关于“兴趣”,问题不大,小作文自我感觉尚可,问题也不大。

    考后补充:小作文6人,大作文12.5分,北京地区,还可以接受

考研政治

  • 不得不说今年的肖秀荣4套卷是真的牛逼,在考场上我都怀疑这试卷是肖秀荣出的吧,可能也得益于今年时事政治分布得比较集中,重点非常突出。对于肖4我没有做太多的背诵,只是熟读了一下,但不妨碍考场上用自己的语言复述,本来应该对比往年的肖4和当年的真题的差距,然后探索如何掌握肖4的打开方式。

  • 客观题共扣9分,其中单选1分、多选8分。考前确实是准备多做客观题的,并且把肖秀荣、徐涛、米鹏、腿姐、王吉、蒋中挺、任燕翔的模拟题全买了,但实际因为12月变得有些懒散,只做了前二者的。在考场上有几个单选拿捏不定,突发奇想假设选项分布是4A4B4C4D,改了2个题,还差1个题不满足,于是把最后一个也给改了,结果是最后一个本不该改,选项分布的规律也并不是4A4B4C4D,考前可以研究选项是如何分布的,在考场上才好随机应变,所以本来错2个的选择题改成了全对,又改成了错1个,总体上改多了1分,并没有太亏。

    考后补充:查分发现单选题扣了4分,说明这完全是一个错误的决定,而且可能对答案的时候根本就记错答案了,公共课命题实行“一题多卷”,真就不是4A4B4C4D,小聪明反被聪明误!

计算机专业课

  • 今年软微839的出题确实出乎我的意料,看他给出的参考书目吧,课本上有的内容确实不算超纲,但是苦苦准备的存取时间计算、页框大小页框地址计算、磁盘存取时间、TCP窗口等等有难度的计算类的题目全部没有考,考了一些比较偏的王道书上也没有的冷门知识点。反正大家都不会呢,这一点也不需要太担心。

    考后补充:个人认为近两年软微专业课的风格可能和某些机构组织的各类考前辅导班有关系,可以在一定程度上打击此类违规以招生院校的名义组织的教学活动。

  • 由于没有地方对答案,如有新的体会将持续更新。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值