学霸也要会看书

  大学里的课程,是按规定的学时严格执行的。一学期48学时的课,每周需要上3个学时。我不喜欢一次连上三节,主要是学生受不了。这样,惯常的做法就是分单双周,单周两次课4学时,双周一次课2学时。

  刚上大一的同学大概不知道这样的做法,加上上个学期排课时教务处出点错,在学生课表上没有标明星期一的课只有单周上。C++一周的课,显然学生学习的热情已经被点燃,课堂上已经宣布今天不上课,班干部还要打电话过来确认,只怕是老师老糊涂了。

  于是有了一个方案,就在大家认为还上课的时间,我们“占领”一个教室专门自习C++,作为任课老师,我到场答疑。

  其实这个想法由来已久,我除了给学生上课、上机指导,也需要有一个机会,不需有计算机在,专门开展讨论和个别指导。

  提前半小时到教室,已经有十来位同学在。正点时,来了大概有2/3的同学。同学们很认真地看书、看讲义,用手机调试着刚学过的小程序,我游走在教室中,不时解答问题。

  这次答疑,我的收获是,发现了一个大学生可以改善学习的出发点。同学们看书很认真,刚刚接触计算机,自然在第一章绪论中就出现了各种疑问,以至于有些看不下去。我问一位同学的感受,她说有些着急了。看不懂不好受。

  我建议这些大学的新主人,改变以前“推土机”式的看书方式。看书不应该是从前往后一条线读下去,而是可以将课本一直提前往后看,看不懂是自然的,不要介意,看完不如所云,甚至一点也收不到脑子中去,不要紧,再看一遍,多几遍以后,就会有感觉了。这样的学习会越来越快。

  学会利用目录,“点播”式地看后面的内容。例如第一章中提到了“函数”,初学者自然不懂,不妨查查目录,发现85页的第4章就讲函数,到那里去浏览一下,自然感觉会好一些。

  书是从第1页到最后一页“线性”的装订在一起的,但看书时,手指头是自己的,可以跳来跳去。会跳着看了,这种本事,就可以支持着,在学习的道路上所心所欲地行走。

  为什么同学们会养成很规矩、很严格地从前往后看书的习惯?(1)一种观念,前面的不会,不能看后面的。非也,后面的可以看,看的目标也可以不是看懂,而是有点映像和感觉,这样会帮助将前面的内容看懂,帮助建立内容的联系;(2)书中的体系,就是知识的体系。非也,同样的知识,在不同人的头脑中,可以不同的组织,书中写出的,只是作者的体系,我们可以从多个角度看待这些知识,跳来跳去地看,就是利用作者的表述,建立自己的体系,这方是我们的目标。

  也许中学的课本,有很严格的教材编写组,精心地安排好了前后顺序,适合学生用“推土机”式的方式“系统学习”。而大学的教材,编写没有那么严格,也没有做到统一,我认为这是好是,百家争鸣,方能适合这个千姿的世界。这些不严格的,充满个性的教材,需要大学的新主人们用新的方式看书。这样的看书,会带来更多的疑惑,然而疑惑也将随着学习行为的展开,随着对这些方式的驾驭手段逐渐熟练而加快解决。当进一步更多的疑惑到来之时,这正是我们追求的局面。

  学习就是这样,学得越多,不知道的会越多。什么时候觉得自己无所不知了,那是到了最无知的阶段。

  不知不觉中,一个半小时的时间到了。我幸福地打断了大家的学习,说:“我们不到90多人的教学班里,有五、六十人是学霸,逆天的节奏啊!大学的学习时间,将会有很多,我们就这样把握时间。不过,现在应该是锻炼或吃饭的时候,还是自由安排了吧。”

  第一次集体自习也就此结束,以后这个时间将形成惯例,利用这个时间,我和大家一起培养好的学习习惯和方法。

  附我的两篇文字:

  1. 《破除“系统学习”的情结》:在课外的自主性学习中,可以更加自由一些,不要被固有的方式束缚。

  2. 《中学生学习单片机的启示》:《逆袭大学》7.1节“找寻失去的学习潜质”中的一部分,土豆的看书、学习方法可以参考。

 


 

 

 

=================== 迂者 贺利坚 CSDN博客专栏=================
|== IT学子成长指导专栏 专栏文章的分类目录(不定期更新) ==|
|== C++ 课堂在线专栏  贺利坚课程教学链接(分课程年级) ==|
|== 我写的书——《逆袭大学——传给IT学子的正能量》    ==|
===== 为IT菜鸟起飞铺跑道,和学生一起享受快乐和激情的大学 =====

 


 

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

迂者-贺利坚

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值