从大专到研究生的完美三级跳--写在收到录取通知书的日子里

05614日,收到了北京邮电大学的研究生(MBA)入学通知书,完成了我从一个大专生到研究生的完美三级跳。MBA入学考试对其他人可能不算什么,但对我意义重大,这与我的成长史有关。

我生在一个闭塞的天津家庭,父母都是老师。如同大多数70年的父母,他们很相信不打不成才。我的不幸在于上了他们工作的学校,老师的孩子学习不好,父母是很没面子的,于是我就被我爸反复打、使劲打。(他是体育老师耶!现在我们的关系很好!)每次开家长会,我的班主任都会对我爸说:张老师,您的孩子上课就不能少说两句话吗?哪来的这么多话啊!(可以想象一下,是略带哭腔和无望的口气),直接后果就是我被胖揍。被父母混合双打的机会很少,因为我的成绩基本上都能及格。我进入高中我老爸已经因为体力问题不再打我了。哈哈!没人管了更放松!棍棒教育的结果是很早我就开始厌学。

从小学三年级开始,我的各门课程都是中等偏下,初中的成绩是下等偏上,高中的成绩是下等偏下。旷课外出打街机是很经常事。有时是因破坏课堂纪律被老师在楼道罚站,我出了教室的门就直奔电子游戏厅了。高考成绩就不必多说了,我以优异成绩考入天津广播电视大学国际贸易专业,混了两年很快毕业。出校门不久我就和朋友合开了一家电脑公司,在公司里我就是老大,对继续学习和深造的事就更不放在心上。真正的觉醒是在2000年。

2000年我进入一家带有国企性质的IT集成公司做销售,销售业绩说明一切,与当时有水平相比,我做的还不错。可因为学历,所以我处处有被歧视的感觉。做的好了自然没人说什么,做的不好时总能听到看,板砖(大专)生就是不行!小心眼儿的我听起来那叫一个难受。2000823日,我决心开始努力。我已经在工作上证明了自己的能力,之后就是要再次在学历上证明我的能力:)

2000831日到今天,我不看书也不学习的日子不超过45天(我有全部的时间记录),每天平均学习时间1.21小时。2000年至2003年以英语为主,从ABC从头开始学,一直把大学英语第四册学完(四级我考了五次才通过,倒了!)。分析和关注了很长时间的考研形式之后,2003年我决定考MBA其间经过漫长的复习过程,包括自学、参加辅导班、参加模考。2005122日日我走进了北京邮电大学的研究生考场。。。。

我的MBA成绩是202分,高出国家A类分数线37分,比北大A类分数线高13分。成绩公布之后,我又参加了北邮组织的MBA面试,应该说录取是意料中的事。可真的拿到录取通知书时,心中还是不免万分激动,我差不多快要假装热泪盈眶了,哈哈!5年中的种种努力一一闪现在我眼前,心里真是高兴啊!

革命者说:死都不怕,我还怕什么!现在的老百姓说:活着我都不怕,我还怕什么!我说:MBA我都考上了,我还怕什么呢?

相关文章

永远不要停止学习的脚步——写在MBA课程最后的日子里(1)

毕业了是应该考个研还是考个证儿?——写在MBA课程最后的日子里(2)

一个假设赚回18

版权声明:原创作品,允许转载,转载时请务必以超链接形式标明文章原始出处、作者信息和本声明。否则将追究法律责任。本文地址:http://blog.csdn.net/jobchanceleo/archive/2007/01/16/1484328.aspx

职业发展顾问Leo

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值