如果你想,那请去做

和大家一样,我是一个刚入行的程序猿,但总幻想着成为别人口中的"大牛",最近换工作,才发现其实自己不过是井底之蛙,在技术面前没有全会的人,只有靠慢慢沉淀下来的开发经验,让那些大神们区别于我们,真正的高手是随时间而成长的,只不过时刻不同,有人年级轻轻却早名声在外,有人迟暮之年才跻身大师,相同的是他们都是在相当长时间里保持学习,保持进步,成功之路或有千万,然无坚持却如山无险峰,水无激流,难成壮景。

##我的故事
2016年,那是我毕业的时候,和多少大学生一样,临近毕业我也很迷茫,到底自己擅长什么,自己到底能做什么?这些问题,一直在我脑海中浮现,想想农村的父母辛苦供我上大学,原本希望我能在毕业后在大城市找到一份“好工作”,然后开始美好的生活。我就一直懊恼着,其实我不担心自己找不到工作,只不过担心找到的工作是否让人满意,我想的是一毕业就能找到月薪上万的工作,可是这是不可能实现的,就我们专业来说,学的再好,充其量不过6k。

  • 疯狂的接毕业设计
    于是,我开始盘算如何在一毕业就可以拿到万元高薪,我发现做计算机开发方面的工作,工作待遇的确很诱人,虽然我学的是电气专业,但是我在大二的时候就觉得计算机这东西很好玩,我就自学了C语言,可惜的是在高校学习C语言不过是为了过二级,我陷入了矛盾中,我很清楚那些招聘的工作我一定做不来,靠在学校学的鸡毛蒜皮的技术,怎么可能会满足人家实际开发的需求?我想到了培训,但是学生党你懂的,经济压力大,想当年我每学期才3k的生活费,是无论如何无法负担的起培训昂贵的费用。因此,我动了点歪心思,当时正值做毕业设计的时间点,我靠着自己大一到大三在专业实验室和参加西门子、三菱电机比赛的经验,开始接同学的毕业设计(PS:当然是收费的那种,事后我一直觉得这样做挺对不起同学的,但是在毕业当晚大家吃饭时,他们可劲的谢我,倒是让我心里好受点,但是这种事的确有损道德,还是不要干的好)。当时的我,也是真拼命,硬是硬着头皮接了10+个毕业设计,整整2个月我天天在实验室忙活,所幸的是结局皆大欢喜,我拿到了我的报酬,同学们也顺利毕业。我想那段经历可能是我这辈子干过最疯狂的事啦,以至于我到现在都在想自己当时怎么那么牛,辣么拼命,现在却是怎么也找不回当初的感觉了。

  • 铁了心入“传销”
    拿到钱后,我预支付了学费,在5月份的时候就去培训了,那是培训的地方和学校相差很远,坐地铁20+站,还得转公交20+站,那时没有晚上上完自习后还得赶最后一班公交去地铁站做地铁回学校,别提有多累人。之后毕业答辩之后,我就在培训机构的地方找了个房子住了下来,一个月300,开始了长达半年的培训生活。当时的我,别提有多落魄了,有家归不得(没找到好工作,没脸见父母),学校又再也回不去了,一个人在上了四年大学的城市的另一端孤独的煎熬着,盼望着拿到万元高薪的那一天。当时,我最大的压力是一方面是经济的压力,你能想象一下一个刚毕业的大学生,身上背着2W+的助学贷款和参加培训半年的生活费共计4W多的债务,当时每天只有靠敲代码才能让我暂时忘却那些经济问题;另一方面,是我在老家的父母的压力,当我提出要培训事,父亲就一口咬定我要进入什么传销机构,眼看劝我无效,竟请动了家里最德高望重的大伯来劝我,好好找一个千把块的工作干干,别老异想天开。这不说还好,一说我更加急了,我铁了心要让父母瞧瞧我一定能成功,不是我相信了什么培训机构宣传的毕业后就能万元就业,而是我相信自己能做到,当时我相信的也只有我自己或那些怀揣着不尽相同目的来培训的“师兄弟”们。

  • 面试10家,一路坎坷
    11月份,我终于毕业了,第二次。
    这一次,我不在迷茫,不在害怕,不在担心,我信心十足,然而现实总是很残酷的,不是所有人的才华会被人看中,面试的结果总是出人意料,第一家我原本打算是抱着去摸一摸市场的情况的心态去的,在面试工程中我并不觉得自己表现很好,以至于我回来后原以为和预期的一样,但是人家却通知我面试通过了,呵呵。有了这次的经历,我的胃口也变大了,觉得所有的公司都应该被我选择,结果在接下来的面试逐一被刷,人生可悲之事不过:喜极之时突生变故悲从中来。那时,我差点散失了斗志,最后在师兄弟的鼓励下重新振作起来,继续干。

  • 苦尽甘来,修成正果
    要相信,这世界上没有绝对的事,失败不是绝对的,成功也不是,在连续面试了9家公司,到第十家我终于面试上了,人家当天下午就给我发offer啦,当时我兴奋的打电话回家告诉我爸妈,说过几天回家,其实离那时我已经在4年中最久没回家了,差不多有近9个月没回家。接着,我的人生像是突然走上正轨了,在朝着我预想的方向发展着,那时我想我已经完成了毕业时在心中许下的承诺——万元就业。

这一年来的经历,似乎让我一下子从一个懵懂的少年成长为一个有担当,有责任的男人。我这辈子,不信佛,不崇道,我只相信我经历的,我坚信如果你想,那请去做,不要让自己的青春浪费在不作为上,也请不要相信任何人的承诺,我只知道那些践行承诺的人令人肃然起敬,还没见过受人承诺的人能有多大的出场率

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值