做程序的第一年2014年总结

               截止到2015年1月25日为止,跨进软件行业已经差不多一年了。回首走过的这一年,自己会被自己的改变所震惊。首先是选择进入软件开发的行列,大学毕业后很迷茫,和大多数人一样不知道自己能干什么,很多人去做了销售。我个人比较内向,销售肯定不适合我,做集成电路是我的专业,但是用人单位的岗位都接近饱和,很无奈。一次偶然的机会,接到了面试通知,来到了现在我工作的公司。以一个零基础的实习生留了下来,总算有一份工作了,但是第一个测试项目就是java的网络应用。完全不懂怎么做,别人最多是提点下怎么做,忙自己的事情。作为一个小菜鸟只能自己摸石头过河,技术能力几乎没有,方法属于无头苍蝇乱撞。以这个状态我居然撑过了实习期,而我被留下来的理由就是即使什么都不会,依旧很努力的去学,每天晚上都是9点之后才回家。现在想想那时的初衷是第一份工作啊,总不能很悲催的被炒了吧。虽然社会比大学残酷多了,也不至于上来就被淘汰吧,很丢人,对个人信心也会有打击。真的是和我读书的时候,不想被别人甩的远远的一样,危机意识拯救了我。

              2014年过年回来后,实习阶段结束,我被正式分配到了团队中,被领导告知这个项目很重要,而我做的是后续的开发。第一天的开会确定一周任务,面对bug清单,我感觉压力好大,对自身的挑战很大,我和另一个哥们M选择任务时,他很坚定的说交给我吧,轮到我时,我很犹豫的说出了我试试吧。那时一周3-4个bug,白天改bug,晚上看书。虽然累但是充实。之后任务的数量和难度也是每周递增,M面对任务时,表现出了不太想完成的心态,但所有任务必须要完成,我挑战下自己,接下了M没去完成的bug,一个月下来,任务的完成量达到了我70%,M30%。有难度的也是在我手上,我感觉其实我完全能所有任务都揽过来。那时从dota情书大神的视频中听到了很励志的话,想要优秀就要接受挑战,想要尽快优秀就要寻找挑战。(我是个游戏高手,很喜欢玩war3和dota,很喜欢情书大神的视频,他很努力,很励志)从那个时候开始工作开始变得顺利起来,学会了一些企业的快速学习方法。我还想感谢M,人生真的是充满了奇遇。

            2014年6月开始,是个新的项目,我作为项目的领头的程序员,承担了60%+的项目任务,难度大的也在我手上,最辛苦的一年,老板只给出1个月的期限,一个月哪能做出一个android的app应用啊,那一个月每天工作到9天,周末也全都过来赶进度,一个月仅仅休息了1天半,就这样一个月很快就过去了,虽然还是争取了半个月才出了第一版。结果是整个人心力交瘁,工作中被摧残,榨干真的是最可怕的事情。从那个时候才开始真正的想怎么样才能不让自己那么累,我觉得我基础很不扎实,但是却想着进阶,于是我接触了影响我的第一本书headfirst-java设计模式,我被其中丰富的内容吸引了,它不是一本很简单的技术书,翻阅它的心情很愉快,从一些生活小例子开始展开,详细的讲述了大神如何在面对一个问题的时候思想的变化,从最初的不成熟的思考,一次一次的被否回来,然后不停的完善,思考。这种感觉真的很美妙,最后提炼出来的品质就是艺术品的感觉。渐渐的每天跟着笔者的思路写demo,java水平提升了,知识面也开阔了,项目中框架的东西也渐渐懂了。

         2014年9月,我被分离出来单独做项目,兼顾攻关。这是对了又一次很大的考验,对个人能力是个很大的考验,在这个阶段我接触到了一位大神,给了我很多工作上的建议,引导我如何去攻克难题,知识面也被再次扩大。我在单独做任务的时候,有个很多能够展现自己优势的地方,然后把余下来的时间放到了把原框架打碎,然后重新搭建,像小时候搭积木一样,完整的我不要,我要自己将那些积木搭成想要的形状,过程中会出现原本设计好的东西经受不住项目的考验,推翻了重做,在这个过程中,总结出自己的java和其他的基础还是不行,计算机的知识都是后面看书补的。这个阶段的独立项目暴露出了我的很多缺陷,我很感谢领导能给我这个机会,让我重新认识自己。知道自己的那些不足。

        2014年12月,我的一位挚友建议我写博客,还借我一本很好的书,java程序员上班那点事,这本书简直太棒了,是广大底层码农在职业路上的航向灯,照亮最明亮的前方,带我们见识了我们在前进路上会发生的事情,清晰的分析出怎么样做一个优秀的程序员,这本书代码部分很好,但是很多东西都是间接影响能力的东西,心态,知道自己以后会怎样,会有怎样的挑战,需要具备什么能力。大局观已经就位,剩下的就是努力,普通的百度下来的技术已经满足不了我,我在写自己博客的同时,订阅了csdn上面一些我喜欢的超级大神,讲的东西透彻,系统。我也在完善自己的知识。

      2014已经过去,转折的一年已经完毕,我已经不再是那个懵懂的我,新的一年加油。

()一个

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值