匆匆那年,纪念我的2014

别了2014,别的是惋惜,是逝而不返的光阴。

回想2014,确实经历了很多,辞职去西藏,找工作,面试,适应新的公司。人,经历的多了,也就慢慢成长起来了。

一场说走就走的旅行

有人说,人的一生中至少要有两次冲动,一次为奋不顾身的爱情,一次为说走就走的旅行。不管这是一种蛊惑,还是 箴言,我都依然享受这份青春般张狂而又有点浪漫的生存表达。

有些事是需要两个人完成的,比如爱情,生猴子。而有些事情是自己一个人就够了的,比如旅行。其实,对于我来说旅行也不是一个人能完成的,因为我具备动漫主角的附加属性,路痴,方向感差(简直不能说有方向感),于是这场说走就走的旅行就拉上了好友,作为路上的向导加指南针。

去西藏的想法是2013年就有的,在我的别了2013,来吧2014中可以看到。从某种角度来说,这种说走就走的旅行多少是不负责任的,家里父母不知道,如果真的有什么意外发生,那有可能毁掉一个家庭。不过,谁没有任性的时候,偶尔任性一会,在青春的最后一刻发下光和热,多少也是有些意义的。

4月份的时候,出去走走的想法愈来愈热烈,于是跟好友商量,疯狂一把吧,咱们骑车去西藏。于是,辞职,购买装备,拉练。先说下川藏线情况,沿318国道从成都至拉萨全程2154公里,共需翻越海拔5000米以上的高山2座,4000米以上的高山9座,全程骑行要25天左右,平均每2天就要翻一座高山,因而,无论对于自身体力还是意志都是一次不小的挑战。为了适应这份挑战,我们在出发前挑选了北京郊区的妙峰山作为拉练目标。绵延15公里的上坡路,急剧的体力消耗,看不到山顶的坡道,时时不在考验我们的毅力。直到爬上山顶,俯瞰大千世界,感觉身上所有的累和疲惫都是值得的。

5月初,我们从成都出发开始了川藏之旅。临行前按耐不住的兴奋,路上秀丽的风景,目标相同的伙伴,变幻的天气,陡峭的悬崖,意料之外的险情,到达目的地的喜悦,我们经历了太多太多。单拐的骑行者,环游中国的徒步者,拄拐的推车者,三步一磕头的朝圣者,六七十岁不服老的"顽童",我们感动的太多太多。蔚蓝的天空,清新的空气,郁郁葱葱的森林,缓缓流淌的河流,巍峨的雪山,茂密的灌木丛和高原草甸,悠闲自得的牦牛,活蹦乱跳的藏香猪,偶尔几缕炊烟,仿佛置身于梦境一般。身上的疼痛和疲倦提醒着自己,这一切都是真实的,此时此刻的我正行走在如此美丽的地方,如此接近自然的地方。藏族人民的淳朴热情,一句“扎西德勒”加上一碗暖暖的酥油茶,给人一种宾至如归的感觉,忘不了“三姐妹”,忘不了所波大叔。来到布达拉宫的面前,我即兴奋又不舍,兴奋的是目睹了布达拉宫的芳容,不舍的是我们的旅程也要告一段落。正如天下没有不散的宴席,世上也没有永无止境的旅程,终究要停下来,歇歇脚,为下次的旅行做些准备。

一场说走就走的旅行,这是今年最大的收获。

噢,我也在互联网公司

西藏之行回来后,由于醉氧的原因,修整了将近1个月,中间夹杂着找工作,面试。由于两个月的回归自然,我的编程方面的知识也基本忘的差不多了,面试过程中屡次被虐。人啊,不在被虐中爆发,就在被虐中灭亡。随着被虐的次数多了,以前落下的知识也都补回来了,顺利的收到现在这家公司的Offer。

这是一家创业型的互联网公司,不大,但氛围我很喜欢。面试时boss说的一句话记忆犹新,“老板喜欢做的是选择题,而不是思考题”。思考题是老板留给我们做的,大到公司如何更好的运作,小到系统如何扩展,某个模块如何实现,怎么做更合适。我们确定好要解决的问题后,查资料,思考,整理,列出问题可供选择的答案,然后让老板或boss作出选择。这样,你的决策或想法被公司采纳,然后公司或项目往好的方向发展,老板高兴,自己也挺有成就感。更重要的是,在不断的思考中你才能进步。

不管是在大公司还是小公司,一定要做思考者,而不是执行者,这是你价值的体现。最近公司招聘,有很多几年工作经验的应聘者,自己能力一般要价却高的离谱,总以为自己在老东家值那么多钱,现在就值这么多。殊不知,你的价值不是上家定的,而是在整个市场中你被取代的几率决定的。一个工作几年的Java程序员,只知道SSH框架,没有读过JDK源码,不了解Java核心类的底层机制,还好意思说上家给我xxx,不看看那是因为你资历老而已,跟能力没什么关系。所以,坚持学习是必须的,多思考,多总结,多积累。

看,我也为开源奉献了力量

2013年注册了GitHub账户,也没登陆过几次,以至于连GitHub上常用的watch,star,fork都不会用,一直以为只能通过fork来收藏其他项目。西藏回来之后,心收了很多,也慢慢淡定下来,决定好好积累下技术,于是重新拾起GitHub。到目前,虽然没有为其他项目贡献过代码,不过在自己的一亩三分地上也是自得其乐。关注了大量好的开源项目,今年好好研究下这些项目的实现。以前在CSDN上写过2014年的博客计划,不过出去跑了一圈回来,也没继续写下去,总感觉自己东西学的太浅,动笔没什么可写的。看来需要积累吧,只有厚积才能薄发。

啊,软件还能这样设计

前段时间偶然接触到领域驱动设计的思想,眼前一亮,软件还能这样设计?!以前使用SSH,关于为什么要分那么多层,每层的作用,为什么要用实体Bean,都是简单的想想而已,并没有深究里面的设计思想,而领域驱动设计,不仅告诉我这样设计的原因,也让我看到领域驱动的产品设计和开发的好处。不过,虽然领域驱动设计诞生10多年了,在国内SSH横行的世界并不多见。个人认为主要是领域驱动设计实施很难,要想实施领域驱动设计,首先要有领域专家,然后有丰富经验的领域开发人员。一个系统可能会涉及到多个领域模型,模型的精化,提炼是个漫长的过程。并且实施领域驱动设计的项目本身规模也不小,开发周期很大,如果前期领域模型没有提炼好,后期很有可能开发进程受阻,甚至需要推毁重做。一个中小型的系统采用普通的架构足矣,况且掌握SSH的程序员一抓一大把,一般企业也没有那种远见,让你使用什么劳神费力的领域驱动设计。

不过,我还是挺看好DDD的,学习DDD也是今年我的重要目标。除了DDD,最近流行RESTful+微服务,还有火爆天的Docker,这些技术或概念还是要关注的,与时俱进是程序员的基本要求之一。

目标

2015,我在期待着什么?

2015,DDD学习。

2015,尝试录制一份教程。

2015,维持一个开源项目。

2015,研究好的开源项目。

2015,向优秀的人学习。

2015,做个有深度,广度的人。

2015,Study step by step!

别了2014,Come on 2015!

【6层】一字型框架办公楼(含建筑结构图、计算书) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值