写在2017年末

2017做了什么

  1. 看了20+部电影。
  2. 追了两部国产剧:《人民的名义》,《我的前半生》。
  3. 美剧方面,跟了最新的《行尸走肉》,《权力的游戏》,《神盾局特工》。追完了全部的《纸牌屋》,《老友记》和《绝命毒师》追了一部分
  4. 二刷《明朝那些事》,看完了《万历十五年》、《张居正》,《明史讲稿》看了其中的6/16讲。汪曾祺的作品看完了《晚饭花集》,其它散文看了一点。看完了《许三观卖血记》、《腾讯传》。顺便解锁了城西的三家书店。
  5. 在天津茶馆听了一场相声。在北京国家大剧院看了一场:《锁麟囊》,参观了国家图书馆,国家博物馆。
  6. 去了六个不同城市,最北边到了吉林长春。
  7. 爬了六次山。
  8. 在公司参与了四个不同的项目,其中三个项目上线。
  9. 公司外参与了三个不同的小项目。
  10. 在CSDN上新写了15篇博客,其中阅读量超过1000的有5篇。
  11. 慕课网完成度超过90%的课程有4个。
  12. 大概400局王者荣耀。
  13. 专业书籍看了一本《Spring实战》。

相比于2016年,电影院去了更多,看了更多的美剧,足迹更加广泛,写了更多的博客,参与了更多也更复杂的项目。

今年开始在公司承担项目经理的角色,对客户负责、对项目质量负责、对团队成员负责、对领导负责、对项目收款负责。
更多的参与和人打交道的工作,参与需求调研,和团队成员讲解需求,拒绝各种无法实现或者不想实现的需求,催着客户签字、收款。记得有天下午的会议持续了四个小时,有三个部门总监参与讨论,前后否决了四个方案,争论的响声隔着三个房间都能听到,才在会议的最后十分钟定了最终方案。

因为赶项目进度,上半年有两次熬夜超过了凌晨一点。下半年在北京,有一个月下班时间在0点左右,有一个月下班时间在21点左右。

在专业方面,技术深度和广度都没有什么拓展,这是今年最为遗憾的地方之一。当别人都在成长的时候,如果自己不给压力,在职场上会很快失去竞争力。

2018 Flag

  1. 看一些经典的电影。
  2. 不追新的美剧。
  3. 看更多的闲书,重看三国和红楼。
  4. 出差的时候,多深入了解那座城市,去体会那里的风景和文化。
  5. 爬山超过15次。
  6. 新写阅读量超过1000的博客10篇。
  7. 慕课网课程学习时长超过80小时。
  8. 看完2016年618买的另外两本专业书籍。
  9. 技术栈方面,Angular需要达到熟练运用的程度,看完那本2015年买的《Spring源码解析》,多了解一些高并发技术。
  10. 养生,重新开始健身,重新开始做饭。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值