国庆长假学习收获

最近几天休假闲来无事,狼吞虎咽接触了很多东西,也有一些思考,简单做个概述,后续慢慢做专题再研究

Angular tutorial 开始

整个官方教程可以说是很系统的,从零开始,一步步丰富功能,重构,很适合新手入门。

发现有个中英对照的中文站点,教程跟官方基本一样,看中文阅读起来更快一些,同时对举得可能翻译不好的地方还可以很方便的查看原文

Angular的httpModule和Observable、Promise辅助类库使用后续还要深入理解

fundamentals部分还没细看,包括angular的模板、指令、路由的深入理解,后续需要再研究

了解了pushstate方式

这种实现地址栏变动但不刷新页面(不发起网络请求)的方式,对一个后端程序员来讲,第一次看到还是很震惊

了解了Typescript语法

typescript可能还需要一个比较系统深入的了解

了解了nodejs、npm包管理

各种语言似乎都有自己的包管理程序:c#又nuget,node又npm,linux有yum,ruby又gem,python有pip

npm安装区分全局安装和目录安装,还分dependency和devDependency,真是乱啊(-g,–save,–save-dev),后续再细研究吧

安装某些npm还需要python的支持,而且截至目前支持python2.7(2017-10-07)

知道原来有个淘宝cnpm镜像源

没有了npm 安装timeout的烦恼

学习了python教程

发现原来以为C# 7.0里牛x的tuple分解等等一些概念,python早就有了。。。

还没学完基础部分啊,还得抓紧继续…

了解到原来python pypi也有很多国内镜像源

比如豆瓣的(https://pypi.douban.com/simple/ ),良心

熟悉使用 vs code

编写angular,typescript,python都在用

内置终端(terminal)加上python的插件,很赞

熟悉了redis客户端通信协议

贴个链接:RESP

分析了StackExchange.Redis的源码

如何实现多路复用(其实就是一个endpoint一个socket)

如何保证同一个链接上返回的消息能够对应到之前发送的命令上(每个物理连接上都有一个队列,FIFO原则对应。。。)

如何实现C# object和 redis协议的互转(这个不好说,只能说写的很好)

如何实现主从自动切换(有OnHeartbeat每隔一秒检测)

Linux环境下部署测试redis主从、哨兵、Cluster(分布式)集群

算是理论之上的一个实践吧,值得

Ruby 安装(这也算…)

ruby还真不是那么好安装,gem安装,zlib编译,openssl编译,老半天才搞定gem installer redis…

顺带也熟悉了一把linux命令和secure CRT的使用

也算跨入了linux的大门~~

连续的vim使用终于算是上手了

助攻linux大门~~

发现一个开源源码解析的网站

正好我也有开展定期解析源码的打算,可以参考参考

基于hexo建立了一个github pages静态博客

搭建起来还是蛮顺利,但是选择一个满意主题,纠结了…

为了hexo源码自托管(不单独建repo来保存hexo源码),hexo在develop分支上,deploy到master分支,后来发现我并不是第一个这么做的(当然不会是~~)

基于travis-CI实现了hexo博客的自动部署

考虑公司家里部署hexo开发环境很麻烦,想到能否实现只要提交就自动发布,懒是第一个生产力啊

了解了.yml协议格式

好像现在很多都是这种格式:travis-CI,appveyor,docker,后续再好好研究研究

发现github有个 personal access token

之前在比特币交易网站上发现的类似api,原来github也有

了解了自动化构建脚本中 敏感信息加密和环境变量的使用场景

.travis.yml保存使用 travis encrypt加密后的github token 加入container环境变量,travis-CI container构建时解密使用,保证了源码中不包含敏感信息,同时又能在自动部署中能执行敏感操作

发现一种 ‘稍后阅读’的app

比如 收趣,我觉得还是很适合我的,可以把各处的文章收集起来,有时间的时候统一消化,整理成笔记存到有道云,或者发布到博客

呀,月报还没写

假期快结束了,发现节前准备开始的月报还没写~~ 是时候开始准备工作了

写在最后,一些想法

了解到coding.net这样一个偏重代码的团队协作网站,之前自己在用worktile

后续考虑建立自己的一套学习和项目开发跟踪的机制,主要包括

  • 灵感记录和孵化(mindly, 幕布, worktile)
  • 项目立项,任务跟踪(worktile, vsonline, coding.net, github)
  • 持续集成(coding.net, vsonline, travis-ci, appveyor)
  • 日常工作和问题处理(worktile)
  • 碎片知识收集(收趣, 有道云)
  • 知识整理(有道云, onenote, gitbook)
  • 知识输出(github-pages, 博客网站)

每一个环节都有多个选项,就容易纠结。或许不需要考虑那么多其实,随便选一个开始干就好了~~

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值