2021总结&2022规划


转眼又快年末,正好工作上在搞总结和规划,干脆也趁着思路热乎,提前着手写写今年的个人回顾,虽然准确算还有一个来月。依然按去年的思路( 2020总结 & 2021规划)。

2021总结

开宗明义:做了几个项目,读了一些书,产出了几篇专利/文章(非paper),攒(cuán)了两个小团体,发起了一个读书会,参加了一个科技创新公益比赛,跑了一次半马。

项目

隐去详细信息

读书-技术类

  • 《深度学习》Goodfellow
    第一次完整细致得刷一遍,以前都是当工具书翻。感觉有一个完整细致的Deep Learning技术框架还是挺有帮助的。

  • 《凸优化》Boyed
    一刷,弥补了学校期间没有正经学过优化理论的遗憾。

  • 《深度学习推荐系统》王喆
    一刷。非常推荐ML领域的同学看一看,即便不是推荐算法方向,也值得翻一翻。值得琢磨的东西挺多:业务思维,产品思维,工程思维,技术路线演进历史的梳理,特征交叉思想的进化,模型在线更新的工程化方法,严密的思维细节和叙事逻辑等等。看下来,感觉作者是个精细又务实的人。

  • 《实变函数论和泛函分析》(上下册)夏道行
    对于变分法和泛函分析,好奇了很久,一直想看看。最早是硕士时候,用到VAE做可逆降维和数据生成,变分部分的公式,就似懂非懂;后来,强化学习里面Bellman方程收敛性证明,涉及压缩映射和Banach不动点理论,又是似懂非懂。
    今年有点时间,准备了教材,排入学习列表。起初直接去看下册《泛函分析》,看不懂,又回到上册《实变函数论》补一些基础,这才有感觉。然而,后来发现太耗时间,重要不紧急,就暂时往后排。

  • 《tensorflow 2.0文档》
    看了看新特性,然后继续拥抱keras→_→
    不过TF2.0的有些新特性的确友好又舒适,tensor输出变量直接print就可,再也不用疯狂写sess.run();还有GradientTape(),把自己从手动求梯度的工作中解放了出来,再也不必手撸链式法则,美滋滋。
    PS:手动求梯度血泪史:《凸约束机器学习模型的探索及其可解释性思考》 #4.3.3

读书-非技术类

  • 《乌合之众》
    褒贬不一,但值得辩证批判地看
  • 《遍地风流》
    阿城是个有趣的人
  • 《三体》
    微信读书,太长,断断续续,刚50%
  • 温铁军系列之 《去依附》《告别百年激进》《八次危机》
    没事翻翻,也是断断续续,没有想象的通俗易懂,但挺有内容

产出

两个小团体

  1. 读书会
    常年佛系,信马由缰。偶尔约约稿,也不会催更,就是玩…不打广告,没有链接,有兴趣可以私信单聊。
    内部刊物,一个简报:
    2021No.1
    2021No.2
    2021No.3

  2. 赶鸭(压)队
    组队参加了一个公益性质的科技创新比赛,提交了《压力树洞》项目方案,针对的问题场景如题。队名是一个妹子起的,感觉非常6。
    大概涉及的技术点:

    • 基于NLP的用户画像,
    • 用户画像辅助的好友推荐
    • 用户画像辅助的智能问答定制

半马

四月份,无锡马,快乐~

【汇跑赛事】亲爱的xxx选手,恭喜您完成2021COLMO洗衣机无锡马拉松半程马拉松项目,参赛号Fxxxxx,枪声成绩02:24:31,净成绩02:06:19。该成绩仅供参考,成绩报告预计明日可在官网查询。COLMO洗衣机提醒您:完赛后不要立刻停下步伐,多进行拉伸,让身体各部位肌肉得以放松;尽快补充水分、电解质、碳水化合物和蛋白质,加速恢复;及时更换干燥的保暖衣物,谨防感冒或失温;保持饮食清淡和充足的睡眠。明年春天,我们锡城再见!获取您的参赛照片:https://l2s.us/59RPXc

一点思考

1. 技术上的相通性

随着知识面的不断扩大和深入,越发的感觉到,技术上,尤其是思想和思路上,很多东西是相通的,值得相互借鉴,相互补充。

【1】一个例子,本科学控制论时,里面的PID控制,和数据分析里的ARIMA自回归模型,简直如出一辙…

【2】再一个例子,本科的时候接触CFD,用有限元和数值方法,求解偏微分方程,有(易获取的…)商用软件ICEM、FLUENT等,大量的迭代,讲究多核并行计算; 硕士之后,聚焦做机器学习(ML), 用最大似然、EM、梯度下降等数值方法,求解(条件)概率密度函数,有开源的成熟框架TF、Keras、Torch等,大量的迭代,讲究多GPU/多机并行训练。。。这么一类比,CFD的一些发展历程,或许也能给ML在未来的发展路线,提供一点相似的经验:从粗放到精细,从浮于表面的调包调参,到逐渐深入数学核心的深层理解。

【3】最后一个例子。了解过推荐算法之后,发现之前用强化学习等思路做相关项目时,在实践中摸索出的一些Embedding和特征交叉的经验技巧,在推荐领域里,有些都是普通的常规操作。如果把顺序反一下,先有推荐算法的知识储备,再去用强化学习去做推理和归因分析的项目,没准能少走不少弯路。

另外,因为实际上已经有了强化学习的基础,当看到推荐算法的文章或书目里面,出现关于如何应用强化学习的叙述时,比如DRN,反而感觉作者对DRN的一些使用方式有点简单和草率…实际上,或许有更精巧高效的应用技巧和使用方式。

不过,千金难买早知道,还是要继续学习,一边扩大技术广度,一边增加技术深度。当站在一个更高的维度,或者一个其他的视角时,很多问题或许就变得简单了。

2. 机器学习发展趋势

【1】从感知AI到决策AI。从关心what,到关系how和why。补上了决策AI这一环,从技术到业务的落地链条,感觉更完整了。

【2】关注可解释性。关于可解释性的一些尝试或思路:知识图谱,决策树,注意力机制,隐层可视化,降维思想和流形学习,强化学习和过程性决策等。可解释性AI的发展,让技术落地到业务场景时,更直观,更稳健,更摸得到头脑。

【3】领域知识和学习算法解耦,逐渐打破领域知识的围城。

  • 2012年AlexNet,自动提取图像特征,用于计算机视觉,SIFT等设计精巧的手工特征逐渐黯淡失色,benchmark数量级般提升;
  • 2016年Deep Crossing,自动进行特征组合和特征交叉,用在推荐系统,不需要人工根据经验,设计特征、规则或者阈值;
  • 2017年AlphaZero首次不依赖人类知识,自我学习,在围棋领域,战胜了亲哥哥AlphaGo

当领域知识和学习算法解耦,大量精于ML的算法工程师或专家涌入传统领域,很多新方法、新思路鱼跃而出,助力传统领域逐渐完成数字化/智能化升级,生产力进一步解放。

而作为智能化升级的基础,标准化和平台建设必不可少,包括数据标准化、操作流程标准化等。例如:

  • CV界的产业升级,得益于庞大的视觉数据集,ImageNet,COCO,D2City等;
  • 推荐系统的产业升级,得益于电商的爆发,海量点击/转化数据的快速积累;
  • RL助力长期规划和决策过程,例如AlphaGo等各种游戏机器人,得益于完备高效的交互/环境仿真平台。

也只有在上述基础之上,机器学习的更高层次——深度学习DeepLearning,尤其是深度学习中端到端的思想,才能逐渐发挥出更大的力量,表现出强大、复杂、非线性的拟合、归纳和推理能力。相反地,没有标准和平台,传统行业更容易陷到领域知识的围城中,陷到传统视角和传统方法中,难以突破,停滞不前。

不过,没有绝对的正确和先进,一些业务场景,领域知识依然要发挥不可或缺的作用。以ML强大的归纳拟合能力为主,以领域知识的稳定安全为辅,协调配合,实现强大稳健的系统特性。

3. 团队建设和技术储备

正如上面提及,各种技术发展突飞猛进,待解决的问题也日益复杂,对技术深度和广度的需求都日益增强;同时领域知识和学习算法的解耦,也加快了行业细分。

于是,以团队为基本单位,科学配置,高效协作,合力解决问题的能力,显得更加重要。

相反的,单人时间精力有限,很难面面俱到。而各自为战的小规模手工作坊模式,如果没有科学的合作机制,也很难发挥出应有的力量。

大概夏天还是秋天,有感于昨天今天明天的一些团队问题,煞有介事地画了个图。用RL的话说,从旁观者视角,做了一次异策学习。

异策学习,off-policy,“旁观者”视角,理想中的应对策略在实际中不一定会实施,事件发展或状态转移也不受控于自己;例子:通过看别人下棋,自己逐渐学会下棋。别人下棋好坏,对自己都有所借鉴和提升;
与之相对的是on-policy,同策学习,“当局者”视角。对应的例子:自己下棋,从中试错摸索,逐渐学得更好。

然而,当局者未必迷,旁观者未必清,毕竟资历水平有限,心有余力不足,所以也仅限于想想。尽人事听天命,做好自己的事情就好;至于其他的,自己觉得对,想做就去做。也没准过个五年十年的,再回头看,会想当时想法真是简单,但也是个不错的经历。

2022规划

学习

  • 论文读起来,顶会刷起来,今年看得少了
  • 有些书还没读完,抓紧清理一下手里的书单
  • 心心念念的泛函和变分(看情况)

工作

  • 标准标准标准,规范规范规范。
  • 项目搞起来
  • 学习总结,输入输出

其他

  • 没事跑跑步,重新坚持跑起来
  • 没事练练字,抢救一下一塌糊涂的章法
  • 读书会继续搞,零零散散的思路和素材梳理梳理,免得拖成废稿
  • 入手了一把电子琴,希望明年入个门
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值