![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
读书笔记
文章平均质量分 92
电影旅行敲代码
垃圾文章制造者
展开
-
[Computer Architecture读书笔记] H.2 Detecting and Enhancing Loop-Level Parallelism
H.1 Introduction: Exploiting Instruction-Level Parallelism Statically附录H对C3.2进行了更详细的介绍,首先提出了四个技术要点finding parallelismreducing controlreducing data dependencesusing speculation相比于runtime,cpu为了提升ILP所做的工作,they can take into account a wider range of th原创 2021-11-28 20:48:32 · 833 阅读 · 0 评论 -
[Computer Architecture读书笔记] 3.2 Basic Compiler Techniques for Exposing ILP
垃圾内容,读书笔记,勿看本书重在Computer Architecture,所以对compiler optimization没有做重点介绍,本章节算是对一些compiler optimization进行了科普。理解本章节,可以按照“计算机体系结构就是trade-off”这个主旨进行。囿于现实因素,存在很多限制,而编译优化就是在夹缝中就生存,在诸多条条框框中求得一个近优解。3.2 Basic Compiler Techniques for Exposing ILP类似于图灵机,由于现实的束缚,不可能存在原创 2021-11-28 13:42:56 · 335 阅读 · 0 评论 -
工作三年半记
我的技术路线我的跳槽我从章磊,赵扶摇,李崇哲,丁孟为身上学到的从leader张伟身上学到的从蛙总身上学到的从梁广泰身上学到的我自己的职业经历从我女朋友,从蒋队身上学到的覃超 - 新人在公司打游戏思路前期闷头刷兵,不要浪,不要骚,把安排的任务做好就可以了。 中期打团战 后期抗伤害,主力输出。摒弃学生思维Proactive 主动...原创 2021-02-21 20:43:58 · 1377 阅读 · 7 评论 -
#64 Abstract Interpretation: Introduction & #66 Galois Connections - 课程笔记
业余民科,阅读笔记,拾人牙慧前置知识Operational semanticsTAPLOpertional semantics specifies the behavior of a programming language by defining a simple abstract machine for it. This machine is “abstract” in the se...原创 2019-12-22 19:50:38 · 826 阅读 · 0 评论 -
Python深度学习:基于TensorFlow - 第9章 TensorFlow基础 阅读笔记
这一章首先介绍了TensorFlow的整体架构图,给出一个大体的认识。We designed TensorFlow for large-scale distributed training and inference, but it is also flexible enough to support experimentation with new machine learning mode...原创 2019-12-19 16:09:24 · 362 阅读 · 0 评论 -
Python深度学习 - 基于TensorFlow:线性代数阅读笔记
垃圾内容,勿读想要了解线性代数本质,请翻墙看3Blue1Brown的视频3Blue1Brown 线性代数本质这一系列的章节安排如下图所示:Linear transformations and matrices这个视频首先介绍了线性变换的几个要点,然后以视频的形式介绍一个二阶矩阵如何在二维坐标系中承担起转换的角色。Linear transformation有两个属性需要保持:all...原创 2019-12-17 16:18:13 · 600 阅读 · 0 评论 -
Python深度学习 基于Tensorflow: Theano基础 读书笔记
未来补充逻辑回归实例拟合函数f(x)=11+ex∗w−bf(x) = \frac{1}{1 + e^{x * w - b}}f(x)=1+ex∗w−b1代价函数xent(w,b)=−y∗log(f(x))−(1−y)∗log(1−f(x))xent(w, b) = -y * log(f(x)) - (1 - y) * log(1 - f(x))xent(w,b)=−y∗log(f(x)...原创 2019-12-05 14:38:01 · 260 阅读 · 0 评论 -
深度学习的数学:深度学习和卷积神经网络 读书笔记
BP神经网络的问题https://www.cnblogs.com/subconscious/p/5058741.html神经网络与拓扑摘抄于Neural Networks, Manifolds, and Topology,用于记录。针对神经网络想要解决的问题,我们可以把神经网络看做线性可分的问题,https://zhuanlan.zhihu.com/p/22888385http://c...原创 2019-12-03 16:15:55 · 260 阅读 · 0 评论 -
深度学习的数学:反向传播算法
业余民科学习者阅读笔记,垃圾内容代价函数最小值回顾在《深度学习的数学:神经网络的数学基础 - 阅读笔记》中提到了,如果要求模型的参数Arg0, Arg1, ..., ArgnArg_0,\ Arg_1,\ ...,\ Arg_nArg0, Arg1, ..., Argn。给定一组打了标签的数据<input1, t...原创 2019-11-26 18:53:34 · 549 阅读 · 0 评论 -
Engineering a Compiler: 5.1/5.2 Graphical IRs
业余民科学习者阅读笔记,垃圾内容在《PLP: 4.2/4.3 Attribute Gramma阅读笔记3》中提到AST在整个编译过程中并不是必须的,同理IR也并不是必须的(AST本来就是IR的一种)。源码被compiler部分模块处理后得到IR,IR以另外一种形式保存了源码的内容,有时可能需要symbol table或者其它数据结构辅助。IR作为抽象出来的一个layer,主要目的是进行targe...原创 2019-11-19 15:46:41 · 431 阅读 · 3 评论 -
PLP: 4.2/4.3 Attribute Gramma阅读笔记3
构造AST在compiler中是否是一个必不可少的步骤? 由于attribute grammar和one-pass compiler或者说语法制导翻译(syntax-directed translation,SDT)联系很紧密,所以attribute grammar和这个问题有存在间接的的关系。答案是否,构造AST并不是一个必要的步骤(可以思考构造AST的目的是什么),甚至在计算机资源极其有限的...原创 2019-11-15 17:20:28 · 629 阅读 · 0 评论 -
深度学习的数学:神经网络的数学基础 - 阅读笔记
业余民科学习者阅读笔记,垃圾内容simoid函数早期神经网络使用sigmoidsigmoidsigmoid函数作为神经元的激活函数,它有如下的形式。σ(x)=11+e−x\sigma(x)=\frac{1}{1+e^{-x}}σ(x)=1+e−x1现在我还没有足够的知识理解为什么使用sigmoidsigmoidsigmoid函数作为神经网络的激活函数,大家众说纷纭,没有足够有说服力的答案...原创 2019-11-18 18:30:02 · 828 阅读 · 0 评论