tensorflow study HKUST day study notes

Data Flow graph

Nodes in the graph represent mathematical operations
Edge represent the miltidimensional data arrays(tensors) communicated between them.

Tensorflow Hello world!

# Create a constant op
# This op is added as a node to the default graph
hello = tf.constant("Hello,Tensorflow!")

# TF session
sess = tf.Session()

#run the op and get result
print(sess.run(hello))

result b’Hello, Tensorflow!’

Here b’String’ ‘b’ indicates Bytes literals.

Computational Graph

node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0)
node3 = tf.add(node1,node2)

print("node1:",node1,"node2:",node2)
print("node3:",node3)


其中学习的第一个要点就是tf里面的constant函数
tf.constant()函数定义:

  • def constant(value, dtype=None, shape=None, name=“Const”,
    verify_shape=False)
  • value: 符合tf中定义的数据类型的常数值或者常数列表;
    
  • dtype:数据类型,可选;
    
  • shape:常量的形状,可选;
    
  • name:常量的名字,可选;
    

placeholder

import tensorflow as tf
node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0)
node3 = tf.add(node1,node2)

print("node1:",node1,"node2:",node2)
print("node3:",node3)

sess = tf.Session()
print("sess.run(node1,node2):",sess.run([node1,node2]))
print("sess.run(node3):", sess.run(node3))

a = tf.placeholder(tf.float32)
b = tf.placeholder(tf.float32)
adder_node = a + b

print(sess.run(adder_node,feed_dict={a:3,b:4.5}))
print(sess.run(adder_node,feed_dict={a:[1,3],b:[2,4]}))

Remark

still need to learn about tf.Session(), tf.placeholder

Tensor Ranks, Shapes, and Types

3 # a rank 0 tensor; this is a scalar with shape []
[1.,2.,3.] # a rank 1 tensor; this is a vector with shape [3]
[[1.,2.,3.],[4.,5.,6.]] # a rank 2 tensor; a matrix with shape [2,3]
[ [[1.,2.,3.]],[[4.,5.,6.]] ] # 最外面那个里面有2个[[]],然后每一个是一个1*3的矩阵

Rank

一个简单的表格是这么创建的:

RankMath entitypython example
0Scalar
1Vector
2Matrixm=[[1.,2.,3.],[4.,5.,6.]]
3Tensort = [ [[8][9][10]], [ [11],[12],[13]], ]

直接数有几个 “[” 或 “]” 能到达数字

Shape没懂,所以没有列入

Type

常见的有:
tf.float32,tf.float64, tf.int8, tf.int16, tf.int32, tf.int64

Machine Learning Basics

  • Linear regression
  • Logistic Regrssion (Binary classification)
  • Software Classification
  • Neural Networks

Linear regression

其实这个方向,我算是比较熟悉,只会加上一些自己之前不太清楚的英文词汇
Hypothesis
Cost function = 1 m ∑ i = 1 i = m ( H ( x ( i ) ) − y ( i ) ) 2 = \frac{1}{m}\sum_{i=1}^{i=m}(H(x^{(i)})-y^{(i)})^2 =m1i=1i=m(H(x(i))y(i))2
If H ( x ) = W x + b , c o s t ( W , b ) = 1 m ∑ i = 1 i = m ( H ( x ( i ) ) − y ( i ) ) 2 H(x) = Wx+b, cost(W,b)= \frac{1}{m}\sum_{i=1}^{i=m}(H(x^{(i)})-y^{(i)})^2 H(x)=Wx+b,cost(W,b)=m1i=1i=m(H(x(i))y(i))2
If we let b = 0 b=0 b=0, then we have c o s t ( W ) = 1 m ∑ i = 1 i = m ( W x ( i ) − y ( i ) ) 2 cost(W)= \frac{1}{m}\sum_{i=1}^{i=m}(Wx^{(i)}-y^{(i)})^2 cost(W)=m1i=1i=m(Wx(i)y(i))2
The ultimate goal is to minimize the cost function wrt W , b W,b W,b.
Here we may use Gradient descent algorithm(最速下降法)来迭代
W n + 1 = W n − α ∂ ∂ W c o s t ( W n ) W^{n+1}=W^{n}-\alpha\frac{\partial}{\partial W}cost(W^{n}) Wn+1=WnαWcost(Wn)

Logistic/Sigmoid Regression (Binary classification)

Logistic function g ( z ) = 1 1 + e − z g(z) = \frac{1}{1+e^{-z}} g(z)=1+ez1.
Consider the graph of $y=e^{-x}, y1 = 1+y, $
g ′ ( z ) = e − z ( 1 + e − z ) 2 g'(z)=\frac{e^{-z}}{(1+e^{-z})^2} g(z)=(1+ez)2ez

导数非负
靠近 − ∞ -\infty 时,导数趋近于0,函数值趋于0
靠近 ∞ \infty 时,导数趋近于0,函数值趋于1
所以函数单调递增,且斜率先越来越大, 后来又变小
函数图像为‘S’型,像 ∫ \int

Hypothesis function: H ( x ) = s i g m o i d ( X W ) = 1 1 + e − X W H(x) = sigmoid(XW) = \frac{1}{1+e^{-XW}} H(x)=sigmoid(XW)=1+eXW1
Cost function: c o s t ( W ) = − 1 m ∑ y log ⁡ ( H ( x ) ) + ( 1 − y ) ( l o g ( 1 − H ( x ) ) ) cost(W) = -\frac{1}{m}\sum y\log(H(x))+(1-y)(log(1-H(x))) cost(W)=m1ylog(H(x))+(1y)(log(1H(x)))
iterative step: W : = W − α ∂ ∂ W c o s t ( W ) W:=W-\alpha\frac{\partial}{\partial W}cost(W) W:=WαWcost(W)

Softmax Classification

multiple labels ( a , b , c ) (a,b,c) (a,b,c)
W X + b = ( a , b , c ) WX+b=(a,b,c) WX+b=(a,b,c)
Need to learn the knowlege before process to tensorflow

Neural Networks

input layer → \rightarrow hidden layer 1 → \rightarrow hidden layer 2 ⋯ → \dots\rightarrow output layer
这个地方也需要去学习一下理论知识

看了这个讲义,发现它需要比较多的背景知识,然后省略掉比较重要的东西数学知识。可以这个速成的是面对有很好的当初的人。

接下来的任务

  • 学习logistic function, softmax classification, neural networks背后的数学原理,cost function设置的原因
  • 然后我记得大概数学模型的课本上是有相关知识的,希望找到一个比较深点的讲义,一次搞清楚,不要多次学习了。
  • 复习一下python
  • 研究那个程序
  • 持续更新
  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目Value
电脑$1600
手机$12
导管$1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列第二列第三列
第一列文本居中第二列文本居右第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPEASCIIHTML
Single backticks'Isn't this fun?'‘Isn’t this fun?’
Quotes"Isn't this fun?"“Isn’t this fun?”
Dashes-- is en-dash, --- is em-dash– is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to- HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN 是通过欧拉积分

Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t   . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=0tz1etdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06 Mon 13 Mon 20 已完成 进行中 计划一 计划二 现有任务 Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图::

张三 李四 王五 你好!李四, 最近怎么样? 你最近怎么样,王五? 我很好,谢谢! 我很好,谢谢! 李四想了很长时间, 文字太长了 不适合放在一行. 打量着王五... 很好... 王五, 你怎么样? 张三 李四 王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.2.0 开始 我的操作 确认? 结束 yes no
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件或者.html文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值