Tensorflow笔记-

1.python
  • 安装包:coda install <package_names>
    卸载包:conda remove <package_names>
    更新包:conda update <package_names>
    模糊查询:conda search

  • pip命令:
    安装包:pip install <package_names>
    卸载包:pip uninstall <package_names>

  • conda环境管理:
    创建环境:conda crate --name <env_name> <package_names>
    激活环境:activate <env_name>
    退出环境:deactivate
    删除环境:conda remove --name <env_name> --all
    查看当前环境系统:conda env list

  • 列表:list[] 中间可以嵌套,中间元素可以混合,可以同时是字符串,数字,元组,列表。期中的元素可以被修改。
    list[::2] 不限制开头和结束以2为步长截取。
    list[[],[],…] 多维列表截取:list[-1][2:]:截取高维中最后一个列表的中,从第二个元素开始截取后边部分。

    元组:tuple() 元素同列表,不同的是元组的元素不能修改,元组写在小括号里。

    集合 set{} 期中不显示重复元素
    集合的补集:set1^set2 等于两集合的并集-两集合的交集

    dictionary字典:是一个无序的 { 键(key):值(value) } 对, 同一个字典中,键(key)是唯一的。字典中的元素是通过键来存取的。

    列表推导式:创建和操作列表
    由一个=表达式以及紧跟着这个表达式的for语句构成,for语句还可以跟0个或者多个 if 或 for 语句。

    函数:(自定义函数)

    在函数内部使用全局变量时需要用global,出函数时全局变量跟随函数修改:

    类:
    learncount为共有属性。
    读写文件:

    异常处理:(try: except:)

    库的使用:
    x_data和y_data为集合。
    绘图模块:plt

    帮助:help()、dir()

2.Tensorflow
  • 创建会话运行:
    (1)关闭:sess.close() #释放内存
    在这里插入图片描述
    (2)自动释放内存:

  • 单个数据为标量(零阶张量scalar),一维数组为向量(一阶张量vector),n维度数组为n阶张量tensor。 张量并没有真正保存数字,保存的是计算过程。

  • 维度:
    最外边有几个括号就是几维,有几维shape里边就有几个数字。shape(4,2,3)代表最外维里有4个元素,第二维里有2个元素,最里维有3个元素。

  • 变量:
    需要初始化,之后还需要运行sess.run(init)
    (常量不需要初始化)
    更新变量:update_value=tf.assign(value,new_value) #将 value的值更新为new_value
    在这里插入图片描述

  • 占位符
    不等同变量,可以不初始化


    在这里插入图片描述

  • 画图:TensorBoard
    启动:
    在这里插入图片描述然后会生成日志文件:
    在这里插入图片描述
    生成图:(一般不需要)
    在这里插入图片描述
    画出图:
    在这里插入图片描述
    画图示例:

plt.scatter(x_data,y_data)  #画出点集合
plt.plot(x_data,2*x_data+1.0,color="red",linewidth=3)   #画出直线或线段
  • 损失和误差 在这里插入图片描述

  • 超参数
    在这里插入图片描述

  • tf.nn.static_bidirectional_rnn : 创建双向循环神经网络
    tf.nn.static_bidirectional_rnn(
    cell_fw,
    cell_bw,
    inputs,
    initial_state_fw=None,
    initial_state_bw=None,
    dtype=None,
    sequence_length=None,
    scope=None
    )
    参数说明:
    cell_fw:前向神经元,如BasicRNNCell.
    cell_bw:反向神经元
    input:网络输入,一个长度为T的list,list中的每个Tensor元素shape为[batch_size,input_size]
    initial_state_fw:可选参数。前向RNN的初始RNN,必须是合适类型的Tensor以及shape为[batch_size,cell_fw.state_size]。
    Initial_state_bw:可选参数。同initial_state_fw。
    dtype:初始状态的数据类型。
    sequence_length:一个int32/int64的向量,长度为[batch_size],包含每个序列的实际长度。
    scope:默认为”bidirectional_rnn
    返回:

一个(outputs,output_state_fw,output_state_bw)的元组,其中,outputs是一个长度为T的list,list中的每个元素对应每个时间步的输出,它们是深度级联的前向和反向输出。output_state_fw是前向RNN的最终状态,output_state_bw是反向RNN的最终状态。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值