1.python
-
安装包:coda install <package_names>
卸载包:conda remove <package_names>
更新包:conda update <package_names>
模糊查询:conda search -
pip命令:
安装包:pip install <package_names>
卸载包:pip uninstall <package_names> -
conda环境管理:
创建环境:conda crate --name <env_name> <package_names>
激活环境:activate <env_name>
退出环境:deactivate
删除环境:conda remove --name <env_name> --all
查看当前环境系统:conda env list -
列表:list[] 中间可以嵌套,中间元素可以混合,可以同时是字符串,数字,元组,列表。期中的元素可以被修改。
list[::2] 不限制开头和结束以2为步长截取。
list[[],[],…] 多维列表截取:list[-1][2:]:截取高维中最后一个列表的中,从第二个元素开始截取后边部分。元组:tuple() 元素同列表,不同的是元组的元素不能修改,元组写在小括号里。
集合 set{} 期中不显示重复元素
集合的补集:set1^set2 等于两集合的并集-两集合的交集dictionary字典:是一个无序的 { 键(key):值(value) } 对, 同一个字典中,键(key)是唯一的。字典中的元素是通过键来存取的。
列表推导式:创建和操作列表
由一个=表达式以及紧跟着这个表达式的for语句构成,for语句还可以跟0个或者多个 if 或 for 语句。
函数:(自定义函数)
在函数内部使用全局变量时需要用global,出函数时全局变量跟随函数修改:
类:
learncount为共有属性。
读写文件:
异常处理:(try: except:)
库的使用:
x_data和y_data为集合。
绘图模块:plt
帮助:help()、dir()
2.Tensorflow
-
创建会话运行:
(1)关闭:sess.close() #释放内存
(2)自动释放内存:
-
单个数据为标量(零阶张量scalar),一维数组为向量(一阶张量vector),n维度数组为n阶张量tensor。 张量并没有真正保存数字,保存的是计算过程。
-
维度:
最外边有几个括号就是几维,有几维shape里边就有几个数字。shape(4,2,3)代表最外维里有4个元素,第二维里有2个元素,最里维有3个元素。
-
变量:
需要初始化,之后还需要运行sess.run(init)
(常量不需要初始化)
更新变量:update_value=tf.assign(value,new_value) #将 value的值更新为new_value
-
占位符
不等同变量,可以不初始化
-
画图:TensorBoard
启动:
然后会生成日志文件:
生成图:(一般不需要)
画出图:
画图示例:
plt.scatter(x_data,y_data) #画出点集合
plt.plot(x_data,2*x_data+1.0,color="red",linewidth=3) #画出直线或线段
-
损失和误差
-
超参数
-
tf.nn.static_bidirectional_rnn : 创建双向循环神经网络
tf.nn.static_bidirectional_rnn(
cell_fw,
cell_bw,
inputs,
initial_state_fw=None,
initial_state_bw=None,
dtype=None,
sequence_length=None,
scope=None
)
参数说明:
cell_fw:前向神经元,如BasicRNNCell.
cell_bw:反向神经元
input:网络输入,一个长度为T的list,list中的每个Tensor元素shape为[batch_size,input_size]
initial_state_fw:可选参数。前向RNN的初始RNN,必须是合适类型的Tensor以及shape为[batch_size,cell_fw.state_size]。
Initial_state_bw:可选参数。同initial_state_fw。
dtype:初始状态的数据类型。
sequence_length:一个int32/int64的向量,长度为[batch_size],包含每个序列的实际长度。
scope:默认为”bidirectional_rnn
返回:
一个(outputs,output_state_fw,output_state_bw)的元组,其中,outputs是一个长度为T的list,list中的每个元素对应每个时间步的输出,它们是深度级联的前向和反向输出。output_state_fw是前向RNN的最终状态,output_state_bw是反向RNN的最终状态。