本周的学习有:
1、继续学习Web前端知识。并且结合 本学期的前端课 做了相关网页实践和完善。
2、由于自然语言处理课程要求安装并搭建 jieba 和 hanlp 。本周先弄 jieba
3、小部分时间学习深度学习相关的内容。
Web:
本周的Web实践是模仿设计 讯飞开放平台注册 的页面,目前细节仍需完善:
- 部分html代码:
- 对应的css文件代码块:
- 实践生成的 网页
jieba
jieba库的主要方法有如下3种:
1.jieba.lcut(s) 精确模式,返回一个列表类型的分词结果
- 代码实践
2.jieba.lcut(s,cut_all=True)全模式,返回一个列表类型的分词结果,存在冗余。
-
代码实践
3.jieba.lcut_for_search(s)搜索引擎模式。
-
代码实践
深度学习之TensorFlow:
第一节
- TensorFlow 是一个开源的机器学习的框架,我们可以使用 TensorFlow 来快速地构建神经网络,同时快捷地进行网络的训练、评估与保存。也正是因为 TensorFlow 是一个开源的软件库,因此只要我们安装了 TensorFlow,我们就可以使用import 的方式来引入。
- 简单来说, TensorFlow 的核心理念包括计算图与张量(Tensor)。
计算图
- 在 TensorFlow 中,我们首先构建模型,TensorFLow会根据我们的模型来构建一个计算图,然后TensorFLow 会在该计算图中进行相应的运算、迭代与求梯度等操作,从而得到我们最终想要的结果。
张量
张量(Tensor)就是 TensorFlow 的名字的由来之一,TensorFLow 顾名思义就是张量流动的意思,由此可见张量为 TensorFlow 的最核心的概念之一。张量在TensorFLow之中以数组的形式存储。张量的主要组成要素包括:
- 名称(name);
- 形状(shape);
- 类型(dtype)。
简单的理解,我们可以将张量看作多维数组。在 TensorFLow 之中我们可以很轻松的构建一个张量,比如以下代码:
x = tf.ones((64, 28, 28, 3))
由此我们构建了一个思维张量,他的第一维是 64 个维度,第二维与第三维都是 28 个维度,第四维是3 个维度。
在TensorFlow之中我们一般将第一维数据作为批大小来处理(Batch_Size),也就是一批数据中含有多少个样本子数据。更一般的,在不确定批大小的情况下,我们直接将第一维设置为 None,比如:
x = tf.ones((None, 28 ,28, 3))