自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(70)
  • 收藏
  • 关注

原创 栈和队列的区别

①栈就是一个桶,后放进去的先拿出来,它下面本来有的东西要等它出来之后才能出来(后进先出)②队列只能在队头做删除操作,在队尾做插入操作。而栈只能在栈顶做插入和删除操作(先进先出)...

2020-09-22 19:38:45 331 1

原创 遍历顺序-数据结构

前序遍历中序遍历后序遍历

2020-09-22 19:36:53 287

原创 Java小知识--length,length(),size()方法详细介绍

用length属性取得数组长度用length()方法取得z字符串长度用size()方法获取数组元素个数

2020-09-21 17:03:10 293

原创 报错解决 Tensorflow: ‘module‘ object has no attribute ‘FixedLenFeature‘

版本不兼容 tf.FixedLenFeature 写成 tf.io.FixedLenFeature.完美解决

2020-09-14 15:41:12 2383

原创 解决报错 AttributeError: module ‘tensorflow‘ has no attribute ‘gfile‘

Tensorflow 2.0在10月1号已经正式发布,也早就支持Python 3.7 了,tf.gfile 也改成 tf.io.gfile了.解决方案:graph = tf.Graph()#替换成tf.compat.v1graph_def = tf.compat.v1.GraphDef() #或者在import中替换import tensorflow.compat.v1 as tftf.disable_v2_behavior() #其余替换tf.compat.v1.GraphDef()

2020-09-14 09:45:54 3474

原创 TensorFlow报错:AttributeError: module ‘tensorflow_core._api.v2.train‘ has no attribute ‘Optimizer‘

TensorFlow报错:AttributeError: module ‘tensorflow_core._api.v2.train’ has no attribute 'Optimizer‘原因:TensorFlow版本更新到2.0,Optimizer方法调用方式改变 。将tf.train.Optimizer,更改为tf.optimizers.Optimizer。

2020-09-14 09:33:27 2095

原创 解决报错:AttributeError: module ‘tensorflow‘ has no attribute ‘logging‘

在tensorflow 2.1下跑训练网络,报错:AttributeError: module ‘tensorflow’ has no attribute ‘logging’这个是因为tensorflow2.1已经没有tf.logging了,解决方法如下:将tf.logging替换成tf.compat.v1.logging。

2020-09-14 09:29:25 6092

原创 选择排序

思路:开始时,将待排序数组的中第二个数,定为key,将key与第一个数进行比较,。如果key小于前面的数,就将key插到第一个数之前。1、待排序数组中的第一个数认为是已经被排好序的数字。2、取出排好序的序列中的下一个数字key,在已经排好序的序列中,从后往前依次扫描。3、如果key小于已经排好序的序列中的数字,则将key与改数字进行交换位置。4、依次扫描,进行...

2020-08-24 16:19:29 103

原创 回文数java-力扣

判断一个整数是否是回文数。回文数是指正序(从左向右)和倒序(从右向左)读都是一样的整数。秋招许愿判断回文:假如数字是1221和12321,数字位数不相同。判断回文,首先知道 负数 以及尾数为0的数不可能是回文。例子:-212, 210。即可以知道,假如输入的数字为 xif(x<0 || (x%10)==0) return false;那么在排除掉不可能是回文的情况下,就要判断,当回文位数为奇数或者是偶数时。出现的情况。要判断回文,就要将倒序数字与原数字进行比较,倒序数字假设

2020-08-23 16:28:50 254

原创 选择排序

选择排序的思想是,从待排序的十个数中,按照从小到大的顺序,进行排列。在这个过程当中,我们可以将十个数 主观 上认为是两部分,前半部分是已经排好的数字,后半部分是没有排序的数字。假设输入十个数字:十个待排序的数字 8、9、2、1、5、8、4、4、3、5在首次排序时,先将第一个数字8,同后面九个数字进行比较,选择出最小的数字1,将其放到第一个位置上。 1、9、2、8、5、8、4、4、3、5之后,将第二个数字9与剩下未排序的数字进行比较,选择出最小的数字2,将其放入第二个位置上。 1、2、

2020-08-21 21:28:48 175

原创 ListNode list=new ListNode() 、 ListNode list=new ListNode(0) 与 ListNode list=null 的区别

ListNode list=new ListNode() 初始化一个空节点,无值,不提倡此种写法。ListNode list=new ListNode(0) 初始化一个节点值为0的空节点,最常用最正规写法ListNode list=null 为空,什么都没有,一般不这么写;

2020-08-20 20:00:43 1917 6

原创 冒泡排序

冒泡排序:算法思想:每一轮的大小比较中,选出最大的数往最后放。我们可以这样理解,假设现有10个数要进行排序,10个数要两两比较9次,那么假设有n个数,轮数就是n-1。

2020-08-20 19:39:09 125

原创 L=(Linklist)malloc(sizeof(Node))含义

sizeof函数计算数据(包bai括数组、变量、du类型、结构体等)所占内存空间,用zhi字节数表示。malloc函数用于在内存开辟了一段地址,而这段地址的首地址存在返回的那个指针变量里,由于不知道到底这段地址有多长,可以存什么变量,所以它的类型是空的,你可以强制类型转换,使其变成确定长度,固定存放一种数据类型的地址,而不管它是哪种类型,其首地址还是原来那个,还是存在一个指针变量中,指针变量就是放指针的嘛,指针是一个地址,指针变量是一个我们定义的,用来放那个地址的变量。那么代码的意思就是说获取Node

2020-08-16 20:38:16 13494 3

原创 java实现 两数之和 leetcode

leetcode 力扣 刷题第一天 为秋招许愿题目:给定一个整数数组 nums 和一个目标值 target,请你在该数组中找出和为目标值的那 两个 整数,并返回他们的数组下标。你可以假设每种输入只会对应一个答案。但是,数组中同一个元素不能使用两遍。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [0, 1]代码:class Solution { public int[] t

2020-08-15 20:45:50 200

原创 秋招插眼

https://github.com/CyC2018/CS-Notes

2020-08-11 08:49:10 97

原创 获取预训练bert模型中所有的训练参数

# 获取模型中所有的训练参数。tvars = tf.trainable_variables()# 加载BERT模型(assignment_map, initialized_variable_names) = modeling.get_assignment_map_from_checkpoint(tvars, pm.init_checkpoint)tf.train.init_from_checkpoint(pm.init_checkpoint, assignment_map)tf.logging

2020-07-22 21:18:42 1111 3

原创 BERT添加分类层-softmax

分类:with tf.variable_scope('fully_connected'): output = embedding_inputs[:, 0, :] output = tf.layers.dropout(output, keep_pro) final_out = tf.layers.dense(output, pm.num_classes) score = tf.nn.softmax(final_out) predict = tf.argmax(scor

2020-07-22 21:16:56 3037

原创 python 判断两个列表中相同和不同的元素

#接口返回值 list1 = ['张三', '李四', '王五', '老二'] #数据库返回值 list2 = ['张三', '李四', '老二', '王七'] a = [x for x in list1 if x in list2] #两个列表中都存在 b = [y for y in (list1 + list2) if y not in a] #两个列表中的不同元素 print('a的值为:',a) print('b的值为:',b) c = [x for x i

2020-07-07 16:30:42 842

转载 BERT源码注释(run_classifier.py) - 全网最详细-【转载】

抱着学习的心态,来转载这篇博客,如有侵犯,请联系删除原文链接:链接点这里# coding=utf-8# bert注解版# raw author: Google# explain author:putdoor"""BERT finetuning runner."""from __future__ import absolute_importfrom __future__ import divisionfrom __future__ import print_functionimpor

2020-07-01 21:01:16 703

原创 tensorflow 中tf.strided_slice和tf.slice的区别

函数:tf.slice(inputs, begin, size, name)作用:从列表、数组、张量等对象中抽取一部分数据begin和size是两个多维列表,他们共同决定了要抽取的数据的开始和结束位置begin表示从inputs的哪几个维度上的哪个元素开始抽取size表示在inputs的各个维度上抽取的元素个数import tensorflow as tf import numpy as np x=[[1,2,3],[4,5,6]] with tf.Session() as s

2020-07-01 16:46:31 393

原创 np.dot()、np.multiply()、tf.matmul()、tf.multiply()

np.dot()、np.multiply()、tf.matmul()、tf.multiply()import tensorflow as tfimport numpy as npx1 = ([[1, 2, 3], [1, 2, 3], [1, 2, 3]])x2 = ([[2, 1, 1], [2, 1, 1], [2, 1, 1]])y1 = np.dot(x1, x2)y2 = np.multiply(x1, x2)print('1、np.dot\n', y1)print('2、np.

2020-06-30 16:48:08 184

原创 BERT生成句向量bert-as-server

方法一:直接生成词向量其中extract_features.py文件为bert句向量生成文件:方法二:三行代码直接生成句子向量使用方式bert-as-service的总体架构如下:1、bert模型部署,是为服务端2、bert请求调用服务,是为客户端使用方式如下:1、环境准备pip install bert-serving-server pip install bert-serving-client 2、预训练的模型下载前往https://github.com/google-re

2020-06-21 17:07:24 1698 1

原创 tf.nn.log_softmax与tf.nn.softmax的关系

tf.nn.softmax官方连接tf.nn.softmax( logits, axis=None, name=None, dim=None)作用:softmax函数的作用就是归一化。输入: 全连接层(往往是模型的最后一层)的值,一般代码中叫做logits输出: 归一化的值,含义是属于该位置的概率,一般代码叫做probs。例如输入[0.4,0.1,0.2,0.3],那么这个样本最可能属于第0个位置,也就是第0类。这是由于logits的维度大小就设定的是任务的类别,

2020-06-19 22:22:57 2222 1

原创 tf.matmul函数用法

tf.matmul函数用法函数:tf.matmul表示:将矩阵 a 乘以矩阵 b,生成a * bmatmul( a, b, transpose_a=False, transpose_b=False, adjoint_a=False, adjoint_b=False, a_is_sparse=False, b_is_sparse=False, name=None)# 2-D tensor `a`a = tf.constant

2020-06-19 20:22:53 39681 1

原创 RNN循环神经网络相关知识

循环神经网络是啥循环神经网络种类繁多,我们先从最简单的基本循环神经网络开始吧。基本循环神经网络下图是一个简单的循环神经网络如,它由输入层、一个隐藏层和一个输出层组成:纳尼?!相信第一次看到这个玩意的读者内心和我一样是崩溃的。因为循环神经网络实在是太难画出来了,网上所有大神们都不得不用了这种抽象艺术手法。不过,静下心来仔细看看的话,其实也是很好理解的。如果把上面有W的那个带箭头的圈去掉,它...

2020-02-13 18:59:07 323

原创 深度学习入门文章

https://blog.csdn.net/wuqilianga/article/details/77837978

2020-02-11 18:43:30 156

原创 深度学习入门(1)-手撕感知器

新型冠状病毒的出现,开学延迟。正好借这个机会在家有时间学一些东西,手撕了一遍代码,借鉴大佬的思想,学习膜拜。重要的事情说三遍,这是拿过来的学习的,如有侵权,联系我删除!!!在开始之前,你首先需要知道map(),lambda(),raduce()函数,基础知识,不懂得话看我得文章深度学习是啥在人工智能领域,有一个方法叫机器学习。在机器学习这个方法里,有一类算法叫神经网络。神经网络如下图所示:...

2020-02-11 18:41:06 190

原创 python 中 reduce 函数的使用

reduce()函数也是Python内置的一个高阶函数。reduce()函数接收的参数和 map()类似,一个函数 f,一个list,但行为和 map()不同,reduce()传入的函数 f 必须接收两个参数,reduce()对list的每个元素反复调用函数f,并返回最终结果值。例如,编写一个f函数,接收x和y,返回x和y的和:def f(x, y): return x + y调...

2020-02-11 17:18:37 211

原创 Python map()函数的用法

map()函数map()是 Python 内置的高阶函数,它接收一个函数 f 和一个 list,并通过把函数 f 依次作用在 list 的每个元素上,得到一个新的 list 并返回。1、当seq只有一个时,将函数func作用于这个seq的每个元素上,并得到一个新的seq。例如,对于list [1, 2, 3, 4, 5, 6, 7, 8, 9]如果希望把list的每个元素都作平方,就可以...

2020-02-11 16:55:23 526

原创 python中的lambda函数用法

lambda匿名函数的格式:冒号前是参数,可以有多个,用逗号隔开,冒号右边的为表达式。其实lambda返回值是一个函数的地址,也就是函数对象。lambda 函数可以接收任意多个参数 (包括可选参数) 并且返回单个表达式的值。a=lambda x:x*xprint(a)print(a(3))----><function <lambda> at 0x00000000...

2020-02-11 16:38:01 1008

原创 [转载]Macropodus自然语言处理(NLP)工具包(Albert+BiLSTM+CRF)

【转载】今天上午浏览了一篇文章,觉得很好,趁热膜拜一下。一、简介Macropodus自然语言处理工具(Albert+BiLSTM+CRF) 中文分词 命名实体识别 新词发现 关键词 文本摘要 计算器 中文数字阿拉伯数字转换。Macropodus是一个以Albert+BiLSTM+CRF网络结构为基础,用大规模中文语料训练的自然语言处理工具包。将提供中文分词、命名实体识别、关键词抽取、文本摘要...

2020-02-03 14:06:57 413

原创 embedding学习记录2

要搞清楚embeding先要弄明白他和one hot encoding的区别,以及他解决了什么one hot encoding不能解决的问题。One hot representation程序中编码单词的一个方法是one hot encoding。实例:有1000个词汇量。排在第一个位置的代表英语中的冠词"a",那么这个"a"是用[1,0,0,0,0,…],只有第一个位置是1,其余位置都是0的...

2020-01-31 20:06:49 134

转载 Embedding一下看清楚

原因就是你没找到合适的教程。如果这篇你看不明白,关了,下一篇。embedding层有什么用首先,embedding是为了处理文字的理解。让机器能够理解一句话的意思: 灰白灰会挥发。一句话,6个字。但是只有五种 白,灰,会,挥,发。编码我们需要将汉字表达成网络认识的数字,比如我用整数表达。白:2灰:1会:3挥:4发:5句子就可以写成121345。我用3维的01向量也能表达白...

2020-01-31 17:29:21 345 1

原创 tf.name_scope()、tf.variable_scope()的学习

遇到TensorFlow变量作用域问题,对**tf.name_scope()、tf.variable_scope()**等进行学习。tf.name_scope()、tf.variable_scope()是两个作用域函数,一般与两个创建(调用)变量的函数tf.variable()和tf.get_variable()搭配使用。主要用于变量共享:1、name_scope和variable_scop...

2020-01-31 17:15:01 111

原创 tf.get_variable函数的认识

tf.get_variable(name, shape, initializer): name就是变量的名称,shape是变量的维度,initializer是变量初始化的方式,初始化的方式有以下几种:tf.constant_initializer:常量初始化函数tf.random_normal_initializer:正态分布tf.truncated_normal_initializer:...

2020-01-31 16:15:33 301

原创 TF中的Embedding操作

1、什么是embedding简单的说就是将一个特征转换为一个向量。我们经常会遇到一些离散特征,我们一般的做法是将其转换为one-hot,但对于itemid这种离散特征,转换成one-hot之后维度非常高,但里面只有一个是1,其余都为0。这种情况下,我们的通常做法就是将其转换为embedding。embedding的过程是什么样子的呢?它其实就是一层全连接的神经网络,如下图所示:假设一个特征...

2020-01-31 15:27:06 1009

原创 BERT主体模型modeling.py学习记录

```python1、配置class BertConfig(object): """Configuration for `BertModel`.""" def __init__(self, vocab_size, hidden_size=768, num_hidden_layers=12,...

2020-01-30 20:59:27 327

原创 bert模型数据各个特征的含义

features["input_ids"] :每个中文字对应的词库idfeatures["input_mask"] : The mask has 1 for real tokens and 0 for padding tokens. Only real tokens are attended to.features["segment_ids"] : 句子标记的id(表明属于哪一个句子)f...

2020-01-30 18:58:21 1905

原创 Python enumerate() 函数

enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出数据和数据下标,一般用在 for 循环当中。以下是 enumerate() 方法的语法:enumerate(sequence, [start=0])参数sequence – 一个序列、迭代器或其他支持迭代对象。start – 下标起始位置。返回值返回 enumerate(枚举) ...

2020-01-29 11:07:25 97

原创 python类中初始化形式:def __init__(self)和def __init__(self, 参数1,参数2,···,参数n)区别

我在学习python过程中,看不懂别人代码,上网查阅发现一些资料,咱们先看代码。代码是最明显的。class Student: def __init__(self):#两者之间的区别 self.name = None self.score = None def __init__(self, name, score): self.nam...

2020-01-29 10:45:36 3644

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除