![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 53
learn-to-live
这个作者很懒,什么都没留下…
展开
-
Tensorflow2调用hugging face
tf2调用hugging face 模型库原创 2022-02-24 11:52:14 · 1024 阅读 · 1 评论 -
triton 模型部署
Triton Inference server是Nvidia开源的模型部署服务的框架。源码地址:https://github.com/triton-inference-server用来加速GPU推理。triton支持tensorrt,tensorflow,pytorch等模型后端。部署流程:1.docker拉镜像docker pull nvcr.io/nvidia/tritonserver:<xx.yy>-py3xx.yy对应你想要的版本,我的是21.072.构原创 2021-08-12 14:00:29 · 3127 阅读 · 0 评论 -
深度优先搜索(DFS)
与bfs类似,也是一种图搜索算法,和bfs略有区别,主要是搜索的方式不同。主要是利用栈的方式。算法流程如下:1.创建栈2.将开始节点入栈。3.按照条件,搜索下一个节点,将满足条件的节点加入栈。重复3.直到满足终止条件。与bfs不同,dfs经常使用递归的方式去搜索。以迷宫搜索路径为例。采用非递归的方式,即在搜索时,用栈来保存结果。maze = [ [1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [1, 0, 0, 1, 0, 0, 0, 1,原创 2021-06-28 14:10:07 · 52 阅读 · 0 评论 -
pytorch 中的torch.nn.LSTM函数
LSTM是RNN的一种变体主要包括以下几个参数:input_size:输入的input中的参数维度,即文本中的embedding_dimhidden_size:隐藏层的维度num_layers:LSTM的层数,一般为2-3层,默认为1bias:是否使用偏置向,默认为Truebatch_first:是否输入的input第一个为batch_size,pytorch默认False,即输入的input的三维张量是seq_len放在第一个dropout:是否丢弃部分神经元,默认为0bidirectio原创 2021-03-22 17:28:06 · 568 阅读 · 0 评论 -
手把手教你解读Bert结构及代码分析
Bert是基于transformer 的Encoder作为特征提取器的一个预训练模型。首先来看Transformer结构图.transformer一开始是用来做机器翻译的模型。所以他是一个传统的Seq2Seq结构,包括一个Encoder和Decoder。而Bert只用到了Encoder的部分,及下图所示。包含N个相同的transformer-Encoder。每一个transfromer-Encoder包含两个子模块:Multi-Head-Attention和Feed-Forward原创 2021-03-12 15:03:21 · 677 阅读 · 0 评论 -
Doc2vec
Doc2Vec 是基于Word2Vec的思想。只是巧妙的加了一个paragraph id 以此来表示整个文档的向量分布。假设一篇文章共有N个段落,M个词汇。然后预测时采用给定一个paragraph id 预测该paragraph 下的一些词。...原创 2021-02-24 14:48:39 · 304 阅读 · 1 评论