![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 81
永胜永胜
nlp工程师
展开
-
gpu开发环境详解
centos配置gpu开发环境原创 2023-01-16 09:51:29 · 1366 阅读 · 0 评论 -
语音转文本二
点击应用,进入详情页,可获取APPID、APISecret、APIKey。点击控制台,创建新应用。原创 2022-10-18 09:50:22 · 1902 阅读 · 2 评论 -
语音转文本一
linux 版本:http://www.ffmpeg.org/download.html#build-linux linux 静态编译版本:https://www.johnvansickle.com/ffmpeg/ windows 版本 :http://ffmpeg.org/download.html#build-windows。输出 amr-wb 格式,采样率 16000。以16000采样率 16bits 编码的pcm文件为例,每个16bits(=2bytes)记录了 1/16000s的音频数据。原创 2022-10-13 17:46:51 · 3726 阅读 · 1 评论 -
fasttext原理及代码实践
#!/usr/bin/env python# -*- coding: utf-8 -*-# author ChenYongSheng# date 20201222import pandas as pdimport jieba'''数据预处理'''df = pd.read_csv('data/8qi/xx.csv', header=0)stopwords = [line.strip() for line in open('data/all/stopwords.txt', encoding原创 2020-12-23 09:47:33 · 1861 阅读 · 9 评论 -
fastbert介绍及代码实践
模型结构FastBERT的创新点很容易理解,就是在每层Transformer后都去预测样本标签,如果某样本预测结果的置信度很高,就不用继续计算了。论文把这个逻辑称为样本自适应机制(Sample-wise adaptive mechanism),就是自适应调整每个样本的计算量,容易的样本通过一两层就可以预测出来,较难的样本则需要走完全程。那么问题来了,用什么去预测中间层的结果呢?作者的解决方案是给每层后面接一个分类器,毕竟分类器比Transformer需要的成本小多了:注:FLOPs (floating原创 2020-07-02 10:52:46 · 1734 阅读 · 0 评论 -
tensorflow serving介绍及代码实践
第一步安装docker1.安装dockeryum install docker2.查看docker版本docker -v3.启动dockerservice docker start4.设置开机启动dockersystemctl enable docker5.停止dockersystemctl stop docker6.查看docker镜像docker images7.删除镜像docker rmi 镜像id8.查看docker容器状态&ID原创 2020-05-26 14:00:45 · 977 阅读 · 1 评论