自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(161)
  • 资源 (11)
  • 收藏
  • 关注

原创 LLM主流框架:Causal Decoder、Prefix Decoder和Encoder-Decoder

前缀语言模型可以根据给定的前缀生成后续的文本,而因果语言模型只能根据之前的文本生成后续的文本。在模型架构代表LLM注意力机制是否属于Decoder-Only纯单向YESFlan-T5输入双向NO输入双向,输出单向YES。

2024-01-12 13:12:58 4255 3

原创 什么是RoPE-旋转位置编码?

我们知道句子中不同词语之前的位置信息十分重要,但是self-attention框架无法直接利用位置信息,因此研究者提出了许多方法将位置信息编码到学习过程中。一是绝对位置编码方法,将位置信息直接加入到输入中;二是相对位置编码方法,研究者通过微调attention的结构,使它具有识别token位置信息的能力。本文作者详细梳理了位置编码的流派,提出了一种旋转位置编码方式RoPE,并从数学角度证明RoPE带来的诸多优点。

2024-01-12 11:04:22 2773 1

原创 LORA的基本原理

LoRA 是一种低资源微调大模型方法。使用LORA,训练参数仅为整体参数的万分之一、GPU显存使用量减少2/3且不会引入额外的推理耗时。

2024-01-11 16:12:27 5951 2

原创 大模型 Decoder 的生成策略

Greedy Search、beam search、Sampling、Top-K、Top-p

2023-10-02 17:03:26 2766 1

原创 为什么现在的LLM都是Decoder only的架构?

总而言之,decoder-only 在参数量不太大时就更具有更强的zero-shot性能、更匹配主流的自监督训练范式;而在大参数量的加持下,具有了涌现能力后、可以匹敌encoder-decoder做finetuning的效果;在In Context的环境下、又能更好地做few-shot任务。decoder-only 架构符合传统的 Language Model 的模式。

2023-09-21 13:59:43 4088 1

原创 Zero-Shot、One-shot、Few-Shot 的简介

所以模型需要知道的信息是马的样本、老虎的样本、熊猫的样本和样本的标签,以及关于前三种动物和斑马的描述。”然后,爸爸给小明安排了一个任务,让他在动物园里找一种他从没见过的动物,叫斑马,并告诉了小明有关于斑马的信息:“斑马有着马的轮廓,身上有像老虎一样的条纹,而且它像熊猫一样是黑白色的。如今十分火热的纯监督模型往往需要足够多的样本才能训练出足够好的模型,并且用熊猫训练出来的分类器,只能对熊猫进行分类,其他物种都无法识别,也无法进行特征的综合推理,这样的模型功能还有待完善。

2023-09-20 20:09:29 3413

原创 GPT,GPT-2,GPT-3,InstructGPT的进化之路

GPT、GPT2、GPT3、InstructGPT 的进阶之路。

2023-09-20 15:58:24 1687 1

原创 MHA、MQA、GQA区别和联系

MHA: Multi Head AttentionMQA:Multi Query AttentionGQA:Grouped Query Attention

2023-09-19 20:27:38 3434 1

原创 AIGC入门 - LLM 信息概览

**本文将介绍以下 LLM**- **OPT**- **LLaMa**- **Alpaca**- **Vicuna**- **Moss**- **chatGLM**- **Baichuan**- **Openbuddy**

2023-09-18 17:30:36 1019

原创 Python 的垃圾回收机制(GC-GarbageCollection)

总体来说,在Python中,主要通过引用计数进行垃圾回收;通过 “标记-清除” 解决容器对象可能产生的循环引用问题;通过 “分代回收” 以空间换时间的方法提高垃圾回收效率。

2023-03-31 15:14:55 2092 1

原创 使用 python 实现动态规划之最长公共子串

这道题属于动态规划中十分经典的题目,在两个字符串中找到最长的公共子串,返回其最大长度或最大字符串。

2023-03-27 15:19:32 932

原创 模型部署之TorchScript

TorchScript是Pytorch模型(继承自nn.Module)的中间表示,保存后的torchscript模型可以在像C++这种高性能的环境中运行TorchScript是一种从PyTorch代码创建可序列化和可优化模型的方法。任何TorchScript程序都可以从Python进程中保存,并加载到没有Python依赖的进程中。简单来说,TorchScript能将动态图转为静态图,在pytorch的灵活的动态图特性下,torchscript提供了依然能够获取模型结构(模型定义)的工具。

2023-03-22 11:45:08 1486

原创 A30、V100性能测试对比报告

共压80000数据,同时请求500数据。

2023-03-22 11:21:25 6138

原创 Bert-Ner在TensorRT推理中选择不同输出时的性能差异

2023-03-22 10:39:52 158

原创 安装 NVSwitch GPU 服务器的 cuda 驱动版本、nvidia-docker 指南

安装 NVSwitch GPU 服务器的 cuda 驱动版本、nvidia-docker 指南。

2022-12-12 12:35:22 3494 1

原创 升级 GPU 服务器 cuda 驱动版本指南

升级 GPU 服务器 cuda 驱动版本指南。

2022-08-19 15:09:16 4106 3

原创 宿主机搭建 Airflow 环境指引

宿主机中搭建 airflow 环境指引

2022-07-24 16:50:10 1089 1

原创 基于 Bert 的多任务改造

一. Bert 的多任务认识以bert为代表的预训练模型多任务可以应用在多种场景。1. 主辅任务:比如我们当前进行任务A,但是我们可以构造一个辅助任务B一起参与训练,来达到提高任务A性能的目的,比如人为的去构造一个辅助任务 MLM(Bert 预训练语言遮蔽模型)这样的辅助任务,辅助去提高任务A,线上推理时并不输出任务B的结果。2. 并行任务:本身就需要进行多个任务,比如ABC,一样重要,但任务类型相似,如果分开训练,那么就需要3个模型,此时可以尝试共享一个模型,即共享大部分参数,差异化小部分参

2022-05-07 15:34:36 1754

原创 Python 开启简易 HTTP 服务

使用 python 在 linux 环境机器中开启简易 http 的开放端口一,python 版本 <= 2.3python -c "import SimpleHTTPServer as s; s.test();" 8000二,Python 版本 >= 2.4python -m SimpleHTTPServer 8000三,Python 3.x 版本python -m http.server 8000...

2022-01-07 10:24:37 1621

原创 Docker-如何修改容器映射端口同时保留原容器

docker commit:把一个容器的文件改动和配置信息commit到一个新的镜像。把容器所有的文件改动和配置信息导入成一个新的docker镜像,然后用这个新的镜像重起一个容器,这对之前的容器不会有任何影响。可按如下步骤实现:1、停止docker容器docker stop container12、commit该docker容器docker commit container1 new_image:tag3、用前一步新生成的镜像重新起一个容器docker run --name conta.

2021-11-24 20:51:27 435

翻译 Sentence-Bert论文中英文比对翻译

Sentence-Bert论文全名: Sentence-BERT: Sentence Embeddings using Siamese BERT-NetworksSentence-Bert论文地址:https://arxiv.org/abs/1908.10084Sentence-Bert论文代码:https://github.com/UKPLab/sentence-transformersAbstractBERT (Devlin et al., 2018) and RoBERTa (Liue.

2021-11-05 17:02:46 1510

原创 手把手教你用BERT做NER命名实体识别

一,从GitHub下载Bert源码和模型关于Bert的详细介绍和如何下载此处就不再赘述了,想了解的直接查看GitHub-Bert自行了解和下载。以下地址也可直接下载。1,下载Bert代码终端执行: git clone https://github.com/google-research/bert.git2,下载中文-base模型Bert-Base中文模型地址二,下载数据三,修改processors四,修改label五,修改create_model六,修改sh文件七,修改horovod多

2021-09-18 15:53:25 6250 2

原创 linux环境中替换window换行符为linux换行符

一,错误报文:bash: $'\r': command not foundbash: $'\r': command not foundbash: $'\r': command not found/etc/bash.bashrc: line 1: $'return\r': command not found/etc/bash.bashrc: line 2: $'\r': command not found/etc/bash.bashrc: line 7: $'\r': command not fo

2021-09-04 14:10:25 4313

原创 基于TensorFlow1使用Horovod实现BERT在单节点上的多GPU卡训练

一,下载从github中下载tensorflow1版本的bert代码和预训练模型1,下载bert代码地址:google-research/bert2,下载预训练模型,此处可选择bert-base中文版本,如下图:3,如官网所示创建执行脚本-方便传参,如下图所示:二,修改创建执行脚本根据机器的GPU个数,Horovod运行多卡训练gpu_num=$(nvidia-smi --query-gpu=name --format=csv,noheader | wc -l)horovodrun

2021-09-01 15:48:49 939 1

原创 Linux中使用Docker快速搭建Tensorflow-Gpu开发环境

本文将介绍:如何找到所需要的Tensorflow-GPU镜像在Linux终端中拉取镜像、查看本地镜像使用Docker构建Tensorflow-Gpu环境配置jupyter外部访问映射检查是否是GPU环境一,下载Tensorflow镜像1,找到所需要的Tensorflow镜像百度搜索nvidia ngc进入NVIDIA GPU 加速容器,找到所需版本的Tensorflow镜像,并copy 其对应的 pull tag。2,在Linux终端中拉取镜像docker pull nvcr.io/

2021-08-26 11:21:00 2380

原创 分类指标:准确率、精确率、召回率、F1 score以及ROC、AUC、宏平均、加权平均

本文将介绍:混淆矩阵(Confusion Matrix)准确率(accuracy)召回率(recall)精确率(precision)F1scoreROC和AUC宏平均(macro avg)微平均(micro avg)加权平均(weighted avg)一,混淆矩阵(Confusion Matrix)在n分类模型中,使用n行n列的矩阵形式来表示精度,纵列代表n个分类,在每行中的n个数据代表分别预测在每个类别的个数,完美的预测应该是一个列序数=行中有数据的索引数的一条斜线。TP:

2021-06-29 15:32:00 9353

原创 理解BERT模型理论

BERT 模型是 Google 在 2018 年提出的一种 NLP 模型,成为最近几年 NLP 领域最具有突破性的一项技术。在 11 个NLP 领域的任务上都刷新了以往的记录,例如GLUE,SquAD1.1,MultiNLI 等。一,BERT整体概述1,前言Google 在论文《BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding》中提出了 BERT 模型,BERT 模型主要利用了 Tran.

2021-06-24 16:07:10 1558

原创 Keras(三十四)Transformer模型代码实现

一,加载数据0,导入深度学习包import matplotlib as mplimport matplotlib.pyplot as pltimport numpy as npimport sklearnimport pandas as pdimport osimport sysimport timeimport tensorflow as tffrom tensorflow import kerasprint(tf.__version__)print(sys.version_i

2021-06-21 16:51:48 6814 5

原创 Keras(三十三)Transformer模型总体架构和理论

本文将介绍:Transformer论文地址及论文翻译地址Seq2seq+attention和Transformer对比Transformer模型结构图例Encoder-Decoder架构缩放点积注意力多头注意力位置编码Add&NormalizeDecoding过程一,Transformer论文地址及论文翻译地址二,Seq2seq+attention和Transformer对比三,Transformer模型结构图例四,Encoder-Decoder架构五,缩放点积注意力

2021-06-17 18:59:18 2481 2

原创 Keras(三十二)seq2seq+attention模型实现

一,数据下载

2021-06-17 10:55:57 1394

原创 Keras(三十一)seq2seq+attention模型理论

一,原始的seq2seq如下入所示,seq2seq模型包含 Encoder和Decoder两部分,分别为RNN模型或其变种LSTM等模型,Encoder输出S隐含状态,该隐藏状态和NU输入到

2021-06-16 18:24:41 1068

原创 Keras(三十)使用LSTM实现文本生成

一,处理数据1,加载训练数据# https://storage.googleapis.com/download.tensorflow.org/data/shakespeare.txtinput_filepath = "./shakespeare.txt"text = open(input_filepath, 'r').read()print(len(text))print(text[0:100])2,生成词库"""# 1. generate vocab# 2. build mappin

2021-06-16 17:46:53 1011

原创 Keras(二十九)LSTM文本分类

一,从keras数据集imdb中加载影评数据imdb = keras.datasets.imdbvocab_size = 10000 # 出现词频由高到低, 截取前10000个词组,其余按特殊字符处理index_from = 3 # 截取的单词和对应索引,向后平移3个单位(train_data, train_labels), (test_data, test_labels) = imdb.load_data( num_words = vocab_size, index_from = in

2021-06-16 16:49:37 1142

原创 Keras(二十八)LSTM长短期记忆网络理论

一,为什么需要LSTM二,

2021-06-16 15:32:35 270

原创 Keras(二十七)RNN实现文本生成

一,处理数据1,加载训练数据# https://storage.googleapis.com/download.tensorflow.org/data/shakespeare.txtinput_filepath = "./shakespeare.txt"text = open(input_filepath, 'r').read()print(len(text))print(text[0:100])

2021-06-16 14:30:25 1042 2

原创 Keras(二十六)NLP文本分类,单层单向RNN,单层双向RNN,双层双向 RNN的实现

pass

2021-06-15 19:18:23 1008 4

原创 Keras(二十五)NLP文本分类,序列式问题和循环神经网络模型理论

一,全链接神经网络和循环神经网络实现文本分类比较1,全链接神经网络二,什么是序列式问题三,什么是循环神经网络四,在训练时的循环神经网络五,在预测时的循环神经网络六,如何使用循环神经网络做文本分类...

2021-06-15 18:47:21 242

原创 Keras(二十四)NLP文本分类之embedding,padding,全链接模型构建与训练

本文将介绍:循环神经网络之embedding循环神经网络之padding循环神经网络之模型构建与训练一,从keras数据集imdb中加载影评数据并查看1,从keras数据集imdb中加载影评数据# 1,从keras数据集imdb中加载影评数据imdb = keras.datasets.imdbvocab_size = 10000 # 出现词频由高到低, 截取前10000个词组,其余按特殊字符处理index_from = 3 # 截取的单词和对应索引,向后平移3个单位(train_

2021-03-01 17:06:31 1053 3

原创 Keras(二十三)cifar10数据集使用keras generator读取、模型训练、预测

本文将介绍:使用keras实现resnet50模型实现迁移学习-finetune一,下载kaggle-cifar10数据通过下面的链接,下载dataset到本地目录cifar10中kaggle-cifar10下载地址二,

2021-02-28 22:28:44 1142 2

原创 Keras(二十二)使用keras实现resnet50模型做迁移学习-finetune

#!/usr/bin/env python3# -*- coding: utf-8 -*-import matplotlib as mplimport matplotlib.pyplot as pltimport numpy as npimport osimport pandas as pdimport sklearnimport sysimport tensorflow as tfimport timefrom tensorflow import keras# 打印使用的pyt

2021-02-28 15:17:11 6157 11

NLP - glue 数据集

NLP - glue 数据集

2022-04-12

ner_data.zip

对Bert模型的Ner任务提供了数据集demo

2021-09-18

BERT Pre-training of Deep Bidirectional Transformers for Language Understanding.

NLP-BERT模型论文

2021-06-24

TRANSFORMER.zip

NLP-TRANSFORMER模型论文

2021-06-24

tensorflow_datasets.zip

葡萄牙语和英语互翻数据

2021-06-21

ted_hrlr_translate.zip

pt_to_en葡萄语和英语互翻数据

2021-06-21

data_spa_en.zip

西班牙语和英语互翻数据

2021-06-17

shakespeare.zip

莎士比亚数据集

2021-06-16

cnn卷积神经网络论文.zip

cnn卷积神经网络的八篇最经典论文 AlexNet:NIPS-2012-imagenet-classification-with-deep-convolutional-neural-networks-Paper VGG:Very-Deep-Convolutional-Networks-for-Large-Scale-Image-Recognition NIN:network-in-network ResNet:Deep-Residual-Learning-for-Image-Recognition InceptionV1-V4 MobileNet:Efficient-ConVolutinal-Neural-Networks-for-Mobile-Vision NASNet:Learning-Transferable Architectures-for-Scalable-Image-Recognition ShakeShake:Shake-Shake-regularization

2021-03-01

ltp_data_v3.4.0.zip

LTP数据模型提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。从应用角度来看,LTP为用户提供了下列组件: 针对单一自然语言处理任务,生成统计机器学习模型的工具 针对单一自然语言处理任务,调用模型进行分析的编程接口 使用流水线方式将各个分析工具结合起来,形成一套统一的中文自然语言处理系统\ 系统可调用的,用于中文语言处理的模型文件 针对单一自然语言处理任务,基于云端的编程接口

2020-08-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除