自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

摩登都市天空---专栏

学习是为了远航,其历程要有内涵、有意义、有质量、有成效,还需要增进续航力。

  • 博客(3)
  • 资源 (6)
  • 收藏
  • 关注

原创 [LLM] 自然语言处理 --- 从BERT, XLNet, RoBERTa, ERNIE2到ALBERT2

谷歌Lab发布了一个新的预训练模型"ALBERT"全面在SQuAD 2.0、GLUE、RACE等任务上超越了BERT、XLNet、RoBERTa再次刷新了排行榜!ALBERT是一种轻量版本的BERT,利用更好的参数来训练模型,但是效果却反而得到了很大提升!ALBERT的核心思想是采用了两种减少模型参数的方法,比BERT占用的内存空间小很多,同时极大提升了训练速度,更重要的是效果上也有很大的提升!...

2020-01-11 10:13:47 4289 1

原创 [LLM] 自然语言处理 --- ALBERT 介绍

一、简介随着Transfomer结构的普及,一时间大语料、大参数量的预训练模型成为主流。当在实际部署BERT等模型时,往往需要使用蒸馏、压缩或其他优化技术对模型进行处理。ALBERT模型来自论文 Google 最近公布的论文 《ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS》从名字就可...

2020-01-06 18:28:22 7350 1

原创 [LLM] 自然语言处理 --- Bert开发实战 (Transformers)

本文主要介绍如果使用huggingface的transformers 2.0 进行NLP的模型训练除了transformers,其它兼容tf2.0的bert项目还有:我的博客里有介绍使用方法 [深度学习] 自然语言处理--- 基于Keras Bert使用(上)keras-bert(Star:1.4k) 支持tf2,但它只支持bert一种预训练模型 bert4keras (Sta...

2020-01-06 17:14:24 16731 10

distributed-deep-learning-with-horovod.pdf

distributed-deep-learning-with-horovod Horovod是基于Ring-AllReduce方法的深度分布式学习插件,以支持多种流行架构包括TensorFlow、Keras、PyTorch等。这样平台开发者只需要为Horovod进行配置,而不是对每个架构有不同的配置方法。

2020-06-29

Neural Networks and Deep Learning - 神经网络与深度学习 中英双版本

Neural Networks and Deep Learning - 神经网络与深度学习 中英两个版本文件- 完美排版

2017-12-13

c++stack_和_queue用法

c++stack_和_queue用法,就是这两个函数的用法!

2011-05-01

数据结构的大量程序 相关面试题的源代码!

数据结构的大量程序代码,就是大学里面好多内容的程序代码! 数据结构的大量程序代码,就是大学里面好多内容的程序代码! 还有相关面试题的源代码!

2009-12-15

asp.net 网站

NET论坛 热点社区论坛系统 v5.0.1 是ASP写的

2008-12-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除