自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(62)
  • 收藏
  • 关注

原创 [datawhale202405]从零手搓大模型实战:TinyAgent

TinyAgent项目实现了一个简单的Agent智能体,主要是实现了ReAct策略(推理+调用工具的能力),及封装了一个Tool。项目实现有一定的疏漏。为了正确运行代码,本次对代码Agent部分进行了简单修改(完善ReAct prompt及LLM的多次循环调用)。

2024-05-25 00:26:16 905

原创 [datawhale202405]从零手搓大模型实战:TinyRAG

这个迷你项目手搓了一个最小的RAG系统。之前基于Langchain实现过RAG(不用chain),对RAG结构还算熟悉,因此核心放在构思如何手搓和对照思路与TinyRAG的实现上。TinyRAG项目中几个使用langchain得不到的小收获:* 使用JSON做persistent* cosine similarity的计算和加速* chunk的切割方法

2024-05-20 21:59:30 1185

原创 [datawhale202302]CS224W图机器学习:图嵌入表示学习导论

这是图嵌入表示学习的导论。节点嵌入的框架为编码解码,可以类比自然语言处理中的机器翻译,目标是特征空间里相似的点与原图相似的点尽可能接近。这里原图相似的点的描述比较重要,简单的方法是查表,最经典的就是随机游走。简单介绍了基于随机游走的DeepWalk和Node2Vec,后面论文精讲还会仔细讲。全图的嵌入有三种思路。

2023-02-21 00:21:52 481 1

原创 [datawhale202302]CS224W图机器学习:图的基本表示及特征工程

本章涉及了图基本表示及传统的特征工程。图由节点和连接组成,节点和连接上都可以有不同的属性。根据属性的特点,分为几类不同的图,其中异质图和二分图是比较重要的特殊图。图可以用邻接矩阵进行结构化表示,如果图过于稀疏,也可以使用连接列表和邻接列表来表示。图的节点度、图的连接性是图非常重要的性质,他们都可以从邻接矩阵中直观计算得到。图的传统特征工程分为节点的、边的、还有全图的特征工程。度、连接和graphlet是贯穿始终的重要概念。

2023-02-16 22:55:46 580

原创 [datawhale202302]CS224W图机器学习:图机器学习导论

本次task是图机器学习的导论,围绕了几个问题展开:1. 图机器学习的动机:图数据是有关联的数据,在现实生活中的例子;图机器学习与传统机器学习的区别,难点有哪些。2. 图机器学习的基本概念:图神经网络的基本形式,图嵌入。3. 图机器学习可以解决的任务:分为节点、边、子图、图四个层次,以及一些应用示例(其中AlphaFold,谷歌地图,和药物联合副作用预测的案例非常有趣)。此外,还穿插了图机器学习的学习路线,和学习工具介绍。

2023-02-14 21:06:17 842 2

原创 [datawhale202211]跨模态神经搜索实践:前端简介 Streamlit

VCED项目使用一个十分简单好用的 Web 应用程序框架Streamlit。本次任务简单学习Streamlit的基本使用。并逐行阅读学习VCED项目的前端代码,学习数据的传递,中间存储方式,以及功能的实现。

2022-11-20 21:05:44 775 2

原创 [datawhale202211]跨模态神经搜索实践:跨模态模型

本次任务首先了解了CLIP模型及其原理,CLIP模型将图像标签替换为图像的文本描述信息,来监督视觉任务的训练,引入了语义匹配实现下游任务的zero-shot。多模态和跨模态可能是未来模型的发展方向,多模态尝试结合不同信息表达方式的优势,而跨模态进一步探索新的信息表达方式。简单了解了diffusion模型。

2022-11-19 00:34:16 1494

原创 [datawhale202211]跨模态神经搜索实践:Jina生态

Jina生态有两个重要的组成成分:Jina结构本身,以及数据形式DocArray。Jina的基本结构包含三部分:Flow,Executor,还有客户端Client,理解他们之间的交互关系很重要。DocArray是Jina的数据形式,实现多模态数据处理的重要环节。本次task熟悉了文本,图像及视频三种形式的DocArray的处理。

2022-11-17 00:13:18 968 1

原创 [datawhale202211]跨模态神经搜索实践:环境配置

本次task主要是配置跨模态实践项目所需的环境,完成项目依赖的安装,实现本地HTML文档启动项目。基于windows10,共尝试了两种配置方式:基于wsl配置,和使用docker配置。目前docker配置可以正常运行,基于wsl的配置经过代码调整已经可以运行。使用成功的配置,导入视频尝试了项目的运行效果。

2022-11-14 21:51:54 1814 2

原创 [datawhale202210]李宏毅机器学习2021:机器学习模型的可解释性

可解释性是不可缺少的,因为我们需要在借助机器学习模型做出决策时了解机器学习模型做出决策的原因。模型原生的可解释性和模型本身的拟合能力之间存在着一定的矛盾,线性模型可解释性好,但拟合能力差,而神经网络则恰恰相反。兼具强可解释性和强拟合能力的决策树模型,在实际应用当中也会陷入可解释性变差的困境。我们所探讨的可解释性,是试图给黑箱的模型一个原因,来帮助决策。模型的可解释性分为Local和Global的,一个探讨做出具体决策的原因,另一个探讨做出某一类决策的道理。

2022-10-16 18:35:12 934

原创 [datawhale202210]李宏毅机器学习2021:adversarial attack来自人类的恶意攻击

本节了解了人类的恶意攻击的动机,定义,和在ResNet上具体应用的效果。为了实现attack,我们需要找到一个合适的噪声,噪声可以通过对无目标和有目标的任务定义不同的损失函数来确定。

2022-10-12 20:29:57 581

原创 [datawhale202210]李宏毅机器学习2021:自编码器

本次task了解了自编码器的原理。自编码器可以视为是一种自监督学习,由三个主要部分组成,encoder,中间的embedding向量,和decoder。自编码器的的核心思想是化繁为简。常将中间的embedding向量作为后续任务的输入。自编码器的常见变体包括,de-noising auto-encoder,前面加噪声,要求decoder还原出加噪声前的状态,可以类比BERTmask掉词的用途。Feature disentanglement,特征解构,使得特征具有具体意义。Discrete Latent

2022-10-10 20:43:03 1294

原创 [datawhale202208]计算之魂共读:怎样寻找最好的算法

本次通过了解总和最大区间问题(即最大子序和)的四种时间复杂度的求解方法,直观地了解了算法复杂度和最优算法的关系。同时,了解了对优化算法复杂度的判断包含三个内容:对问题边界的认知,对无用功的判断,以及逆向思维。...

2022-08-26 21:17:57 598

原创 [datawhale202208]计算之魂共读:算法规范化,大数和数量级的概念

本次阅读了1.1及1.2章节。1.1章节首先介绍计算机的软硬件分离历史,引出了程序算法独立存在的价值。并介绍了提出将算法进行量化度量的高德纳的五件闻名于世的事,强调了算法量化的重要性。1.2章节首先介绍了计算机所需处理的数据——大数的概念,随后介绍了高德纳的算法分析思想:只需考虑数据量特别大的情形,决定算法快慢的因素可以分为与数据量有关及无关的,复杂度上的微小差异会在数据量大时导致效率的亿万倍之差。并讲述了大O的概念。

2022-08-19 19:36:04 636 2

原创 【datawhale202207】强化学习:策略梯度和近端策略优化

本篇小结了使用神经网络进行强化学习时的实现形式。为easy-rl蘑菇书的读书笔记。神经网络此时实际上是解决输入为状态,输出为动作的多分类问题。初始化网络后,一个回合将获得多个状态-动作对,作为训练数据,蒙特卡洛法将在每个回合完成后更新网络。策略梯度是使用神经网络作为决策智能体时的优化学习目标,由多分类的交叉熵和单状态-动作对的奖励组合而成。这里的优化指的是梯度上升。为了实现更大胆的探索,可以将探索智能体和决策智能体分开,实现异策略。.........

2022-07-20 00:12:02 908

原创 【datawhale202207】强化学习:强化学习基础

强化学习是由两部分组成的:智能体和环境。在强化学习过程中,智能体与环境一直在交互。智能体在环境中获取某个状态后,它会利用该状态输出一个动作 (action),这个动作也称为决策(decision)。这个动作会在环境中被执行,环境会根据智能体采取的动作,输出下一个状态以及当前这个动作带来的奖励。智能体的目的就是尽可能多地从环境中获取奖励。智能体由策略,价值函数及模型构成,智能体的决策过程分为马尔可夫决策过程及部分决策马尔可夫过。根据智能体学习对象分类,智能体分为基于价值的智能体和基于策略的智能体;根据是否用模

2022-07-12 21:18:19 779

原创 【datawhale202206】pyTorch推荐系统:多任务学习 ESMM&MMOE

多任务学习是排序模型的一种发展方式,诞生于多任务的背景。实践表明,多任务联合建模可以有效提升模型效果,因其可以:任务互助;实现隐式数据增强;学到通用表达,提高泛化能力(特别是对于一些数据不足的任务);正则化(对于一个任务而言,其他任务的学习对该任务有正则化效果)目前的多任务联合建模有三种主要的模型形式:hard parameter sharing;soft parameter sharing (MMOE属于这种);任务序列依赖关系建模(ESMM属于这种)本次学习涉及了两个模型:ESMM和MMOE...

2022-06-28 01:33:48 2058 2

原创 【datawhale202206】pyTorch推荐系统:召回模型 DSSM&YoutubeDNN

本次所涉及的模型用于推荐系统中的召回环节,该环节主要是一个embedding和筛选,本次所涉及的模型主要用于embedding过程。DSSM双塔模型是指,user和item的embedding向量分别出自两个网络。模型并不复杂,由两个dnn流再加相似度计算构成。需要主要负样本采样及归一化/温度系数以保证欧氏空间的问题。而YoutubeDNN则是单塔模型,user和item的embedding向量出自一个网络。模型由一个DNN构成,但对于特征的处理比较讲究。......

2022-06-24 00:05:29 1875

原创 【datawhale202206】pyTorch推荐系统:精排模型 DeepFM&DIN

首先讲述了推荐系统的相关背景知识,帮助更好地理解本次所学习的两个模型:DeepFM和DIN在推荐系统中的作用(精排)。包含了DeepFM和DIN两个模型的结构,理解模型的诞生背景或许是更加值得关注的。DeepFM的大背景尝试让模型是学习更多的特征,来提升推荐模型的效果,创新点在于并行处理了FM和DNN,使得高低阶的特征更好地被结合和学习;DIN的大背景是在累积了足够多的历史用户行为数据的应用场景,创新点是引入了注意力机制有针对性地处理历史用户行为数据。.........

2022-06-20 01:09:21 2062 2

原创 【datawhale202203】深入浅出PyTorch:PyTorch可视化

前情回顾PyTorch的模型定义及模型搭建PyTorch进阶训练小结本节内容非常实用,涉及网络结构的可视化,卷积神经网络的可视化,以及使用tensorboard实现训练过程可视化。卷积神经网络的可视化包含卷积核,特征图,以及CAM的可视化,三者都可以用基础的代码实现,也可以调用现有的库(FlashTorch和pytorch-grad-cam实现)。tensorboard是训练过程可视化的好帮手~目录前情回顾小结1 可视化网络结构1.1 使用print打印1.2 使用torchinfo可视化

2022-03-22 23:39:14 1091

原创 【datawhale202203】深入浅出PyTorch:PyTorch进阶训练

前情回顾PyTorch的模型定义及模型搭建小结本节学习了一些进阶训练方法在PyTorch中的实现,包含自定义损失函数,动态调整学习率,以及模型微调的实现,半精度训练的实现.其中,损失函数常以类的方式进行自定义;可以调用官方Scheduler或是自定义的方式实现动态学习率;模型微调则需先读取含参数的预训练模型,然后锁定参数,随后更改输出层,来实现微调训练;半精度训练主要通过autocast配置.目录前情回顾小结1 自定义损失函数1.1 以函数方式定义1.2 以类的方式定义2 动态调整学习率

2022-03-19 22:18:20 333

原创 【datawhale202203】深入浅出PyTorch:PyTorch模型定义及模型搭建

小结目录小结1 PyTorch模型定义的方式1.1 关于模型定义的必要知识1.2 Sequential1.3 ModuleList1.4 ModuleDict1.5 三种方法的比较2 利用模型搭建复杂网络2.1 U-Net简介及模型块分析2.2 U-Net模块的PyTorch实现2.2.1 DoubleConv2.2.2 Down2.2.3 Up2.2.4 OutConv2.3 组装U-Net3 修改现有模型3.1 ResNet503.2 修改模型层参考阅读1 PyTorch模型定义的方式1.1

2022-03-16 23:13:24 286

原创 datawhale12月学习——算法的应用:Puzzle(八数码/华容道)

前情回顾Percolation目录前情回顾1 题目1.1 问题概述1.2 实现要求2 程序实现2.1 Board类2.2 BFS和A*2.3 Solver3 测试实现3.1 本地测试3.2 线上测试1 题目1.1 问题概述详见AlgorithmRunnig - 八数码目标:使用A*算法 or bfs、dfs算法,解决8数码问题。八数码:是指在3x3的矩阵中,其中有8个格子放置成1-8,剩下一个格子是空格。你能够移动和空格相邻的格子到空格,直到这个矩阵满足每一行依次从左到右读取是有序,例如

2021-12-20 21:48:05 982

原创 datawhale12月学习——算法的应用:Percolation

目录1 题目1.1 问题概述1.2 实现要求描述2 程序实现2.1 Percolation2.2 PercolationStats3 测试结果3.1 本地测试3.2 线上测试1 题目1.1 问题概述详见AlgorithmRunning - Percolation背景问题Percolation: 渗透问题给定一个由随机分布的绝缘材料和金属材料组成的复合系统:需要多大比例的材料是金属才能使复合系统成为电导体?给定一个表面有水(或下面有油)的多孔景观,在什么条件下水能够流到底部(或油涌到地表)。

2021-12-16 16:16:26 332

原创 datawhale 11月学习——水很深的深度学习:循环神经网络

前情回顾深度学习概述和数学基础机器学习基础前馈神经网络概述本次学习结合了李宏毅机器学习的相关章节进行学习,从首先补充了计算图的相关知识,随后,学习了RNN的结构,训练,及可能遇到的梯度消失的问题;再进步学习了LSTM的结构,和例子。同时简单使用torch进行了代码实现。还了解了其他经典的循环神经网络,及其主要应用。目录前情回顾概述1 计算图2 RNN2.1 为什么需要RNN2.2 RNN的简单案例2.3 基础的RNN结构2.4 RNN的训练2.5 梯度消失3 长短时记忆网络LSTM3.1 L

2021-12-01 23:08:11 1072

原创 datawhale 11月学习——水很深的深度学习:前馈神经网络

前情回顾深度学习概述和数学基础机器学习基础概述本节我们简要回顾了神经网络的发展史,了解了神经元模型,和感知机模型,以及后面发展起来并逐渐成为主流的反向传播算法。反向传播算法实为求解优化问题,在这个具体的优化问题的求解过程中会面临非凸优化以及梯度消失的问题;针对非凸优化,我们一般采用交叉熵代价函数而非平方误差作为损失函数;而针对梯度消失,我们在使用sigmoid或者tanh作为激活函数时,需要考虑将反向传播项乘以合适系数,防止梯度消失的发生。目录前情回顾概述1 神经网络1.1 神经元模型1.1

2021-11-23 22:38:29 856

原创 datawhale 11月学习——水很深的深度学习:机器学习基础

前情回顾深度学习概述和数学基础概述本节复习了机器学习的基本概念,包括交叉验证,误差的来源和分类等,也包括机器学习基本的两种分类:有监督和无监督。随后回顾了有监督和无监督学习常见的基本模型。目录前情回顾概述1 机器学习基本概念1.1 基本概念1.2 数据集的划分1.3 误差分析1.4 任务的界定2 常用模型2.1 有监督学习2.2 无监督学习1 机器学习基本概念1.1 基本概念可以参照前一节深度学习概述和数学基础中的有关内容典型为有监督和无监督有监督学习:代表任务是分类和回归无监督

2021-11-20 21:43:25 743

原创 datawhale 11月学习——水很深的深度学习:深度学习概述和数学基础

概述本节复习和回顾了深度学习的概念,了解了深度学习起源和发展的主要阶段,了解了一些重要的研究机构和著名的科学家。回顾并将深度学习的一些数学基础串到了一起,主要涵盖四个部分:矩阵论,概率统计,信息论,和最优化估计。目录概述1 深度学习概述1.1 人工智能、机器学习和深度学习1.2 起源与发展1.3 重要的研究机构和著名科学家2 深度学习的数学基础2.1 矩阵论2.2 概率统计2.3 信息论2.4 最优化估计1 深度学习概述1.1 人工智能、机器学习和深度学习本部分内容与先前的博文李宏毅深度学习:机

2021-11-17 18:47:41 440

原创 datawhale 10月学习——树模型与集成学习:XGBoost&LightGBM(待补)

前情回顾决策树CART树的实现集成模式两种并行集成的树模型AdaBoost梯度提升树结论速递本次学习了XGBoost和lightGBM,了解了XGBoost与常规GBDT的区别,随后又学习了lightGBM与XGBoost的区别,本次学习没有完全完成,待后续补充。目录前情回顾结论速递1 XGBoost2 LightGBM2.1 单边梯度采样2.2 互斥特征绑定参考阅读1 XGBoostXGBoost的目标函数如下图所示(其中第二项是正则项)可以看到目标函数由损失函数和正则项构成,

2021-11-07 22:45:53 147

原创 datawhale 10月学习——树模型与集成学习:梯度提升树

前情回顾决策树CART树的实现集成模式两种并行集成的树模型AdaBoost结论速递本次学习了GBDT,首先了解了用于回归的GBDT,将损失使用梯度下降法进行减小;用于分类的GBDT要稍微复杂一些,需要对分类损失进行定义。学习了助教提供的代码。目录前情回顾结论速递1 用于回归的GBDT1.1 原理1.2 代码实现2 用于分类的GBDT2.1 原理2.2 代码实现1 用于回归的GBDT1.1 原理与AdaBoost类似,对于每一轮集成来说,上一轮的集成输出都是常数。设数据集为D={

2021-11-03 23:31:58 129

原创 datawhale 10月学习——树模型与集成学习:AdaBoost

前情回顾决策树CART树的实现集成模式两种并行集成的树模型结论速递本次学习了解了AdaBoost的常见方法:用于分类的SAMME和用于回归的Adaboost.R2,学习内容比较硬核,根据李航《统计学习方法》进行了一定的重新整理。这里写自定义目录标题前情回顾结论速递1 AdaBoost1.1 概述1.2 分类损失2 SAMME2.1 二分类AdaBoost2.2 SAMME2.3 SAMME的代码实现3 Adaboost.R24 知识回顾参考文献1 AdaBoost1.1 概述对提升方

2021-10-30 22:01:11 225

原创 datawhale 10月学习——树模型与集成学习:两种并行集成的树模型

前情回顾决策树CART树的实现集成模式结论速递本次学习了两种并行集成的树模型,随机森林和孤立森林,并进行了相应的代码实践。其中对孤立森林的学习比较简略,有待后续补充。这里写自定义目录标题前情回顾结论速递1 随机森林1.1 原理1.2 代码实现2 孤立森林2.1 原理2.2 代码实现3 思考题参考阅读1 随机森林1.1 原理随机森林用的是bagging算法,基学习器常采用CART树。处理回归问题时,输出值为各学习器的均值;处理分类问题时,则可以用投票法,或者是sklearn中的概率聚合

2021-10-25 01:35:56 407

原创 datawhale 10月学习——树模型与集成学习:集成模式

前情回顾决策树CART树的实现结论速递本章节从误差的来源入手,结合数学公式推导,了解了集成模型的目的,随后学习了集成学习的几种方法,分别是基础的bagging和boosting,还有stacking和blending,并对stacking进行了代码实现。对思考题的解答融入在了笔记中。本文索引前情回顾结论速递1 集成的目的1.1 误差的来源1.2 方差和偏差1.3 集成的意义2 bagging和boosting2.1 bagging2.2 Boosting3 stacking与blending

2021-10-20 22:32:13 214

原创 datawhale 10月学习——树模型与集成学习:CART树的实现

前情回顾决策树结论速递虽然本次助教提供了参考代码,但还是尝试基于自己的认知尝试从头实现了一个CART树。本次任务自己编程实现了一棵CART树,实现了分类及回归任务,可以实现最大树深度限制。通过这个任务,对CART树的原理有了进一步的理解。本文索引前情回顾结论速递代码实现基础库导入及函数定义树节点类定义核心树实现代码实现本次实现的CART树可以完成分类及回归任务,可以实现最大树深度限制(最大叶结点树暂时还没有实现),连续属性离散化。基础库导入及函数定义定义了gini系数的计算,以及MS

2021-10-17 23:59:48 194

原创 datawhale 10月学习——树模型与集成学习:决策树

结论速递本文索引结论速递0 决策树概述0.1 决策树0.2 决策树的学习1 信息论基础1.1 信息熵、条件熵、信息增益1.2 思考题0 决策树概述0.1 决策树决策树实际上就是一种if-then规则的集合。同时,李航在《统计机器学习》中指出,决策树还表示给定特征条件下类的条件概率分布。这一条件概率分布定义在特征空间的一个划分(partition)上,将特征空间划分为互不相交的单元(cell)或区域(region),并在每个单元定义一个类的概率分布就构成了一个条件概率分布,决策树的一条路径对应于划

2021-10-14 19:55:38 219

原创 datawhale 8月学习——NLP之Transformers:Transformers解决机器翻译任务

前情回顾attention和transformersBERT和GPT编写BERT模型BERT的应用、训练和优化Transformers解决文本分类任务、超参搜索Transformers解决序列标注任务Transformers解决抽取式问答任务结论速递与前面应用BERT的任务不同,此次的任务是transformer整体的应用,解决的是一个经典的Seq2seq,机器翻译问题。解决的流程还是与之前类似,导入完数据,首先要对它进行tokenize预处理,由于是Seq2seq,需要对sourc

2021-09-01 19:43:42 1647

原创 datawhale 8月学习——NLP之Transformers:Transformers解决抽取式问答任务

前情回顾attention和transformersBERT和GPT编写BERT模型BERT的应用、训练和优化Transformers解决文本分类任务、超参搜索Transformers解决序列标注任务结论速递本文索引前情回顾结论速递1 抽取式问答任务1.1 任务简介1.2 数据加载2 抽取式问答任务的实现2.1 数据预处理2.1.1 预训练tokenizer的加载2.1.2 超长文本的处理2.1.3 预处理函数整合2.2 微调预训练模型2.2.1 预训练模型导入2.2.2 参数确定2.2

2021-08-30 20:45:35 894 2

原创 datawhale 8月学习——NLP之Transformers:Transformers解决序列标注任务

前情回顾attention和transformersBERT和GPT编写BERT模型BERT的应用、训练和优化Transformers解决文本分类任务、超参搜索结论速递本任务是序列标注任务,即token级的分类任务,这个任务的实现过程可以加深对token的理解。流程上和上一个任务十分相似。目前尚未解决的问题时微调过程中训练的参数在代码中是如何实现的。本文索引前情回顾结论速递1 序列标注1.1 问题简介1.2 参数设定及数据解读2 序列标注任务的实现2.1 数据预处理2.2 微调预训练

2021-08-28 23:13:20 791

原创 datawhale 8月学习——NLP之Transformers:Transformers解决文本分类任务、超参搜索

前情回顾attention和transformersBERT和GPT编写BERT模型BERT的应用、训练和优化结论速递本次任务了解了使用Transformers解决文本分类任务的方法,进一步熟悉了代码流程的使用。在使用BERT解决文本分类任务时,需要先进行tokenization,然后在进行微调的时候,需要先确定训练的超参数和评价指标,才能开始训练。此外,transformers库还允许外部调用optuna或者Ray Tune进行超参数搜索。本文索引前情回顾结论速递1 文本分类1.1 任务

2021-08-26 22:02:28 680

原创 datawhale 8月学习——NLP之Transformers:BERT的应用、训练和优化

前情回顾attention和transformersBERT和GPT编写BERT模型结论速递需要注意的是,本章依然是一个源码阅读章节,所进行的示例是为了更好地理解代码的组成和运行逻辑。本文索引前情回顾结论速递1 简介2 BERT-based Models——预训练2.1 功能简介2.2 BertForPreTraining2.3 系列套娃2.3.1 BertPreTrainingHeads2.3.2 BertPreTrainingHeads2.3.3 BertPredictionHeadTr

2021-08-24 16:04:39 1007

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除