自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 机器学习高频面试题

个人整理了一些面试中经常被问的面试题,涉及到传统机器学习、深度学习和最新的注意力机制等。详情见doc文档附件。

2023-06-10 16:54:49 46

原创 百度-人工智能创作组-数据挖掘岗-面试经验

Transformer模型的核心思想是自注意力机制(Self-Attention),通过对输入序列中的每个位置进行注意力计算,实现了对输入的全局建模。首先,我们将根节点加入队列。1. 梯度提升树:XGBoost是基于梯度提升树的算法,通过迭代地训练多个弱分类器(决策树),每一次迭代都调整模型的权重,以最小化损失函数的梯度。3. 可扩展性和灵活性:Transformer模型可以通过增加编码器和解码器的层数来增加模型的容量和表达能力,同时还可以通过注意力权重可视化和分析等方式解释模型的决策过程。

2023-05-29 11:05:58 521 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除