自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 三下乡」“第二课堂”AI实训营学习实践笔记(5)

基于LLM的Agent论文整理:https://github.com/WooooDyy/LLM-Agent-Paper-List动手学大模型应用开发: https://github.com/datawhalechina/llm-universe。

2024-08-16 09:59:50 153

原创 三下乡」“第二课堂”AI实训营学习实践笔记(4)

第四次课&第五次课:大语言模型入门。

2024-08-02 11:36:01 195

原创 “Datawhale AI夏令营第三期”-AI 逻辑推理方向 task3 笔记

大模型微调(Fine-tuning)是一种技术,通过在预训练的大型语言模型上使用特定数据集进行进一步训练,使模型能够更好地适应特定任务或领域。其核心原理在于,机器学习模型只能代表其训练数据的逻辑和理解。对于未见过的数据样本,模型可能无法准确识别或理解。对于大型模型而言,它们虽然能够处理广泛的语言信息并进行流畅的对话,但在特定场景下可能无法提供准确的答案。例如,一个通用的大型语言模型虽然包含丰富的语言信息,但在医药领域的特定问题上可能表现不佳。

2024-08-02 10:28:36 279

原创 “Datawhale AI夏令营第三期”-AI 逻辑推理方向 task2 笔记

大语言模型(英文:Large Language Model,缩写LLM),也称大型语言模型,是一种人工智能模型,旨在理解和生成人类语言。通常,大语言模型 (LLM) 指包含数十亿Billion或更多)参数的语言模型,这些模型在大量的文本数据上进行训练,例如国外的有GPT-3 、GPT-4、PaLM 、Galactica 和 LLaMA 等,国内的有ChatGLM、文心一言、通义千问、讯飞星火等。大模型的能力和特点大模型的能力大语言模型(LLM)与以前的预训练语言模型(PLM)的主要区别在于其涌现能力。

2024-07-29 17:41:05 900

原创 “Datawhale AI夏令营第三期”-AI 逻辑推理方向 task1 笔记

班级群1-yujiaruitask1:跑通《第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估》

2024-07-28 16:18:31 202

原创 三下乡」“第二课堂”AI实训营学习实践笔记(3)

第三次课:阿里云天池日期:2024.7.22内容:阿里云天池竞赛天池大赛-学习赛-零基础入门数据挖掘 - 二手车交易价格预测赛题以预测二手车的交易价格为任务,数据集报名后可见并可下载,该数据来自某交易平台的二手车交易记录,总数据量超过40w,包含31列变量信息,其中15列为匿名变量。为了保证比赛的公平性,将会从中抽取15万条作为训练集,5万条作为测试集A,5万条作为测试集B,同时会对name、model、brand和regionCode等信息进行脱敏。

2024-07-23 12:10:58 124

原创 三下乡」“第二课堂”AI实训营学习实践笔记(2)

第二次课:Pandas日期:2024.7.15内容:Pandas入门课程回放链接:https://b23.tv/8QxAQMXJoyful Pandas:https://inter.joyfulpandas.datawhale.club/Content/index.htmlNUMPY介绍:NumPy(Numerical Python)是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵,比Python自身的嵌套列表(nested list structure)结构要高效的多(该结构也可以

2024-07-21 09:59:37 400

原创 “Datawhale AI夏令营第二期”-NLP方向 task3 笔记

基于循环或卷积神经网络的序列到序列建模方法是现存机器翻译任务中的经典方法。然而,它们在建模文本长程依赖方面都存在一定的局限性。对于卷积神经网络来说,受限的上下文窗口在建模长文本方面天然地存在不足。如果要对长距离依赖进行描述,需要多层卷积操作,而且不同层之间信息传递也可能有损失,这些都限制了模型的能力。而对于循环神经网络来说,上下文的语义依赖是通过维护循环单元中的隐状态实现的。在编码过程中,每一个时间步的输入建模都涉及到对隐藏状态的修改。

2024-07-18 12:52:19 719

原创 “Datawhale AI夏令营第二期”-NLP方向 task2 笔记

班级群-NLP自然语言处理12—yujiarui-太原理工大学。

2024-07-17 18:19:44 409

原创 三下乡」“第二课堂”AI实训营学习实践队笔记(1)

第一次课:python计算机2301蔚佳睿日期:2024.7.11内容:python环境配置以及基础学习。

2024-07-17 18:00:41 345

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除