自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

预见未来to50的专栏

Life is limited, but art is long

  • 博客(2696)
  • 收藏
  • 关注

原创 大语言模型生成式AI学习笔记——2. 2.5PEFT(参数高效微调)——实验2(对话总结生成式AI模型的调优)

在本笔记本中,您将对Hugging Face的现有LLM进行微调,以提高对话摘要的能力。您将使用FLAN-T5模型,该模型提供了一个高质量的指令调整模型,并且能够直接对文本进行摘要。为了提升推理能力,您将探索完整的微调方法,并使用ROUGE指标评估结果。然后,您将执行PEFT微调,评估得到的模型,并发现PEFT的好处超过了稍微低一些的性能指标。注意:对于实验室,最好使用笔记本电脑或台式电脑,而不是平板电脑。本课程中的实验室仅对已购买课程的学习者开放。

2024-05-10 15:22:33 587

原创 大语言模型生成式AI学习笔记——2. 2.4PEFT(参数高效微调)——实验2(对话总结生成式AI模型的调优)说明

本周的实验室,让你亲自尝试使用PEFT和LoRA进行微调,通过提高Flan-T5模型的摘要能力。我的同事Chris将带你了解本周的笔记本。现在我把你交给他。现在让我们看看第二实验室。在第二实验室中,你将亲自动手进行完全微调和参数高效微调(也称为PEFT和提示指令)。你将为你的特定摘要任务,用你自己特定的提示进一步调整Flan-T5模型。让我们直接进入笔记本。第二实验室,我们将实际对模型进行微调。第一实验室,我们进行了零样本推断,情境内学习。

2024-05-10 15:12:46 861

原创 大语言模型生成式AI学习笔记——2. 2.3PEFT(参数高效微调)——PEFT技术其二——软提示

并最终降低微调的成本,让你充分利用你的计算预算并加速你的开发过程。要在推理时使用它们,只需在你的输入提示前加上学习的标记,要切换到另一个任务,只需更改软提示。在论文的这张图中,你可以看到X轴上的模型大小和Y轴上的SuperGLUE得分。通过提示调优,你会在提示中添加额外的可训练标记,并将其最佳值的决定交给监督学习过程。然而,对软提示位置附近的最近邻标记的分析表明,它们形成了紧密的语义聚类。由于LoRA在许多任务和数据集上与完全微调的性能相当,因此在实践中被广泛使用,你将在本周的实验室中亲自尝试它。

2024-05-10 12:26:19 626

原创 大语言模型生成式AI学习笔记——2. 2.2PEFT(参数高效微调)——PEFT技术其一——LORA

你可以看到,这些分数相当低。然而,使用LoRA进行微调训练的参数数量要比全量微调少得多,使用的计算资源也显著减少,所以这小小的性能折衷可能是值得的。然后你保持LLM的原始权重冻结,并使用你本周早些时候看到的相同的监督学习过程来训练这些较小的矩阵。但是,由于LLM的大多数参数都在注意力层中,通过将这些权重矩阵应用于LoRA,你可以在可训练参数上获得最大的节省。相反,如果你想执行一个不同的任务,比如说任务B,你只需取出你为此任务训练的LoRA矩阵,计算它们的乘积,然后将这个矩阵加到原始权重上并再次更新模型。

2024-05-10 11:56:12 559

原创 大语言模型生成式AI学习笔记——2. 2.1PEFT(参数高效微调)——概要

适配器方法在模型的架构中添加新的可训练层,通常是在编码器或解码器组件的注意力或前馈层之后。因此,训练参数的数量比原始LLM中的参数数量少得多。通过参数高效的微调,你只训练少量的权重,这导致整体占用空间小得多,根据任务的不同,小到只有几MB。你可以使用几种方法进行参数高效的微调,每种方法在参数效率、内存效率、训练速度、模型质量和推断成本上都有不同的权衡。即使你的计算机能够容纳模型权重——对于最大的模型来说,现在的数量级已经是数百GB——你还必须能够在训练过程中为优化器状态、梯度、前向激活和临时内存分配内存。

2024-05-10 11:23:53 611

原创 大语言模型生成式AI学习笔记——2. 1.7LLM指令微调——​​​​​​​基准测试

HELM的一个重要特点是它不仅评估基本准确性指标,如F1分数的精度,还包括公平性、偏见和毒性等指标,这些指标对于评估越来越有能力进行类似人类的语言生成的LLM,以及可能表现出有害行为的LLM变得越来越重要。随着模型变得更大,它们在像SuperGLUE这样的基准测试上的表现开始接近人类在特定任务上的能力。本质上,这是LLM的新兴属性与旨在衡量它们的基准之间的军备竞赛。正如你在上一个视频中看到的,大型语言模型(LLMs)是复杂的,而像ROGUE和BLEU这样的简单评估指标只能告诉你关于模型能力的部分信息。

2024-05-09 16:03:00 427

原创 大语言模型生成式AI学习笔记——2. 1.6LLM指令微调——​​​​​​​模型评估

例如,这个生成的输出“冷,冷,冷,冷”。”即使是在使用剪辑功能的修改后的精确度上,这个句子也被完美地称为,因为所有生成的输出中的单词都在参考中出现。虽然使用不同的rouge分数可以帮助实验,但计算最有用的分数的n-gram大小将取决于句子、句子的大小和你的使用案例。请注意,许多语言模型库,例如你在第一周实验室中使用的Hugging Face,包括你可以使用来轻松评估模型输出的rouge分数的实现。在传统的机器学习中,你可以通过查看模型在训练和验证数据集上的表现来评估模型的好坏,其中输出已经是已知的。

2024-05-09 15:13:31 403

原创 大语言模型生成式AI学习笔记——2. 1.5LLM指令微调——缩放指令模型

以下是来自讲座幻灯片的图片,展示了训练FLAN时使用的微调任务和数据集。任务选择扩展了之前的工作,通过纳入Muffin的对话和程序合成任务,并将其与新的思维链推理任务整合。一些任务在训练过程中被保留,后来用于评估模型在未见任务上的性能。本文介绍了FLAN(Fine-tuned LAnguage Net),一种指令微调方法,并展示了其应用的结果。研究表明,通过在1836个任务上对540B PaLM模型进行微调,同时结合思维链推理数据,FLAN在泛化能力、人类可用性和零样本推理方面取得了比基础模型更好的改进。

2024-05-08 11:49:44 259

原创 大语言模型生成式AI学习笔记——2. 1.4LLM指令微调——多任务指令微调

然而,它的表现并不像人类生成的基线摘要那样好,后者包括了诸如Mike询问信息以便于办理入住等重要信息,而模型的完成还捏造了原始对话中未包含的信息。虽然FLAN-T5是一个表现良好且适用于多种任务的通用模型,但你可能会发现它在你的特定用例的任务中还有改进的空间。在接下来的视频中,你将了解几个指标和基准,你可以使用它们来确定你的模型表现如何,以及你的微调版本比原始基础模型好多少。在许多轮次的训练中,通过计算示例的损失来更新模型的权重,结果得到了一个指令调整后的模型,学会了同时擅长许多不同的任务。

2024-04-30 15:43:04 995

原创 大语言模型生成式AI学习笔记——2. 1.3LLM指令微调——​​​​​​​单任务微调

如果你只需要在你微调的单个任务上有可靠的表现,模型不能泛化到其他任务可能不是问题。良好的多任务微调可能需要跨越许多任务的50-100,000个示例,因此将需要更多的数据和计算来进行训练。我们的第二个选择是执行参数高效的微调,或简称PEFT,而不是完整的微调。有趣的是,相对较少的示例也可以取得良好的结果。例如,虽然微调可以提高模型执行评论情感分析的能力并产生高质量的完成,但模型可能会忘记如何做其他任务。但在微调之后,模型无法再执行此任务,混淆了它应该识别的实体,并表现出与新任务相关的行为。

2024-04-30 14:57:49 711

原创 大语言模型生成式AI学习笔记——2. 1.2LLM指令微调——​​​​​​​指令微调

如果你正在提高模型的翻译技能,你的示例将包括像翻译这个句子这样的指令。幸运的是,开发者们已经汇编了提示模板库,这些库可以用来获取现有的数据集,例如,亚马逊产品评论的大数据集,并将其转换为用于微调的指令提示数据集。与预训练不同,在预训练中你使用大量的非结构化文本数据通过自我监督学习来训练LLM,微调是一个监督学习过程,你使用一组标记示例的数据集来更新LLM的权重。在本课程的早期,你看到一些模型能够识别包含在提示中的指令并正确执行零样本推理,而其他模型,如较小的LLM,可能无法执行任务,就像这里显示的例子。

2024-04-30 14:48:32 647

原创 大语言模型生成式AI学习笔记——2. 1.1LLM指令微调——​​​​​​​第2周课程简介

欢迎回来。这周我和我的导师Mike和Shelby在一起。上周你们了解了转换器网络,这实际上是大型语言模型的一个关键基础,以及生成式AI项目生命周期。这周我们还有更多内容要深入探讨,首先从大型语言模型的指令调整开始。然后是关于如何以高效的方式进行微调。是的,所以我们将看看指令微调。当你有一个基础模型,最初预训练时,它编码了很多非常好的信息,通常是关于世界的信息。所以它知道很多事情,但它不一定知道如何响应我们的提示,我们的问题。所以当我们指示它做某项任务时,它不一定知道如何响应。

2024-04-30 14:14:37 803

原创 大语言模型生成式AI学习笔记——1.3.2 第1周​​​​​​​测试题(大语言模型及生成式AI项目生命周期简介,LLM预训练和缩放法则)

原题参考答案

2024-04-26 16:08:26 113

原创 大语言模型生成式AI学习笔记——1.3.1 第1周参考资料

您已经看到了回答讲座视频中测验所需的最重要的要点。在这篇论文中,作者详细讨论了用于训练模型的数据集和过程。的自然语言处理专业系列课程中的一序列课程,讨论了向量空间模型的基础知识及其在语言建模中的应用。在下面,您将找到本周视频中讨论的研究论文的链接。该论文检查了大型预训练语言模型中的建模选择,并确定了零射击泛化的最优方法。生命周期的所有阶段,包括模型选择、微调、适应、评估、部署和运行时优化。的研究人员进行的实证研究,探索了大型语言模型的缩放法则。这篇论文调查了大型语言模型中少样本学习的潜力。

2024-04-26 16:02:53 739

原创 大语言模型生成式AI学习笔记——1. 2.5LLM预训练和缩放法则——​​​​​​​领域适配预训练及实例BloombergGPT

到目前为止,我强调了在开发应用程序时,你通常会与现有的大型语言模型(LLM)一起工作。这样可以节省大量时间,并能让你更快地获得一个可用的原型。然而,有一种情况下,你可能会发现有必要从头开始预训练自己的模型。如果你的目标领域使用了在日常语言中不常用的词汇和语言结构,你可能需要执行领域适应以获得良好的模型性能。例如,想象你是一个开发者,正在构建一个帮助律师和法律助理总结法律摘要的应用程序。法律写作使用非常特定的术语,如第一个示例中的"mens rea"和第二个示例中的"res judicata"。

2024-04-26 16:00:03 580

原创 大语言模型生成式AI学习笔记——1. 2.4LLM预训练和缩放法则——​​​​​​​缩放法则和计算优化模型

如果你固定你的计算预算,那么你用来提高模型性能的两个杠杆就是你的训练数据集的大小和模型中的参数数量。Chinchilla论文的一个重要结论是,对于给定的模型,最优的训练数据集大小大约是模型参数数量的20倍。Chinchilla论文暗示,许多像GPT-3这样的1000亿参数大型语言模型实际上可能是过度参数化的,意味着它们的参数超过了很好地理解语言所需的数量,也不是因为训练不足(undertrained)而需要更多训练数据。作者假设,如果训练在更大的数据集上,较小的模型可能能够达到与更大的模型相同的性能。

2024-04-26 15:58:25 891

原创 大语言模型生成式AI学习笔记——1. 2.3 LLM预训练和缩放法则——​​​​​​​有效的多GPU计算策略

ZeRO提供了三个优化阶段。现在,如果你选择一个超过22.8亿的模型大小,例如25个具有113亿个参数的模型,DDP会遇到内存不足的错误。本周早些时候,你了解了训练LLMs所需的所有内存组件,其中最大的内存需求是对优化器状态的需求,它们占用的空间是权重的两倍,其次是权重本身和梯度。我之前展示的模型复制策略的一个限制是,你需要在每个GPU上保持一个完整的模型副本,这导致了冗余的内存消耗。每个数据集都并行处理,然后同步步骤将每个GPU的结果合并,进而更新每个GPU上的模型,这些模型在所有芯片上始终是相同的。

2024-04-26 13:49:59 500

原创 大语言模型生成式AI学习笔记——1. 2.2LLM预训练和缩放法则——​​​​​​​训练LLM时的计算挑战

你会发现,在大多数情况下,这种精度的损失是可以接受的,因为你试图为内存占用进行优化。记住,量化的目标是通过降低模型权重的精度来减少存储和训练模型所需的内存。通过应用量化,你可以将存储模型参数所需的内存消耗减少到仅两GB,使用16位半精度节省了50%,你可以通过将模型参数表示为8位整数进一步减少50%的内存占用,这只需要1GB的GPU RAM。请注意,在这些情况下,你仍然有一个十亿参数的模型。这里的主要思想是通过将模型权重的精度从32位浮点数降低到16位浮点数或8位整数,从而减少存储模型权重所需的内存。

2024-04-23 16:02:20 682

原创 大语言模型生成式AI学习笔记——1. 2.1LLM预训练和缩放法则——​​​​​​​预训练大语言模型

一旦你确定了你的使用案例,并决定如何在你的应用中使用LLM(大语言模型),你的下一步就是选择一个模型来工作。你的首个选择将是使用现有的模型,或者从头开始训练你自己的模型。这种增长是由诸如高度可扩展的转换器架构的引入、用于训练的大量数据的获取以及更强大的计算资源的开发等因素推动的。虽然这听起来很棒,但事实证明,训练这些巨大的模型是困难且非常昂贵的,以至于持续训练越来越大的模型可能是不可行的。现在你已经看到了这些不同模型架构是如何训练的,以及它们非常适合的具体任务,你可以选择最适合你的使用案例的模型类型。

2024-04-23 12:38:12 876

原创 大语言模型生成式AI学习笔记——1.1.8 大语言模型及生成式AI项目生命周期简介——​​​​​​实验1——生成式AI用例:对话摘要

在这个实验室中,你将使用生成式人工智能进行对话摘要任务。你将探索输入文本如何影响模型的输出,并进行提示工程以引导它完成你需要的任务。通过比较零样本、单样本和少样本推理,你将迈出提示工程的第一步,看看它如何增强大型语言模型的生成输出。实验室对购买课程的学习者开放。如果你还没有购买访问权限,可以通过下面的“升级提交”按钮进行购买。如果你已经支付了课程费用,请先勾选下面的复选框,表示你将遵守Coursera荣誉守则,然后点击“启动应用”按钮开始实验室。本实验无需正式评分,但你将需要点击提交按钮以完成实验室。

2024-04-19 16:11:29 374

原创 大语言模型生成式AI学习笔记——1.1.7 大语言模型及生成式AI项目生命周期简介——​​​​​​​生成式AI项目生命周期,AWS实验室简介

到目前为止,在这门课程中你已经看到了很多材料,而你将这些概念在脑海中巩固下来的最好方式是自己动手尝试一些代码。正如Andrew在本周一开头提到的,我的同事Chris Fragley负责了这门课程实验室的开发。每周都有一个实验室练习,让你尝试视频中的关键概念。Chris将通过展示实验室环境来帮助你开始。然后,他将引导你完成本周的活动。嘿,Chris。现在让我们看一下Lab 1的实验室环境。在实际进入实验室之前,让我解释一下我们将在这里使用的系统,即环境,它叫做Vocareum。

2024-04-19 16:10:22 469

原创 大语言模型生成式AI学习笔记——1.1.6 大语言模型及生成式AI项目生命周期简介——​​​​​​​提示及提示工程,生成配置

所以无论这部电影的评论是积极的还是消极的,提示都包括指令“对这个评论进行分类”,然后是一些上下文,在这种情况下就是评论文本本身,以及在最后产生情感的指令。你将这个新的更长的提示传递给较小的模型,现在它有更好的机会理解你指定的任务和你希望的响应格式。相反,这些配置参数是在推理时调用的,它们可以让你控制诸如完成的最大token数量,以及输出的创造性等事项。虽然最大的模型在没有示例的情况下擅长零样本推理,但较小的模型可以从包含所需行为的示例的单样本或少样本推理中受益。但请注意,在200的例子中,完成的长度更短。

2024-04-19 16:07:28 579

原创 大语言模型生成式AI学习笔记——1.1.5 大语言模型及生成式AI项目生命周期简介——​​​​​​​使用转换器生成文本,转换器—— 所需仅为“注意力”

如今它们的使用不太常见,但通过向架构添加额外层次,你可以训练只有编码器的模型来执行分类任务,如情感分析,BERT就是只有编码器的模型的一个例子。这个转换器模型概述的主要目的是给你足够的背景知识,以理解世界上正在使用的各种模型之间的差异,并能够阅读模型文档。"注意力是你所需要的一切"是2017年由谷歌研究人员发布的一篇研究论文,它引入了Transformer模型,这是一种革命性的架构,彻底改变了自然语言处理(NLP)领域,并成为我们现在所知的LLMs——如GPT、PaLM等的基础。

2024-04-19 16:04:51 515

原创 大语言模型生成式AI学习笔记——1.1.4 大语言模型及生成式AI项目生命周期简介——​​​​​​​转换器出现之前的文本生成,转换器架构

这里的直觉是,每个自注意力头将学习语言的不同方面。你现在可以看到你如何关联在嵌入空间中彼此靠近的单词,并且如何计算单词之间的角度距离,这给了模型数学理解语言的能力。不仅仅是像你在这里看到的,将注意力放在每个单词和它的邻近单词之间,而是放在句子中的其他所有单词上。重要的是,一旦你选择了一个用于训练模型的tokenizer,当你生成文本时,你必须使用相同的tokenizer。它可以有效地扩展以使用多核GPU,可以并行处理输入数据,利用更大的训练数据集,并且至关重要的是,它能够学会关注其处理的单词的含义。

2024-04-19 16:01:09 570

原创 大语言模型生成式AI学习笔记——1. 1.3 大语言模型及生成式AI项目生命周期简介——​​​​​​​生成式AI及LLM,LLM用例及任务

例如,你可以要求模型根据提示写一篇论文,总结对话,其中你提供对话作为提示的一部分,模型利用这些数据及其对自然语言的理解来生成摘要。现在,虽然生成式AI模型正在为多种模态创建,包括图像、视频、音频和语音,但在这门课程中,你将专注于大型语言模型及其在自然语言生成中的用途。提示被传递给模型,模型然后预测下一个单词,因为你的提示包含了一个问题,这个模型生成了一个答案。存储在模型参数中的语言理解是处理、推理并最终解决你给出的任务的过程,但同样真实的是,较小的模型也可以被微调以在特定的专注任务上表现良好。

2024-04-19 15:56:22 941

原创 大语言模型生成式AI学习笔记——1. 1.2 大语言模型及生成式AI项目生命周期简介——​​​​​​​第1周课程简介

欢迎回来。这周我们有一大堆激动人心的素材要讲解,首先Mike会在一会儿跟你深入探讨变换器网络是如何运作的。“是的,这是个复杂的主题,对吧?2017年,《注意力是你所需要的一切》这篇论文发表了,它阐述了所有相当复杂的数据流程,这些都将发生在变换器架构内部。所以我们会从高层次的视角来看待这个问题,但同时我们也会深入到一些细节。我们会讨论像自注意力和多头自注意力机制这样的概念。这样我们就能看到为什么这些模型真的有效,它们是如何真正理解语言的。

2024-04-19 15:53:37 706

原创 大语言模型生成式AI学习笔记——1. 1.1 大语言模型及生成式AI项目生命周期简介——​​​​​​​课程简介

欢迎来到这门关于生成式AI和大型语言模型的课程。大型语言模型或LLMs是一项非常令人兴奋的技术。但尽管围绕它的热议和炒作不断,很多人仍然低估了它们作为开发者的强大能力。具体来说,许多过去需要我花费数月时间构建的机器学习和AI应用,现在你可以在短时间内构建出来,可能只需几天或者几周的时间。这门课程将带你深入了解LLM技术的实际运作方式,包括许多技术细节,如模型训练、指令调整、微调,以及生成式AI项目生命周期框架,帮助你规划和执行你的项目等等。生成式AI和LLMs特别是一种通用技术。

2024-04-19 15:51:38 701

原创 学会如何学习学习笔记——4. 11复兴式学习与释放你的潜能——​​​​​​​与William Craig Rice就人文学科的学习进行的可选式访谈

William Craig Rice is the Director of the Division of Education Programs at the National Endowment for the Humanities, which sponsors seminars for college and school teachers on subjects as diverse as Shakespeare's plays, Mayan civilization and the Civil R

2024-01-26 14:29:57 462

原创 学会如何学习学习笔记——4. 10复兴式学习与释放你的潜能——​​​​​​​作家John Maguire(readablewriting.com)谈论在自己的写作中添加对象的重要性

John G Maguire comes from a family of news reporters and writers. His father, the late John Maguire, wrote for the Albany New York Times Union. His brother Gregory Maguire is a novelist whose work includes the book Wicked from which a hit musical has been

2024-01-25 13:43:57 489

原创 学会如何学习学习笔记——4. 9复兴式学习与释放你的潜能——​​​​​​​冒充者综合征和治疗拖延症,与Richard Felder博士和Rebecca Brent博士的访谈

我还发现,在手机上保持一个待办事项列表真的很有帮助,如果我把任务分解成更小的部分,那么我需要做的下一件事情是什么,这样就不会感到不知所措,我就能开始行动了。很多人的做法是按照时间块理论来工作,现在是处理提案或学期论文的时间,但一到周末,一到秋假或其他什么假期,那就是我真的要完成它的时候,这行不通。所以,如果我早上工作得好,我是个早起的人,我觉得我那时候思维清晰,那么每天早上。嗯,我非常相信半小时的时间块。点半,我的日程表上,我会预约自己,我会在那个半小时里处理那个提案,然后我就会停下来,回到我的生活中去。

2024-01-25 13:29:45 464

原创 学会如何学习学习笔记——4. 8复兴式学习与释放你的潜能——​​​​​​​学习新事物、与Richard Felder博士和Rebecca Brent博士的访谈

让我回到我之前提到的几点。所以你可以做的一件事是确保你正在考虑你试图理解的主题的所有不同方面,那就是设置它,看看你的文本中可能用于问题的复杂系统,然后只是思考。我会找出你卡在哪里的地方,你不会离开我的办公室,直到你得到那个问题的答案。当你自己面对一个新概念,或者你正在尝试弄清楚一些全新的、困难的东西时,你会有什么建议给学习者,以便他们能够掌握并吸收这些新想法,或者解决他们首次遇到的新领域的问题?因为当你在查看它,当你在处理例子以及你认为可能会被问到的东西时,你会发现一些你可能没有像你想象的那样了解的事情。

2024-01-23 12:58:39 464

原创 学会如何学习学习笔记——4. 7复兴式学习与释放你的潜能——​​​​​​​怎样才能不参加测验,与Richard Felder博士和Rebecca Brent博士的访谈

这与我们在本课程中讨论的内容非常相似,仅仅阅读一本书并不一定能将其内容放入你的大脑,必须积极掌握材料,与他人合作有时是一个很好的方式来帮助你巩固你正在学习的内容,并且填补你在尝试学习的内容中的空白。当我在处理某个问题时,可能是学生时代作业上的问题,可能是考试中的问题,可能是我博士研究中的问题,或者是我作为教员进行研究时遇到的问题。是的,就是这个意思。只是暗示一些相同的生活问题,有时我和我的丈夫,我们会考虑一个我们必须解决的问题,例如,我们如何安排面试,我们如何,我们会说,你知道我们今晚不必解决这个问题。

2024-01-23 12:43:58 435

原创 学会如何学习学习笔记——4. 6复兴式学习与释放你的潜能——课程总结,参考资料

世界正在进化,拥有一套工具包,让你能够在许多不同的学科领域有效地学习,这是你能够拥有的最强大的资产之一。祝你在学习生涯中好运。我们希望的是,随着时间的推移,你会继续回想起你在课程中学到的一些关键观点。即使是在日常工作中使用番茄工作法等看似微小的改变,也可以在你的学习和最终成功上产生戏剧性的长期影响。但现在你已经对神经层面下的东西有了更好的了解,你可以利用这一点来帮助你在整个生命中学习新事物。如果你还在听我们的课程,那么你已经完整地完成了整个课程,并且可能还记得在开始时,我说过大脑没有自带的说明书。

2024-01-23 12:25:40 809

原创 学会如何学习学习笔记——4. 5复兴式学习与释放你的潜能——​​​​​​​有用的、有关测验的最后提示,总结

如果你是一个压力很大的考生,请记住,当身体处于压力状态时,它会释放出像皮质醇这样的化学物质。这可能会导致手掌出汗、心跳加速、胃部绞痛等症状。但有趣的是,研究发现,你如何解释这些症状才是关键。你对自己为什么感到压力的故事决定了一切。如果你的思维方式从这次考试让我害怕转变为这次考试让我兴奋地尽我所能,它真的可以改善你的表现。对于容易紧张的考生来说,另一个好建议是暂时将注意力转移到呼吸上。放松你的胃部,把手放在上面,慢慢地深吸一口气。你的手应该向外移动,即使你的整个胸部像桶一样向外扩张。

2024-01-23 12:17:50 401

原创 学会如何学习学习笔记——4. 4复兴式学习与释放你的潜能——​​​​​​​测验清单,先难后易

既然你已经对大脑的工作原理有了一定的了解,我们可以给你一些最终有用的技巧来提高你的考试能力。然而,不幸的是,对许多人来说,这是适得其反的。在考试中使用从难题跳到简单题的技巧可以确保你对每个问题至少做了一点工作,这也是帮助你避免思维定势、陷入错误方法的重要技巧,因为你有机会从不同的角度看待问题。这意味着你在考试中所付出的努力,包括在准备过程中进行的初步回忆和解决问题能力的小型测试,具有至关重要的意义。现在是时候直接进入本课程的一个最终特点了,即你可以使用的一份检查清单,以查看你的考试准备是否准确。

2024-01-23 12:12:19 873

原创 学会如何学习学习笔记——4. 3复兴式学习与释放你的潜能——​​​​​​​改变你的思维,转变你的人生,团队合作的价值

通常,无论你的老师和教科书有多好,只有当你偷偷去看其他书籍或视频时,你才开始看到你通过一个老师或一本书学到的东西只是这个主题完整三维现实的部分版本,它与你选择的其他迷人话题有联系。患有这种障碍的人仍然可以部分地运作,但他们只能保留他们的智力,甚至是一种令人生畏的解决复杂数学问题的方法,如果这是他们之前拥有的技能的话。然而,在卡哈尔的自传中,他指出,尽管聪明的人可以做出杰出的工作,但就像其他人一样,他们也可能会粗心大意和带有偏见。利用你天生的倔强来对抗别人对你所能取得的成就的永远存在的偏见。

2024-01-23 12:07:22 305

原创 学会如何学习学习笔记——4. 2复兴式学习与释放你的潜能——​​​​​​​创建生动的视觉比喻或类比,不需要羡慕天才

如果你是那些一次不能记住很多东西的人之一,你就会失去焦点,开始在讲座中白日梦,并且不得不去一个安静的地方集中注意力,这样你就可以最大限度地利用你的工作记忆,那么欢迎来到创意家族。在某个时刻,有意识地理解你为什么做你所做的事情,只会减慢你的速度并打断流程,导致更糟糕的决定。当你碰巧在考试中表现良好时,那是一个偶然事件,然后在接下来的考试中,肯定他们会和你的家人和朋友最终会发现你到底有多无能。抬起头来看着开着的门吧。当你对所关注的话题有更深入的理解时,你可以修改你的隐喻,或者抛弃它们并创造出更有含义的隐喻。

2024-01-23 11:59:45 374

原创 学会如何学习学习笔记——4. 1复兴式学习与释放你的潜能——​​​​​​​怎样成为更好的学习者,复兴式学习与释放你的潜力概论

本单元我们将更多地探讨提升学习能力的重要理念与技巧。你还将了解怎样与其他学员更有效地互动、怎样认识到自己的优势、怎样避免“冒充者综合征”。战斗机飞行员与外科医生利用清单来帮助自己理清重要的任务,你也可使用类似的清单帮助自己备战测验。最后你还将更多地了解在学习中充实自我的乐趣。怎样成为更好的学习者欢迎回到如何学习这门课,今天我们来谈谈怎样成为更优秀的学习者。多了解大脑,有助于学习。对于这点,我们有两个小窍门。第一点奖励大脑最好的方式就是做运动。

2024-01-23 11:54:16 387

原创 学会如何学习学习笔记——3. 9 拖延症与记忆——与斯坦福大学Keith Devlin(美国公共广播电台“数学达人”)的访谈

Dr. Keith Devlin is a very big guy in the world of math education, not to mention the world of math research. I'm introducing you to him here because I love how he thinks about learning in the world of mathematics, and how his ideas about learning relate t

2024-01-22 14:14:37 460

原创 学会如何学习学习笔记——3. 8 拖延症与记忆——与获奖双语学家Robert Gamache的访谈

Dr. Robert Gamache was named by Thomson Reuters as one of the world's most influential scientific minds for 2014. He's also currently the Associate Vice President of Academic Affairs, Student Affairs, and International Relations at the University of Massac

2024-01-22 13:41:46 420

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除