- 博客(1)
- 资源 (14)
- 收藏
- 关注
转载 这才是2018年的技术趋势:云、大数据、IOT深度融合
2018年,在应用需求的推动下,云计算、大数据、物联网等新技术的融合发展将更加明显,其中的云计算也将继续演化,步入全新的3.0时代。 在这个言必谈AI(人工智能)的时代,似乎再说其他技术就显得low了,但从实际应用的角度而言,企业目前刚刚在云计算、大数据、物联网等的应用上起步,远远谈不上应用成熟,更不用说在此基础上实现人工智能了。 在Gartner发布的2017新兴技术
2018-02-02 08:59:33 2371
大规模语言模型(LLMs)的微调技术和实践指南
内容概要:该文针对大规模语言模型(LLMs)微调技术展开深入讨论,涵盖所需硬件规格、微调时常见的灾难性遗忘、领域知识注入方法以及数据质量和数量的选择等多个议题,并提供了训练及微调的实用技巧和经验分享。
适用人群:适用于具有一定机器学习基础知识的研发人员,特别是关注大模型微调的技术专家、数据科学家及NLP从业者。
使用场景及目标:本文适用于希望对既有语言模型在某一特定领域或应用进行效能提升的研究员和开发者。
其他说明:通过对多个技术要点的具体阐述和建议,帮助从业者有效地实施大模型的微调工作,解决常见挑战,并最大化提升特定任务性能。
2024-09-16
大型语言模型中的损失函数及其应用场景解读
本文深入探讨了几种重要的损失函数概念,包括KL散度和交叉熵。详细解释了这些函数的应用场合及其区别,在多任务学习中的调节技巧以及分类任务选用交叉熵而非均方误差的原因,并阐述了信息增益与多分类情况下的损失函数应用细节,还提供了在极值情形下求解Softmax函数的方法指导。
适合人群:有一定机器学习背景的研究人员和开发者。
使用场景及目标:本文章主要帮助深度理解和正确运用常见的损失函数于模型构建与评估过程中,特别关注在LLMs和复杂的数据集环境下。
其他说明:通过对理论与实际案例讨论的形式呈现知识点,旨在加深从业者对该领域的把握力。
2024-09-16
Transformers库使用指南-Bert模型加载与操作详解
内容概要:本文档主要介绍了如何在Python环境下使用Hugging Face Transformers库加载并应用BERT模型。具体包括了加载模型、获取指定隐藏层的表示以及如何从BERT获取最后的或所有层网络输出等关键操作流程。
适用人群:具备一定的NLP基础知识,希望通过Transformers工具使用预训练的BERT模型的应用开发者。
使用场景及目标:①学习如何高效利用现有的Transformers框架加载和运行复杂的自然语言处理模型如BERT; ②理解模型输出的各种向量(如hidden_states、attentions)的意义,以及它们在不同应用场景下发挥的作用。
2024-09-16
大模型LLMs基础面试知识
内容概要:介绍了大模型(LLMs)的基础知识,使用场景及目标:适用于理解当前最先进LLMs的基本结构和技术趋势、各架构间的差异对比及各自的使用案例,并明确其存在的机遇与挑战。
阅读建议:阅读本文档时应重点关注模型系统间的差异性,以及LLMs所带来的价值与挑战,并结合最新的行业报告和发展动向加深理解。
2024-09-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人