自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 自动化您的任务——crewAI 初学者教程

在玩过crewAI之后,我只想让一切自动化。 您可能认为创建可以协同工作来完成任务的人工智能代理是一项复杂的工作。 新闻快讯:crewAI 让一切变得超级简单。今天,我写这篇文章是为了分享您开始使用一个非常流行的多智能体框架所需了解的所有信息:crewAI。 我将在这里或那里跳过一些内容,使本教程成为一个精炼的教程,概述帮助您入门的关键概念和要点

2024-05-21 15:12:20 1684 1

原创 Verba:终极 RAG 引擎 - 语义搜索、嵌入、矢量搜索等!

Verba 一款开源应用程序,旨在为开箱即用的检索增强生成 (RAG) 提供端到端、简化且用户友好的界面。 只需几个简单的步骤,即可在本地通过 HuggingFace 和 Ollama 或通过 OpenAI、Cohere 和 Google 等 LLM 提供商探索您的数据集并轻松提取见解。

2024-05-20 13:31:12 1131

原创 Phi-3-mini-4k-instruct 的功能测试

Phi-3-Mini-4K-Instruct 是一个 3.8B 参数、轻量级、最先进的开放模型,使用 Phi-3 数据集进行训练,其中包括合成数据和经过过滤的公开可用网站数据,重点是 高品质和推理密集的属性。 该型号属于 Phi-3 系列,Mini 版本有 4K 和 128K 两种变体,这是它可以支持的上下文长度(以令牌为单位)。该模型经历了训练后过程,其中结合了监督微调和针对指令遵循和安全措施的直接偏好优化。 当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3 Min

2024-04-28 23:45:32 1602 2

原创 一個令人著迷的話題!LangGraph 有何用途?

LangGraph 是一个用于使用 LLM 建立有状态、多参与者应用程式的函式库,它建构在 LangChain 之上(并旨在与 LangChain 一起使用)。 它扩展了 LangChain 表达式语言,能够以循环方式跨多个计算步骤协调多个链(或参与者)。 它的灵感来自 Pregel 和 Apache Beam。 目前公开的介面是受 NetworkX 启发的。主要用途是为您的法学硕士申请添加周期。 至关重要的是,LangGraph 并未仅针对 DAG 工作流程进行最佳化。

2024-04-27 04:20:12 1106

原创 Cognita:构建生产就绪的应用程序!(开源)

Langchain/LlamaIndex 提供易于使用的抽象,可用于在 Jupyter Notebook 上进行快速实验和原型设计。 但是,当产品投入生产时,会遇到一些限制,例如组件应该是模块化的、易于扩展和扩展。 这就是 Cognita 发挥作用的地方。 Cognita 在底层使用 Langchain/Llamaindex 并为您的代码库提供组织,其中每个 RAG 组件都是模块化、API 驱动且易于扩展的。 Cognita 可以在本地设置中轻松使用,同时为您提供生产就绪环境以及无代码 UI 支持。

2024-04-18 06:05:38 1549 1

原创 人工智能代理之后接下来会发生什么? 对您的代理来说最有用的工作流程是什么?

在本视频中,我们将深入探讨我们可以构建和使用的最重要的代理应用程序的创建:您的个人人工智能助理。您的私人助理可以为您编码、为您研究并组织您的数字生活。为了以个人人工智能助理的形式使用您的人工智能代理和提示链,我们需要一个提示您的代理的框架。这个框架的优点在于,它不会对您的提示、提示链或代理做出任何假设,所有这些都根据您的提示的激活关键字从 llm 路由器运行。您的代理运行各自独立的工作流程,最后您的个人人工智能助理 (ai va) 使用语音转文本 (STT) 完成 PAR 框架来响应您。

2024-04-16 23:33:38 670

原创 OSWorld:真实计算机环境中开放式任务的多模式代理基准测试

在 OSWorld 的基础上,我们创建了 369 项计算机任务的基准,涉及开放域中的真实 Web 和桌面应用程序、操作系统文件 I/O 以及跨多个应用程序的工作流程。 每个任务示例均源自真实世界的计算机用例,包括详细的初始状态设置配置和基于自定义执行的评估脚本,以实现可靠、可重复的评估。 对 OSWorld 上最先进的基于 LLM/VLM 的代理的广泛评估揭示了它们作为计算机助手的能力的重大缺陷。 虽然人类可以完成 72.36% 以上的任务,但最好的模型仅取得 12.24% 的成功,主要是在 GUI 基础和

2024-04-15 03:00:00 910 1

原创 全新 Mixtral 8x22b - Mistral 的新旗舰 MoE 开源模型

这是新发布的 Mistra-community/Mixtral-8x22B-v0.1 基础模型的微调。由于基础模型尚未明确接受聊天训练,因此我们在多语言聊天数据集上训练该模型,以便 LLM 社区可以使用该模型进行对话。该模型的准确率出奇的高,并且推理速度相当快(在我们的测试中单批次大约为 40 个令牌/秒),因此我们相信这对社区有用。从定性测试来看,该模型似乎相当聪明,尤其是在英语方面,并且对事实的回忆非常好。 它仍然可能与一些逻辑问题混淆,但也通过了我向它提出的许多逻辑问题,而其他开源法学硕士经常失败

2024-04-14 21:38:48 1211 1

原创 隆重推出 Rerank 3:高效企业搜索和检索的新基础模型

​今天,将推出最新的基础模型 Rerank 3,该模型旨在增强企业搜索和检索增强生成Retrieval Augmented Generation (RAG) 系统。模型与任何数据库或搜索索引兼容,也可以插入任何具有本机搜索功能的遗留应用程序中。 只需一行代码,Rerank 3 就可以提高搜索性能或降低运行 RAG 应用程序的成本,而对延迟的影响可以忽略不计。具有长上下文的生成模型具有执行 RAG 的能力。 然而,为了优化准确性、延迟和成本,RAG 解决方案需要结合生成模型和我们的 Rerank 模型

2024-04-13 02:20:54 1416

原创 如何构建一个个人的 OpenAI 服务器(这样你就可以自动化财务工作)

llama.cpp您是否对 OpenAI 模型的功能着迷,并想尝试创建一个虚假的 OpenAI 服务器用于测试或教育目的?在本指南中,我们将引导您完成使用 llama.cpp 设置模拟 OpenAI 服务器的过程,并提供演示代码片段来帮助您入门。

2024-04-12 10:10:49 1306

原创 现已通过Elastic‘s Inference API 提供 Cohere 嵌入

此功能处于技术预览阶段,可能会在未来版本中更改或删除。 Elastic 将努力解决任何问题,但技术预览版中的功能不受官方 GA 功能的支持 SLA 的约束。

2024-04-11 21:23:35 1059

原创 RAG 使用 Cohere 的 Command R+

​一个检索增强生成(RAG)应用程序,它允许您“与您的文档聊天”。 在整个过程中,我们了解了LlamaIndex,这是用于构建 RAG 应用程序的转到库和 Cohere 的 RAG 堆栈,我们在其中使用它们的模型进行嵌入生成、重新排名和 Command R+ LLM(旨在解决企业级工作负载的 RAG 优化模型)。

2024-04-10 08:29:21 1475 3

原创 未经审查的 Mistral v0.2 Dolphin LLM - 不会拒绝任何东西!

​Dolphin-2.8 具有多种指导、对话和编码技能。海豚未经审查。 我已经过滤了数据集以消除对齐和偏差。 这使得模型更加合规。 建议您在将模型公开为服务之前实现自己的对齐层。 它将高度遵守任何要求,甚至是不道德的要求。 请阅读我关于未经审查模型的博客文章。 https://erichartford.com/uncensored-models 您应对使用此模型创建的任何内容负责。 负责任地享受。

2024-04-09 04:30:31 666

原创 全新通用 AI jailbreak粉碎了 GPT4、Claude、Gemini、LLaMA

我们研究了一种“越狱”技术——一种可以用来逃避大型语言模型(LLMs)开发人员设置的安全护栏的方法。这项我们称之为“多次越狱”的技术对 Anthropic 自己的模型以及其他人工智能公司生产的模型都有效。我们提前向其他人工智能开发人员通报了此漏洞,并已在我们的系统上实施了缓解措施。该技术利用了去年急剧增长LLMs的一个功能:上下文窗口。2023 年初,上下文窗口(LLMs可以作为其输入处理的信息量)约为一篇长论文的大小(约 4,000 个令牌)。

2024-04-08 18:36:04 810

原创 SWE-Agent 这是针对本地模型的新人工智能一个开源项目

完全自主的编码代理,可以解决 GitHub 问题。它在编码基准测试中的得分几乎与 Devin 一样高。这是完整的评论和教程。SWE-agent 将 LM(例如 GPT-4)转变为软件工程代理,可以修复真实 GitHub 存储库中的错误和问题。🎉 在完整的 SWE-bench 测试集上,SWE-agent 修复了 12.29% 的问题,这是完整测试集上最新的结果。我们通过设计简单的以 LM 为中心的命令和专门构建的输入和输出格式来实现这些结果,使 LM 更容易浏览存储库、查看、编辑和执行代码文件。

2024-04-06 05:24:33 1677 1

LangGraph 是一个令人着迷的话题 由于它是一种新兴语言,目前还没有太多信息,但我可以为您提供一些见解和更新

LangGraph 是一个令人着迷的话题。 由于它是一种新兴语言,目前还没有太多信息,但我可以为您提供一些见解和更新。 LangGraph 有何用途? LangGraph 主要是为通用编程而设计的,注重可读性、效率和灵活性。 它旨在通过允许开发人员编写看起来更像自然语言的代码来简化开发过程。 主要特征: 自然语言语法:LangGraph使用类似于自然语言的语法,使非技术人员更容易理解和使用。 可读性:该语言被设计为具有高度可读性,减少开发人员的认知负担。 效率:LangGraph 旨在通过提供快捷方式和简化常见编程任务来减少编码时间。 灵活性:它允许开发人员编写适应不断变化的需求并可以处理复杂任务的代码。 结论:LangGraph 将编程语言与自然语言的优势相结合,有可能彻底改变我们编写代码的方式。 虽然它仍然是一项新兴技术,但其独特的功能和潜在的应用使其成为令人兴奋的发展。

2024-04-27

Cognita 是一个开源框架,用于组织 RAG 代码库以及用于处理不同 RAG 自定义的前端 它提供了一种简单的方法来组织

Langchain/LlamaIndex 提供易于使用的抽象,可用于在 Jupyter Notebook 上进行快速实验和原型设计。 但是,当产品投入生产时,会遇到一些限制,例如组件应该是模块化的、易于扩展和扩展。 这就是 Cognita 发挥作用的地方。 Cognita 在底层使用 Langchain/Llamaindex 并为您的代码库提供组织,其中每个 RAG 组件都是模块化、API 驱动且易于扩展的。 Cognita 可以在本地设置中轻松使用,同时为您提供生产就绪环境以及无代码 UI 支持。 Cognita 默认情况下还支持增量索引。 Cognita 使定制和试验有关 RAG 系统的所有内容变得非常容易,并且仍然能够以良好的方式部署它。 它还附带一个 UI,可以更轻松地尝试不同的 RAG 配置并实时查看结果。 您可以在本地使用它,也可以使用/不使用任何 Truefoundry 组件。 然而,使用 Truefoundry 组件可以更轻松地测试不同的模型并以可扩展的方式部署系统。 Cognita 允许您使用一个应用程序托管多个 RAG 系统。

2024-04-18

OSWorld:真实计算机环境中开放式任务的多模式代理基准测试

OSWorld 是首个适用于多模式代理的可扩展真实计算机环境,支持任务设置、基于执行的评估以及跨操作系统的交互式学习。 它可以作为一个统一的环境来评估涉及任意应用程序的开放式计算机任务(例如上图中的任务示例)。 我们还通过可靠、可重复的设置和评估脚本在 OSWorld 中创建了 369 个真实计算机任务的基准。 OSWorld 环境使用配置文件来初始化任务(以红色突出显示)、代理交互、代理完成时的后处理(以橙色突出显示)、检索文件和信息(以黄色突出显示)以及执行评估函数(以绿色突出显示) )。 相应的配置项以与环境中各自组件相匹配的颜色突出显示。 出于学习或评估目的,环境可以在单个主机上并行运行。 支持无头操作。 数据统计与比较 以最少的人为干预完成复杂的计算机任务的自主代理有可能改变人机交互,显着提高可访问性和生产力。 然而,现有的基准测试要么缺乏交互环境,要么仅限于特定应用程序或领域的环境,无法反映现实世界计算机使用的多样性和复杂性,从而限制了任务的范围和代理的可扩展性。 为了解决这个问题,我们推出了 OSWorld,这是第一个可扩展的、真实的多模式代理计算机环境,支持任务设置、基

2024-04-14

llama.cpp 的主要目标是在本地和云端的各种硬件上以最少的设置和最先进的性能实现 LLM 推理

没有任何依赖的纯 C/C++ 实现 Apple 芯片是一等公民 - 通过 ARM NEON、Accelerate 和 Metal 框架进行优化 对 x86 架构的 AVX、AVX2 和 AVX512 支持 1.5 位、2 位、3 位、4 位、5 位、6 位和 8 位整数量化,可加快推理速度并减少内存使用 用于在 NVIDIA GPU 上运行 LLM 的自定义 CUDA 内核(通过 HIP 支持 AMD GPU) Vulkan、SYCL 和(部分)OpenCL 后端支持 CPU+GPU 混合推理,部分加速大于 VRAM 总容量的模型 自启动以来,由于许多贡献,该项目已取得显着改进。 它是为 ggml 库开发新功能的主要场所。 支持的平台: Mac OS Linux Windows (via CMake) Docker FreeBSD 支持型号: 通常还支持以下基本模型的微调。 LLaMA LLaMA 2 Mistral 7B Mixtral MoE Falcon Chinese LLaMA / Alpaca and Chinese LLaMA-2 /

2024-04-12

LM studio Server 您可以通过在本地主机上运行的 API 服务器使用在 LM Studio 中加载的 LLM

请求和响应遵循 OpenAI 的 API 格式。 将当前使用 OpenAI 的任何代码指向 localhost:PORT 以使用本地 LLM 支持的端点 GET /v1/models POST /v1/chat/completions POST /v1/embeddings POST /v1/completions 使用本地服务器 1.如果尚未安装 LM Studio,请安装。 从 https://lmstudio.ai 获取应用程序安装程序。 2. 在应用程序内,搜索并下载 LLM,例如 TheBloke/Mistral-7B-Instruct-v0.2-GGUF(磁盘上大约 4GB) 3.前往“本地服务器”选项卡(左侧的 <->) 4.从下拉列表中选择加载您下载的任何 LLM。 5.单击绿色的启动服务器按钮启动服务器。 您的 LM Studio 现在将准备好接受传入的 API 请求。 您可以安全地最小化应用程序; 服务器将继续运行。

2024-04-10

Ollama 提供了一个简单的 API,用于创建、运行和管理语言模型 它还提供了一个预构建模型库,可以轻松集成到您的应用程序中

在本地运行模型 安装 Ollama 后,您可以运行各种语言模型。 我们以骆驼2为例: 此命令会启动 Llama 2,让您可以与它交互。 但还有哪些其他型号可供选择? Ollama 支持多种功能,包括 Mistral、Dolphin Phi、Neural Chat 等。 这是一个快速概述: ollama run llama2 Llama 2:用于一般语言任务的 70 亿参数模型。 Mistral:另一个具有独特功能的 70 亿参数模型。 Dolphin Phi:专为特定用例设计的 27 亿参数模型。 神经聊天:用于基于聊天的应用程序的 70 亿参数模型。 您可以使用以下命令下载这些模型: ollama run mistral ollama run dolphin-phi ollama run neural-chat 请记住,70 亿参数模型至少需要 8 GB RAM,而 130 亿参数模型需要 16 GB。 330 亿个参数的模型? 那么,您需要高达 32 GB 的 RAM。 定制模型 导入模型 Ollama 允许您从各种来源导入模型。您可以使用模型文件导入 GGUF

2024-04-10

axolotl 是一款旨在简化各种人工智能模型微调的工具,提供对多种配置和架构的支持

特征: - 训练各种 Huggingface 模型,如 llama、pythia、falcon、mpt - 支持 fullfinetune、lora、qlora、relora 和 gptq - 使用简单的 yaml 文件或 CLI 覆盖自定义配置 - 加载不同的数据集格式、使用自定义格式或引入您自己的标记化数据集 与 xformer、Flash Attention、绳索缩放和多重包装集成 - 通过 FSDP 或 Deepspeed 与单个 GPU 或多个 GPU 配合使用 - 在本地或云端轻松使用 Docker 运行 - 将结果和可选的检查点记录到 wandb 或 mlflow - 和更多! Get started with Axolotl in just a few steps! This quickstart guide will walk you through setting up and running a basic fine-tuning task. Requirements: Python >=3.10 and Pytorch >=2.1.1.

2024-04-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除