
亚马逊云科技 re:Inforce 2024 中国站
再度来袭!
想要了解安全领域的最新发展趋势?
想要学习专业大咖们的深度剖析与见解?
👇 快来了解大会详情吧 👇

本文作者 Channy Yun
亚马逊云科技首席布道师
今天,我们宣布在Amazon Bedrock上提供 Llama 3.1模型。Llama 3.1 模型是极其先进、强大的模型。Llama 3.1 模型包括 8B、 70B 和 405B 三种参数量的模型,在广泛的行业基准测试中展现出了极先进的性能,并为您的生成式 AI 应用程序提供了新的功能。
所有 Llama 3.1 模型都支持 128K 的上下文长度(比 Llama 3 多出 120K 个 token),容量是 Llama 3 模型的 16 倍,并针对包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语在内的八种语言的多语种对话用例,提高了推理能力。
您现在可以在 Amazon Bedrock 中使用三种新的 Llama 3.1 模型,来构建、实验和负责任地扩展您的生成式 AI 理念:

Amazon Bedrock
扫码了解更多
Llama 3.1 405B (预览版)据称是目前公开可用的极大的大型语言模型 (LLM)。该模型为生成式 AI 确立了新的标准,非常适合企业级应用和研发。它非常适合诸如合成数据生成之类的任务,其模型输出可用于改进较小参数的 Llama 模型和模型蒸馏,从 405B 模型向较小模型转移知识。该模型擅长于通用知识、长文本生成、多语种翻译、机器翻译、编码、数学、工具使用、增强的上下文理解以及高级推理和决策。要了解更多信息,请访问亚马逊云科技机器学习博客,了解如何使用 Llama 3.1 405B 生成用于模型蒸馏的合成数据。
Llama 3.1 70B 非常适合内容创作、对话式 AI、语言理解、研发和企业应用。该模型擅长于文本摘要和准确性、文本分类、情感分析和细微推理、语言建模、对话系统、代码生成和遵循指令。
Llama 3.1 8B 极其适合计算能力和资源有限的情况。该模型擅长于低延迟推理需求下的文本摘要、文本分类、情感分析和语言翻译场景。
Llama 3.1 的性能在超过 150 个涵盖广泛语言的基准数据集上经受了测试,并经过了大量的人工评估。如下图所示,Llama 3.1 在每个主要基准测试类别中都优于 Llama 3。

要了解更多关于 Llama 3.1 的功能和能力,请访问 Llama 3.1 模型资料和亚马逊云科技文档中的 Llama 模型。
您可以利用 Llama 3.1 的负责任 AI 功能,结合 Amazon Bedrock 的数据治理和模型评估功能,自信地构建安全可靠的生成式 AI 应用程序。
Guardrails for Amazon Bedrock - 通过针对特定用例创建具有不同配置的多个防护措施,您可以使用 Guardrails 来促进用户与您的生成式 AI 应用程序之间安全的交互,实施定制的保护措施,以符合您的使用情况和负责任 AI 政策。使用 Guardrails for Amazon Bedrock,您可以持续监控和分析可能违反客户定义的政策的用户输入和模型响应,检测模型响应中不基于企业数据或与用户查询无关的虚构内容,并跨不同模型(包括自定义和第三方模型)进行评估。要开始使用,请访问亚马逊云科技文档中的创建防护措施。
Amazon Bedrock 上的模型评估 - 您可以使用自动评估或人工评估,通过几个步骤评估、比较并为您的用例选择更合适的 Llama 模型。使用 Amazon Bedrock 上的模型评估,您可以选择使用准确性、鲁棒性和有害性等预定义指标进行自动评估。或者,您可以选择针对相关性、风格和与品牌调性的一致性等主观或自定义指标的人工评估工作流程。模型评估提供内置的精选数据集,或者您可以引入自己的数据集。要开始使用,请访问亚马逊云科技文档中的开始使用模型评估。
要了解如何保护您在亚马逊云科技账户中的数据和应用程序的安全和隐私,请扫码访问 Amazon Bedrock 安全和隐私页面。

Amazon Bedrock
安全和隐私
扫码了解更多
在 Amazon Bedrock 中
开始使用 Llama 3.1 模型
如果您是第一次使用 Llama 模型,请转到美国西部(俄勒冈)地区的 Amazon Bedrock 控制台,并在左下方窗格中选择模型访问。要访问最新 Llama 3.1 模型,请分别申请访问 Llama 3.1 8B Instruct 或 Llama 3.1 70B Instruct。
要申请在 Amazon Bedrock 中预览 Llama 3.1 405B Instruct 模型的访问权限,请联系您的亚马逊云科技账户团队或通过亚马逊云科技管理控制台提交支持票证。创建支持票证时,请选择 Amazon Bedrock 作为服务,模型作为类别。

要在 Amazon Bedrock 控制台中测试 Llama 3.1 模型,请在左侧菜单窗格中的 “Playgrounds” 下选择 “Text” 或 “Chat”。然后选择 “Select model”,将类别设置为 “Meta”,并选择 Llama 3.1 8B Instruct、Llama 3.1 70B Instruct 或 Llama 3.1 405B Instruct 作为模型。
在下面的示例中,我选择了 Llama 3.1 405B Instruct 模型。

通过选择 “View API request”,您也可以使用亚马逊云科技命令行界面 (Amazon CLI) 和 Amazon SDKs 中的代码示例来访问模型。您可以使用诸如 meta.llama3-1-8b-instruct-v1、 meta.llama3-1-70b-instruct-v1 或
meta.llama3-1-405b-instruct-v1 等模型 ID。

Amazon CLI
扫码了解更多
这是一个 Amazon CLI 命令的示例:
aws bedrock-runtime invoke-model \
--model-id meta.llama3-1-405b-instruct-v1:0 \
--body "{\"prompt\":\" [INST]You are a very intelligent bot with exceptional critical thinking[/INST] I went to the market and bought 10 apples. I gave 2 apples to your friend and 2 to the helper. I then went and bought 5 more apples and ate 1. How many apples did I remain with? Let's think step by step.\",\"max_gen_len\":512,\"temperature\":0.5,\"top_p\":0.9}" \
--cli-binary-format raw-in-base64-out \
--region us-east-1 \
invoke-model-output.txt
左右滑动查看完整示意
您可以在 Amazon Bedrock 中使用 Llama 模型代码示例,通过 Amazon SDK 使用多种编程语言构建应用程序。以下 Python 代码示例展示了如何使用 Amazon Bedrock 的 Converse API 向 Llama 发送文本消息,用于文本生成。
import boto3
from botocore.exceptions import ClientError
# Create a Bedrock Runtime client in the AWS Region you want to use.
client = boto3.client("bedrock-runtime", region_name="us-east-1")
# Set the model ID, e.g., Llama 3 8b Instruct.
model_id = "meta.llama3-1-405b-instruct-v1:0"
# Start a conversation with the user message.
user_message = "Describe the purpose of a 'hello world' program in one line."
conversation = [
{
"role": "user",
"content": [{"text": user_message}],
}
]
try:
# Send the message to the model, using a basic inference configuration.
response = client.converse(
modelId=model_id,
messages=conversation,
inferenceConfig={"maxTokens": 512, "temperature": 0.5, "topP": 0.9},
)
# Extract and print the response text.
response_text = response["output"]["message"]["content"][0]["text"]
print(response_text)
except (ClientError, Exception) as e:
print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}")
exit(1)
左右滑动查看完整示意
您还可以在 Amazon SageMaker JumpStart 中使用所有 Llama 3.1 模型(8B、70B 和 405B)。您可以在 Amazon SageMaker Studio 中通过几次点击部署 Llama 3.1 模型,或者通过 Amazon SageMaker Python SDK 以编程方式完成。您可以使用 Amazon SageMaker 功能(如 Amazon SageMaker Pipelines、Amazon SageMaker Debugger 或容器日志)在您的虚拟私有云 (VPC) 控制下操作您的模型,有助于提供数据安全性。
Amazon Bedrock 和 Amazon SageMaker JumpStart 中对 Llama 3.1 模型的微调功能即将推出。在 Amazon SageMaker JumpStart 中构建微调模型时,您还可以将自定义模型导入到 Amazon Bedrock。您可扫码访问亚马逊云科技机器学习博客上的 “Meta Llama 3.1 模型现已在 Amazon SageMaker JumpStart 中可用”,以获得更多信息。
对于希望通过自主管理的机器学习工作流在亚马逊云科技上部署 Llama 3.1 模型以获得更大灵活性和对底层资源的控制权的客户,Amazon Trainium 和 Amazon Inferentia 支持的 Amazon Elastic Compute Cloud (Amazon EC2) 实例可实现 Llama 3.1 模型在亚马逊云科技服务上的高性能、低成本部署。您可扫码访问亚马逊云科技机器学习博客上的 “Amazon AI 芯片赋能 Llama 3.1 模型,实现在亚马逊云科技上的高性能和低成本建构”,以获得更多信息。

Amazon SageMaker Studio
扫码了解更多

官方博客文章 1
扫码了解更多

官方博客文章 2
扫码了解更多
左右滑动查看更多
现已推出
Llama 3.1 8B 和 70B 模型现已在美国西部(俄勒冈州)地区的 Amazon Bedrock 中正式可用,Llama 450B 模型目前处于预览阶段。如需申请预览 Llama 3.1 405B 的使用权限,请联系您亚马逊云科技客户经理或提交支持工单。请留意后续地区上线情况。欲了解更多信息,请查看 Amazon Bedrock 的 Llama 产品页面和定价页面。
现在就开始在 Amazon Bedrock 控制台试用 Llama 3.1 吧!并通过 Amazon re:Post 社区或您常用的亚马逊云科技支持渠道反馈意见。
访问我们的 community.amazon 网站,获取深入的技术内容,了解我们的构建者社区如何在解决方案中使用 Amazon Bedrock。欢迎告诉我您在 Amazon Bedrock 中使用 Llama 3.1 构建了什么!
本篇作者

Channy Yun
亚马逊云科技首席布道师,热衷于帮助开发者在最新的亚马逊云科技服务上构建现代化应用程序。作为一名实用主义开发者和博主,他热爱社区驱动的技术学习和分享,这推动了全球亚马逊云科技用户组的发展。他的主要专题包括开源、容器、存储、网络和安全以及物联网。
立即上手体验




星标不迷路,开发更极速!
关注后记得星标「亚马逊云开发者」
点击阅读原文查看博客,获得更详细内容
听说,点完下面4个按钮
就不会碰到bug了!

9308

被折叠的 条评论
为什么被折叠?



