Claude又发新货:3.5 Sonnet和3.5 Haiku重磅登场 附Claude 3.5 API Key价格

uiuiapi319x1512.gif

Anthropic公司近日宣布推出两款全新AI模型:升级版Claude 3.5 Sonnet和全新Claude 3.5 Haiku。这次更新不仅带来了性能的全面提升,更引入了突破性的计算机使用功能。

介绍升级版的 Claude 3.5 Sonnet,以及新型号 Claude 3.5 Haiku。我们还推出了一项新的测试功能:计算机使用。 开发人员现在可以指示 Claude 像人类一样使用计算机——通过查看屏幕、移动光标、点击和输入文本。

uiuiapicAAkHHL.png

上图UIUIHAO总结就是:

Sonnet 3.5 在 ChatLLM 上线,编码能力超越 O1-mini 和 O1-Preview。它在 Livebench AI 上得分最高,达 67.13 分。

O1-preview 仍是最佳整体模型,O1-mini 在某些复杂编码任务上表现更佳。

Claude 3.5 Sonnet:革命性突破

升级后的Claude 3.5 Sonnet在各方面都超越了前代版本,尤其是在编码领域取得了显著进展。在SWE-bench Verified测试中,其得分从33.4%跃升至49.0%,超越所有公开模型。在TAU-bench代理工具使用任务中也表现出色,零售和航空领域得分均大幅提升。

最引人注目的是Claude 3.5 Sonnet引入的计算机使用功能。通过Sonnet API,AI现在可以像人类一样操作计算机:查看屏幕、移动光标、点击按钮和输入文本。这一功能的工作原理包括四个主要步骤:

1. 明确工具和任务
2. Claude选择使用工具
3. 提取工具信息,运行工具并返回结果
4. 继续使用工具直到完成任务

在OSWorld基准测试中,Claude 3.5 Sonnet的表现远超其他AI系统,展示了其强大的计算机操作能力。

超越计算机使用,新版 Claude 3.5 Sonnet 在编码方面带来了显著的提升——这是它已经领先的领域。 Sonnet 在 SWE-bench Verified 上的得分高于所有可用模型,包括像 OpenAI o1-preview 这样的推理模型和专门的代理系统。

uiuiapi011moL.png

Claude 3.5 Sonnet的定价如下:
- 正常使用:输入$3/100万token,输出$15/100万token
- 命中缓存:输入$3.75/100万token,输出$0.30/100万token

Claude 3.5 Sonnet已正式上线于网页和App,并支持通过Anthropic API、Amazon Bedrock和Google Cloud进行调用。

Haiku 现在在编码任务上超越了许多最先进的模型——包括原始的 Claude 3.5 Sonnet 和 GPT-4o——而成本与之前相同。 新的 Claude 3.5 Haiku 将于本月晚些时候发布。

uiuiapi10A7NeW.png

Claude 3.5 Haiku:性能与效率的完美平衡

Claude 3.5 Haiku是Anthropic最快模型的下一代版本。在保持与前代相同成本和速度的同时,其性能达到了前代最强模型Claude 3 Opus的水平,甚至在多项测试中超越了GPT-4o-mini。

Claude 3.5 Haiku的定价如下:
- 正常使用:输入$0.25/100万token,输出$1.25/100万token
- 命中缓存:输入$0.3/100万token,输出$0.03/100万token

Claude 3.5 Haiku将于本月晚些时候推出,初期将以纯文本模型形式提供,后续将支持图像输入。

下面这是一段Claude 3.5 Sonnet API示例调用:

Python 流式

from openai import OpenAI
# 设置API密钥
api_key = "sk-HTdmSI6B2cNt***********************************
# 设置 BASE_URL接口地址
api_base = "https://sg.uiuiapi.com/v1"
client = OpenAI(api_key=api_key, base_url=api_base)

completion = client.chat.completions.create(
  model="claude-3.5-sonne",
  stream: True,
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Hello!"}
  ]
)

for chunk in completion:
  print(chunk.choices[0].delta)

Python 非流

from openai import OpenAI

api_key = "sk-HTdmSI6B2cNt************************************"
# 设置 BASE_URL接口地址/开发者快速获取Claude3.5 APIKey参考 uiuiapi.com
api_base = "https://sg.uiuiapi.com/v1"
client = OpenAI(api_key=api_key, base_url=api_base)

completion = client.chat.completions.create(
  model="claude-3.5-sonne",
  stream: False,
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Hello!"}
  ]
)

print(completion.choices[0].message)

Anthropic强调,虽然计算机使用功能仍处于实验阶段,但公司正积极采取措施确保其安全部署。他们鼓励开发者从低风险任务开始探索,并开发了新的分类器来识别潜在的危害行为。

多家知名公司如Asana、Canva、Cognition、DoorDash、Replit和The Browser Company已开始探索这些新功能的潜力,将其应用于复杂的多步骤任务中。

总的来说,这次更新标志着AI技术的重大进步,尤其是在编码和计算机操作方面。随着这些新功能的不断完善,我们可以期待AI在更多领域发挥越来越重要的作用,为人类工作和生活带来革命性的变革。

<think>好的,我现在需要帮助用户了解Claude 3.5 API的本地部署或使用方法。首先,我要确认用户的需求是什么。用户提到了Claude 3.5的两个模型,SonnetHaiku,并且引用了三个相关的资料,可能这些资料中有关于API使用的信息。我需要先回顾这些引用内容,看看是否有关于本地部署的具体说明。 引用[2]提到Claude 3.5 Sonnet可以通过Anthropic API、Amazon BedrockGoogle Cloud进行调用。引用[3]则指出模型经过严格测试,保持在ASL-2级别,但可能没有直接提到本地部署。引用[1][3]都提到了安装使用方法,但可能需要具体步骤。 接下来,我需要考虑Claude 3.5的部署方式。通常,像Claude这样的模型可能不提供本地部署选项,而是通过云端API访问。用户询问本地部署,可能是因为他们希望在自己的服务器上运行模型,这可能涉及模型权重下载、环境配置等步骤。但根据提供的引用,似乎Claude 3.5主要通过API调用,而非本地部署。 我需要验证是否有官方文档支持本地部署。根据现有信息,Anthropic可能没有开放模型的本地部署权限,用户可能需要依赖云服务。因此,正确的步骤可能是通过API密钥进行调用,而不是本地安装。 然后,我应该整理使用API的步骤,包括获取API密钥、安装必要的库(如anthropic库)、编写调用代码,以及处理响应。同时,需要注意认证错误处理,比如环境变量设置异常捕获。 另外,用户可能混淆了本地部署API调用,需要明确两者的区别。如果有本地部署的可能性,比如通过Docker或特定框架,但目前的信息显示Claude 3.5可能不支持,所以需要明确指出这一点,避免误导用户。 最后,生成相关问题,帮助用户进一步了解API的使用场景、认证方式、模型选择等,确保回答全面。</think>根据官方文档技术资料显示,Claude 3.5系列目前主要提供云API调用服务[^2][^3]。以下是通过API本地调用的详细操作步骤(以Python环境为例): ### 一、环境准备 1. 安装最新版Anthropic SDK: ```bash pip install anthropic>=0.25.0 ``` 2. 设置环境变量(推荐使用`.env`文件): ```env ANTHROPIC_API_KEY=your_api_key_here ``` ### 二、基础API调用 ```python import anthropic import os client = anthropic.Anthropic( api_key=os.environ["ANTHROPIC_API_KEY"] ) response = client.messages.create( model="claude-3-5-sonnet-20240620", # 模型标识符 max_tokens=1000, temperature=0.7, system="你是一个专业的AI助手", messages=[ {"role": "user", "content": "解释量子计算的基本原理"} ] ) print(response.content[0].text) ``` ### 三、高级配置 1. **流式响应**: ```python with client.messages.stream( model="claude-3-5-sonnet-20240620", max_tokens=1024, messages=[...] ) as stream: for chunk in stream: print(chunk.content, end="", flush=True) ``` 2. **多模态处理**: ```python message = client.messages.create( model="claude-3-5-sonnet-20240620", max_tokens=1000, messages=[ { "role": "user", "content": [ { "type": "image", "source": { "type": "base64", "media_type": "image/png", "data": "iVBORw0KGgoAAAANSUhEUgAA..." } }, {"type": "text", "text": "描述这张图片"} ] } ] ) ``` ### 四、部署注意事项 1. 当前API版本暂不支持完全本地部署,需通过以下渠道调用: - 直接使用Anthropic官方API - 通过Amazon Bedrock服务 - 通过Google Cloud Vertex AI 2. 费用计算示例: - 输入token:$0.003/千token - 输出token:$0.015/千token (具体价格请以官方最新公告为准)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值