我“开发“了一款大模型应用,AI门槛这么低了吗?

现在国产大模型多如牛毛。虽然可选的大模型产品很多,但普遍存在同质化、高分低能、实用性差、专业性不足的问题,哪怕是诸如ChatGPT、Gemini这样全球顶尖的大模型也会存在这种情况。

还有一点比较重要的是,由于大模型需要算力、算法、数据的基础支持,一般被大公司所把控,小企业和个人很难去参与,大公司普遍缺乏想象力的,而小企业和个人才是创新的底层动力。所以大模型需要有足够低的门槛让更多人参与进来,才能真正的走向商业化。

同时,也需要有硬实力。前段时间有粉丝和我说,他正在“BigModel开放平台”上在构建一款小说解读应用-小说神器,专门用来解读长篇小说,并提炼生成短篇故事脚本,然后再剪辑成自媒体视频,一整套的流程完全可以交给AI。我觉得这个还是蛮有意思的,让开发者自己去构建垂直应用。

他用的模型是GLM-4-Long,可以用于处理长文本。整个流程大概是:先构建知识库,比如各种小说文本。然后构建Ai应用,选择模型并微调,最后进行测试并上线。

长文本神器-GLM-4-Long模型

我特地查了下GLM-4-Long,这是智谱AI BigModel开放平台推出的一款专为处理超长文本和记忆型任务设计的大模型。

看了下文档介绍,GLM-4-Long具有高达100万字符的上下文长度支持,可以进行多文档分析、长篇幅内容生成等。

开发AI汽车选购应用

接下来,我尝试用GLM-4-Long模型构建了一个AI汽车选购建议工具-名叫“帮帮选车”,并提供一个具体的构建过程,包括使用Python接入API的示例代码。

  • 需求分析

每次构建AI应用首先确定应用的目标用户和核心功能,“帮帮选车”是为不同需求的用户提供个性化的汽车推荐,你只需要提出自己的买车需求,它就可以针对性的给出建议。

比如prompt: “我是一名刚毕业的大学生,想买一辆经济实惠且皮实的轿车,预算有限10万左右,用于平时上班代步,周末自驾短途出游。请你推荐一款符合我需求的车”。

  • 数据准备

“帮帮选车”是汽车类应用,所以必须学习汽车相关的知识,比如车型、参数、技术、价格、用户口碑等等,就需要收集汽车相关的长文本数据,如汽车说明书、用户评价、汽车参数等,用于GLM-4-Long大模型的学习。

  • 环境配置

这里需要注册BigModel开放平台账号并获取API Key,然后安装BigModel 的Python库,用于连接接口,进行数据交互。


  • 新建知识库

有了数据之后,可以新建一个知识库,由于我要搭建汽车选购类应用,因此新建了汽车类的知识库,里面包括我收集的汽车相关文档。


  • 新建AI应用

创建好知识库后,新建AI应用,这里选择问答机器人



接着配置prompt格式和选择模型,这里选择GLM-4-Long模型,你可以对模型进行微调,选择适合对话场景的配置。

最后发布应用。

  • 应用测试

模型发布后,可以在应用内进行测试,编写选车相关的prompt,看看它怎么回答。


以下是给到的提示和模型返回的答案。

  • 功能开发和用户界面设计

如果模型成熟的话,可以将其产品化,基于模型输出结果,开发汽车推荐、问答等功能,然后设计用户友好UI界面,允许用户输入他们的汽车选购需求。接着对应用进行测试,根据反馈进行优化。

最后将应用部署到服务器,供用户使用。

  • 模型API调用

在Python中使用API Key调用GLM-4-Long模型API,进行问答。

首先,确保你已经安装了BigModel的Python库-zhipuai,如果没有,你可以直接使用HTTP请求库(如requests)来调用API。

# 导入所需的库
import requests
import json
# 填写你的API Key
API_KEY = '你的API_KEY'
ENDPOINT = 'https://open.bigmodel.cn/api/paas/v4/chat/completions'
# 准备请求数据
headers = {
    'Authorization': f'Bearer {API_KEY}',
    'Content-Type': 'application/json'
}
data = {
    "model": "GLM-4-Long",
    "messages": [
        {"role": "system", "content": "你是一个汽车专家,能够提供购车建议。"},
        {"role": "user", "content": "我想要购买一辆家用轿车,预算在20万左右。"}
    ],
    "stream": True
}
# 发送请求
response = requests.post(ENDPOINT, headers=headers, json=data)
# 检查响应
if response.status_code == 200:
# 解析响应内容
    response_json = response.json()
    for chunk in response_json.get('choices', []):
        if chunk.get('finish_reason') == 'stop':
            print(f"汽车选购建议: {chunk['message']['content']}")
else:
    print(f"请求失败,状态码:{response.status_code}")

这里要注意下,以上代码只是示例,实际使用时需要根据BigModel开放平台提供的API文档进行相应的调整。然后有几个注意事项,确保处理好API Key,不要在公共代码库中暴露你的API Key。

另外,在生产环境中使用时,要考虑错误处理和日志记录,确保应用的稳定性和可维护性。

如何开发小说阅读神器呢?

前面讲了一个粉丝用BigModel开发了一款小说生成故事脚本并制作成视频的应用,这个是当前自媒体领域的热门项目,可以自动化的产出脚本。

首先创建知识库,我们上传小说合集到知识库里。


然后创建应用-小说神器,选择GLM-4-Long,并对模型进行微调。

最后测试模型的对话效果,让它解读一篇小说,并生成故事脚本。

prompt:总结小说《孔乙己》主要内容生成短视频解说文本,要求保留主要情节和人物,能体验冲突、转折和内涵,文本风格轻松有趣。


以下是给到的提示和模型返回的答案。

什么是BigModel开放平台?

前面讲了几个在BigModel开放平台上构建大模型应用的案例,这个平台和OpenAI GPTS、以及字节Coze有点类似,它是由智谱AI开发的大模型开发平台。

你可以把这类平台想象成一个大厨房,里面提供各种智能工具、模型、API接口、安全、财务管理等等一系列服务,开发者可以根据行业知识来构建自己的AI应用,就像厨师烧菜一样,锅碗瓢盆、油盐酱醋都给你准备好了,烧什么菜由你来决定。

比如说开发者关心的API接口,它能接入GLM-4、GLM-4V等主流模型,而且支持各种语言调用。你可以独立部署模型,进行模型微调。

每个行业都有一定的专业壁垒,垂直大模型也一样,需要专业知识库训练,BigModel开放平台支持注入开发者自己的专业知识,进行定制化训练。

总结

总的来说,如今国内的大模型行业还处于同质化较严重的阶段,大家都在卷算力算法,但应用创新比较少,我觉得可能是门槛太高,参与的人太少的缘故。

像BigModel这样的开放平台可能会起到一定的促进作用,毕竟作为个人或小企业开发者,你能用很低的成本能创建大模型应用,唯一需要担心的是数据和应用场景。但从整个行业来说参与的人越多越好,量变会产生质变。

  • 10
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Oracle中,DBLINK(Database Link)是一种用于在不同数据库之间建立连接的对象。使用DBLINK,可以在一个数据库中访问另一个数据库中的表和视图创建一个DBLINK非常简单,只需要使用CREATE DATABASE LINK语句即可。例如:create public database link dblink1 connect to db1 identified by "123*456" using 'db11' [2。 在使用DBLINK时,可以通过创建物化视图(Materialized View)来将远程数据库中的数据存储在本地数据库中,并创建相应的视图来访问这些数据。物化视图是一种预先计算的视图,它可以提高查询性能。通过使用DBLINK和物化视图,可以实现数据库数据访问和查询优化。 要在Oracle创建DBLINK和相关的视图,可以按照以下步骤进行操作: 1. 在PL/SQL工具中执行SQL语句创建DBLINK,确保DBLINK成功创建,并且可以在相关文件夹中找到已创建的链接。 2. 根据需要,可以使用CREATE MATERIALIZED VIEW语句创建物化视图。在创建物化视图时,可以指定DBLINK来引用远程数据库中的数据。 3. 创建相关的视图来访问物化视图中的数据。可以根据需要在本地数据库创建视图,以便使用方便。 需要注意的是,在更新物化视图时,可能会遇到物化视图被锁定导致更新失败的情况。可以通过查询数据库相关的锁定信息来查找锁定物化视图的原因,并采取相应的措施解决锁定问题。 总之,通过使用DBLINK和物化视图,可以在Oracle实现数据库数据访问和查询优化,同时可以创建相关的视图来方便地访问和管理这些数据。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [【Oracle数据库使用DBLINK创建快照视图实现数据定时同步】](https://blog.csdn.net/qq_42563173/article/details/123597390)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Oracle事例](https://download.csdn.net/download/C_chenshenghui/235319)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@Python大数据分析

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值