最佳实践:在AvaloniaChat中接入SiliconCloud

目录

AvaloniaChat介绍

使用指南


 

AvaloniaChat介绍

AvaloniaChat是一个基于大语言模型用于翻译的简单应用。在看英文文献的过程中,比较喜欢对照着翻译看,因此希望一边是英文一边是中文,虽然某些软件已经自带了翻译功能,但还是喜欢大语言模型的翻译,但每次都要将英文复制粘贴过去还要自己手动添加prompt,还无法对照着看,因此自己基于Avalonia与Semantic Kernel开发了这款解决自己这个需求的软件,开源出来每个人都可以免费使用,希望能帮助到有同样需求的人。

图片

GitHub地址:https://github.com/Ming-jiayou/AvaloniaChat

图片

使用指南

访问GitHub地址:https://github.com/Ming-jiayou/AvaloniaChat

注意到Releases这里:

图片

点击AvaloniaChat-v0.0.1-win-x64.zip就会在下载了:

图片

解压之后,打开文件夹,如下所示:

图片

现在只需简单编辑一下appsettings.json文件,该文件用于配置你所使用的大语言模型。

以硅基流动为例,也最推荐硅基流动,Qwen/Qwen2-7B-Instruct是免费的,并且推理速度很快。

图片

注册硅基流动之后,创建一个Api Key,复制这个Api Key:

图片

打开appsettings.json文件,如果使用的是硅基流动,只需填入Api Key即可:

图片

现在配置就完成了,点击exe文件即可使用:

图片

问AI问题:

图片

图片

个人的主要使用场景

在看英文文献的过程中,比较喜欢对照着翻译看,因此希望一边是英文一边是中文,虽然某些软件已经自带了翻译功能,但还是喜欢大语言模型的翻译,但每次都要将英文复制粘贴过去还要自己手动添加prompt,还无法对照着看,因此自己基于Avalonia与Semantic Kernel开发了这款解决自己这个需求的软件,开源出来每个人都可以免费使用,希望能帮助到有同样需求的人。

英译中:

图片

图片

中译英:

图片

图片

一般注册之后,都会送一些额度,因此为了更好的翻译质量,可以更换到收费的模型。

模型名称可以在这里看:

图片

地址:https://docs.siliconflow.cn/reference/chat-completions-3

这里可以更换成一个更强的模型:Qwen/Qwen2-72B-Instruct

appsettings.json文件改成如下所示:

{
  "OpenAI": {
    "Key": "your key",
    "Endpoint": "https://api.siliconflow.cn",
    "ChatModel": "Qwen/Qwen2-72B-Instruct"
  }
}

重新运行软件:

图片

图片

这是Qwen/Qwen2-72B-Instruct的效果,对比Qwen/Qwen2-7B-Instruct应该速度会慢一点,但翻译质量会高一点。同一段文本,我再用Qwen/Qwen2-7B-Instruct试试效果:

图片

图片

可以根据自己的需求灵活调整。

我推荐硅基流动的理由主要有以下几点:

  1. 提供多个领先的开源生文、生图和代码模型。对于这些模型,您只需按使用量付费。刚注册会送一些额度,够个人开发者用一段时间的了。

  2. 提供一些免费的模型,SiliconCloud提供了多款免费模型,嵌入与文生图暂时是免费的。

  3. 推理速度很快。

更多信息可以看SiliconCloud官网:https://siliconflow.cn/zh-cn/siliconcloud

 引入地址

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值