最佳实践:在AvaloniaChat中接入SiliconCloud

AvaloniaChat介绍

AvaloniaChat是一个基于大语言模型用于翻译的简单应用。在看英文文献的过程中,比较喜欢对照着翻译看,因此希望一边是英文一边是中文,虽然某些软件已经自带了翻译功能,但还是喜欢大语言模型的翻译,但每次都要将英文复制粘贴过去还要自己手动添加prompt,还无法对照着看,因此自己基于Avalonia与Semantic Kernel开发了这款解决自己这个需求的软件,开源出来每个人都可以免费使用,希望能帮助到有同样需求的人。

e5a2418d12ead96a1d5fc715b4f74702.png

GitHub地址:https://github.com/Ming-jiayou/AvaloniaChat

2c0d42da10f1b1b8a5fb5cfe4b2c45c6.png

使用指南

访问GitHub地址:https://github.com/Ming-jiayou/AvaloniaChat

注意到Releases这里:

006c28e1679b53ffc16e442a1f3741f9.png

点击AvaloniaChat-v0.0.1-win-x64.zip就会在下载了:

b83fe3fbbdf80ab62b31881fb4581f15.png

解压之后,打开文件夹,如下所示:

1063a42cb63e5c7bccf2e710d5bb528f.png

现在只需简单编辑一下appsettings.json文件,该文件用于配置你所使用的大语言模型。

以硅基流动为例,也最推荐硅基流动,Qwen/Qwen2-7B-Instruct是免费的,并且推理速度很快。

52fb966bae0e1dc5ff38b0d3cee7112e.png

注册硅基流动之后,创建一个Api Key,复制这个Api Key:

f10fb719cb82eb616b4c66561390bb0c.png

打开appsettings.json文件,如果使用的是硅基流动,只需填入Api Key即可:

99ef5cfc0ae54dbd22036d2b618014f8.png

现在配置就完成了,点击exe文件即可使用:

22424da6d1b1af8e0b22f1cafdf6fb1d.png

问AI问题:

a99188ef3be7e050251ace3ecf1a5d0b.gif f958cd1f156a012daabf52126f7acd61.png

个人的主要使用场景

在看英文文献的过程中,比较喜欢对照着翻译看,因此希望一边是英文一边是中文,虽然某些软件已经自带了翻译功能,但还是喜欢大语言模型的翻译,但每次都要将英文复制粘贴过去还要自己手动添加prompt,还无法对照着看,因此自己基于Avalonia与Semantic Kernel开发了这款解决自己这个需求的软件,开源出来每个人都可以免费使用,希望能帮助到有同样需求的人。

英译中:

9e4f13f3d37c2d8db06cbec61f602d0a.gif 838b24c56eeec23fa6a2d6c1903b712f.png

中译英:

fbe0713df14f635a41537ce4e05d1052.gif 3d9271a55a55a91ba10bb59c93497291.png

一般注册之后,都会送一些额度,因此为了更好的翻译质量,可以更换到收费的模型。

模型名称可以在这里看:

f9b1f6b6023b7b74f5c0f46c0c4814ef.png

地址:https://docs.siliconflow.cn/reference/chat-completions-3

这里可以更换成一个更强的模型:Qwen/Qwen2-72B-Instruct

appsettings.json文件改成如下所示:

{
  "OpenAI": {
    "Key": "your key",
    "Endpoint": "https://api.siliconflow.cn",
    "ChatModel": "Qwen/Qwen2-72B-Instruct"
  }
}

重新运行软件:

d578ea8b14ebf0a5ec464a194d1cf250.gif e608e504e8abb8ae3701974d7f4b6cda.png

这是Qwen/Qwen2-72B-Instruct的效果,对比Qwen/Qwen2-7B-Instruct应该速度会慢一点,但翻译质量会高一点。同一段文本,我再用Qwen/Qwen2-7B-Instruct试试效果:

0eb9c1cdca51f0b113ddc4510a716359.gif 122728bdf84ec63df792eaaa833c3652.png

可以根据自己的需求灵活调整。

我推荐硅基流动的理由主要有以下几点:

  1. 提供多个领先的开源生文、生图和代码模型。对于这些模型,您只需按使用量付费。刚注册会送一些额度,够个人开发者用一段时间的了。

  2. 提供一些免费的模型,SiliconCloud提供了多款免费模型,嵌入与文生图暂时是免费的。

  3. 推理速度很快。

更多信息可以看SiliconCloud官网:https://siliconflow.cn/zh-cn/siliconcloud

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值