自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Yc Chan 的个人博客

任职于金融科技领域,熟练各领域技术在金融科技的应用。

  • 博客(10)
  • 收藏
  • 关注

原创 使用Nginx作为APT仓库的缓存

在这个配置中,proxy_pass 指向你的远程APT仓库地址。为了使用Nginx作为APT仓库的缓存,你需要设置一个Nginx服务器来代理你的APT客户端访问远程仓库,并缓存所有下载的包。替换repo.example.com为你Nginx服务器的地址,focal 为你想要缓存的发行版代号,main 和 restricted 是你想要缓存的仓库部分。现在,你的APT客户端需要指向这个Nginx服务器而不是原始的APT仓库。这个配置定义了缓存的路径、缓存键的区域、最大缓存大小以及缓存文件的不活跃时间。

2024-03-26 16:12:20 237

原创 Ubuntu 22.04上的MySQL 8数据文件夹迁移到/mnt/mysql-data

请注意,在执行这些步骤之前,建议创建数据的完整备份,并在尝试这些操作之前在测试环境中验证每个步骤。如果您的系统使用了SELinux或其他安全模块,您可能还需要更新相应的安全策略。更新AppArmor配置(如果已启用)以允许MySQL在新路径中读写。更新MySQL配置文件my.cnf(如果存在),将数据目录指向新位置。

2024-03-10 23:15:49 335 1

原创 检索增强生成(RAG)是什么

什么是检索增强生成?检索增强生成(RAG)是对大型语言模型输出进行优化的方法,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型(LLM)通过海量数据进行训练,利用数十亿个参数执行诸如回答问题、语言翻译和生成句子等任务。在已经具备强大功能的LLM基础上,RAG通过扩展其能力,使其能够访问特定领域或企业的内部知识库,而无需重新训练模型。这种方法经济高效,能够有效改进LLM输出,在不同情境下保持相关性、准确性和实用性。

2024-03-09 09:56:21 503

原创 Pytorch 无法识别GPU问题解决方法

在本文中,我们将介绍如何解决PyTorch无法识别GPU的问题,并提供一些示例来说明解决方法。在深度学习领域,GPU是加速模型训练和推理的重要工具之一。然而,有时候我们会面临PyTorch无法正确识别GPU的情况,即torch.cuda.is_available()函数返回False。接下来,我们将详细讨论这个问题及其解决方法。

2024-02-27 23:41:08 1382

原创 使用Python怎么读取zabbix监控数据

要使用Python从Zabbix中读取数据,可以使用zabbix-api库。现在就可以开始查询数据了。

2024-02-25 21:51:17 500 1

原创 SpaceMesh Mining 教程

當參與Spacemesh的用戶在完成P盤工作後需要完成兩個部分工作:PoET+PoST,這兩部分均是在不同的規定時間完成,具體可參考後續的時間表。註意!只有PoET和PoST均完成的用戶才可以獲得收益。Spacemesh相關P盤教程:說明:1.Spacemesh每個紀元epoch周期為14天,在8月7日完成PoET的將在8月20日完成PoST,收益將在8月25日後發放(之後用戶收益將每隔14天發放一次) 後續PoET時間為8月7日+N14 **後續PoST時間為8月20日+N。

2024-02-24 10:09:13 647

原创 OpenAI Embeddings 文本嵌入模型

OpenAI 的文本嵌入模型可以计算文本字符串的特征向量,通过向量计算字符串之间的语义相关性。embeddings模型计算出来的向量数据是浮点数数组。两个向量之间的距离可以表达它们之间的相关性。距离越近表明相关性越高,距离越远表明相关性越低。

2024-02-23 11:19:20 699

原创 文本嵌入(embedding)介绍

文本嵌入(Text Embedding)是自然语言处理中的一个重要概念,它的目标是将文本中的词表示成固定长度的稠密向量,也称为词向量(Word Vector)。这样每个词都可以用一个连续的、低维的稠密向量来表示,比如200-300维。文本嵌入的主要目的是捕捉每个词的语义信息,使得语义相关的词在嵌入空间中距离较近,不相关的词距离较远。这样就可以用向量间的距离来表示词之间的语义关系。

2024-02-22 23:58:42 1178

原创 中国大陆用户如何通过Fetch GitHub Hosts访问GitHub

到Releases或FastGit镜像中下载您的系统版本(目前支持WindowsLinuxMacOS。

2024-02-22 01:05:41 468

原创 【译】理解LSTM循环神经网络(通俗易懂版)

之前也提到过RNNs取得了不错的成绩,这些成绩很多是基于LSTMs来做的,说明LSTMs适用于大部分的序列场景应用。一般文章写法会堆一堆公式吓唬人,希望本文一步一步的拆分能有助于大家的理解。LSTMs对于RNNs的使用是一大进步。那么现在还有个问题,是否还有更大的进步?对于很多研究者来说,但是是肯定的,那就是attention的问世。attention的思想是让RNN在每一步挑选信息的时候都能从更大的信息集里面挑选出有用信息。

2024-02-20 00:08:56 592

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除