机器学习 & 大模型
文章平均质量分 84
机器学习 & 大模型
小毕超
善于钻研思考,乐于追求新知识,热爱微服务架构,国内软考高级系统架构设计师职称,国际TOGAF鉴定级企业架构设计师、PMP项目管理师,华为云·云享专家,CSDN博客专家。曾获“联想杯”移动互联比赛 江苏省一和国二成绩,第四届全国应用型人才比赛“兄弟连杯”国一成绩。
展开
-
基于 Qwen2-1.5B Lora 微调训练医疗问答任务
Qwen是阿里巴巴集团Qwen团队研发的大语言模型和大型多模态模型系列。Qwen2 是 Qwen1.5 的重大升级。无论是语言模型还是多模态模型,均在大规模多语言和多模态数据上进行预训练,并通过高质量数据进行后期微调以贴近人类偏好。原创 2024-09-21 13:11:52 · 182 阅读 · 0 评论 -
使用 VisionTransformer(VIT) FineTune 训练驾驶员行为状态识别模型
VIT模型是一种基于Transformer架构的计算机视觉模型,它利用Transformer的自注意力机制来捕捉图像中的长距离依赖关系,使得在多个图像识别任务上取得了与卷积神经网络(CNN)相媲美的性能,甚至有所超越,同时具有更好的迁移能力。原创 2024-09-07 08:00:00 · 895 阅读 · 0 评论 -
Supervision 结合 YOLO V8 玩爆各种计算机视觉处理任务
Supervision是一个针对于计算机视觉各种任务的框架工具,为用户了提供便捷高效的视觉处理方法,可以轻松处理数据集或直观地展现检测结果。另外他还提供了多种绘制检测结果的方式,并且还提供了统计特定区域内检测跟踪、越线数量统计、切片推理、轨迹平滑等不同计算机视觉任务的方法封装。可谓是在CV领域,有了它你可以少写很多展现和计算代码。原创 2024-08-09 17:18:43 · 1130 阅读 · 0 评论 -
基于 YOLO V10 Fine-Tuning 训练自定义的目标检测模型
YOLO-V10 由清华大学提供,采用无 NMS 训练和效率-精度驱动架构,提供目前最先进的性能和延迟。原创 2024-07-30 11:49:24 · 1105 阅读 · 0 评论 -
Spring Cloud Alibaba AI 介绍及使用
Spring Cloud Alibaba AI 是阿里以 Spring AI 为基础,并在此基础上提供阿里云通义系列大模型全面适配,让用户在 5 分钟内开发基于通义大模型的 Java AI 应用。原创 2024-07-10 19:20:24 · 1046 阅读 · 0 评论 -
OpenCV 调用自定义训练的 YOLO-V8 Onnx 模型
Onnx 格式是一种开放格式,用于表示深度学习模型。目的是为了促进不同深度学习框架和工具之间的模型互操作性。通过Onnx,开发人员可以更容易地在不同的深度学习框架之间转换模型。本文首先将自定义的 YOLO-V8 Pytorch 模型转为 Onnx 模型,然后通过 OpenCV 调用 Onnx 模型,进行运算推理。原创 2024-06-30 10:14:22 · 2349 阅读 · 1 评论 -
基于 YOLO V8 Cls Fine-Tuning 训练花卉图像分类模型
本篇文章使用数千张花卉照片作为数据集,共分为5个分类:daisy、dandelion、roses、sunflowers、tulips。使用 yolov8n-cls 模型 Fine-Tuning 训练花卉图像分类模型。原创 2024-04-13 17:31:58 · 1076 阅读 · 0 评论 -
基于 YOLO V8 Pose Fine-Tuning 训练 15 点人脸关键点检测模型
YOLO V8 是由 2023 年 ultralytics 公司开源的发布,是结合了前几代 YOLO 的融合改进版。YOLO V8 支持全方位的视觉 AI 任务,包括检测、分割、姿态估计、跟踪和分类。并且在速度和准确性方面具有无与伦比的性能。能够应用在各种对速度和精度要求较高的应用和领域。文本基于 YOLO V8 训练15点人脸关键点检测模型原创 2024-04-01 17:33:06 · 2217 阅读 · 1 评论 -
基于 YOLO V8 Fine-Tuning 训练自定义的目标检测模型
YOLO V8 是由 2023 年 ultralytics 公司开源的发布,是结合了前几代 YOLO 的融合改进版。YOLO V8 支持全方位的视觉 AI 任务,包括检测、分割、姿态估计、跟踪和分类。并且在速度和准确性方面具有无与伦比的性能。能够应用在各种对速度和精度要求较高的应用和领域。原创 2024-03-29 14:58:25 · 1727 阅读 · 2 评论 -
Milvus 向量数据库介绍及使用
Milvus 于 2019 年创建,其目标只有一个:存储、索引和管理由深度神经网络和其他机器学习 (ML) 模型生成的大量嵌入向量。它具备高可用、高性能、易拓展的特点,用于海量向量数据的实时召回。原创 2024-03-21 16:21:34 · 5095 阅读 · 1 评论 -
无需 GPU 服务器,借助 OpenRouter 零成本搭建自己的大模型助手
大型模型的出现为许多领域带来了革命性的变化,从自然语言处理到计算机视觉,甚至是医学和金融领域。然而,对于许多开发者来说,大多数情况下,使用这些模型需要拥有一台配备高性能GPU的服务器,而这往往是一项昂贵的投资。而 OpenRouter 为使用者提供了部分开源模型的实现,可以通过API免费使用,主要聚焦在7B规模大小的模型,比如谷歌的 gemma-7b ,Mistral AI 的 mistral-7b-instruct,一定程度避免了自己去部署大模型的成本。原创 2024-03-08 16:57:37 · 12293 阅读 · 0 评论 -
FastSAM 分割一切 速度可以比 SAM 快 50 倍
MetaAI 提出能够分割一切的视觉基础大模型SAM可以做到很好的分割效果,并且不限于场景、不限于目标,为探索视觉大模型提供了一个新的方向,可以说是视觉领域通用大模型,而FastSAM`为该任务提供了一套实时的解决方案,进一步推动了分割一切模型的实际应用和发展。原创 2023-12-17 16:34:23 · 473 阅读 · 0 评论 -
盘点 Pytorch Vision 中的图像预训练模型
PyTorch Vision 库提供了许多经过预训练的视觉模型,包括图像分类、目标检测、语义分割等。原创 2023-12-16 15:54:50 · 732 阅读 · 0 评论 -
Python 调用 Halcon 模板匹配实现目标定位
Halcon 被广泛用于工业视觉和机器视觉应用中,其强大的功能和灵活性使其成为许多开发人员和研究人员的首选选择,同时支持多种编程语言,包括 C、C++、C# 和 Python 等,本文使用Python 调用 Halcon 模板匹配实现目标定位。原创 2023-12-10 20:12:30 · 893 阅读 · 0 评论 -
Pytorch 基于 deeplabv3_resnet50 迁移训练自己的图像语义分割模型
图像语义分割是计算机视觉领域的一项重要任务,旨在将图像中的每个像素分配到其所属的语义类别,从而实现对图像内容的细粒度理解。与目标检测不同,图像语义分割要求对图像中的每个像素进行分类,而不仅仅是确定物体的边界框。deeplabv3_resnet50 就是一个常用的语义分割模型,它巧妙地将两个强大的神经网络架构融合在一起,为像素级别的图像理解提供了强大的解决方案。原创 2023-11-27 17:05:03 · 1632 阅读 · 3 评论 -
基于 chinese-roberta-wwm-ext 微调训练中文命名实体识别任务
基于 chinese-roberta-wwm-ext 微调训练中文命名实体识别任务。原创 2023-10-11 17:48:24 · 5222 阅读 · 10 评论 -
ChatGLM2-6B Lora 微调训练医疗问答任务
LoRA 微调在原始 PLM 增加一个旁路,一般是在 transformer 层,做一个降维再升维的操作,模型的输入输出维度不变,来模拟 intrinsic rank。该方式可以大大降低训练的参数量,而性能可以优于其它参数高效微调方法,甚至和全参数微调(Fine-Tuning)持平甚至超过。原创 2023-09-16 21:51:57 · 2022 阅读 · 13 评论 -
基于第二代 ChatGLM2-6B P-Tuning v2 微调训练医疗问答任务
ChatGLM2-6B 保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,同时引入了许多新特性,如:更强大的性能、更长的上下文、更高效的推理、更开放的协议等。原创 2023-09-10 14:02:39 · 2248 阅读 · 11 评论 -
使用 ElasticSearch 作为知识库,存储向量及相似性搜索
在当今大数据时代,快速有效地搜索和分析海量数据成为了许多企业和组织的重要需求。`Elasticsearch` 作为一款功能强大的分布式搜索和分析引擎,为我们提供了一种优秀的解决方案。除了传统的文本搜索,`Elasticsearch` 还引入了向量存储的概念,以实现更精确、更高效的相似性搜索。原创 2023-09-03 16:03:16 · 6694 阅读 · 3 评论 -
基于ChatYuan-large-v2 微调训练 医疗问答 任务
上篇基于`ChatYuan-large-v2` 语言模型 `Fine-tuning` 微调训练了广告生成任务,总体生成效果还可以,但上篇文章的训练是微调的模型全部的参数,本篇文章还是以 `ChatYuan-large-v2` 作为基础模型,继续探索仅训练解码器层参数,并在医疗问答任务上的效果如何。原创 2023-08-20 16:35:48 · 617 阅读 · 1 评论 -
基于ChatYuan-large-v2 语言模型 Fine-tuning 微调训练 广告生成 任务
本文基于ChatYuan-large-v2 语言模型 Fine-tuning 微调训练 广告生成 任务原创 2023-08-06 18:21:43 · 1423 阅读 · 2 评论 -
ChatGPT结合知识图谱构建医疗问答应用 (二) - 构建问答流程
知识图谱是一种用于表示和组织结构化知识的图形化模型。它是一种利用图论和语义网络的技术,旨在捕捉信息之间的关联性和语义含义。在问答领域,知识图谱发挥着重要作用。首先,知识图谱以实体和关系的形式存储知识。实体代表现实世界中的具体事物,例如人、地点、事件等,而关系则描述这些实体之间的联系,例如居住在、发生在等。通过将实体和关系连接为节点和边,知识图谱能够形成一个复杂的网络,反映出知识之间的复杂关系。其次,知识图谱通过为每个实体和关系添加语义标签,使得计算机能够理解和推理这些知识。原创 2023-07-31 10:18:14 · 3363 阅读 · 11 评论 -
ChatGPT结合知识图谱构建医疗问答应用 (一) - 构建知识图谱
知识图谱是一种用于表示和组织结构化知识的图形化模型。它是一种利用图论和语义网络的技术,旨在捕捉信息之间的关联性和语义含义。在问答领域,知识图谱发挥着重要作用。首先,知识图谱以实体和关系的形式存储知识。实体代表现实世界中的具体事物,例如人、地点、事件等,而关系则描述这些实体之间的联系,例如居住在、发生在等。通过将实体和关系连接为节点和边,知识图谱能够形成一个复杂的网络,反映出知识之间的复杂关系。其次,知识图谱通过为每个实体和关系添加语义标签,使得计算机能够理解和推理这些知识。原创 2023-07-30 19:43:44 · 4019 阅读 · 2 评论 -
基于 chinese-roberta-wwm-ext 微调训练 6 分类情感分析模型
预训练模型采用是基于RoBERTa架构下开发,其中wwm代表,即对整个词进行掩码处理,通过这种方式,模型能够更好地理解上下文和语义关联,提高中文文本处理的准确性和效果。与原始的BERT模型相比,在训练数据规模和训练步数上做了一些调整,以进一步提升模型的性能和鲁棒性。并且在大规模无监督语料库上进行了预训练,使其具备强大的语言理解和生成能力。它能够广泛应用于各种自然语言处理任务,如文本分类、命名实体识别、情感分析等。原创 2023-07-19 20:21:31 · 4794 阅读 · 6 评论 -
LangChain 本地化方案 - 使用 ChatYuan-large-v2 作为 LLM 大语言模型
ChatYuan-large-v2 是一个开源的支持中英双语的功能型对话语言大模型,与其他 LLM 不同的是模型十分轻量化,并且在轻量化的同时效果相对还不错,仅仅通过0.7B参数量就可以实现`10B`模型的基础效果,正是其如此的轻量级,使其可以在普通显卡、 CPU、甚至手机上进行推理,而且 INT4 量化后的最低只需 400M 。原创 2023-07-15 22:35:29 · 4248 阅读 · 8 评论 -
LangChain 基于 ChatGPT 整合 Google 搜索 强化问答应用
`LangChain` 中的 `Agents` 是什么呢,对于官方的描述是:某些应用程序不仅需要预先确定的对 `LLM`/其他工具的调用链,还可能需要依赖于用户输入的未知链。在这些类型的链中,有一个 `Agents` 可以访问一套工具。根据用户输入,代理可以决定调用这些工具中的哪一个(如果有的话)。因此代理可以理解为是一个函数之上的抽象,通过该函数可以调用不同的模块,类似于 `huggingface` 中的 `AutoModel` 。原创 2023-07-01 16:46:35 · 3498 阅读 · 1 评论 -
LangChain 使用文本描述的方式操作MySQL中的数据
通过语义文本的方式操作 MySQL 中的数据。原创 2023-06-25 15:48:50 · 4478 阅读 · 15 评论 -
LangChain 基于 ChatGPT 构建本地知识库问答应用
ChatGPT 非常强大,但是对于一些特有领域的内容会有些吃力,通过构建构建本地知识库丰富ChatGPT的能力。原创 2023-06-25 14:01:07 · 9481 阅读 · 11 评论 -
LangChain 基于 Prompts 提示管理 构建特定领域模型
提示管理,通过使用模版文本增加提示的方式,微调模型的语义理解,给出更加准确的信息。因此通过这一特征可以构建非常多特定领域的问答系统,比如在用户输入的前面固定拼接一个。选择器示例进行实现,给出一些实例,让模型去理解语义含义进而给出结果。,这样模型就知道了自己的定位,通过语义分析给出更加精准的回答。,其可以生成文本模版,通过变量参数的形式拼接成完整的语句。进行实现就非常简单了,只需给出准确的实体描述即可。实体提取是一个非常常用的方向,现在如果采用。进行了简单的介绍与使用,可以知道。实现特定领域的应用。原创 2023-06-25 11:21:10 · 1808 阅读 · 0 评论 -
LangChain 介绍及相关组件使用总结
`LangChain` 是一个由语言模型`LLMs`驱动的应用程序框架,它允许用户围绕大型语言模型快速构建应用程序和管道。 可以直接与 `OpenAI` 的 `ChatGPT` 模型以及 `Hugging Face` 集成。通过 `langChain` 可快速构建聊天机器人、生成式问答(`GQA`)、本文摘要等应用场景。原创 2023-06-25 10:31:05 · 13490 阅读 · 2 评论 -
Dify 基于 ChatGPT 构建本地知识库问答应用
不仅能够处理事实性问题,还能理解和生成情感色彩更浓厚的对话内容,能够识别用户的情感倾向,并据此作出相应的回应。例如在学校的场景下,我们需要打造一个学习需求问答系统,问一周的课程,可以回答出:周一需要上。就可以帮助我们低成本的实现上述的功能 ,使其可以精准回答专业领域的知识。课,周三上其他课等,对于类似这种私有化的知识库,如果不对。横空出世之后,其极高的语言理解和交互能力不仅让人惊呼,可以看到已经有了我们想要的效果,最后感觉不错的话,简单实现下上述的场景,由于我们是基本。支撑,所以你需要有一个。原创 2023-06-23 14:44:45 · 9370 阅读 · 6 评论 -
基于 Tensorflow 2.x 从零训练 15 点人脸关键点检测模型
标签 ,是表示着图像上真实关键点的坐标,直接让模型回归真实点的话,浮动会有点大,因此这里将真实点转为相对于图像的比例点,也就是直接除于图像的大小,得到一个相对点的位置,相对点的位置都在。年中国科学院深圳研究院提出的用于人脸检测任务的多任务神经网络模型,该模型采用了三个级联的网络,还采用候选框加分类器的思想,进行快速高效的人脸检测。上面提到实际训练的数据集并不多,因此有必要通过数据增强扩充数据,数据增强这里就做一个随机对比度的改变,这样不会影响关键点的位置,增强部分放在模型的。原创 2023-01-08 22:16:13 · 1882 阅读 · 1 评论 -
基于 Tensorflow 2.x 使用 MobileNetV2 微调模型优化训练花卉图像识别模型
使用预训练的优秀模型和权重来从新样本中提取特征,最后同样给到一个新的分类器,但不同的是预训练模型的全部或某些层的权重被冻结,不会随着反向传播进行修改,只是略微调整了模型结构,这种方式不会破坏训练模型。深度学习模型应用于小型图像数据集场景下,一般由于数据量的局限性,导致模型提取特征有限,进而影响识别的准确度,一种常用且非常高效的优化方式便是使用预训练网络模型。:使用预训练的优秀模型和权重来从新样本中提取特征,最后给到一个新的分类器,从头开始训练,之前的权重会随着反向传播进行修改。原创 2023-01-02 17:47:26 · 2644 阅读 · 1 评论 -
基于 Tensorflow 2.x 从零训练花卉图像识别模型
例如对图像进行随机旋转,这里将图片归一化操作也放在模型中了,这样的好处是在训练模型或预测模型时,可以不用做归一化操作了,同样也可以将。工具读取图片数据集,并且借助该工具,可以方便的进行数据集的划分、随机打乱、及统一大小操作,避免了自己再对数据集进行繁琐的操作。因此解决上面问题,对于图像问题可以首先考虑使用数据增强,让每次喂入模型的数据都是有区别的,进而达到扩充数据集,在。个分类的数据量,其实是不相等的,蒲公英 的数据量明显是比其他分类要多的,有可能在训练的过程中偏向于蒲公英 分类。原创 2023-01-02 13:53:12 · 5708 阅读 · 11 评论 -
基于 Tensorflow 2.x 实现多层卷积神经网络,实践 Fashion MNIST 服装图像识别
并且每三个周期保存一次权重,防止意外停止后继续训练,最后保存了。的训练模型,方便后面进行测试预测效果。标签是整数数组,介于。构建多层卷积神经网络,在。上面搭建的模型,训练后会在。数据集更多样化,比常规。张图片,验证集的比例为。数据集,该数据集包含。从训练日志中,可以看到。原创 2022-12-18 16:01:03 · 1403 阅读 · 1 评论 -
基于 Tensorflow 2.x 实现多层卷积神经网络,实践 MNIST 手写数字识别
对于单环境的图片识别场景来说,还是有点偏低,本文使用多层的卷积代替。,并且每三个周期保存一次权重,防止意外停止后继续训练,最后保存了。数据集,有的小伙伴可能没有看过上篇文章。该数据集已被封装在了。如果看过上篇文章可以发现损失和准确率都有明显的提升。的训练模型,方便后面进行测试预测效果。神经网络,经过训练后发现准确率只有。张作为测试数据,每一张图片都代表。网络中的隐藏层对模型进行优化。上面搭建的模型,训练后会在。张图片数据,大小统一是。张图片,验证集的比例为。从训练日志中,可以看到。原创 2022-12-18 15:07:17 · 884 阅读 · 0 评论 -
基于 Tensorflow 2.x 实现 BP 神经网络,实践 MNIST 手写数字识别
可以看到面对书写较工整的数字都可以较好的进行识别,但是对于不工整的就有点吃力,下一篇使用卷积神经网络进行优化,提高识别的准确率。工具包下,如果没有指定数据集的位置,并先前也没有使用过,会自动联网下载该,使该数据集使用起来更加方便,它包括了。是一个非常有名的手写数字识别数据集,在很多资料中都会被用作深度学习的入门样例。,并且每三个周期保存一次权重,防止意外停止后继续训练,最后保存了。,在本专栏后面博客,会使用多层卷积训练模型,可以实现更好的效果。上面搭建的模型,训练后会在。张图片,验证集的比例为。原创 2022-12-18 14:10:43 · 2150 阅读 · 1 评论 -
基于 EasyOCR + HanLp 实现图片文字实体(中文姓名、机构名、地域名)识别
目前支持80中语言的识别。并且支持:图像预处理(去噪、色彩饱和度、尖锐处理)、CRAFT文字检测、中间处理(倾斜处理等)、文字识别、后续处理、输出结果。具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。目前,基于深度学习的。下面是我准备的图片,其中姓名、机构名、地域名,还有一些干扰文字。分析出文本中的 中文姓名、机构名、地域名 等信息。工具包,目标是普及自然语言处理在生产环境中的应用。的模型如果不存在也会自动下载,这个下载速度较快。技术,支持包括简繁中英日俄法德在内的。提取出文本中的文字,利用。原创 2022-12-11 18:00:42 · 1656 阅读 · 0 评论 -
HanLP 基于SVM支持向量机 训练 ChnSentiCorp 情感分析
支持向量机进行分类训练,有关于。原创 2022-12-11 15:38:45 · 1209 阅读 · 0 评论 -
HanLP 基于SVM支持向量机 训练 文本分类
分类器依赖了第三方库,没有集成在主项目中,需要拉取。上篇文章通过朴素贝叶斯文本分类器,训练测试了。,本篇继续测试SVM支持向量机分类器。,这里就保持保本一致,将 pom 中。拉取项目后,发现 pom 依赖的。升级后会有两点不兼容,需要修改。然后将该项目打包到本地。原创 2022-12-11 14:48:44 · 934 阅读 · 1 评论