人工智能AI
文章平均质量分 84
ML,DL,CV,NLP,LLM,AI4S,RL,Pytorch,Tensorflow;
Matlab & Python & C++
不雨_亦潇潇
流水不腐,户枢不蠹
展开
-
【大模型】智能驾驶汽车虚拟仿真视频数据理解-学习打卡
文字生成图片是近年来多模态和大模型研究的热门方向,OPENAI 提出的 CLIP 提供了一个方法建立起了图片和文字的联系,但是只能做到给定一张图片选择给定文本语义最相近的那一个。 CLIP的全称是 Contrastive Language-Image Pre-Training,中文是对比语言-图像预训练,是一个预训练模型,简称为CLIP。该模型是 OpenAI 在 2021 年发布的,最初用于匹配图像和文本的预训练神经网络模型,这个任务在多模态领域比较常见,可以用于文本图像检索,CLIP是近年来在原创 2023-11-15 21:59:02 · 263 阅读 · 0 评论 -
【CatBoost报错解决】CatBoostError: Bad value for num feature[non default doc idx=0,feature idx=19]=
问题:训练 CatBoost 模型时遇到报错:CatBoostError: Bad value for num_feature[non_default_doc_idx=0,feature_idx=19]="600600 600600 600100 600100 600600 600700 600100 600100 700600 700600 700100 600700 600600 600600 600100 600600 600700 600100 600100 700600 700600 700原创 2023-09-14 16:56:21 · 563 阅读 · 0 评论 -
【AI for Science】量子化学:分子属性预测-第2次打卡-特征工程baseline上分
1.特征选择;2.压缩空间;3.模型融合;4.报错解决;5.我的代码原创 2023-09-13 22:08:40 · 168 阅读 · 0 评论 -
【AI for Science】量子化学:分子属性预测-第1次打卡-机器学习baseline
宏观世界是由大量的微观粒子组成,了解微观粒子的运动和性质,才能更好的认识宏观世界。借助计算机模拟技术和量子力学的基本原理,量子化学计算应运而生,从电子层面阐明分子的能量、性质以及分子间相互作用的本质。量子化学计算在生物、化学、医药和材料科学等领域中具有广泛应用,例如:预测化学反应的热化学性质、分析分子的光谱学特性、优化材料的物理性质等。然而,量子化学计算存在计算量大、成本昂贵、耗时长等缺点,这限制了其在科学研究和技术创新领域的进一步发展。为了推动量子化学与基础科学研究的深度融合,我们需要积极探索计算成本原创 2023-09-10 00:01:06 · 355 阅读 · 0 评论 -
【大模型】大语言模型前沿技术系列讲座-学习笔记2:Transformer ->ChatGPT
可以简单理解为加权平均输入长度为N的词向量序列,在每个位置上对N个词向量做加权平均 (做N次),最终得到N个输出向量,每做一次加权平均,可视为对输入做了一次AttentionSelf-Attention 中,加权平均用的权重 (系数)ωijωij如何确定?ωij′xi⋅xjωij′xi⋅xj用自己的输入做点乘,作为权重(Self 的概念)Query(下图中每个位置左边的x2x_2x2)、Key。原创 2023-09-06 15:18:30 · 289 阅读 · 1 评论 -
【大模型】大语言模型前沿技术系列讲座-学习笔记1:人工智能发展史
通过自监督学习在大量无标签数据上进行预训练,训练目标为最大化下一个单词出现的概率;通过增大模型的参数量和训练数据量来提升基础模型的基本能力;融入代码数据进行预训练提升基础模型的推理能力;通过指令微调让基础模型与用户的需求对齐;基于人类反馈的强化学习(RLHF)则进一步让模型生成更加安全可靠的内容;大模型已经具备一定程度的智能。原创 2023-08-28 00:10:00 · 373 阅读 · 0 评论 -
【opencv3】鼠标框选矩形并显示当前像素点坐标和矩形中心点坐标C++
实现目标:1)用鼠标在图中框选矩形目标,然后保存框选的图片;(2)鼠标拖动过程中要求显示框的线条以及鼠标当前像素点信息(坐标和RGB值);(3)拖动完成后单独显示框取的图像,拖动完成后cout输出框中心像素点坐标。...........................原创 2022-08-10 23:33:12 · 3259 阅读 · 0 评论 -
【opencv3】详述PnP测距完整流程(附C++代码)
1.为什么需要对摄像头进行标定?摄像头存在畸变,畸变可以拓宽视野,但会影响图像识别和测量的精度。1)相机矩阵:包括焦距(fx,fy),光学中心(Cx,Cy),完全取决于相机本身,是相机的固有属性,只需要计算一次,可用矩阵表示如下:[fx, 0, Cx;0, fy, cy;0,0,1];2) 畸变系数:畸变数学模型的5个参数 D = (k1,k2, P1, P2, k3);3)相机内参:相机矩阵和畸变系数统称为相机内参,在不考虑畸变的时候,相机矩阵也会被称为相机内参;..................原创 2022-08-09 23:32:06 · 10481 阅读 · 21 评论 -
【opencv3】滑动条调节RGB颜色阈值并输出滑动条的值
实现目标:首先对图像 RGB 色彩空间进行分割,然后根据分割出来的各个通道的图像进行二值化处理,通过滑动条可以调节二值化的阈值。如果想要从 xml 文件中读取预设阈值,并输出调节后的阈值到 xml 中,可以使用 FileStorage 类。...原创 2021-01-26 13:30:25 · 1907 阅读 · 0 评论 -
【opencv3】透视变换后帧差法检测运动物体C++
上一篇博客通过用鼠标选择特征点,完成透视变换,实现了视频视角的校正。实现目标:在透视变换的基础上,利用帧差法检测运动物体,并用矩形框出。原创 2020-12-17 12:42:12 · 410 阅读 · 0 评论 -
【opencv3】视频透视变换C++
实现目标:鼠标选中4个目标边界点,计算转换矩阵,对视频进行透视变换。原创 2020-12-17 12:31:32 · 701 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day10打卡:微调ChatGLM2-6B
🚩【NLP】Datawhale-AI夏令营Day5打卡:预训练模型第五天继续尝试理解预训练模型相关知识,并跑通深度学习方法Topline。🚩【NLP】Datawhale-AI夏令营Day6-7打卡:大模型第六天和第七天学习了大模型的概念,大模型的训练步骤(大尺寸预训练+指令微调+RLHF),Prompt 的概念,以及大模型微调的概念。🚩【NLP】Datawhale-AI夏令营Day8-10打卡:大模型基础Transformer第八、第九和第十天复盘了大模型的基础,在精读论文的基础上理解T原创 2023-08-26 00:12:27 · 152 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day8-10打卡:大模型基础Transformer
在编码器(encoder)和解码器(decoder)之间一般采用CNN或者RNN,而本研究提出了一种简单的仅仅基于注意力机制的架构——Transformer,主要用于机器翻译上面。Transformer是一种完全基于注意力的序列转录模型,它用 多头自注意力(multi-headed self-attention) 取代了编码器-解码器架构中最常用的循环层。Transformer, a sequence transduction model based entirely onattention, repl原创 2023-08-23 23:57:15 · 297 阅读 · 1 评论 -
【NLP】Datawhale-AI夏令营Day6-7打卡:大模型
大语言模型的语言生成的原理叫做自回归模型,是统计上一种处理时间序列的方法。自回归模型的关键是根据你前面已经出现过的内容,来推测它的下一个字,下一句话应该是怎样生成的,在这样不断的迭代过程中,它就能学会如何去生成一句话、一个段落,以及一篇文章。总的来说,LLM可以理解为大规模的语言模型。从历史的角度来看,前面说的BERT和GPT并没有达到足够大的规模。直到GPT-2、GPT-3出现了,它们才达到了较大的量级。我们一般理解LLMs,语言模型规模大到了至少到GPT-1或2阶段,它的参数量能够突破1亿或者1原创 2023-08-22 17:32:05 · 245 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day5打卡:预训练模型
Topline方法:预训练微调+特征融合+后处理Topline 所使用到的预训练模型为Bert的改进版——Roberta-base。它与Bert的区别在于:① Roberta在预训练的阶段中没有对下一句话进行预测(NSP)② 采用了动态掩码③ 使用字符级和词级别表征的混合文本编码原创 2023-08-21 00:01:28 · 126 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day4打卡:预训练+微调范式
🚩【NLP】Datawhale-AI夏令营Day1打卡:文本特征提取第一天学习了Python 数据分析相关的库(pandas和sklearn),文本特征提取的方法(基于TF-IDF提取和基于BOW提取,以及停用词的用法),划分数据集的方法,以及机器学习的模型,并尝试跑通了机器学习方法baseline。🚩【NLP】Datawhale-AI夏令营Day2打卡:数据分析第二天学习了数据探索、数据清洗、特征工程、模型训练与验证部分。🚩【NLP】Datawhale-AI夏令营Day3打卡:Bert模原创 2023-08-19 23:55:11 · 200 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day3打卡:Bert模型
预训练+微调范式一定程度上缓解了标注数据昂贵的问题,显著提升了模型性能,但是,ELMo 使用的双向 LSTM 架构存在难以解决长期依赖、并行效果差的天生缺陷,ELMo 本身也保留了词向量作为特征输入的应用,并没能一锤定音地敲定预训练+微调范式的主流地位。2017年,Transformer 模型的提出,为自然语言处理领域带来了一个新的重要成员——Attention 架构。基于 Attention 架构,同样在2018年,OpenAI 提出的 GPT 模型基于 Transformer 模型,结合 ELMo 模型原创 2023-08-18 22:49:08 · 245 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day2打卡:数据分析
1. 学习内容AI夏令营第三期–基于论文摘要的文本分类与关键词抽取挑战赛教程1.1 数据探索数据探索性分析,是通过了解数据集,了解变量间的相互关系以及变量与预测值之间的关系,对已有数据在尽量少的先验假设下通过作图、制表、方程拟合、计算特征量等手段探索数据的结构和规律的一种数据分析方法,从而帮助我们后期更好地进行特征工程和建立模型,是机器学习中十分重要的一步。本次实践中我们使用 pandas 来读取数据以及数据探索。✅ 使用pandas读取数据我们利用 pd.read_csv() 方法对赛题原创 2023-08-17 20:27:42 · 250 阅读 · 0 评论 -
【强化学习】莫烦Python强化学习笔记-Q Learning
决策过程s(state)——状态a(action)——动作r(reward)——奖励根据每个状态下的动作得到的奖励值,列出Q表。如下图中,在s1状态下,动作a1的奖励值为-2,动作a2的奖励值为1,-2<1,我们选择回馈较高的动作a2;同理,在s2状态下,动作a1的奖励值为-4,动作a2的奖励值为2,-4<2,我们选择回馈较高的动作a2.Q表更新原则:γ——衰减值α——学习效率在状态s1中,由于动作a2得到的奖励值比动作a1大,我们选择采取动作a2,此时状态变为s2。这时候s原创 2021-10-27 11:08:45 · 272 阅读 · 0 评论 -
【tensorflow】Windows下安装两个版本tensorflow
0. 准备方法: 使用anaconda构建相互独立的虚拟环境,然后用pip安装1. anaconda3安装下载python3.7版本👉 Anaconda Installers✏️ 注意:A.勾选 “Install for Just Me (recommended) ”B.不要勾选 “Add Anaconda to my PATH environment variable.”C.如果不打算使用多个版本的Anaconda或者多个版本的Python,勾选 “Register Anaconda原创 2020-05-25 16:54:44 · 6043 阅读 · 3 评论 -
【tensorflow2.0】ValueError:A target array with shape was passed for an output of shape...问题解决
其实不应该这么直接修改网络层,softmax层应置于最后一层。在修改网络结构的时候要注意输出神经元的修改,从第二层开始,输入神经元由机器自动判断不用自己定义,但输出神经元还是要自己判断。原创 2020-02-02 14:21:14 · 12537 阅读 · 1 评论 -
【Matlab智能算法】PSO优化(双隐层)BP神经网络算法
上一篇博客介绍了单隐层BP神经网络的优化:【Matlab智能算法】PSO优化(双隐层)BP神经网络算法,本篇博客将介绍双隐层BP神经网络的优化。1.优化思路BP神经网络的隐藏节点通常由重复的前向传递和反向传播的方式来决定,通过修改或构造训练方式改隐藏的节点数,相应的初始权重和偏置也会随之变化,从而影响网络的收敛和学习效率。为了减少权重和偏置对模型的影响,采用粒子群算法对BP神经网络模型的权重和偏置进行优化,从而加快网络的收敛速度和提高网络的学习效率。原创 2023-08-13 23:49:16 · 662 阅读 · 8 评论 -
【Matlab智能算法】PSO优化(单隐层)BP神经网络算法
BP神经网络的隐藏节点通常由重复的前向传递和反向传播的方式来决定,通过修改或构造训练方式改隐藏的节点数,相应的初始权重和阈值也会随之变化,从而影响网络的收敛和学习效率。为了减少权重和阈值对模型的影响,采用粒子群算法对BP神经网络模型的进行优化,从而加快网络的收敛速度和提高网络的学习效率。优化的重点在于如何构造关于模型权重和阈值的目标函数。原创 2023-08-11 22:26:12 · 515 阅读 · 0 评论 -
【Matlab智能算法】极限学习机-遗传算法(ELM-GA)函数极值寻优——非线性函数求极值
往期博客👉本篇博客将主要介绍ELM(极限学习机),希望能帮助大家快速入门ELM。原创 2023-08-09 17:12:21 · 359 阅读 · 0 评论 -
【Matlab智能算法】Elman神经网络-遗传算法(Elman-GA)函数极值寻优——非线性函数求极值
往期博客👉本篇博客将主要介绍Elman神经网络,希望能帮助大家快速入门Elman网络。原创 2023-08-08 21:14:58 · 600 阅读 · 0 评论 -
【Matlab智能算法】RBF神经网络-遗传算法(RBF-GA)函数极值寻优——非线性函数求极值
上一篇博客介绍了,神经网络用的是RBF神经网络,RBF神经网络和GRNN神经网络有相似之处。本篇博客将GRNN神经网络替换成RBF神经网络,希望能帮助大家快速入门RBF网络。原创 2023-08-08 16:27:29 · 504 阅读 · 0 评论 -
【程序员必须掌握的算法】【Matlab智能算法】GRNN神经网络-遗传算法(GRNN-GA)函数极值寻优——非线性函数求极值
上一篇博客介绍了,神经网络用的是BP神经网络,本篇博客将BP神经网络替换成GRNN神经网络,希望能帮助大家快速入门GRNN网络。原创 2023-07-08 17:18:20 · 927 阅读 · 0 评论 -
【Matlab智能算法】BP神经网络-遗传算法(BP-GA)函数极值寻优——非线性函数求极值
目前关于神经网络遗传算法函数极值寻优——非线性函数求极值的博客资源已经不少了,我看了下来源,最初的应该是来自于Matlab中文论坛,论坛出版的《MATLAB神经网络30个案例分析》第4章就是《神经网络遗传算法函数极值寻优——非线性函数极值寻优》。参考前人的文章资源,本篇博客将对神经网络遗传算法函数极值寻优进行解析,说明代码使用方法。原创 2023-07-01 20:26:36 · 1459 阅读 · 0 评论 -
【NLP】Datawhale-AI夏令营Day1打卡:文本特征提取
⭐️ 最近参加了由Datawhale主办、联合科大讯飞、阿里云天池发起的 AI夏令营(第三期),我参与了深度学习实践-NLP(自然语言处理)方向 😄⭐️ 作为NLP小白,我希望能通过本次夏令营的学习实践,对NLP有初步的了解,学习大模型,动手完成NLP项目内容,同时通过社区交流学习,提升调参优化等能力⭐️ 今天是打卡的第一天! ✊✊✊⭐️ 按照日程安排,8月16日-18日主要学习机器学习方法,完成任务一。⭐️ 今天我主要学习了 Python 数据分析相关的库,文本特征提取的方法,划分数据集的方法,原创 2023-08-16 23:59:18 · 292 阅读 · 0 评论