- 博客(164)
- 资源 (18)
- 问答 (1)
- 收藏
- 关注
原创 常用指令与版本汇总
1.anacondaconda create -n v5 python=3.82.ubuntu#ubuntu获取最高权限 sudo chmod 777*#Unrar与 rarsudo apt-get install rarsudo apt-get install unrar#解压 unrar e test.rar 解压文件到当前目录unrar x test.rar /path/to/extractunrar l test.rar 查看rar中的文件unrar v.
2021-04-30 23:29:46 844 5
原创 使用逻辑回归模型进行信用卡信用分类002
首先明确要解决的问题是一个分类问题,并确定是二分类还是多分类问题。对于逻辑回归,通常用于二分类,即输出只有两个类别。
2024-05-26 20:56:53 1061
原创 xgboost项目实战-保险赔偿额预测与信用卡评分预测001
xgb.train 函数是用于训练模型的主要函数之一。它允许你手动指定模型的各种参数,以定制化地训练 XGBoost 模型。
2024-05-26 20:30:19 1058
原创 测试的分类
常见的压力测试工具包括Apache JMeter、LoadRunner、Gatling等,它们提供了模拟大量用户和高负载条件下的测试环境,并能够收集和分析测试结果。在现实世界中,用户可能会在网络连接质量较差的情况下使用应用程序,例如在移动设备移动时、在信号覆盖较差的地区或在网络拥堵的情况下。在压力测试中,测试人员通常会模拟大量用户或高负载条件下的系统操作,例如同时访问系统的大量用户、处理大量数据请求或执行复杂的计算任务。它涉及模拟系统在正常或极端负载下的行为,以确定系统的稳定性、可靠性和性能极限。
2024-04-11 10:51:22 332
原创 pytorch常用的模块函数汇总(2)
Xavier 初始化的核心思想是根据网络的输入与输出的尺度,合理地初始化权重,使得每一层的输出方差尽量保持不变。具体来说,对于一个全连接层或卷积层的权重矩阵 ( W ),Xavier 初始化将权重初始化为从均匀或正态分布中采样的值。:在某些情况下,我们需要将经过卷积降维的特征图还原到原始输入的尺寸,反卷积可以帮助我们实现这一目的,从而保留更多的空间信息。:反卷积可以用于重建输入信号,尤其在一些自编码器、生成对抗网络(GAN)等模型中,可以通过反卷积层来重建生成的图像或信号。是一个抽象类,代表数据集。
2024-03-27 23:41:10 879
原创 pytorch常用的模块函数汇总(1)
, , , : 加法、减法、乘法、除法, : 矩阵乘法, , , : 指数、对数、正弦、余弦等数学函数: 按索引选取张量的子集: 根据掩码选取张量的子集, : 改变张量的形状, : 压缩或扩展张量的维度, , , : 计算张量均值、和、最大值、最小值等: 对张量进行广播操作: 拼接张量: 堆叠张量: 分割张量神经网络层:备注:Sigmoid 激活函数是一种常用的非线性激活函数,其作用可以总结如下:将输入映射到 (0, 1) 范围内:输出范围在 0 到 1 之间,可以将任意实数输入映射到 0 到 1 之间。这
2024-03-27 22:50:45 795
原创 opencv各个模块介绍(2)
Features2D 模块提供了许多用于特征检测和描述子匹配的函数和类,这些函数和类可用于图像特征的提取、匹配和跟踪。:特征检测器的基类,包括常用的特征检测算法,如ORB、SIFT、SURF、FAST 等。:描述子提取器的基类,用于从图像中提取特征点周围的描述子,包括常用的描述子算法,如ORB、SIFT、SURF 等。:特征检测器和描述子提取器的统一接口类,可以方便地使用各种特征检测和描述子提取算法。
2024-03-22 00:44:00 1118 1
原创 opencv各个模块介绍(1)
cv::Mat:表示多维数组的数据结构,是OpenCV中最常用的类之一,用于存储图像数据和进行矩阵运算。cv::Scalar:用于表示,通常用于颜色表示。cv::Size:用于表示二维空间中的尺寸大小,常用于图像尺寸的表示。cv::Point和:用于表示二维空间中的。cv::Rect:用于表示二维平面上的。cv::Range:用于表示。:模板类,用于创建。cv::split和cv::merge:用于通道分离和合并操作。:用于例如RGB到灰度、RGB到HSV等。cv::resize:用于作。cv::flip。
2024-03-22 00:17:23 1524 1
原创 人脸聚类原理和算法解释
人脸聚类是指将大量人脸图像根据它们的相似性分组到不同的群集中的过程。人脸聚类通常利用人脸的表示来度量人脸之间的相似性,并将相似的人脸图像聚集在一起。:对每张人脸图像提取特征向量。这些特征向量可以通过深度学习模型(如人脸识别模型)提取,通常会将人脸图像映射到一个中。:对于每对人脸特征向量,计算它们之间的。常用的距离度量包括。:选择合适的聚类算法(如K均值聚类、层次聚类、DBSCAN等),根据人脸之间的相似度将它们分配到不同的簇中。聚类算法会根据相似度度量,将相似的人脸图像聚集在同一个簇中。
2024-03-21 13:56:12 848
原创 通俗理解自注意力机制
具体来说,在自注意力机制中,对于输入序列中的每个元素,会计算出三个表示:查询向量(query vector)、键向量(key vector)和值向量(value vector)。通过对查询向量和键向量之间的相似度计算,可以得到每个元素与其他元素之间的相关性权重,然后利用这些权重对值向量进行加权求和,得到最终的输出表示。总的来说,自注意力机制的使用包括计算 Query、Key、Value,计算相关性权重,加权求和等步骤,通常结合神经网络结构一起使用,以实现对序列数据的建模和信息整合。
2024-03-21 10:35:24 1281
原创 开源AI助手AIlice可以控制多个智能体协同完成复杂任务
AIlice 的关键技术特点包括在专业主题上的深入研究能力、阅读和分析文章和学术作品的能力、编程和脚本执行的高级自动化功能,类似于全面编码人员和高效系统管理工具,声音交互支持,与商业模型(如 GPT-4)的无缝集成,以及用户互动的更直观和灵活方法,支持多模型,具有自然且高容错性的交互式代理调用树架构,灵活解析 LLM 输出,自我构建和动态加载模块以与环境互动,为扩展功能提供了无限可能性。MyShellAI开源项目AIlice,可以控制多个智能体协同完成复杂的任务,例如文档检索、下载、数据分析、画图等。
2024-03-07 22:10:11 730
原创 Meta AI移动设备上部署LLM的新框架MobileLLM
MobileLLM 的发展代表了在移动设备应用中利用 LLMs 能力的重大进步,通过重新构思这些模型的架构和整合创新技术,研究团队取得了显著的性能提升,为 LLMs 的部署拓宽了视野。这也是为什么许多大型语言模型的训练需要昂贵的计算成本和高性能计算资源支持的原因之一。大型语言模型的参数量通常是指模型中需要学习的可调整参数的数量,这直接影响到模型的规模和复杂度。MobileLLM 的设计理念是通过深而窄的架构配置,使模型能够更好地理解和表达自然语言中的复杂模式,从而在各种语言任务上提高性能。
2024-03-07 11:00:57 696
原创 信号处理-探索相邻数据点之间的变化和关联性的操作方法
具体来说,当前值减去前一个值可以表示信号的变化趋势,而当前值与前一个值差值的绝对值则可以衡量相邻数据点之间的距离或差异。这种转换的意义可能在于突出信号中的峰值特征,使得这些峰值在经过转换后更为显著,有助于后续的信号分析、检测或识别任务。这种操作可能在某些情况下用于探索数据集中相邻数据点之间的关系,并且对于某些特定数据模式或趋势可能具有一定的敏感性。通过这种操作,可能会得到一种新的指标或特征,用于描述数据中的某种规律或特性。当前值减去后一个值,乘上当前值与后一个值差值的绝对值。
2024-03-07 10:25:14 271
原创 谷歌可读屏AI模型ScreenAI:可理解用户界面和信息图表
尽管目前有一些在智能手机上运行的语言模型,但缺乏更强大的多模态模型,这些模型可以结合文本、图像、音频和视频。虽然他们的专用模型在其类别中是最佳的,但在某些任务上仍需要进一步研究,以缩小与更大型模型(如GPT-4和Gemini)的差距。与类似规模的模型相比,ScreenAI在各项基准测试中表现最佳,通常超过更大型模型。该模型能够识别UI元素的类型和位置,这一方法使用了Google LLM PaLM2-S生成的合成训练数据,使其能够回答关于屏幕信息、屏幕导航和总结屏幕内容的问题。
2024-03-07 09:48:05 840
原创 什么是自回归编码器
自回归解码器可以逐步地生成输出序列,保持序列的语法和语义连贯性。除了上述基本结构外,还有一些变种的自回归解码器模型,如基于Transformer架构的解码器、基于LSTM或GRU的解码器等。在自回归解码器中,解码器部分是自回归的,即在生成每个输出符号时都依赖于之前生成的符号。:用于根据解码器的内部表示生成最终的输出序列,可以是softmax层用于生成离散符号的概率分布,也可以是其他形式的输出层。总的来说,自回归解码器是一种能够逐步生成序列输出的神经网络结构,常用于各种序列到序列的生成任务中。
2024-03-07 09:41:16 556
原创 [E] [TRT] safeContext.cpp (184) - Cudnn Error in configure: 7 (CUDNN_STATUS_MAPPING_ERROR)
而后面进行推理(do inference)的时候没有指定GPU。造成推理程序无法找到GPU。第一种办法:注释掉加载模型前的GPU,这样两个板块都没指定GPU,就都会选默认的GPU。第二种办法:在推理前也指定相同的GPU,cudaSetDevice(DEVICE)。问题所在,加载模型的时候 指定了GPU。
2023-03-04 12:32:05 501
原创 2023-3: ubuntu20.04 cuda11.1 cudnn8.1.1 tensorrt7.2.3.4 Eigin3完整安装
2023-4: ubuntu20.04 cuda11.1 cudnn8.1 tensorrt7.2.3.4
2023-03-02 18:32:59 458
原创 2023-2 :Win10+vs2017+Clion+Tengine lite 编译安装
下载OAID Tengine的源代码。CMakefiles如下。
2023-02-15 00:07:23 262
原创 2023-1:Windows x64 VS2017 Vulkan1.3.239 NCNN20221128编译安装
2023-1:Windows x64 VS2017 Vulkan1.3.239 NCNN20221128编译安装
2023-02-12 12:52:37 309 1
原创 yolov5加入分割头,多任务头
1.3 voc_labels.py,数据集将图片绝对路径存放到相应train.txt和val.txt中,存放到paper_data/det。1.2 split.py,以9:1划分train、val(没有划分test),存放到paper_data/det/ImageSet/Main。road_seg_train:seg文件夹下images/train文件夹绝对路径。road_seg_val:seg文件夹下images/val文件夹绝对路径。train:det文件夹下train.txt相对路径。
2022-11-20 22:24:31 2394
原创 yolov7
首先对输入的图片 resize 为 640x640 大小,输入到 backbone 网络中,然后经 head 层网络输出三层不同 size 大小的 feature map,经过 Rep 和 conv输出预测结果,这里以 coco 为例子,输出为 80 个类别,然后每个输出(x ,y, w, h, o) 即坐标位置和前后背景,3 是指的 anchor 数量,因此每一层的输出为 (80+5)x3 = 255再乘上 feature map 的大小就是最终的输出。
2022-11-08 15:28:22 1113
原创 yolov5优化策略
Yolov5源码中有两种mosaic数据增强代码,一个是4-mosaic数据增强,另一个是9-mosaic数据增强,默认用的是4-mosaic数据增强,如果想换成9-mosaic数据增强可以将utils/datasets.py文件中的load_mosaic9()改成load_mosaic(),然后将原本的load_mosaic()注释掉,其他不变。anchor_t: 2.91 #长宽比例差距较大的调大此值。mosaic: 1.0 马赛克增强,见上分4和9。hsv_h: 0.0138 颜色空间变换。
2022-11-02 13:15:06 939
智东西公开课-自动驾驶系列课第三季第6讲-多功能商用车智能驾驶系统的架构及应用-深兰科技智能交通技术CEO赵旭博士
2018-09-02
在VC2010上可以运行,但是改到Qt上就提示这个错误,请问是哪里没设置好吗?
2015-01-09
TA创建的收藏夹 TA关注的收藏夹
TA关注的人