![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI理论
火星种萝卜
c++ vc mfc java
展开
-
二次型优化问题矩阵求导解法
https://www.csdn.net/tags/MtTaEgzsOTU2NzAxLWJsb2cO0O0O.html转载 2022-04-09 17:17:50 · 451 阅读 · 0 评论 -
YOLO算法解读_bhneo的博客-CSDN博客_yolo算法You Only Look Once
YOLO算法解读_bhneo的博客-CSDN博客_yolo算法转载 2022-02-26 16:30:10 · 103 阅读 · 0 评论 -
NVIDIA TensorRT | NVIDIA Developer 正式文档
NVIDIA TensorRT | NVIDIA Developer转载 2022-02-25 22:50:39 · 238 阅读 · 0 评论 -
TensorRT 简介 - 知乎
TensorRT 简介 - 知乎转载 2022-02-25 22:47:31 · 89 阅读 · 0 评论 -
TensorRT 介绍 可以做为docx使用说明
TensorRT 介绍 - qccz123456 - 博客园转载 2022-02-25 22:28:44 · 65 阅读 · 0 评论 -
TensorRT是NVIDIA开发的深度学习推理工具,只支持推理,不支持训练 引
. TensorRT是NVIDIA开发的深度学习推理工具,只支持推理,不支持训练; 目前TensorRT3已经支持Caffe、Caffe2、TensorFlow、MxNet、Pytorch等主流深度学习库;2. TensorRT底层针对NVIDIA显卡做了多方面的优化,不仅仅是量化,可以和 CUDA CODEC SDK 结合使用, 也就是另一个开发包DeepStream; 3. TensorRT独立于深度学习框架,通过解析框架文件来实现,不需要额外安装DL库;tensorRT的介绍_...转载 2022-02-25 20:25:08 · 368 阅读 · 0 评论 -
onnx是什么 转
ONNX简介_limingmin2020的博客-CSDN博客_onnx是什么要重视图神经网络理论简介Open Neural Network Exchange(ONNX,开放神经网络交换)格式,是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移。ONNX是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型。它使得不同的人工智能框架(如Pytorch, MXNet)可以采用相同格式存储模型数据并交互。 ONNX的规范及代码主要由微软,亚马逊 ,Facebook 和 IBM转载 2022-02-18 20:46:38 · 206 阅读 · 0 评论 -
如何简单形象又有趣地讲解神经网络是什么?(知乎) 说的人很多,理解很充分_kebu12345678的博客-CSDN博客_神经网络知乎
如何简单形象又有趣地讲解神经网络是什么?(知乎) 说的人很多,理解很充分_kebu12345678的博客-CSDN博客_神经网络知乎转载 2022-02-13 15:34:56 · 76 阅读 · 0 评论 -
最小均方误差算法(LMSE) - 知乎
最小均方误差算法(LMSE) - 知乎转载 2022-02-11 10:30:17 · 2980 阅读 · 0 评论 -
L-BFGS优化算法
深入机器学习系列17-BFGS & L-BFGS - 知乎转载 2022-01-16 15:02:21 · 582 阅读 · 0 评论 -
交叉熵损失(Cross Entropy Loss)计算过程
交叉熵损失(Cross Entropy Loss)计算过程_藏知阁-CSDN博客_交叉熵计算公式转载 2021-10-21 14:54:11 · 928 阅读 · 0 评论 -
独热编码的用处和短处
独热编码(One-Hot Encoding) - 知乎转载 2021-10-20 11:48:44 · 193 阅读 · 0 评论 -
将标签one-hot化的方法
label_column_list = ['label_%s'%i for i in range(df_data['label'].max()+1)]df_data[label_column_list] = pd.get_dummies(df_data['label'])原创 2021-10-20 11:35:52 · 158 阅读 · 0 评论 -
模型评估指标micro avg、macro avg和weighted avg的计算方式及区别
模型评估指标micro avg、macro avg和weighted avg的计算方式及区别-技术圈转载 2021-10-20 10:11:55 · 1261 阅读 · 0 评论 -
分段线性学习率extend_with_piecewise_linear_lr
6个派生优化器的简单介绍及其实现 - 科学空间|Scientific Spaces转载 2021-10-19 13:42:38 · 322 阅读 · 0 评论 -
宏平均macro average
【机器学习】多类分类性能评价之宏平均(macro-average)与微平均(micro-average)_qq280929090的专栏-CSDN博客转载 2021-10-18 20:35:17 · 558 阅读 · 0 评论 -
如何确定隐藏层和隐藏单元个数
如何确定隐藏层数和隐藏层单元数_Libra2022的博客-CSDN博客转载 2021-10-18 19:14:10 · 2160 阅读 · 0 评论 -
WARNING:tensorflow:Layer gru will not use cuDNN kernels since it doesn‘t meet the criteria. It will
WARNING:tensorflow:Layer gru will not use cuDNN kernels since it doesn't meet the criteria. It will use a generic GPU kernel as fallback when running on GPU.WARNING:tensorflow:Layer lstm will not use cuDNN kernel since it doesn‘t meet the cuDNN kernel_辰辰转载 2021-10-18 16:40:43 · 2325 阅读 · 0 评论 -
CUDA(Compute Unified Device Architecture)和CUDNN(专门针对Deep Learning框架设计的一套GPU计算加速方案)的区别
关于CUDA和cuDNN的安装 - 叶罅 - 博客园转载 2021-10-13 23:39:08 · 183 阅读 · 0 评论 -
Dice Loss损失函数
语义分割之Dice Loss深度分析转载 2021-10-12 22:02:16 · 1424 阅读 · 0 评论 -
什么是KERAS (开发深度学习框架)
Keras_百度百科转载 2021-10-10 23:26:34 · 1423 阅读 · 0 评论 -
什么是GRU (Gated Recurrent Unit)
Gated Recurrent Unit(GRU) - 程序员大本营转载 2021-09-27 10:04:35 · 574 阅读 · 0 评论 -
Pytorch交叉熵损失函数torch.nn.functional as F
loss = F.cross_entropy(outputs, labels)原创 2021-08-09 17:20:22 · 1307 阅读 · 0 评论 -
GELU 激活函数
https://blog.csdn.net/liruihongbob/article/details/86510622转载 2021-08-06 19:21:20 · 121 阅读 · 0 评论 -
AdamW优化算法 笔记
https://so.csdn.net/marketing/download.html?invitationCode=U23CJF4&from=0802toobar转载 2021-08-05 09:39:30 · 473 阅读 · 0 评论 -
ADAM优化算法
https://www.zhihu.com/question/323747423转载 2021-08-03 18:46:24 · 70 阅读 · 0 评论 -
交叉熵损失函数的通用性(为什么深度学习DL普遍用它):预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 “ 惩罚 ” 越大,而且是非线性增大是一种类似指数增长的级别,结论:它对结果有引导性
重点提一点的是,从图形中我们可以发现:预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 “ 惩罚 ” 越大,而且是非线性增大,是一种类似指数增长的级别。这是由 log 函数本身的特性所决定的。这样的好处是模型会倾向于让预测输出更接近真实样本标签 y。https://blog.csdn.net/red_stone1/article/details/80735068...转载 2021-08-03 14:30:02 · 183 阅读 · 0 评论 -
ROC曲线简介
https://zhuanlan.zhihu.com/p/26293316转载 2021-07-29 11:10:31 · 94 阅读 · 0 评论 -
精确率、召回率、F1 值、ROC、AUC 各自的优缺点是什么?
https://www.zhihu.com/question/30643044/answer/224360465转载 2021-07-29 10:02:10 · 93 阅读 · 0 评论 -
F1和Fβ分数
https://blog.csdn.net/weixin_39346243/article/details/79293358转载 2021-07-29 09:49:55 · 795 阅读 · 0 评论 -
什么样的模型是好的模型 好的数据胜于好的特征,好的特征胜于好的算法
数据科学领域非常流行的一句话:“好的数据胜于好的特征,好的特征胜于好的算法。”应用于机器学习时,这句话还有另一种表达形式:“数据和特征决定了机器学习的上界,模型只是在不断逼近这个上界而已”https://blog.csdn.net/abcdefg90876/article/details/108878163...转载 2021-07-28 18:32:06 · 379 阅读 · 0 评论 -
如何确定显著性水平
https://zhidao.baidu.com/question/67666978.html转载 2021-07-22 11:39:45 · 3774 阅读 · 0 评论 -
PaddleOCR,一款文本识别效果不输于商用的Python库!
https://www.cnblogs.com/zeroing0/p/14878073.html转载 2021-07-21 16:10:57 · 332 阅读 · 0 评论 -
TSNE Understanding
http://frankchen.xyz/2018/01/30/Understanding-TSNE/转载 2021-07-21 11:28:09 · 70 阅读 · 0 评论 -
混淆矩阵及confusion_matrix函数的使用
https://blog.csdn.net/u011734144/article/details/80277225转载 2021-07-20 16:12:13 · 428 阅读 · 0 评论 -
长尾分布
https://baike.baidu.com/item/%E9%95%BF%E5%B0%BE%E5%88%86%E5%B8%83/3291892?fr=aladdin转载 2021-07-17 20:27:12 · 106 阅读 · 0 评论 -
列子御风 大道至简 心诚天人合一
https://baijiahao.baidu.com/s?id=1595694479923195400&wfr=spider&for=pc转载 2021-07-17 10:59:25 · 80 阅读 · 0 评论 -
流行学习
https://blog.csdn.net/zhulingchen/article/details/2123129转载 2021-07-17 10:56:59 · 67 阅读 · 0 评论 -
TSNE 附有codechina代码
https://blog.csdn.net/weixin_34279246/article/details/90102855转载 2021-07-17 10:55:38 · 128 阅读 · 0 评论 -
TSNE 有代码实现有附3D 2D效果图
https://blog.csdn.net/weixin_34279246/article/details/90102855转载 2021-07-17 10:57:31 · 576 阅读 · 0 评论