sjx_alo
人工智能博士在读,目前在做脑机接口研究。已发表多项发明专利(4项),包括国际期刊SCI内十多篇论文,多个数学建模国家级证书。目前也是国内知名博主,截止2022年,AI领域粉丝超1万,文章阅读量超20万。
合作请私信!!!~~~
展开
-
深度学习快速入门--7天做项目
近段时间,之前的老板让我带下小师弟。然后按照给照小师弟的项目指导,正好出这篇文章来帮助那些想要深度学习入门或者刚接触深度学习的人。感谢!!!原创 2024-01-29 17:07:34 · 2618 阅读 · 2 评论 -
史上最全激活函数总结篇(持续更新ing......)
激活函数系列中提及到的激活函数包括:Sigmoid、Tanh、ReLU、Leaky ReLU、PReLU、Swish、ELU、SELU、GELU、Softmax、Softplus、Mish、Maxout、HardSigmoid、HardTanh、Hardswish、HardShrink、SoftShrink、TanhShrink、RReLU、CELU、ReLU6、Threshold、Sinc、GLU、SwiGLU、GTU、Bilinear、ReGLU、GEGLU、Softmin、Softmax2d、Logs原创 2023-09-27 08:43:19 · 4775 阅读 · 7 评论 -
DeepSmote:一种深度SMOTE方法
DeepSmote 一种全新的将深度学习与Smote相结合的过采样方法! 目前在许多领域已经被使用,值得大家关注学习!原创 2023-05-10 11:24:47 · 788 阅读 · 7 评论 -
如何在本地配置Github的项目--Python
`Github`上存在大量的代码。当下载下来后可能会存在疑惑:如何在`本地配置`对应的项目呢?为了帮助新手解决这一问题,这篇文章从头开始对项目的配置进行解析。文章主要包括四个部分:1. 初步预览2. 配置环境3. 数据配置4. 依次调试5. 配置完成原创 2023-05-27 19:56:20 · 2079 阅读 · 0 评论 -
Capsule Network 胶囊网络介绍
胶囊网络可以作为一个论文提分的点,但是工程上不建议用。。。相比于CNN网络而言,胶囊网络可以用更小的训练数据进行良好的训练;具有更强的能力去识别复杂的层次结构和空间关系。原创 2024-01-11 15:50:58 · 1342 阅读 · 0 评论 -
不要对数据进行某些类型可视化 - 它们是什么以及为什么它们不好。
这篇文章介绍不要对数据进行某些类型可视化 - 它们是什么以及为什么它们不好。文章通过可视化以及具体的案例进行各个情况分析,并说明了坏的原因!!!翻译 2023-11-22 09:40:13 · 102 阅读 · 0 评论 -
EEG公开数据集介绍
EEG 公开数据集介绍(包含各种分类任务下的EEG数据集和对应的下载链接)原创 2023-11-03 08:38:10 · 2382 阅读 · 0 评论 -
损失函数总结(十六):NRMSELoss、RRMSELoss
本文对损失函数进行了部分总结,包括:NRMSELoss、RRMSELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-28 15:08:07 · 389 阅读 · 0 评论 -
Bug小能手系列(python)_13: RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might
RuntimeError: CUDA error: device-side assert triggeredCUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. 报错解决方案原创 2023-10-30 15:16:41 · 7398 阅读 · 2 评论 -
损失函数总结(十五):MSLELoss、RMSLELoss
本文对损失函数进行了部分总结,包括:RMSELoss、LogCosh Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-20 15:55:22 · 350 阅读 · 2 评论 -
损失函数总结(十四):RMSELoss、LogCosh Loss
本文对损失函数进行了部分总结,包括:RMSELoss、LogCosh Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-02 08:40:28 · 416 阅读 · 0 评论 -
损失函数总结(十三):RSELoss、MAPELoss
本文对损失函数进行了部分总结,包括:RSELoss、MAPELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-02 08:40:12 · 466 阅读 · 0 评论 -
损失函数总结(十二):MBELoss、RAELoss
本文对损失函数进行了部分总结,包括:MBELoss、RAELoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-01 08:58:15 · 186 阅读 · 0 评论 -
损失函数总结(十一):Huber Loss、SmoothL1Loss
本文对损失函数进行了部分总结,包括:Huber Loss、SmoothL1Loss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-11-01 08:57:55 · 1429 阅读 · 0 评论 -
损失函数总结(十):TripletMarginLoss、TripletMarginWithDistanceLoss
本文对损失函数进行了部分总结,包括:TripletMarginLoss、TripletMarginWithDistanceLoss 等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-30 15:17:24 · 519 阅读 · 0 评论 -
损失函数总结(九):SoftMarginLoss、MultiLabelSoftMarginLoss
本文对损失函数进行了部分总结,包括:SoftMarginLoss、MultiLabelSoftMarginLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-28 11:53:02 · 1029 阅读 · 2 评论 -
损失函数总结(八):MultiMarginLoss、MultiLabelMarginLoss
本文对损失函数进行了部分总结,包括:MultiMarginLoss、MultiLabelMarginLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-27 08:47:08 · 819 阅读 · 0 评论 -
损失函数总结(七):MarginRankingLoss、HingeEmbeddingLoss
本文对损失函数进行了部分总结,包括:MarginRankingLoss、HingeEmbeddingLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-27 08:46:36 · 1013 阅读 · 0 评论 -
损失函数总结(六):KLDivLoss、BCEWithLogitsLoss
本文对损失函数进行了部分总结,包括:KLDivLoss、BCEWithLogitsLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-26 10:02:42 · 951 阅读 · 0 评论 -
损失函数总结(五):PoissonNLLLoss、GaussianNLLLoss
本文对损失函数进行了部分总结,包括:PoissonNLLLoss、GaussianNLLLoss等损失函数及其在当前损失函数众多的情况下使用的环境。原创 2023-10-26 10:02:21 · 777 阅读 · 0 评论 -
写代码不写注释 < 写代码不说环境 < 写代码不给数据 < 写论文不给代码
写代码不写注释分情况如何解决? 写代码不说环境分情况如何解决?讨厌程度排名:写代码不写注释 < 写代码不说环境 < 写代码不给数据 < 写论文不给代码原创 2023-10-17 11:19:50 · 362 阅读 · 0 评论 -
损失函数总结(四):NLLLoss、CTCLoss
本文对损失函数进行了部分总结,包括:NLLLoss、CTCLoss等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:NLLLoss 和 CrossEntropyLoss 是一致的,且具有相同作用;CTCLoss则广泛用于各种时间序列任务。。。原创 2023-10-25 16:08:55 · 1457 阅读 · 0 评论 -
损失函数总结(三):BCELoss、CrossEntropyLoss
本文对损失函数进行了部分总结,包括:BCELoss、CrossEntropyLoss 等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:对于分类任务,CrossEntropyLoss 是其进行多分类任务的标准方法,而BCELoss 广泛用于二分类任务中。。。这两种损失函数都是当前较为常用的损失函数,可以好好研究一下。原创 2023-10-25 10:05:06 · 2709 阅读 · 0 评论 -
损失函数总结(二):L1Loss、MSELoss
本文对损失函数进行了部分总结,包括:L1Loss、MSELoss等损失函数及其在当前损失函数众多的情况下使用的环境。总的来说:对于回归任务,最常使用的就是MSELoss,二L1Loss因其本身的特点很少使用。。。。原创 2023-10-18 09:34:34 · 1148 阅读 · 0 评论 -
损失函数总结(一):损失函数介绍
这篇文章为了帮助大家更好的理解损失函数,介绍了损失函数是什么以及为什么要使用损失函数。原创 2023-10-17 11:20:57 · 218 阅读 · 0 评论 -
激活函数总结(四十七):激活函数补充(Adaptive Spline Activation Function、Adversarial Soft Advantage Fitting)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Adaptive Spline Activation Function、Adversarial Soft Advantage Fitting等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Adaptive Spline Activation Function提出的时间过于久远,现在已几乎不再使用;Adversarial Soft Advantage Fitting具有很好的效果,但是使用场景具有局限性,使用的时候需要注意。。。。原创 2023-09-28 08:30:34 · 290 阅读 · 1 评论 -
激活函数总结(四十六):激活函数补充(Nipuna、StarReLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Nipuna、StarReLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Nipuna具有一定的效果,但是不会很常见。。。而StarReLU激活函数可以在深度学习领域广泛使用,具有很好的效果,有需要的小伙伴可以尝试使用,,,原创 2023-09-28 08:30:20 · 306 阅读 · 0 评论 -
激活函数总结(四十五):激活函数补充(Smooth Step、LinComb)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:Smooth Step、LinComb等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:Smooth Step可能会在特殊领域进行简单应用,但是不会很常见。。。而LinComb激活函数其有效性有待进一步验证,这里仅做简单了解。。。原创 2023-09-27 08:42:13 · 190 阅读 · 0 评论 -
激活函数总结(四十四):激活函数补充(NLSIG、EvoNorms)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:NLSIG、EvoNorms等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:NLSIG更偏向于现实生活的情况,在当前很少使用,也并不适合深度学习领域;EvoNorms的话可以一定程度上代替BN+ReLU 的结构,且具有较好的效果,但是会带来复杂度的上升,使用的时候需要进行一定的考虑。。。。原创 2023-09-26 10:18:14 · 150 阅读 · 0 评论 -
激活函数总结(四十三):激活函数补充(ScaledSoftSign、NormLinComb)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ScaledSoftSign、NormLinComb等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ScaledSoftSign 和 NormLinComb 当前仅在预印本文章中提出,并没有得到有效验证。。。使用的时候要注意。。。原创 2023-09-26 08:29:29 · 166 阅读 · 0 评论 -
激活函数总结(四十二):激活函数补充(SSFG、Gumbel Cross Entropy)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:SSFG、Gumbel Cross Entropy等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:虽然,SSFG和Gumbel Cross Entropy均具有很好的效果,但是尚未经过大量实验进行有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-25 08:36:39 · 226 阅读 · 0 评论 -
激活函数总结(四十一):激活函数补充(ShiLU、ReLUN)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ShiLU、ReLUN等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ShiLU 和 ReLUN均尚未经过有效性验证,且从函数本身来说并不一定有很好的效果!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-22 08:51:58 · 289 阅读 · 0 评论 -
激活函数总结(四十):激活函数补充(AHAF、SERLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:AHAF、SERLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:AHAF 和 SERLU都具有一定的优势,但是均尚未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-21 08:57:40 · 199 阅读 · 0 评论 -
激活函数总结(三十九):激活函数补充(NFN、Hermite)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:NFN、Hermite等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:NFN 现在几乎不再使用。。而 Hermite 激活函数尚未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-20 08:39:04 · 129 阅读 · 0 评论 -
激活函数总结(三十八):激活函数补充(PDELU、CosLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:PDELU、CosLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:PDELU和 CosLU均都未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-19 08:36:23 · 161 阅读 · 0 评论 -
激活函数总结(三十七):激活函数补充(PAU、DELU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:PAU、DELU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:PAU 和 DELU 均有一定的优点,但是也都未经过有效性验证!!! 因此,使用的时候需要稍加注意。。。原创 2023-09-18 08:32:55 · 226 阅读 · 0 评论 -
激活函数总结(三十六):激活函数补充(ARiA、m-arcsinh)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:ARiA、m-arcsinh等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:ARiA 和 m-arcsinh 在现在较少使用,这里仅做了解即可。。。原创 2023-09-17 09:00:00 · 144 阅读 · 0 评论 -
激活函数总结(三十五):激活函数补充(KAF、Siren)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:KAF、Siren等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:KAF现在较少使用,而Siren在图像方面应用较多,有需要的可以关注一下。。。原创 2023-09-16 09:11:35 · 306 阅读 · 0 评论 -
激活函数总结(三十四):激活函数补充(FReLU、CReLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:FReLU、CReLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:FReLU、CReLU在当前环境下均有所使用,其中FReLU是视觉领域的较为优异的激活函数,值得大家观看。。。原创 2023-09-15 08:37:41 · 696 阅读 · 0 评论 -
激活函数总结(三十三):激活函数补充(QReLU、m-QReLU)
本文为前面介绍的激活函数进行了一些激活函数补充,包括:QReLU、m-QReLU等激活函数及其在当前激活函数众多的情况下使用的环境。总的来说:QReLU、m-QReLU在当前环境下均较少使用,这里仅做介绍让大家了解。。。。。原创 2023-09-14 09:33:54 · 202 阅读 · 0 评论