![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
xiaojiuwo168
Ordinary to the extreme, but lovely is ordinary.
展开
-
Anaconda中同一个虚拟环境安装pytorch和tensorflow
pytorch和tensorflow环境共存搭建!原创 2022-06-27 13:56:41 · 3037 阅读 · 0 评论 -
物理信息神经网络PINNs : Physics Informed Neural Networks 详解
本博客主要分为两部分:1、PINN模型论文解读2、PINN模型相关总结一、PINN模型论文解读1、摘要:基于物理信息的神经网络(Physics-informed Neural Network, 简称PINN),是一类用于解决有监督学习任务的神经网络,同时尊重由一般非线性偏微分方程描述的任何给定的物理规律。原理:它不仅能够像传统神经网络一样学习到训练数据样本的分布规律,而且能够学习到数学方程描述的物理定律。优势:与纯数据驱动的神经网络学习相比,PINN在训练过程中施加了物理信息约束,因而能用更少原创 2022-05-08 11:48:56 · 42833 阅读 · 13 评论 -
PyTorch实现ResNet18
论文链接:Deep residual learning for image recognition译文地址:http://blog.csdn.net/wspba/article/details/57074389解读博客:https://blog.csdn.net/wspba/article/details/57074389Resnet 网络简介:ResNet-18结构为例:基本结点:代码实现:import torchimport torch.nn as nnfrom torch.nn原创 2022-03-10 16:51:14 · 5174 阅读 · 5 评论 -
深入理解卷积层,全连接层的作用意义
原文链接:https://blog.csdn.net/m0_37407756/article/details/80904580转载 2022-03-03 17:25:04 · 139 阅读 · 0 评论 -
sigmoid和softmax激活函数的区别
一、简单说下sigmoid激活函数解析:常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层。这里先简要介绍下最基础的sigmoid函数(btw,在本博客中SVM那篇文章开头有提过)。sigmoid的函数表达式如下:其中z是一个线性组合,比如z可以等于:b + w1x1 + w2x2。通过代入很大的正数或很小的负数到g(z)函数中可知,其结果趋近于0或1。(一般用于全连接+激活函数)总之,sigmod函数,是逻原创 2022-03-03 17:00:29 · 2974 阅读 · 0 评论 -
图解人工智能是什么?
转载 2022-02-25 10:59:19 · 132 阅读 · 0 评论 -
Latex写伪代码
亲测有效1、导入依赖包:\usepackage[ruled]{algorithm2e}\begin{algorithm}[] %其中这里面不能有H不然会报错,不过不影响结果\caption{algorithm caption}%算法名字\LinesNumbered %要求显示行号\KwIn{input parameters A, B, C}%输入参数\KwOut{output result}%输出some description; %;用于换行\For{condition}{onl原创 2022-01-06 21:03:56 · 32626 阅读 · 18 评论 -
参数和超参数的定义
1. 参数(parameters)(模型参数)由模型通过学习得到的变量,比如权重和偏置2. 超参数(hyperparameters)(算法参数)根据经验进行设定,影响到权重和偏置的大小,比如迭代次数、隐藏层的层数、每层神经元的个数、学习速率等...原创 2022-01-05 16:54:24 · 2193 阅读 · 0 评论 -
深度学习中的不确定性详解
参考来源:https://www.zhihu.com/collection/767533853https://zhuanlan.zhihu.com/p/56986840单独的不确定性:两种不确定性的结合:这里为什么要除以偶然不确定性,是因为图片本身存在偶然不确定性,可以通过除以消除其度量两种不确定性,详解、公式推导以及示例请参考:https://zhuanlan.zhihu.com/p/56986840...原创 2022-01-03 21:37:43 · 2634 阅读 · 0 评论