03 神经网络的NumPy基础 - 神经网络和深度学习 [Deep Learning Specialization系列]

这篇博客介绍了在深度学习中如何使用NumPy进行科学计算,包括sigmoid函数及其梯度计算,数组reshape,数据归一化,softmax函数的实现,以及向量化和损失函数的基本应用。内容涵盖激活函数、数据预处理和基本的损失计算,适合深度学习初学者。
摘要由CSDN通过智能技术生成

本文是Deep Learning Specialization系列课程的第1课《Neural Networks and Deep Learning》中Python Basics with NumPy练习的学习笔记。

Numpy是科学计算中最重要的Python库,之前也写过一篇关于NumPy的文章NumPy学习记录 part1。这里主要是学习一下深度学习中会使用到的NumPy函数,比如np.exp, np.log, 和np.reshape等,并通过这些函数来把上节课02 神经网络 - 神经网络和深度学习 [Deep Learning Specialization系列]的一些基础知识做一个简单的实现。

1. sigmoid函数

sigmoid函数是深度学习中常用的一个非线性的激活函数,其方程式为:
s i g m o i d ( x ) = 1 1 + e − x sigmoid(x) = {1 \over {1 + e^{-x}}} sigmoid(x)=1+ex1
sigmoid函数

这里的代码实现需要用到NumPy的np.exp()函数:

import numpy as np

def sigmoid(x):
	s = 1 / (1 + np.exp(-x)
	return s

sigmoid函数的梯度

通过计算图的反向传播可以求得sigmoid函数关于输入x的梯度(导数)为: ∂ ∂ x σ ( x ) = σ ( x ) ( 1 − σ ( x ) ) {\partial \over\partial x}\sigma(x) = \sigma (x) (1 - \sigma(x)) x</

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值