神经网络激活函数sigmoid、tanh、Relu、LeakyRelu、Elu、PRelu、MaxOut的java实现

神经网络常用激活函数包括sigmoid、tanh、Relu、LeakyRelu、Elu、PRelu和MaxOut。对每一种函数采用java进行实现。前面四种激活函数是固定形式,后面三种激活函数部分参数可以通过神经网络学习进行调整,这里只针对激活函数本身进行简单实现,不做过多讲解。

1、sigmoid函数

公式:1 / (1 + E^-x)

代码:

public double sigmoid(double x) {
		return 1 / (1 + Math.pow(Math.E, -x));
	}

sigmoid图形:

2、tanh函数

公式:公式:(E^x - E^-x)/(E^x + E^-x)

代码:

public double tanh(double x) {
		return (Math.pow(Math.E, x) - Math.pow(Math.E, -x)) / (Math.pow(Math.E, x) + Math.pow(Math.E, -x));
	}

Tanh图形:

3、relu函数

公式:max(0,x)

代码:

public double relu(double x) {
		return Math.max(0, x);
	}

Relu图形:

4、leakyrelu函数

公式:max(a*x,x),a为(0~1)之间取一个固定值

代码:

public double leakyRelu(double x) {
    return Math.max(0.01 * x, x);
}

图形(a=0.5):

5、prelu函数

公式:max(ax,x),其中a不是固定值,可通过学习更改

代码:

public double pRelu(double x,double a) {
    return Math.max(a * x, x);
}

6、elu函数

公式:当x>0,返回x;当x<=0,返回a*(E^x - 1),a不是固定值,同样可通过学习进行调整

代码:
 

public double elu(double x,double a) {
		if (x > 0) {
			return x;
		}else {
			return a * (Math.pow(Math.E, x) - 1);
		}
	}

7、maxout函数

公式:max(z[]),z[]为神经网络每一层计算结果的集合

神经网络层计算公式:z=wx+b,w为权重,b为偏置

也就是说,maxout函数的参数z[]会随着神经网络层的增加而递增

代码:

public class MaxOut {
	List<Double> values = new ArrayList<>();
	public double maxOut(double value) {
		values.add(value);
		Collections.sort(values);
		return values.get(0);
	}
}

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TheMatrixs

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值