二元交叉熵损失函数和均方误差损失函数
import numpy as np
def binary_cross_entropy_loss(predictions, labels):
"""
计算二元交叉熵损失函数。
参数:
- predictions:模型的预测值,可以是概率值。
- labels:真实标签,通常为0或1。
返回值:
- loss:计算得到的损失值。
"""
epsilon = 1e-15 # 添加一个极小值,避免log(0)的情况
predictions = np.clip(predictions, epsilon, 1 - epsilon) # 防止取对数时出现溢出或无穷大的情况
loss = - (labels * np.log(predictions) + (1 - labels) * np.log(1 - predictions)) # 二元交叉熵损失函数
return np.mean(loss)
def mean_squared_error_loss(predictions, labels):
"""
计算均方误差损失函数。
参数:
- predictions:模型的预测值。
- labels:真实标签。
返回值:
- loss:计算得到的损失值。
"""
loss = np.mean((predictions - labels) ** 2) # 均方误差损失函数
return loss
# 示例使用
predictions = np.array([0.8, 0.2, 0.6, 0.3]) # 模型预测值(概率)
labels = np.array([1, 0, 1, 0]) # 真实标签(二分类)
# 计算二元交叉熵损失函数
bce_loss = binary_cross_entropy_loss(predictions, labels)
print("Binary Cross-Entropy Loss:", bce_loss)
# 计算均方误差损失函数
mse_loss = mean_squared_error_loss(predictions, labels)
print("Mean Squared Error Loss:", mse_loss)