我目前正在尝试在MATLAB中实现涉及
logistic loss function的机器学习算法.不幸的是,由于数字溢出,我遇到了一些麻烦.
通常,对于给定的输入s,逻辑函数的值为:
log(1 + exp(s))
并且逻辑损失函数的斜率是:
exp(s)./(1 + exp(s)) = 1./(1 + exp(-s))
在我的算法中,s = X * beta的值.这里X是一个矩阵,每个数据点有N个数据点和P个特征(即大小(X)= [N,P]),β是每个特征的P系数向量,大小(β)= [P 1] .
我特别感兴趣的是计算给定β值的Logistic函数的平均值和梯度.
Logistic函数w.r.t到beta值的平均值是:
L = 1/N * sum(log(1+exp(X*beta)),1)
Logistic函数斜率的平均值w.r.t.到b的值是:
dL = 1/N * sum((exp(X*beta)./(1+exp(X*beta))' X, 1)'
请注意,大小(dL)= [P 1].
我的问题是这些表达式不断产生数值溢出.该问题有效地来自exp(s)=当s> 1000时的Inf和当s
如果觉得《什么影响matlab损失值 matlab – 在计算Logistic损失函数的值和梯度时避免数值溢出...》对你有帮助,请点赞、收藏,并留下你的观点哦!