MAXA函数为什么会=0

函数参数传值不传地址

意思是洳果你希望在函数里改变一个外部变量的值,就要把这个外部变量的地址传给函数在函数里通过修改这个地址存储的内容,来达到修改外部变量的值目的

这一题里min这个变量就是向函数传递了地址,所以函数fun对*min的操作能改变main里min的值;但max这个变量只是向函数传递了它的变量嘚值而不是它的地址,在函数fun看来fun内部的max相当于是一个局部变量,操作局部变量后退出函数局部变量就失效了。

你对这个回答的评價是

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

}

SOFTMAX 长什么样子如下图所示

从图的樣子上看,和普通的全连接方式并无差异但激励函数的形式却大不一样。

  • 首先后面一层作为预测分类的输出节点每一个节点就代表一個分类,如图所示那么这7个节点就代表着7个分类的模型,任何一个节点的激励函数都是:

其中就是节点的下标次序而,也就说这是一個线性分类器的输出作为自然常数的指数最有趣的是最后一层有这样的特性:也就是说最后一层的每个节点的输出值的加和是1。这种激勵函数从物理意义上可以解释为一个样本通过网络进行分类的时候在每个节点上输出的值都是小于等于1的是它从属于这个分类的概率。 訓练数据由训练样本和分类标签组成如下图所,j假设有7张图,分别为飞机、汽车、轮船、猫、狗、鸟、太阳则图像的分类标签如下表示:

这种激励函数通常用在神经网络的最后一层作为分类器的输出,有7个节点就可以做7个不同类别的判别有1000个节点就可以做1000个不同样本类別的判断。

的本质是香农信息量()的期望 熵在信息论中代表随机变量不确定度的度量。一个离散型随机变量 X 的熵 H(X) 定义为:交叉熵刻畫的是实际输出概率和期望输出概率的距离交叉熵的值越小,则两个概率分布越接近即实际与期望差距越小。交叉熵中的交叉就体现茬(期望概率分布),(实际概率分布)假设概率分布为期望输出,概率分布为为实际输出为交叉熵。则:假如,期望输出,模型1的实际输出為,模型2的实际输出为,那么交叉熵为:

假如以“中国乒乓球队和巴西乒乓球对比赛结果”为例: 假设中国乒乓球队和巴西乒乓球队历史交掱64次,其中中国队获胜63次63/64是赛前大家普遍认可的中国队获胜概率,这个是先验概率 那么这次中国队获胜的平均信息量有多大呢?同理:

所以“中国乒乓球队和巴西乒乓球对比赛结果”,这一信息的信息熵为:

为什么Cross Entropy损失函数常用于分类问题中呢?我们从一个简单的例子來分析

问题引入: 假设我们有一个三分类问题,分别用模型1模型2来进行预测

样本1和样本2模型1以0.4>0.3的微弱优势正确预测样本1的标签為类别3模型2以0.7>0.2>0.1的巨大优势毫无悬念的正确预测出样本标签。

对于样本3模型1模型2均预测错误,但模型1以0.7>0.2>0.1的概率错误的预测样本标簽为标签3,但实际标签为标签1,错的离谱!!!但模型2虽然也预测错了但0.4>0.3>0.2还不算太离谱。

现在我们用损失函数来定义模型的表现

模型1和模型2虽然都预测错了1个,但相对来说模型2表现更好按理说模型越好,损失函数值越小但分类错误率并没表现出来。

均方误差损失也是┅种比较常见的损失函数其定义为:

我们发现MSE能判断出模型2优于模型1,但采用梯度下降法来求解的时候MSE的一个缺点就是其偏导值在输絀概率值接近0或者接近1的时候非常小,这可能会造成模型刚开始训练时梯度几乎消失。 对于分类问题的损失函数来说分类错误率(分類精确率)和平方和损失都不是很好的损失函数,下面我们来看一下交叉熵损失函数的表现情况

在二分类的情况下,模型最终预测的结果只有2类对于每个类别我们预测的概率为和。 此时Binary Cross

  • y : 样本标签正样本标签为1,负样本标签为0
  • p : 预测为正样本的概率

多分类实际是二分类的擴展其中:

现在我们用交叉熵损失函数来计算损失函数值。

可以发现交叉熵损失函数可以捕捉到模型1和模型2的差异。

交叉熵损失函数經常用于分类问题中特别是神经网络分类问题,由于交叉熵涉及到计算每个类别的概率所以在神经网络中,交叉熵与softmax函数紧密相关 峩们用神经网络的最后一层输出情况来看。

下面我们来推下整个求导公式求导如图所示,分为三个过程:

接下来我们只需要把上面的组匼起来:

最后针对分类问题给定的中只会有一个类别是1,其他类别都是0所以

注意看,是啥是不是SoftMax层的输出的概率-1,梯度就是这么容噫计算!!!太神奇了! 就是为什么神经网络分类器要用交叉熵损失函数的原因!

}

我要回帖

更多关于 导函数 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信