边缘损失函数
ℓ = max { 0 , α − ( τ ( V l ) − τ ( V o ) ) } \ell=\max\left\{0,\alpha-(\tau\left(\mathcal{V}_{l}\right)-\tau\left(\mathcal{V}_{o}\right))\right\} ℓ=max{0,α−(τ(Vl)−τ(Vo))},
可以成为边缘排名损失(margin-based ranking loss),鼓励某类节点的评分高于另一类节点。
- τ ( V l ) \tau\left(\mathcal{V_l}\right) τ(Vl)可以理解为表示正类节点集的某种评分
- τ ( V o ) \tau\left(\mathcal{V_o}\right) τ(Vo)可以理解为表示负类或其他对比集合的评分
- α \alpha α可以理解为预设的最小差距margin,控制两类评分之间应该有的最小区分度
- max{0, }表示使用的是ReLU形式的hinge loss,当内部值为负才会产生损失,否则损失为0.
直观上, τ ( V l ) − τ ( V o ) \tau\left(\mathcal{V_l}\right) - \tau\left(\mathcal{V_o}\right) τ(Vl)−τ(Vo)代表了正类与负类的差距,显然希望这个差距大于等于 α \alpha α, 所以希望的是 α − ( τ ( V l ) − τ ( V o ) ) < 0 \alpha - \left( \tau\left(\mathcal{V_l}\right) - \tau\left(\mathcal{V_o}\right) \right) < 0 α−(τ(Vl)−τ(Vo))<0,即 τ ( V l ) − τ ( V o ) ≥ α \tau\left(\mathcal{V_l}\right) - \tau\left(\mathcal{V_o}\right) \geq \alpha τ(Vl)−τ(Vo)≥α,即正类的评分比负类高至少 α \alpha α,否则就回产生损失,损失大小就是未满足差距的部分,
例如 α = 0.7 \alpha=0.7 α=0.7,假设差距是0.5,则损失是0.2,假设差距是0.8,则损失是0,损失越来越小。
本质上是为了在模型学习过程中拉大某两类节点的评分差距,在差距不够时施加惩罚,是一种常见的对比性损失或排序损失思想。