最近在读论文的时候会发现一个问题,有时候论文核心思想非常简单,核心代码可能也就十几行。但是打开作者release的源码时,却发现提出的模块嵌入到分类、检测、分割等代码框架中,导致代码比较冗余,对于特定任务框架不熟悉的我,很难找到核心代码,导致在论文和网络思想的理解上会有一定困难。 因此,作为【论文复现项目】的补充,本项目的宗旨也是让世界上没有难读的论文。

资源整理自网络,源地址: https://github.com/xmu-xiaoma666/External-Attention-pytorch

有相当多的文献都将这个Decoupled-l ear ning 作为一种 benchmark 策略,特别是许多的jointly l ear ning 方法,在方法比较的时候都试图做Decoupled-l ear ning 以评估其有效性。比如Sinha等人做的CDB (IJCV)以及Difficulty-Net(arXiv)。 《Enhanc ing the reliability of out-of-distribution image detection in neural networks.》 ICLR’18 OOD经典baseline。 ODIN 的想法很简单,既然模型对ID 和 OOD 样本输出的 softmax 预测概率分布不同,那么可不可以让它们分布差异变得更大呢?这样便可以更容易的检测 OOD 样本。本文提出两种方法辅助:Temperature scal ing 和Input Preprocess ing : 相比于 .