度量学习
用于学习三维隐式距离场的样条位置编码
多层感知器(MLP)可以通过将3D坐标映射到相应的有符号距离场(SDF)来表达3D形状。在本文中,我们提出了一种新的位置编码方案,称为样条位置编码,将输入坐标映射到高维空间,然后将它们传递给MLP,以帮助从MLP从输入的点云中恢复具有精细几何细节的有符号距离场。通过实验,我们验证了我们的方法在输入点云和形状空间学习的3D形状重建任务的优越性。 本期AI TIME PhD直播间,我们邀请到微软亚洲研究院高级研究员——王鹏帅,为我们…
啥,啥?技术和应用从来都可以抽象出来,按需要结合迁移,你没用,不代表别人没用。脑洞开一点就用上了,只要是有样本,有标注,就可以自监督学习。语音只是一种数据而已,你可以把他进行转换映射。
Proxy Anchor Loss for Deep Metric Learning
Proxy Anchor Loss for Deep Metric Learning 深度度量学习中的代理锚定损失 评述:本文相较于传统Proxy-nca中,将聚类中的同一类样本进行抽象为一个代表样本的方式,进行了修改,结合了基于样本对的度量学习,引入了一个类似于梯度浓度的参量,用于判断代表样本与正样本和负样本之间的距离,从而能够提取到同一类样本中的各个数据的特征。 Abstract现有的度量学习损失可以分为两类:基于成对的损失和基于代理的损失。前一个类可…
【论文笔记 小样本分割】Adaptive Prototype Learning and Allocation for Few-Shot Segmentation CVPR2021
原文链接 https://arxiv.org/abs/2104.01893 开源代码 https://github.com/Reagan1311/ASGNet 阅读本论文之前请先了解小样本学习的基础理论, 小样本学习综述 ,以及语义分割理论基础。摘要原型学习被广泛应用于少样本分割。通常,通过对全局对象信息进行平均,从支持特征( support feature)中获得一个单一的原型。然而,使用一个原型来表示所有的信息可能会导致歧义。在本文中,我们提出了两个新的模块:超像素引导聚类(SGC)和引导原型分配(GPA),用于多种…
硬刚 ArcFace!| ECCV 2022 人脸识别新方法 BoundaryFace:一种基于噪声标签自校正框架(附源码实现)
引言得益于数据集规模的大规模增长以及算法的不断演进,基于深度学习的人脸识别算法取得了巨大的进步。今年来也涌现出了许多基于 margin 改进的人脸识别损失函数,例如 ArcFace、CosFace、AdaFace 等等,这些基于边距的损失无疑成为了人脸识别中 softmax 损失的首先替代方案。 本文主要考虑两个问题: 困难样本挖掘对判别学习的重要性如何解决大规模数据中普通存在的标签噪声问题因此,作者提出从 决策边界的角度出发,提出了一…
随机梯度下降与指数步长及余弦步长
随机梯度下降(SGD)是训练大规模机器学习模型的常用工具。然而,它的性能非常取决于步长的选择。各种调整步长的策略因此被提出,从自适应步长到复杂的启发式方法,即在每次迭代中改变步长。在本文中,我们研究了两种在实践中表现良好的步长:指数步长和余弦步长。首先,我们理论证明了其在光滑非凸函数的收敛速度,涵盖了符合或不符合Polyak-Łojasiewicz(PL)条件的情况。此外,我们研究发现这两种步长对PL函数随机梯度中的噪…
度量学习中关于排序损失函数的综述
点击下方 卡片,关注“FightingCV”公众号回复“ AI”即可获得超100G人工智能的教程 点击进入→FightingCV交流群作者:Ahmed Taha 来源:AI公园 仅用于学术分享,若侵权请联系删除 导读这是一篇关于度量学习损失函数的综述。 检索网络对于搜索和索引是必不可少的。深度学习利用各种排名损失来学习一个对象的嵌入 —— 来自同一类的对象的嵌入比来自不同类的对象的嵌入更接近。本文比较了各种著名的排名损失的公式和应用。 深度学…
Circle Loss之二:这个圆长什么样
续上一篇 [文章: Circle Loss之一:Unified Loss是如何统一的?] 本篇主要关注文章主体, circle loss本身: 如何从 Unified loss演变出本文提出的Circle Loss梯度推导(StepByStep)相比其他的损失函数Circle这个圆的优点以及我自己的naive代码实现Circle Loss的长相前文提到,文中提出的Unified Loss长这样: [公式] ,它可以直接换装变成Class-wise…
基于度量学习的开放领域关系抽取
前言开放领域关系抽取(OpenRE)是一个比较常见的任务,其主要是从开放域的语料中抽取关系,目前大多数方法都没有充分的利用好手头已有的宝贵标注语料,今天介绍的这篇paper就提出了一个框架简称MORE,来解决这一问题,一起来看看吧~ 论文链接: https://arxiv.org/pdf/2206.00289.pdf 方法总体框架如下: [图片] Neural Encoders该模块是用来表征关系的,即把关系映射为一个embedding,当然了这里有很多方法,作者主要创新点也不是在这里,具体的作者使…
Softmax函数作用
Softmax函数作用Softmax 定义及作用Softmax 是一种形如下式的函数: 其中, 和 是列向量, 可能被换成函数关于 的函数 通过 softmax 函数,可以使得 的范围在 之间。在回归和分类问题中,通常 是待求参数,通过寻找使得 最大的 作为最佳参数。 但是,使得范围在 之间的方法有很多,为啥要在前面加上以 的幂函数的形式呢?参考 logistic 函数: 这个函数的作用就是使得 在负无穷到 0 的区间趋向于 0, 在 0 到正无穷的区间趋…