鼠年大吉 HAPPY 2020'S NEW YEAR 作者 | Aleksandr Movchan 编译 | VK 来源 | Medium 问题
元学习
少量学习(Few-Shot)
Omniglot在我们讨论细节之前。让我们介绍Omniglot。它是一个流行的Few-Shot学习数据集。以下是来自Omniglot的20幅代表不同的20个类的画。 循环模型训练记忆增强神经网络
学习优化器模型无关元学习(MAML)利用上面的概念来更新模型。它是简单的,它几乎是相同的,我们的传统DL梯度下降与增加一行代码如下。在这里,我们不会在每个任务之后立即更新模型参数。相反,我们一直等到一批任务完成 对于每个任务,我们使用反向传播来计算建议的模型。 然后合并训练任务的损耗,并将损耗进行反向传播,进行下一次模型更新: 从概念上讲,我们正在寻找一个最小化任务损失的模型。
度量学习还有一种方法叫做Matching网络,它与Siamese神经网络非常相似。
其他方法想法
|
|
来自: xin9min9 > 《Root(不刻意分类)》