且构网

分享程序员开发的那些事...
且构网 - 分享程序员编程开发的那些事

数据少,就享受不到深度学习的红利了么?总是有办法的!

更新时间:2022-09-27 20:46:06

作者简介

【Zachary Lipton】博士 毕业于 加州大学圣迭戈分校人工智能组,现已加入卡内基梅隆大学任助理教授。他的研究兴趣比较广泛,主要包括:增强学习在对话系统中的应用、GAN、NLP 的深度主动学习、噪声单标签数据学习等。文章多见于ICML, ICLR, NIPS。

【Anima Anandkumar】是加州理工学院的教授,她的研究方向是大型机器学习、非凸优化和高维统计。特别是,她一直引领和发展用于机器学习的张量算法,张量是矩阵的多维扩展,可以在数据中编码高阶关系。为亚马逊网络服务公司(Amazon Web Services),构建人工智能服务。参与构建了 Spectral LDA on Spark, MXNet, Gluon 等大型机器学习框架。

主要方法

数据少,就享受不到深度学习的红利了么?总是有办法的!

为了解决深度学习数据少,和数据稀疏, 目前业界的主流方法有一下5种:
数据增广
半监督学习
迁移学习
领域自适应
主动学习

下面,我们对这5种方式进行一个简单的介绍。

数据增广

数据少,就享受不到深度学习的红利了么?总是有办法的!

数据增广,主要是想,对现有的数据,添加噪声等各种其他变换,从而产生一些有意义的数据,是的数据集增加,从而解决数据稀疏的问题,提升模型性能。 特别的,如图所示,Zachary Lipton 介绍了近期他的一个工作:利用 GAN来做图像数据增广。

半监督学习

数据少,就享受不到深度学习的红利了么?总是有办法的!

半监督学习的情形是指:我们拥有少量的标注样本(图中橘色部分)以及大量的未标注样本(图中蓝色部分)。
半监督学习,一般的思路是:在全部数据上去学习数据表示,在有标签的样本上去学习模型,用所有数据去加正则。

迁移学习

数据少,就享受不到深度学习的红利了么?总是有办法的!

迁移学习,主要是想,在一个拥有大量样本的数据(图中蓝色部分)上去学习模型,在改动较少的情况下,将学习到的模型迁移到类似的目标数据(图中橘色部分)和任务上。

领域自适应

数据少,就享受不到深度学习的红利了么?总是有办法的!

领域自适应,主要是想,在已有的标注数据p(x,y)上学习模型, 然后尝试在另一个分布上q(x,y)上去做应用。

主动学习

数据少,就享受不到深度学习的红利了么?总是有办法的!

主动学习,维护了两个部分:学习引擎和选择引擎。学习引擎维护一个基准分类器,并使用监督学习算法对系统提供的已标注样例进行学习从而使该分类器的性能提高,而选择引擎负责运行样例选择算法选择一个未标注的样例并将其交由人类专家进行标注,再将标注后的样例加入到已标注样例集中。学习引擎和选择引擎交替工作,经过多次循环,基准分类器的性能逐渐提高,当满足预设条件时,过程终止。

原文发布时间为:2018-08-09
本文作者:huaiwen
本文来自云栖社区合作伙伴“专知”,了解相关信息可以关注“专知