数据结构论坛

注册

 

发新话题 回复该主题

NeurIPS提前看四篇论文,一窥元学习 [复制链接]

1#

机器之心原创

作者:仵冀颖

编辑:H4O

年,NeurIPS接受与元学习相关的研究论文约有20余篇。元学习(Meta-Learning)是近几年的研究热点,其目的是基于少量无标签数据实现快速有效的学习。本文对本次接收的元学习论文进行了梳理和解读。

年NeurIPS将于12月8日至14日在加拿大温哥华举行。NeurIPS今年共收到投稿篇,其中接受论文篇,接受率达到了21.1%。作为人工智能领域的年度盛会,每年人工智能的专家学者以及工业企业界的研发人员都会积极参会,发布最新的理论研究结果以及应用实践方面的成果。今年,国外的高校和研究机构一如既往的踊跃参加本届NeurIPS,其中Google共贡献了篇文章,斯坦福和卡耐基梅隆分别有79篇和75篇文章。国内的企业界腾讯上榜18篇、阿里巴巴上榜10篇,高校和研究机构中清华参与完成的文章共有35篇。

年,NeurIPS接受与元学习相关的研究论文约有20余篇。元学习(Meta-Learning)是近几年的研究热点,其目的是基于少量无标签数据实现快速有效的学习。元学习通过首先学习与相似任务匹配的内部表示,为机器提供了一种使用少量样本快速适应新任务的方法。学习这种表示的方法主要有基于模型的(model-basedmeta-learning)和模型不可知的(model-agnosticmeta-learning,MAML)两类。基于模型的元学习方法利用少量样本的任务标记(taskidentity)来调整模型参数,使用模型完成新任务,这种方法最大的问题是设计适用于未知任务的元学习策略非常困难。模型不可知的方法首先由ChelseaFinn研究组提出,通过初始化模型参数,执行少量的梯度更新步骤就能够成功完成新的任务。

本文从NeurIPS的文章中选择了四篇来看看元学习的最新的研究方向和取得的成果。ChelseaFinn以及他的老师PieterAbbeel在元学习领域一直非常活跃,他们的研究团队在这个方向已经贡献了大量的优秀成果,推动了元学习在不同任务中的有效应用。在本次NeurIPS中,他们的研究团队针对基于梯度(或优化)的元学习提出了一种只依赖于内部级别优化的解决方案,从而有效地将元梯度计算与内部循环优化器的选择分离开来。另外,针对强化学习问题,提出了一种元强化学习算法,通过有监督的仿真学习有效的强化学习过程,大大加快了强化学习程序和先验知识的获取。我们将在这篇提前看中深入分析和理解这些工作。

ChelseaFinn是斯坦福大学计算机科学和电子工程的助理教授,同时也担任GoogleBrain的研究科学家。ChelseaFinn在她的博士论文《LearningtoLearnwithGradients》中提出的MAML是目前元学习的三大方法之一,ChelseaFinn证明了MAML的理论基础,并在元学习领域中将其发扬光大,在少样本模仿学习、元强化学习、少样本目标推断等中都获得了很好的应用。

本文还选择另外两篇关于元学习的文章进行讨论,其中一篇是Facebook的工作,提出了一种元序列到序列(Metaseq2seq)的方法,通过学习成分概括,利用域的代数结构来帮助理解新的语句。另外一篇提出了一个多模态MAML(MultimodalMAML)框架,该框架能够根据所识别的模式调整其元学习先验参数,从而实现更高效的快速自适应。

论文清单:

Meta-LearningwithImplicitGradientsGuidedMeta-PolicySearchCompositionalgeneralizationthroughmetasequence-to-sequencelearningMultimodalModel-AgnosticMeta-LearningviaTask-AwareModulation1、AravindRajeswaran,ChelseaFinn,ShamKakade,SergeyLevine,Meta-LearningwithImplicitGradients,

分享 转发
TOP
发新话题 回复该主题