Meta Learning
Meta-Learning
关于参数
参数也是meta-learning的一个分支。
我们现在目标是学习F本身,包括网络架构,初始参数,学习率啥的。每一个东西都是meta learning的一个分支。
比如一个学习二元分类的meta learning:
然后就是强行train,如果不能微分,就上RL或者EA。
- ML v.s. Meta-Learning
difference:
similarity:
- MAML找一个初始化参数
好的原因:
-
还可以学习optimizer
-
Network Architecture Search
- Data Augmentation
- Sample Reweighting
应用
补充学习
- self-supervised learning
- knowledge distillation
有文献指出,成绩好的teacher不见得是好的teacher。
引入meta learning,可以让teacher学习如何去teach。
- Domain Adaptation
在有label data的domain上很容易进行meta learning。
这里特别说一下在domain generalization上的应用。(即对一个未知的target domain,进行预测)
注意这里train的结果,是学习一个初始化参数。
- Lifelong Learning
传统方法,设计constraint,让模型不要忘记之前的知识。
我们也可以尝试用meta learning找一个比较好的leanring algorithm,可以避免catasrophic forgetting。
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.