V článku řešíme dva komplementární problémy doménové adaptace neuronového strojového překladu za pomocí meta-učení, tzv. meta-learningu. Zaprvé, chceme dosáhnout doménové robustnosti, tj. chceme dosáhnout vysoké kvality překladu jak na doménách, které jsou v trénovacích datech, tak na doménách, které v trénovacích datech nejsou zastoupené.
Zadruhé, chceme, aby naše systémy byly snadno adaptibilní, tj. aby umožňovaly dotrénování (tzv. finetuning) systému na novou doménu za použití řádově stovek paralelních vět z dané domény. V tomto článku navrhujeme nový přístup, RMLNMT (Robust Meta-Learning Framework for Neural Machine Translation Domain Adaptation), který zlepšuje robustnost stávajících přístupů založených na meta-learningu.
Dále ukazujeme, jak používat doménový klasifikátor v postupném učení (curriculum learning) a integrujeme model míchání domén na úrovni slov do meta-learningového rámce. Experimenty s anglicko-německým a anglicko-čínským překladem ukazují, že RMLNMT dosahuje zlepšení jak z hledis