Mixture of Experts (MoE) — это архитектурный подход в машинном обучении, который основан на идее использования нескольких специализированных моделей (экспертов) для обработки входных данных, где каждая модель обучается на определённом подмножестве данных или аспекте задачи. В MoE архитектуре задействуется gating network (сетевая функция маршрутизации), которая решает, какие эксперты должны быть активированы для обработки конкретного входного примера.