混合专家模型

混合专家模型(英語:mixture of experts,简称MoE),或译为多专家模型,是一种机器学习技术,通过门控(gating)模型将单一任务空间划分为多个子任务,再由多个专家网络(子模型)分别处理特定的子任务,最终得到整体的预测结果。混合专家模型与集成学习有相似之处,它们都应用多个子模型来处理问题。但它们的区别在于,混合专家模型中的每个专家都是针对不同的数据子空间进行训练的,以适应不同类型的输入数据。而集成学习一般而言则是使用多种模型对整个数据空间进行训练。

层级混合专家模型 (英語:hierarchical mixtures of experts)是包含多个层级的混合专家模型。与使用单一门控模型的普通混合专家模型相比,层级混合专家模型中的门控模型呈类似决策树的多层结构,以适应更为复杂与灵活的应用场景。

参考文献

Tags:

机器学习集成学习

🔥 Trending searches on Wiki 中文:

OpenAI怒呛人生卿卿日常李现寶拉!黛博拉藍甯彤唐納·川普四技二專統一入學測驗国际劳动节NewJeans古力娜扎中国人民解放军千古玦尘BLUE LOCK 藍色監獄伍詠詩林峯機動戰士GUNDAM 水星的魔女朴炯植佛教流浪地球2姚淳耀秦桧孤獨搖滾!李帝勳俄乌战争新垣結衣互联网档案馆Hanni陳漢娜金州勇士Twitter杨紫徐玄振朱令铊中毒事件玩命關頭9隱形戰隊春闺梦里人盧允瑞許瑋甯【我推的孩子】捍衛任務刘少奇正義迴廊呂爵安崔勝哲Penthouse (電視劇)馬英九岳飞杀破狼2黃健瑋你好,星期六朱銘 (1938年)民主進步黨南京大屠殺王沪宁戀慕 (電視劇)劉仁秀赵露思河允景人間中毒缅甸Jisoo (歌手)中越战争甲型肝炎李登輝Dr.STONE 新石紀基斯坦奴·朗拿度牛車來去社內相親华国锋乌克兰Fantasy Boys愛·回家之開心速遞德川家康新世纪福音战士驚聲尖叫6点燃我,温暖你深宵閃避球張娜拉🡆 More