跳至內容

知識蒸餾

本頁使用了標題或全文手工轉換
維基百科,自由的百科全書

知識蒸餾knowledge distillation)是人工智能領域的一項模型訓練技術。該技術透過類似於教師—學生的方式,令規模較小、結構較為簡單的人工智能模型從已經經過充足訓練的大型、複雜模型身上學習其掌握的知識。該技術可以讓小型簡單模型快速有效學習到大型複雜模型透過漫長訓練才能得到的結果,從而改善模型的效率、減少運算開銷,因此亦被稱為模型蒸餾model distillation)。

工作原理

[編輯]

歷史

[編輯]

知識蒸餾技術最早提出於2014年提出。當年「深度學習教父」Geoffrey Hinton等人在當年年底召開的NIPS 2014會議中的一個Workshop中提出此方法。[1]

參考資料

[編輯]
  1. ^ Hinton, Geoffrey; Vinyals, Oriol; Dean, Jeff. Distilling the Knowledge in a Neural Network. 2015-03-09. arXiv:1503.02531可免費查閱 [stat.ML] (英語).