Distil-Whisper
https://arxiv.org/abs/2311.00430v1Distil-Whisper: Robust Knowledge Distillation via Large-Scale Pseudo Labelling
https://github.com/huggingface/distil-whisperhuggingface/distil-whisper
Whisperの性能をほとんど損なうことなく、モデルサイズを49%削減し、推論速度を5.8倍高速化した。
#蒸留
#speech2textの高速化