Distil-Whisper
https://arxiv.org/abs/2311.00430v1
Distil-Whisper: Robust Knowledge Distillation via Large-Scale Pseudo Labelling
https://github.com/huggingface/distil-whisper
huggingface
/distil-whisper
Whisper
の性能をほとんど損なうことなく、モデルサイズを49%削減し、推論速度を5.8倍高速化した。
#蒸留
#speech2textの高速化