표 7. | Table 7. 1,000시간, 6,500시간, 7,500시간 데이터를 사용하여 전체 학습된 Transformer 모델과 파인튜닝된 Whisper medium 모델의 성능 비교(음절 오류율, %) | CER for full trained baseline transformer model and comparison to fine-tuned Whiser medium model (CER, %)

테스트 데이터셋 1,000시간 전체학습 6,500시간 전체학습 7,500시간 전체학습 파인튜닝 medium 모델
kspon-evalclean 8.80 9.84 7.60 7.61
kspon-evalother 9.74 9.44 8.29 8.36
spon-bcast 27.04 11.85 11.53 14.75
spon-debate 13.43 7.12 6.85 7.42
spon-present 6.49 7.81 6.98 4.74
CER, character error rate.