Knowledge Distillation for Improved Spoof Detection
Artificiell intelligens blir alltmer populärt och används idag från allt till datorseende och självkörande bilar till chatbot assistenter som OpenAI:s världskända ChatGPT. Kärnan bakom dagens stora boom i artificiell intelligens är neurala nätverk, som blev möjligt att använda på grund av en stor utveckling i uträkningskraft med grafikkort. Neurala nätverk behöver astronomiska summor med uträkningAs deep neural networks grow more powerful, they also require more computational resources, which becomes a challenge when deploying on edge devices with limited computational capacity. This thesis looks into knowledge distillation, a model compression technique where a large "teacher" network transfers its learned features to a smaller "student" network. Our goal is to maintai
