| dc.contributor.advisor | Týbl, Ondřej | |
| dc.creator | Grätzer, Martin | |
| dc.date.accessioned | 2025-06-24T09:15:25Z | |
| dc.date.available | 2025-06-24T09:15:25Z | |
| dc.date.issued | 2025 | |
| dc.identifier.uri | http://hdl.handle.net/20.500.11956/199279 | |
| dc.description.abstract | Tato diplomová práce se zabývá metodou destilace znalostí (knowledge distillation), což je tréninková technika v kontextu neuronových sítí, a navrhuje novou metodu, ve které je standardní volba Kullback-Leiblerovy divergence v minimalizované ztrátové funkci nahrazena obecnou Rényiho divergencí s parametrem α. Navržená technika je hodnocena testováním na úloze počítačového vidění, a to pomocí běžně používané obrazové databáze a neuronové architektury, přičemž se zohledňuje rychlost konvergence a dosažená přes- nost. Na základě důkladného odvození a empirických testů byly formulovány a porovnány tři různé přístupy. Tato práce vytváří základ pro budoucí výzkum aplikace Rényiho di- vergence v oblasti destilace znalostí. 1 | cs_CZ |
| dc.description.abstract | This thesis studies knowledge distillation, a training technique in the context of neural networks, and proposes a novel method in which the standard choice of Kullback-Leibler divergence in the minimized loss is replaced with the general Rényi divergence with parameter α. The proposed technique is evaluated by testing on a computer vision task using a standard image dataset and neural architecture, in terms of speed of convergence and final accuracy. Based on rigorous derivations and empirical testing, a total of three different approaches were formulated and compared. This work establishes a foundation for future research into the application of Rényi divergence in knowledge distillation. 1 | en_US |
| dc.language | English | cs_CZ |
| dc.language.iso | en_US | |
| dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
| dc.subject | neural networks|machine learning|knowledge distillation|KL divergence | en_US |
| dc.subject | neuronové sítě|strojové učení|destilace znalostí|KL divergence | cs_CZ |
| dc.title | Neural networks and knowledge distillation | en_US |
| dc.type | diplomová práce | cs_CZ |
| dcterms.created | 2025 | |
| dcterms.dateAccepted | 2025-06-03 | |
| dc.description.department | Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| dc.description.department | Department of Probability and Mathematical Statistics | en_US |
| dc.description.faculty | Faculty of Mathematics and Physics | en_US |
| dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
| dc.identifier.repId | 272497 | |
| dc.title.translated | Neuronové sítě a destilace znalostí | cs_CZ |
| dc.contributor.referee | Mizera, Ivan | |
| thesis.degree.name | Mgr. | |
| thesis.degree.level | navazující magisterské | cs_CZ |
| thesis.degree.discipline | Financial and insurance mathematics | en_US |
| thesis.degree.discipline | Finanční a pojistná matematika | cs_CZ |
| thesis.degree.program | Financial and Insurance Mathematics | en_US |
| thesis.degree.program | Finanční a pojistná matematika | cs_CZ |
| uk.thesis.type | diplomová práce | cs_CZ |
| uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Probability and Mathematical Statistics | en_US |
| uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
| uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
| uk.faculty-abbr.cs | MFF | cs_CZ |
| uk.degree-discipline.cs | Finanční a pojistná matematika | cs_CZ |
| uk.degree-discipline.en | Financial and insurance mathematics | en_US |
| uk.degree-program.cs | Finanční a pojistná matematika | cs_CZ |
| uk.degree-program.en | Financial and Insurance Mathematics | en_US |
| thesis.grade.cs | Výborně | cs_CZ |
| thesis.grade.en | Excellent | en_US |
| uk.abstract.cs | Tato diplomová práce se zabývá metodou destilace znalostí (knowledge distillation), což je tréninková technika v kontextu neuronových sítí, a navrhuje novou metodu, ve které je standardní volba Kullback-Leiblerovy divergence v minimalizované ztrátové funkci nahrazena obecnou Rényiho divergencí s parametrem α. Navržená technika je hodnocena testováním na úloze počítačového vidění, a to pomocí běžně používané obrazové databáze a neuronové architektury, přičemž se zohledňuje rychlost konvergence a dosažená přes- nost. Na základě důkladného odvození a empirických testů byly formulovány a porovnány tři různé přístupy. Tato práce vytváří základ pro budoucí výzkum aplikace Rényiho di- vergence v oblasti destilace znalostí. 1 | cs_CZ |
| uk.abstract.en | This thesis studies knowledge distillation, a training technique in the context of neural networks, and proposes a novel method in which the standard choice of Kullback-Leibler divergence in the minimized loss is replaced with the general Rényi divergence with parameter α. The proposed technique is evaluated by testing on a computer vision task using a standard image dataset and neural architecture, in terms of speed of convergence and final accuracy. Based on rigorous derivations and empirical testing, a total of three different approaches were formulated and compared. This work establishes a foundation for future research into the application of Rényi divergence in knowledge distillation. 1 | en_US |
| uk.file-availability | V | |
| uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
| thesis.grade.code | 1 | |
| uk.publication-place | Praha | cs_CZ |
| uk.thesis.defenceStatus | O | |