Stejnoměrný zákon velkých čísel, VC dimenze a strojové učení
Uniform law of large numbers, VC dimension and machine learning
bakalářská práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/174333Identifikátory
SIS: 237019
Kolekce
- Kvalifikační práce [10932]
Autor
Vedoucí práce
Oponent práce
Týbl, Ondřej
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Obecná matematika
Katedra / ústav / klinika
Katedra pravděpodobnosti a matematické statistiky
Datum obhajoby
21. 6. 2022
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Čeština
Známka
Výborně
Klíčová slova (česky)
Glivenkova-Cantelliho věta|pokrývací čísla|stejnoměrný zákon velkých čísel|VC třídy|PAC learnable|základní věta statistického učeníKlíčová slova (anglicky)
Glivenko-Cantelli theorem|covering numbers|uniform law of large numbers|VC classes|PAC learnable|fundamental theorem of statistical learningV této práci se zabýváme zobecněnou Glivenkovou-Cantelliho větou a její aplikací v matematických základech strojového učení. Nejprve dokážeme zobecněnou Glivenkovu-Cantelliho větu pomocí pokrývacích čísel a lemmatu o symetrizaci. Dále vyslovíme stejnoměrný zákon velkých čísel. Následně budeme se zabývat Vapnikovými-Červonenkisovými třídami funkcí (VC třídami). Ukážeme, že pro VC třídy jsou pokrývací čísla stejnoměrně omezená. Nakonec popíšeme úlohu strojového učení a uvedeme příklad jedné konkretní úlohy, která se dá naučit. Hlavní aplikací bude dokázat základní větu statistického učení. Obvykle je tato věta dokazovaná pro třídy prediktorů, které jsou tzv. Prob- ably Aproximately Correct learnable (PAC learnable). V této práci zesílíme vlastnost PAC learnable a dokážeme pro ni základní větu statistického učení. 1
In this thesis we study the generalized Glivenko-Cantelli theorem and its application in mathematical foundations of machine learning. Firstly, we prove the generalized Glivenko-Cantelli's theorem using covering numbers and lemma of symmetrization. Next we show the uniform law of large numbers. Then, we deal with Vapnik-Chervonenkis classes of functions (VC classes). We show that for VC classes covering numbers are uniformly bounded. Finally, we describe the task of machine learning and give an example of one specific task that can be "learned". The main application will be to prove the fundamental theorem of statistical learning. Usually this theorem is proved for classes of predictors that are Probably Approximately Correct learnable (PAC learnable). In this work we strengthen the property of PAC learnable and for it we prove the basic theorem of statistical learning. 1