dc.contributor.advisor | Pilát, Martin | |
dc.creator | Kumová, Věra | |
dc.date.accessioned | 2021-02-25T09:03:44Z | |
dc.date.available | 2021-02-25T09:03:44Z | |
dc.date.issued | 2021 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/124640 | |
dc.description.abstract | Tato práce zkoumá nepřátelské vzory ve strojovém učení, konkrétně v oboru klasifikace obrazu. Nejmodernější modely hlubokého učení dokáží rozpoznat vzory lépe než člověk. Nicméně pokud k obrazům přidáme vhodně zvolený šum, můžeme výrazně snížit přesnost daných modelů. Tato práce zkoumá různé metody útoků i obran proti nepřátelským vzorům. Jednu ze současným obran jsme si vybrali, abychom navrhli útok, který ji porazí. Náš útok využívá evoluční algoritmy. Výsledky našich experimentů ukazují, že nepřátelské vzory vytvořené evolucí a vzory vytvořené se znalostí gradientu se výrazně liší. V neposlední řadě zkoumáme, jak jsou naše nepřátelské vstupy přenositelné mezi různými neuronovými sítěmi. 1 | cs_CZ |
dc.description.abstract | This thesis examines adversarial examples in machine learning, specifically in the im- age classification domain. State-of-the-art deep learning models are able to recognize patterns better than humans. However, we can significantly reduce the model's accu- racy by adding imperceptible, yet intentionally harmful noise. This work investigates various methods of creating adversarial images as well as techniques that aim to defend deep learning models against these malicious inputs. We choose one of the contemporary defenses and design an attack that utilizes evolutionary algorithms to deceive it. Our experiments show an interesting difference between adversarial images created by evolu- tion and images created with the knowledge of gradients. Last but not least, we test the transferability of our created samples between various deep learning models. 1 | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Adversarial examples|{Deep Learning}|{Image classification}|{Evolutionary Algorithms | en_US |
dc.subject | Nepřátelské vzory|Hluboké učení|Klasifikace obrazu|Evoluční algoritmy | cs_CZ |
dc.title | Creating Adversarial Examples in Machine Learning | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2021 | |
dcterms.dateAccepted | 2021-02-04 | |
dc.description.department | Department of Theoretical Computer Science and Mathematical Logic | en_US |
dc.description.department | Katedra teoretické informatiky a matematické logiky | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 222687 | |
dc.title.translated | Vytváření matoucích vzorů ve strojovém učení | cs_CZ |
dc.contributor.referee | Neruda, Roman | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Artificial Intelligence | en_US |
thesis.degree.discipline | Umělá inteligence | cs_CZ |
thesis.degree.program | Informatika | cs_CZ |
thesis.degree.program | Computer Science | en_US |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra teoretické informatiky a matematické logiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Theoretical Computer Science and Mathematical Logic | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Umělá inteligence | cs_CZ |
uk.degree-discipline.en | Artificial Intelligence | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Tato práce zkoumá nepřátelské vzory ve strojovém učení, konkrétně v oboru klasifikace obrazu. Nejmodernější modely hlubokého učení dokáží rozpoznat vzory lépe než člověk. Nicméně pokud k obrazům přidáme vhodně zvolený šum, můžeme výrazně snížit přesnost daných modelů. Tato práce zkoumá různé metody útoků i obran proti nepřátelským vzorům. Jednu ze současným obran jsme si vybrali, abychom navrhli útok, který ji porazí. Náš útok využívá evoluční algoritmy. Výsledky našich experimentů ukazují, že nepřátelské vzory vytvořené evolucí a vzory vytvořené se znalostí gradientu se výrazně liší. V neposlední řadě zkoumáme, jak jsou naše nepřátelské vstupy přenositelné mezi různými neuronovými sítěmi. 1 | cs_CZ |
uk.abstract.en | This thesis examines adversarial examples in machine learning, specifically in the im- age classification domain. State-of-the-art deep learning models are able to recognize patterns better than humans. However, we can significantly reduce the model's accu- racy by adding imperceptible, yet intentionally harmful noise. This work investigates various methods of creating adversarial images as well as techniques that aim to defend deep learning models against these malicious inputs. We choose one of the contemporary defenses and design an attack that utilizes evolutionary algorithms to deceive it. Our experiments show an interesting difference between adversarial images created by evolu- tion and images created with the knowledge of gradients. Last but not least, we test the transferability of our created samples between various deep learning models. 1 | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra teoretické informatiky a matematické logiky | cs_CZ |
thesis.grade.code | 1 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |