dc.contributor.advisor | Špelda, Petr | |
dc.creator | Kůstková, Daniela | |
dc.date.accessioned | 2025-03-06T10:05:24Z | |
dc.date.available | 2025-03-06T10:05:24Z | |
dc.date.issued | 2025 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/196923 | |
dc.description.abstract | Tato diplomová práce zkoumá maskovací metody proti algoritmům počítačového vidění. K analýze zpravodajských informací byly nasazeny nástroje využívající umělou inteligenci, aby vyřešily problém s masivním objemem sesbíraných dat. Nicméně stejně jako jiné modely umělé inteligence jsou i detektory objektů náchylné vůči adverzariálním útokům. Tato práce se věnuje kamufláži jako formě vizuálního adverzariálního útoku nasazeného proti analytickým nástrojům využívajících umělou inteligenci, zde reprezentovaných objektovými detektory. Prostřednictvím analýzy odborné literatury si tato práce klade za cíl rozšířit diskusi bezpečnostních studií analýzou potenciálu a limitů, které představuje využití počítačového vidění, a také zhodnocením bezpečnostních implikací těchto nově vznikajících technologií. V literatuře technických oborů byly identifikovány tři typy adverzariálních útoků na detektory objektů: adverzariální maskovací vzory, adverzariální záplaty a nepostřehnutelné perturbace. Diplomovou práci uzavírám argumentem, že přijetí vizuálních maskovacích metod předložených v literatuře je ve vojenském prostředí nepravděpodobné, a to i přes zjevný zájem o obranné prostředky proti automatizované detekci. Senzory sbírající data v různých pásmech elektromagnetického spektra jsou dnes běžným vojenským vybavením,... | cs_CZ |
dc.description.abstract | This thesis examines camouflage methods against computer vision algorithms. AI-enabled tools have been deployed to analyze massive volumes of imagery data collected for intelligence purposes. However, as with any other AI model, object detectors are vulnerable to adversarial attacks. In this work, camouflage is studied as a form of visual adversarial attack deployed against AI-enabled analytical tools, represented by object detectors. Through a review of computer science literature, this thesis aims to expand the discussion in security studies by exploring the potential and constraints of computer vision applications, along with the security implications of these emerging technologies. Three types of adversarial attacks on object detectors were identified in the literature: adversarial camouflage attacks, adversarial patches, and imperceptible image perturbations. I conclude the thesis by arguing that militaries are unlikely to adopt the adversarial camouflage attacks proposed in the literature, despite the apparent demand for counterintelligence solutions against automatized detection. Today, sensors collecting data in various spectral bands are commonly used; therefore, camouflage solutions have to manage their signature in those spectral bands accordingly. | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Fakulta sociálních věd | cs_CZ |
dc.subject | zpravodajská analýza | cs_CZ |
dc.subject | IMINT | cs_CZ |
dc.subject | objektová detekce | cs_CZ |
dc.subject | kamufláž | cs_CZ |
dc.subject | adverzní strojové učení | cs_CZ |
dc.subject | vojenské cíle | cs_CZ |
dc.subject | intelligence analysis | en_US |
dc.subject | IMINT | en_US |
dc.subject | object detection | en_US |
dc.subject | camouflage | en_US |
dc.subject | adversarial machine learning | en_US |
dc.subject | military targets | en_US |
dc.title | The Automatization of IMINT: the Rules of Camouflage Redefined | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2025 | |
dcterms.dateAccepted | 2025-01-29 | |
dc.description.department | Department of Security Studies | en_US |
dc.description.department | Katedra bezpečnostních studií | cs_CZ |
dc.description.faculty | Faculty of Social Sciences | en_US |
dc.description.faculty | Fakulta sociálních věd | cs_CZ |
dc.identifier.repId | 276566 | |
dc.title.translated | Automatizace IMINT: Pravidla kamufláže redefinována | cs_CZ |
dc.contributor.referee | Střítecký, Vít | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | International Security Studies | en_US |
thesis.degree.discipline | Bezpečnostní studia | cs_CZ |
thesis.degree.program | International Security Studies | en_US |
thesis.degree.program | Bezpečnostní studia | cs_CZ |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Fakulta sociálních věd::Katedra bezpečnostních studií | cs_CZ |
uk.taxonomy.organization-en | Faculty of Social Sciences::Department of Security Studies | en_US |
uk.faculty-name.cs | Fakulta sociálních věd | cs_CZ |
uk.faculty-name.en | Faculty of Social Sciences | en_US |
uk.faculty-abbr.cs | FSV | cs_CZ |
uk.degree-discipline.cs | Bezpečnostní studia | cs_CZ |
uk.degree-discipline.en | International Security Studies | en_US |
uk.degree-program.cs | Bezpečnostní studia | cs_CZ |
uk.degree-program.en | International Security Studies | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Tato diplomová práce zkoumá maskovací metody proti algoritmům počítačového vidění. K analýze zpravodajských informací byly nasazeny nástroje využívající umělou inteligenci, aby vyřešily problém s masivním objemem sesbíraných dat. Nicméně stejně jako jiné modely umělé inteligence jsou i detektory objektů náchylné vůči adverzariálním útokům. Tato práce se věnuje kamufláži jako formě vizuálního adverzariálního útoku nasazeného proti analytickým nástrojům využívajících umělou inteligenci, zde reprezentovaných objektovými detektory. Prostřednictvím analýzy odborné literatury si tato práce klade za cíl rozšířit diskusi bezpečnostních studií analýzou potenciálu a limitů, které představuje využití počítačového vidění, a také zhodnocením bezpečnostních implikací těchto nově vznikajících technologií. V literatuře technických oborů byly identifikovány tři typy adverzariálních útoků na detektory objektů: adverzariální maskovací vzory, adverzariální záplaty a nepostřehnutelné perturbace. Diplomovou práci uzavírám argumentem, že přijetí vizuálních maskovacích metod předložených v literatuře je ve vojenském prostředí nepravděpodobné, a to i přes zjevný zájem o obranné prostředky proti automatizované detekci. Senzory sbírající data v různých pásmech elektromagnetického spektra jsou dnes běžným vojenským vybavením,... | cs_CZ |
uk.abstract.en | This thesis examines camouflage methods against computer vision algorithms. AI-enabled tools have been deployed to analyze massive volumes of imagery data collected for intelligence purposes. However, as with any other AI model, object detectors are vulnerable to adversarial attacks. In this work, camouflage is studied as a form of visual adversarial attack deployed against AI-enabled analytical tools, represented by object detectors. Through a review of computer science literature, this thesis aims to expand the discussion in security studies by exploring the potential and constraints of computer vision applications, along with the security implications of these emerging technologies. Three types of adversarial attacks on object detectors were identified in the literature: adversarial camouflage attacks, adversarial patches, and imperceptible image perturbations. I conclude the thesis by arguing that militaries are unlikely to adopt the adversarial camouflage attacks proposed in the literature, despite the apparent demand for counterintelligence solutions against automatized detection. Today, sensors collecting data in various spectral bands are commonly used; therefore, camouflage solutions have to manage their signature in those spectral bands accordingly. | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Fakulta sociálních věd, Katedra bezpečnostních studií | cs_CZ |
thesis.grade.code | A | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |