The Automatization of IMINT: the Rules of Camouflage Redefined
Automatizace IMINT: Pravidla kamufláže redefinována
diplomová práce (OBHÁJENO)

Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/196923Identifikátory
SIS: 276566
Kolekce
- Kvalifikační práce [18349]
Autor
Vedoucí práce
Oponent práce
Střítecký, Vít
Fakulta / součást
Fakulta sociálních věd
Obor
Bezpečnostní studia
Katedra / ústav / klinika
Katedra bezpečnostních studií
Datum obhajoby
29. 1. 2025
Nakladatel
Univerzita Karlova, Fakulta sociálních vědJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
zpravodajská analýza, IMINT, objektová detekce, kamufláž, adverzní strojové učení, vojenské cíleKlíčová slova (anglicky)
intelligence analysis, IMINT, object detection, camouflage, adversarial machine learning, military targetsTato diplomová práce zkoumá maskovací metody proti algoritmům počítačového vidění. K analýze zpravodajských informací byly nasazeny nástroje využívající umělou inteligenci, aby vyřešily problém s masivním objemem sesbíraných dat. Nicméně stejně jako jiné modely umělé inteligence jsou i detektory objektů náchylné vůči adverzariálním útokům. Tato práce se věnuje kamufláži jako formě vizuálního adverzariálního útoku nasazeného proti analytickým nástrojům využívajících umělou inteligenci, zde reprezentovaných objektovými detektory. Prostřednictvím analýzy odborné literatury si tato práce klade za cíl rozšířit diskusi bezpečnostních studií analýzou potenciálu a limitů, které představuje využití počítačového vidění, a také zhodnocením bezpečnostních implikací těchto nově vznikajících technologií. V literatuře technických oborů byly identifikovány tři typy adverzariálních útoků na detektory objektů: adverzariální maskovací vzory, adverzariální záplaty a nepostřehnutelné perturbace. Diplomovou práci uzavírám argumentem, že přijetí vizuálních maskovacích metod předložených v literatuře je ve vojenském prostředí nepravděpodobné, a to i přes zjevný zájem o obranné prostředky proti automatizované detekci. Senzory sbírající data v různých pásmech elektromagnetického spektra jsou dnes běžným vojenským vybavením,...
This thesis examines camouflage methods against computer vision algorithms. AI-enabled tools have been deployed to analyze massive volumes of imagery data collected for intelligence purposes. However, as with any other AI model, object detectors are vulnerable to adversarial attacks. In this work, camouflage is studied as a form of visual adversarial attack deployed against AI-enabled analytical tools, represented by object detectors. Through a review of computer science literature, this thesis aims to expand the discussion in security studies by exploring the potential and constraints of computer vision applications, along with the security implications of these emerging technologies. Three types of adversarial attacks on object detectors were identified in the literature: adversarial camouflage attacks, adversarial patches, and imperceptible image perturbations. I conclude the thesis by arguing that militaries are unlikely to adopt the adversarial camouflage attacks proposed in the literature, despite the apparent demand for counterintelligence solutions against automatized detection. Today, sensors collecting data in various spectral bands are commonly used; therefore, camouflage solutions have to manage their signature in those spectral bands accordingly.