Valamiért csak ma bukkantam rá a Katonai Nemzetbiztonsági Szolgálat weboldalának egyik bugyrára, ahonnan belső terjesztésű, kereskedelmi forgalomba nem kerülő kiadványok érhetők el a KNBSZ működését érintő területekről. Ezen jól meg is lepődtem – több okból is – viszont legalább lesz mit olvasnom a közeljövőben.
A mostani kis bejegyzés „A mesterséges intelligencia és egyéb felforgató technológiák hatásainak átfogó vizsgálata” című könyvről szól, illetve annak is csak az egyik tanulmányáról, amit Erdész Viktor írt „Milyen lehetőségeket hoz az új technológiák elterjedése a felderítés számára?” címmel, a mesterséges intelligencia lehetséges felhasználási módjait kutatva a katonai hírszerzés számára.
Az összefoglalójának központjában lényegében az Airbus, a BAe, a Cobwebs, a MEDUSA, az Atis, a Rayzone, az NRO, a BlackSky, a Maxar, Cognyte, a MASINT, és az IBM i2, a Palantir és még jó néhány más gyártó termékeinek a bemutatása áll. Hogy ez ötletforrásnak született, vagy egy lehetséges termékpaletta átlapozása, az nem derül ki az írásból, amiből viszont én egy dolgot egészen biztosan hiányolok.
Ez pedig az AI működésének egyik óriási kockázata, ami a magyarázhatósággal, illetve annak hiányával függ össze. Az AI döntései ugyanis az alkalmazott rendszerektől függően eltérő mértékben, de nem feltétlenül magyarázhatók, ami óriási lehetőség beavatkozási pont létrehozására az ellenérdekelt felek számára (akik beléphetnek az alkalmazási folyamatba akár a gyártónál, akár más pontokon).
A magyarázhatóság részleges vagy teljes hiánya miatt az AI felhasználói oldalán mindig szükséges egy előzetes bizalom arra vonatkozóan, hogy az AI a feladatellátása során nem befolyásolt, az kizárólag a tanító halmazai és az ellenérdekelt befolyásoktól mentes algoritmusai alapján dolgozik. Ezt a bizalmat kell tehát egy ilyen rendszernek megszereznie.
Azt persze nem állítom, hogy emiatt ne lehetne vagy kellene AI-t katonai hírszerzési feladatokra felhasználni, de egy ennek a lehetőségeit vizsgáló tanulmányban mindenképp elférne szerintem egy ezzel kapcsolatos kockázat és hatáselemzés, de legalább a problémakör említése, illetve gondolkodás, hogy ezeket a kockázatokat hogyan lehet csökkenteni.
A téma egyébként a majdnem 500 oldalas könyvben – gyors keresésem alapján – nagyjából ötször kerül elő, de lényegében egyik esetben sem lett az mélyebben kifejtve, illetve a katonai hírszerzési célból alkalmazott AI kockázataként elemezve.
A cikkhez ITT lehet hozzászólni. Ha tetszett, ne maradj le a következőről: