A napokban egyre többet olvastam a mesterséges intelligenciák kárfelelősségéről. Őszintén szólva – jogászként – nem követtem percről-percre a terület jogi szabályozásának mindennapjait az utóbbi időben, de egy mesterséges intelligenciát érintő IT projekt menedzselése kapcsán tettem egy kis kitérőt erre a területre.
Az alapfelvetésem persze az volt, hogy vélhetően a korábbi/jelenlegi jogintézményekbe akarja majd a jogtudomány beleilleszteni az új jelenséget és egyébként meg a joggyakorlat által tervezi tovább csiszolni azt, és első ránézésre nem is tévedtem talán nagyot.
Az általam fellelt, tudományos igényű művek szerzői általában a fokozott veszéllyel járó tevékenység, vagy épp a hibás teljesítésből és kellékszavatosságból eredő jogok területén próbálják a kérdéskört elhelyezni. Ezek több tanulmányban is visszatérő momentumok, és szándékosan nem idézek most senki, mert nem szeretném, hogy bárki is személyes kritikaként tekintene arra, amit írok.
Azután európai uniós szinten is vannak kezdeményezések a címben megfogalmazott problémakör feloldására. Ilyen volt például a zavarba ejtően nehezen olvasható, értelmezhető (de lehet, hogy csak én olvasok mostanában túl sok rendszertervet, és kevés jogi szöveget) az Európai Parlament 2020. október 20-i állásfoglalása a Bizottságnak szóló ajánlásokkal a mesterséges intelligenciára vonatkozó polgári jogi felelősségi rendszerrel kapcsolatban (2020/2014(INL)).
Ami a hazai tanulmányokat illeti, igencsak megdöbbentem, amikor az láttam, hogy azok írói még mindig ott tartanak, hogy az önvezető járművek, a drónok és talán a lépegető robotok színre lépését követő gyakorlat és a mindenkori ágazati és hasonló rendszerekkel történő összehasonlításokhoz képest értelmezik a problémakört.
A véleményem szerint ugyanis nem lehet a lépegető robotra várni. A mesterséges intelligencia most is minden nap potenciálisan kárt okozhat nekünk, még ha nem is tudunk róla. A mesterséges intelligencia dönti el, hogy merre autózunk, hogyan közlekedünk a tömegközlekedéssel, hogy mennyi időt töltünk a dugóban.
A mesterséges intelligencia mondja meg, hogy milyen információhoz férünk hozzá az interneten, hogy mit ajánlanak az online felületek vásárlásra. A mesterséges intelligencia dönti el, hogy kit ajánl ismerősnek a tartalommegosztó. De persze lehet azt állítani, hogy ezek marginális problémák.
Az viszont már talán nem, amikor mesterséges intelligencia minősíti elő és osztályozza és felelteti meg az álláskereső portálokon a pályázatunkat, vagy épp előminősíti a banki kérelmeinket, hiteligénylésünket. Mesterséges intelligencia elemzi a munkahelyünkön – logok elemzésével – a felhasználói cselekményeinket és kutat nem megengedett folyamatok után.
Persze lehet bízni a folyamatos emberi beavatkozási lehetőségekben, de ne legyenek ábrándjaink: ahol megjelenik, ott az emberi erőforrást váltja ki, ezért a beavatkozás inkább csak elvi lehetőség, semmint folyamatos gyakorlat marad. Az persze más kérdés, hogy ezek jogilag is értelmezhető károk-e.
Nem meglepő persze, ha a háttérben futó alkalmazásokban megjelent mesterséges intelligencia nem késztette eddig komolyabb beavatkozásra (vagy legalább gondolkodásra) a jogalkotókat. Egyfelől, talán nehezen tudatosul bennük a jelenléte és hatása a mindennapjainkra, másrészt szinte teljesen nyomon követhetetlen és kontroll nélküli az érintettek részéről a tevékenysége.
A következő lépcső azonban talán nem az önvezető autó és a lépegető robot lesz, hanem az emberrel interakcióba lépő mesterséges intelligenciák. Vagyis, amikor látványossá válik, hogy az érintett egy mesterséges intelligenciától kap tájékoztatást, vagy épp tanácsot (ezek a mesterséges intelligenciával könnyen megvalósítható interakciók) és ezzel összefüggésben fogja – adott esetben – kár érni.
Számomra egyébként rendkívül visszásak azok a megközelítések, amely a fejlesztő, üzemeltető, felhasználó hármasban próbálja a felelősségi köröket elhatárolni. Ez még általánosításnak is rendkívül gyenge a véleményem szerint, és nyilvánvalóan olyan szemléletet tükröz, amely nem látott még soha életében informatikai fejlesztést, de talán még fejlesztőt sem.
Valójában a véleményem szerint egy rendkívül komplex felelősségi helyzet jön létre, amikor például egy licencelt mesterséges intelligencia, más kutatócsoporttól származó nyelvi csomaggal, harmadik féltől származó speech-to-text technológiával, negyedik féltől származó OCR technológiával próbál például ügyet intézni, miközben az üzemeltetését egy ötödik fél végzi, de egyébként részben a hatodik fél megrendelő látja el a hetedik elemet jelentő fejlesztő cég által összedolgozott rendszer mesterséges intelligenciát érintő tanítását, miközben a mesterséges intelligencia részben önállóan is tanul az adott esetben rosszhiszemű felhasználók által adott, téves információk alapján.
És mindezt úgy, hogy adott esetben már maga a mesterséges intelligencia fejlesztője sem tudja megmondani, hogy adott inputok alapján miért ezt, vagy azt az eredményt adja a mesterséges intelligencia válaszként. Hogyan lehet a hibás teljesítést objektív ismérvekkel körülhatárolni szerződéses keretek között? Milyen minőségi követelmények támaszthatók olyan technológiákkal szemben amire nincsenek jogszabályi előírások és a szerződéskötés pillanatában aligha ismert előre a rendszer pontos képessége (főleg agilis projektekben), ha másra nem, akkor tekintettel a technológia rohamtempójú fejlődésére?
Mi ma a mesterséges intelligencia szokásos, elvárható minősége?
És, még ha létezik, létezne „könnyű mondás” az érintett, sérelmet szenvedett felé, a mesterséges intelligenciával szolgáltató oldalon ez korántsem lesz ilyen egyértelmű az elképesztően változatos licencia feltételek, a felek eltérő honossága, és a komplex szerződéses viszonyok miatt. Egy esetleges jogi eljárás során pedig szinte biztosan nem lesz reprodukálható a sérelemkori szolgáltatási környezet (még azonos verziójú rendszerelemek esetén is folyamatosan tanul a rendszer).
De mindez a problémafelvetés valahol tekinthető persze adottságnak is, hiszen az IT szerződéskötési gyakorlat és ezzel együtt a közbeszerzési gyakorlat évtizedek óta nem vesz tudomást az IT fejlesztések bizonyos sajátosságairól, látszólag mégis tökéletesen működik.
A cikkhez ITT lehet hozzászólni. Ha tetszett, ne maradj le a következőről: