Tekoälyn vastuullinen sotilaallinen käyttö ja sääntely

Viimeisen kahden vuoden aikana käynnissä olevat konfliktit ovat kiihdyttäneet innovaatiosykliä uusien teknologioiden, myös tekoälyn ja sen mahdollistaman koneautonomian, sotilaalliseen hyödyntämiseen. Samalla uusien teknologioiden hyödyntämiseen liittyvät riskit ovat nostaneet esiin tarvetta keskustella tekoälyn sotilaallisen käytön kansainvälisestä sääntelystä.

Tarve sääntelylle tunnistetaan laajasti, eikä sen pitäisi jäädä kiinni aloitteiden puutteesta. YK:ssa on jo vuosikymmenen ajan käyty valtioiden välisiä asiantuntijatason keskusteluita autonomisten asejärjestelmien sääntelystä. Pääsihteeri António Guterres on todennut tarpeen kansainväliselle sopimukselle vuoteen 2026 mennessä sellaisten järjestelmien kieltämiseksi, jotka toimivat täysin ilman ihmiskontrollia tai -valvontaa. Tavoitetta edistääkseen hän julkaisi elokuussa raportin valtioiden kannoista. Siinä käy ilmi yksi keskeisimmistä jakolinjoista – valtioiden näkemykset oikeudellisesti sitovan sääntelyn tarpeesta. Osa valtioista painottaa oikeudellisesti sitovan sopimuksen välitöntä tarvetta, osa haluaisi edetä asteittain poliittisiin sitoumuksiin perustuen. Realistiset mahdollisuudet tarkoituksenmukaisen, tehokkaan ja laajapohjaisen oikeudellisesti sitovan sopimuksen aikaansaamiselle ovat heikot ennen kuin näkemykset sääntelyn sisällön yksityiskohdista lähentyvät merkittävästi.

Asejärjestelmiin keskittyvän keskustelun rinnalle on viime vuosina noussut myös uusia työlinjoja, jotka huomioivat kaiken tekoälyn sotilaallisen hyödyntämisen logistiikasta tilannekuvan tuottamiseen ja suunnittelun sekä päätöksenteon tukemiseen. Tämä onkin ajankohtainen ja asejärjestelmiin rajautuvaa keskustelua kiireellisempi tulokulma sääntelyyn, kun huomioidaan kehittyvän datapohjaisen tekoälyn hyödyntämisen merkittävä vaikutus sotilaallisiin suorituskykyihin jo parhaillaan.

Antti Häkkänen puhuu muiden maiden puolustusministereiden istuessa vieressä. Pöydässä on REAIM-kokouksen logo.
Puolustusministeri Antti Häkkänen osallistui tekoälyn vastuullista sotilaallista käyttöä käsitelleeseen REAIM-konferenssiin Etelä-Koreassa 10. syyskuuta 2024.
Kuva: REAIM

Tällä hetkellä konkreettisin työlinja vastuullisiin ja turvallisiin tekoälyn sotilaallisen kehittämisen ja käytön käytäntöihin on vuoden 2023 lopulla julkaistu, Yhdysvaltojen johdolla valmisteltu poliittinen julistus, johon myös Suomi liittyi ensimmäisten joukossa. Julistus on pikemmin keskustelunavaus kuin lopputulema. Lisäksi on mainittava Alankomaiden ja Etelä-Korean pyrkimys nostaa aihetta poliittisten päättäjien agendalle REAIM (Responsible AI in the Military Domain) -konferensseillaan. REAIM-tilaisuudet loppuasiakirjoineen ovat olleet merkittäviä globaalin laajuutensa ja sidosryhmien huomioimisensa puolesta, mutta keskustelujen sisällöt hakevat vielä konkretiaa. Myös YK:n yleiskokouksen asevalvontaa ja aseistariisuntaa käsittelevä komitea on käynnistänyt keskustelut asejärjestelmiä laajemmasta tekoälyn sotilaallisesta hyödyntämisestä.

Suomelle on ulko- ja turvallisuuspoliittisen selonteon mukaisesti tärkeää aikaansaada kansainvälistä sääntelyä uusien teknologioiden vastuulliselle kehittämiselle ja käytölle. Valtioilla on laaja yhteisymmärrys siitä, että kansainvälisen humanitaarisen oikeuden periaatteita, kuten siviili- ja sotilaskohteiden erottelua, voimankäytön suhteellisuutta sekä riittävien varotoimien periaatetta, tulee noudattaa käytetystä teknologiasta riippumatta. Näkemykset eroavat siinä, miten periaatteiden käytännön soveltaminen varmistettaisiin ja todennettaisiin tarkentavalla sääntelyllä.

Yksi usein esiin nouseva este ratkaisujen löytämiselle on tekoälyn luonne kaksikäyttöteknologiana, jonka kehitystä johtavat yksityisen sektorin toimijat. Sääntelyllä ei haluta hidastaa rauhanomaista teknologian kehitystä. Lisäksi valtioiden on sääntelyä kehittäessään haastavaa pysyä yritysjohtoisen teknologisen kehityksen perässä ja varmistaa, ettei sääntely ole jo syntyessään vanhentunutta. Vastauksien löytäminen ei ole yksinkertaista, mutta ilman tarkentavaa sääntelyä kukin valtio määrittää vähimmäisvaatimukset omista lähtökohdistaan käsin. Yhteisten pelisääntöjen puute ei ole Suomen edun mukaista riippumatta siitä, voimmeko luottaa autoritaaristen valtioiden noita pelisääntöjä kunnioittavan.

Sodan kuva on muuttunut, ja tekoälyn merkitys sodankäynnissä jatkaa kasvuaan. Suomen puolustuksen elinehto on säilyttää mahdollisuus vastata sen mukanaan tuomiin uusiin uhkakuviin. Tämän vuoksi sääntelyn tulee olla mahdollistavaa, yksiselitteistä ja mahdollisimman konkreettista tekoälyjärjestelmiä tutkiville ja kehittäville tahoille.

Jotta sääntely olisi merkityksellistä, siihen on saatava sitoutumaan mahdollisimman laajapohjainen joukko valtioita, erityisesti aseteknologian suurvallat. Laajapohjaisuuden saavuttaminen on realistisempaa etenemällä sitovuudessa asteittain, jolloin myös ymmärrys sääntelyn kohteesta syventyy ajan kuluessa. Lisäksi sääntelyssä tulee keskittyä toiminnan vastuullisuuden varmistamiseen sen sijaan että kiellot ja rajoitukset kohdistuisivat tiettyyn teknologiaan tai järjestelmiin itsessään. Kansainvälisen humanitaarisen oikeuden periaatteiden kunnioittamisen tulee olla tinkimätön lähtökohta. Sen toteutuminen edellyttää varmuutta siitä, että tekoälyjärjestelmien kyvyt ja luotettavuus ovat niille annettavien tehtävien tasalla.  Vastuu ja tietoinen päätös voimankäytöstä säilyvät ihmisellä.

Kirjoittaja

Erityisasiantuntija Milla Virtanen työskentelee puolustusministeriössä tavanomaisten aseiden asevalvontakysymysten parissa. Hän osallistuu puolustusministeriön edustajana tekoälyn vastuullisesta sotilaallisesta käytöstä sekä autonomisista asejärjestelmistä käytäviin sääntelykeskusteluihin eri foorumeilla.

Lisää aiheesta: