Kiihtyvän teknologisen kehityksen ja digitalisaation yhteiskunnalliset vaikutukset ovat merkittäviä ja usein vaikeasti ennakoitavia.
Digitalisaatio ja sen ratkaisut liittyvät olennaisesti kokonaisturvallisuuden käsitteeseen ja niihin kyvykkyyksiin, joita tarvitaan yhteiskunnan perustoimintojen ylläpitämiseen ja suojaamiseen. Näitä eri osa-alueita ovat esimerkiksi sähköverkko, ruokahuolto, tietoverkot, liikenne, työelämä, tiedon välittäminen ja talousjärjestelmä. Nämä elintärkeät toiminnot pitävät turvallisen arjen pyörimässä.
Tekoäly (engl. artificial intelligence) on monitieteinen tieteenala, joka analysoi älykkääksi katsottua toimintaa ja tutkii älykkäiden järjestelmien tuottamista. Käsitteellä on pitkä historia antiikin ajoista lähtien, ja siihen liittyy useita lasku- ja nousukausia. Tekoäly pitää sisällään tietojenkäsittelytieteen, matematiikan ja tilastotieteen sekä kognitiotieteen menetelmiä, jotka yhdessä muodostavat älykkään järjestelmän. Koneoppimismenetelmiä voidaan pitää modernin tekoälyn perustana ja niistä syväoppimisen (engl. deep learning) menetelmät ovat edistyneet paljon viime vuosina. Syväoppimismenetelmät soveltuvat erityisesti hahmontunnistustehtäviin.
Tekoälyä hyödynnetään yhä laajenevassa määrin yhteiskunnan tärkeillä osa-alueilla. Tekoälyn kautta etenevä automatisaatio vaikuttaa myös työmarkkinoiden rakenteeseen. Tekoälyratkaisut ovat kokonaisturvallisuuden toimintojen rakenneosia ja mahdollistavat entistä laajemman automatisoinnin ja tuen päätöksentekoon, mutta samalla luovat uusia haasteita järjestelmien suojaamiseen ja toiminnan varmistamiseen.
Tekoälyn uusi renessanssi
Digitalisaatio on tuonut valtavan määrän tietoa, tuotteita ja vuorovaikutuksia kaikkien ulottuville globaalissa mittakaavassa. Digitalisaatio liittyy olennaisesti yhteyksien määrään, dataan sekä datasta jalostettuun tietoon. Datan keruu ja sen hyödyntäminen laajenevassa mittakaavassa kuvaa hyvin viimeistä kymmentä vuotta, jonka aikana teollisuudessa on kehitetty kyvykkyyksiä datan laajamittaiseen käsittelyyn ns. Big Data -ratkaisuiden kautta. Suuri datamäärä ei kuitenkaan yksin johda älykkääseen toimintaan vaan tarvitaan päätöksentekoa tukevia algoritmeja. Big Data -ratkaisut ovat luoneet pohjaa entistä tehokkaampien ja laajamittaisten tekoälyjen kehittämiselle ja käyttöönotolle.
Seuraavaa kymmentä vuotta voisimme kuvata tekoälyn uutena tulemisena, tekoälyn renessanssina, jonka aikana kehittyvät tekoälyn tukemat digitaaliset ratkaisut kykenevät kokonaan tai osin automatisoimaan tehtäviä, joihin ennen on tarvittu ihminen. Tekoälyratkaisut kehittyvät, mutta ne pitää kehitysaskelista huolimatta nähdä eräänlaisina ongelmakohtaisina apuälyinä, sillä teknologia on hyvin kaukana ihmisen kognitiosta.
Edellinen tekoälyn renessanssi ajoittui 80-luvun loppuun sekä 90-luvun alkuun. Tuolloin algoritmit, datan määrä ja laskentateho eivät olleet riittäviä suuriin läpimurtoihin. Nyt ajatellaan, että viimeaikojen tieteelliset tulokset, suuri datamäärä ja kyvykkyys laajamittaiseen hajautettuun laskemiseen johtavat merkittävään läpimurtoon tekoälyn sovelluksissa.
Tekoälyn mahdollisuudet
Kokonaisturvallisuuden näkökulmasta tekoälyteknologia mahdollistaa pitkälle menevän toimintojen analyysin, ennustamisen ja automatisoinnin. Tekoälyllä voidaan ennakoida myrskyt ja niiden vaikutukset, kääntää puhuttua ja kirjoitettua kieltä reaaliajassa, tunnistaa verkkohyökkäykset ja estää niitä sekä havaita haitallinen informaatiovaikuttaminen.
Ajankohtaisena esimerkkinä tekoälyn vaikutuksista voimme pitää älyliikennettä, jossa lähitulevaisuudessa autonomisesti liikkuvat autot ja rekat voivat perustavalla tavalla muuttaa liikennettä sekä logistiikkaa. Tekoälyn ohjaamat tehtaat tuottavat tuotteita, jotka toimitetaan autonomisen liikenteen kautta satamiin, jossa robottilaivat vievät tuotteet perille. Liikenteen lisäksi 3D-tulostus muuttaa globaalia tuotteiden ja varaosien tuottamisen dynamiikkaa.
Tekoälyn haasteet
Tekoälyteknologian haasteet kokonaisturvallisuuden kannalta voidaan luokitella kolmeen ryhmään: haitallinen tekoäly, hyökkäykset tekoälyjärjestelmiä vastaan sekä erehtyvä tekoäly.
Haitallinen tekoäly on järjestelmä, joka laajamittaisen data-analyysin ja mallintamisen kautta pyrkii vaikuttamaan ihmisiin tai tietojärjestelmiin annettuja päämääriä edistäen. Haitallinen tekoäly voi esimerkiksi pyrkiä vaikuttamaan äänestyskäyttäytymiseen kohdentamalla tietoa tai etsiä tietojärjestelmästä haavoittuvuuksia. Hyökkäävä tekoäly voi esimerkiksi kohdejärjestelmän mallin avulla simuloida tilanteita ja pyrkiä selvittämään hyökättävän kohteen heikot kohdat ja sitten hyödyntää niitä.
Tekoälyjärjestelmässä voi olla haavoittuvuuksia sen toiminta- tai toteutustavan kautta. Näin tulee mahdolliseksi hyökätä järjestelmän tekoälyä vastaan. Tekoälypohjainen hyökkääjä voisi siis mallintaa kohteen ja harjoitella erittäin hyväksi hyökkääjäksi ja vastapuolen tekoälyn harhauttajaksi. Tekoälyä vastaan on tehty onnistuneita hyökkäyksiä ja harhautuksia, esimerkiksi Microsoftin keskusteluohjelma harhautettiin käyttämään vihapuhetta ja autonomisten autojen käyttämää liikennemerkkien tunnistusta on pystytty harhauttamaan. Tekoälyn mahdollistamien autonomisten toimintojen lisääntyessä on keskeistä, että näitä järjestelmiä vastaan ei voida hyökätä ja aiheuttaa väärän tiedon levittämistä ja vaaratilanteita.
Tekoäly voi myös erehtyä puutteellisen tai virheellisen opetusdatan tai uuden ennakoimattoman tilanteen johdosta. Toiminnan konteksti rajoittaa olennaisesti tekoälyn toimintaa ja kontekstin muuttuminen voi aiheuttaa virheellisiä päätelmiä tekoälyn käyttäessä eri kontekstissa opittua mallia.
Nämä tilanteet ovat erityisen vaikeita ihmisten terveyteen ja turvallisuuteen liittyvissä ympäristöissä, kuten liikenteessä, teollisuudessa ja lääketieteessä. Esimerkiksi älyliikenteessä joudutaan ratkaisemaan, miten autonomisen ajoneuvon tulee toimia erilaisissa vaaratilanteissa, kun sekä ajoneuvossa olijat että sivulliset ovat vaarassa.
Tekoälyn tutkimus ja kehitys
Tekoäly nähdään globaalisti suurena mahdollisuutena eri sektoreilla, mutta siihen liittyvät uhkakuvat vaativat pitkälle meneviä ratkaisuita. Näitä uhkia voidaan estää ja torjua eräänlaisella metatasolla, joka mallintaa ja seuraa tekoälypohjaisen järjestelmän toimintaa laajamittaisesti. Metatason tavoite on estää tekoälyn harhauttaminen ja auttaa sitä selviämään kontekstiin liittyvistä muutoksista. Tätä metatasoa meillä ei vielä ole, joten se lähitulevaisuuden mielenkiintoinen tutkimuskohde.
Suomi on kansainvälisesti arvostettu edelläkävijä kokonaisturvallisuuden ja tekoälyn alueilla. Suomella on erittäin hyvät lähtökohdat rakentaa ja kehittää tulevaisuuden tekoälyratkaisuiden tukemaa kokonaisturvallisuuden mallia.
Kirjoittaja
Professori Sasu Tarkoma on Helsingin yliopiston tietojenkäsittelytieteen laitoksen johtaja ja Maanpuolustuksen tieteellisen neuvottelukunnan (MATINE) jäsen. Tarkoman tutkimus keskittyy langattomiin järjestelmiin, esineiden internetiin, data-analytiikkaan sekä systeemitason tietoturvaan. Hän on suorittanut 218. maanpuolustuskurssin.