Tappajarobottien esiasteita on jo käytössä eri maissa – Googlen ex-insinööri muistuttaa, ettei kone välttämättä erota sotilasta kepillä leikkivästä lapsesta

YK:ssa pohditaan kieltoa tappajaroboteille ennen kuin ne ilmestyvät taistelukentille.

Autonomiset asejärjestelmät
Venäläinen osittain autonominen panssarivaunu T-14 Armata.
Venäjän T-14 Armata on seuraavan sukupolven taistelupanssarivaunu. Sen tykkitorni on miehittämätön. Venäjän puolustusvoimien suunnitelmissa on kehittää T-14:stä täysin itsenäinen sotakone.AOP / EPA-EFE/MAXIM SHIPENKOV

Turkin armeija ilmoitti syksyllä toimittavansa 30 autonomista taisteludroonia Syyrian vastaiselle rajalle tämän vuoden aikana. Tekoälyllä ja kasvojentunnistusteknologialla varustettujen lennokkien on tarkoitus partioida rajalla ja tarvittaessa tehdä iskuja havaitsemiinsa kohteisiin.

Turkkilaisen asevalmistaja STM:n kehittämä Kargu-drooni kykenee kantamaan muutaman kilon painoisen ammuksen tai räjähteen. Tämä riittää tuhoamaan isommankin ajoneuvon tai taistelujoukon.

Asevalmistajan markkinointivideoilla droonit lentävät muodostelmassa (siirryt toiseen palveluun) ja tekevät kamikaze-hyökkäyksiä (siirryt toiseen palveluun). Ne etsivät kohteensa, tunnistavat sen ja hyökkäävät. Kaikki päätökset voi antaa algoritmin tehtäväksi.

Ihmisoikeusjärjestö Human Rights Watch (siirryt toiseen palveluun) pitää Kargun kaltaisia sotakoneita täysin autonomisten asejärjestelmien, eli niin kutsuttujen tappajarobottien, esiasteena.

Tähän kategoriaan kuuluu Israelin valtiollisen ilmailuteollisuuden IAI:n kehittämä Harpy 2 -lennokki, joka kykenee itsenäisesti etsimään ja tuhoamaan tutka-asemia. Tappajarobottien esiasteeksi lasketaan myös eteläkorealaisen elektroniikkajätti Samsungin rakentama raskaasti aseistettu SGR-A1 -robotti, joka pystyy omatoimisesti avaamaan tulen havaitessaan lähestyvän kohteen.

Molemmat näistä asejärjestelmistä on jo käytössä.

Israelin Harpy autonominen ohjus lähdössä.
Israelin kehittämä Harpy -lennokki havaitsee tutkasignaaleja ja tuhoaa itsenäisesti tutka-asemia kamikaze-hyökkäyksillä./All Over Press / Shutterstock

Neuvottelut eivät pysy aseteknologian perässä

Itsenäisesti toimivia sotakoneita kehitetään täyttä häkää ympäri maailmaa. Asevalmistajilla ja armeijoilla on kehitystyön suhteen vapaat kädet, sillä tällä hetkellä näiden järjestelmien kehitystä tai käyttöä ei säännellä lainkaan.

Autonomisten aseiden käytön rajoittamisesta on väännetty YK:ssa jo usean vuoden ajan. Tällä hetkellä valmistelussa on lisäpöytäkirja YK:n tavanomaisia aseita rajoittavaan yleissopimukseen, mutta työ on vielä pahasti kesken.

Tällä hetkellä 29 valtiota vaatii täysin autonomisille asejärjestelmille kieltosopimusta (siirryt toiseen palveluun), mutta monelle valtiolle riittäisi asejärjestelmien käytön periaatteita ohjaava asiakirja. Euroopan parlamentti on hyväksynyt päätöslauselman, jossa vaaditaan itsenäisesti toimivien autonomisten aseiden kieltämistä. Samalla kuitenkin useat jäsenmaat vastustavat kieltoa. Suomen hallitusohjelmassa yhtenä tavoitteena on edistää autonomisten aseiden globaalia sääntelyä (siirryt toiseen palveluun).

Kansainvälisiä neuvotteluja on vaikeuttanut teknologian kehityksen vauhti. Kankeasta päätöksenteosta tunnettu YK on joutunut useaan otteeseen päivittämään autonomisia asejärjestelmiä koskevan tilannekuvansa.

Etenkin suuret sotilasvallat ovat tehneet rajoitusten sorvaamisesta haastavaa. Ongelmia on tuottanut etenkin autonomisten asejärjestelmien määrittely. Kuinka paljon ja minkälaisia ominaisuuksia asejärjestelmässä pitää olla, että se päätyy sääntelyn piiriin? Miten itsenäisesti päätöksen tekevä asejärjestelmä eroaa itsenäisesti räjähtävästä miinasta?

Yhdysvaltain ja Iso-Britannian kaltaisen suurvaltojen vastustus (siirryt toiseen palveluun) tekee sääntelyn saavuttamisesta YK:n tasolla vaikeaa. Rajoitusten on löydettävä toinen reitti. Sellainen on avautunut tekoälytutkijoiden ja ohjelmistokehittäjien suunnalta.

Iron dome -asejärjestelmän laukaisualusta
Tähän asti autonomisia asejärjestelmiä on hyödynnetty lähinnä puolustuksessa. Nämä järjestelmät toimivat tilanteissa, joissa ihmisen reaktiokyky ei riitä. Esimerkiksi Israelin ohjuspuolustusjärjestelmä, Rautakupoli, itsenäisesti havaitsee ammutun raketin, laskee sen lentoradan perusteella todennäköisen osumapaikan ja tarvittaessa ampuu raketin alas./All Over Press / Shutterstock

Innovointi siirtyi Pentagonista Piilaaksoon

Sotavoimien ja teknologiayritysten väliset suhteet ovat pitkään olleet tiiviit. Ne ovat yhä tiiviit, mutta 2000-luvulla vetovastuu on vaihtunut.

Kun ennen uudet teknologiat, kuten esimerkiksi internet, GPS-paikannus tai mikroaaltouuni, valuivat sotavoimista siviilielämään, nykyään uudet keksinnöt ja sovellukset syntyvät yksityisten yritysten laboratorioissa.

Koneoppiminen, uusin kamerateknologia, hahmontunnistus ja kevyet droonit ovat kaikki kehittyneet suoraan kaupallisille markkinoille. Armeijoista on tullut asiakkaita muiden joukossa. Toisilla valtioilla yhteistyö yritysten kanssa sujuu paremmin (siirryt toiseen palveluun) kuin toisilla.

Yhdysvalloissa niin Amazon, Microsoft kuin Google ovat kaikki tehneet yhteistyötä maan puolustusvoimien kanssa. Tämä on herättänyt tyytymättömyyttä yhtiöiden työntekijöiden keskuudessa ja synnyttänyt uudenlaista aktivismia Piilaaksossa.

Kun Google kertoi maaliskuussa 2018 yhteistyöstään Yhdysvaltain puolustusministeriön kanssa, hetkessä yli 3 000 työntekijää allekirjoitti vetoomuksen yhteistyön lopettamiseksi. Yhteistyöstä oli huhuttu Googlen käytävillä jo kuukausien ajan ja kun yhtiö vahvisti asia, moni googlelainen huolestui työnsä seurauksista. Oliko heistä tullut osa koneistoa, joka tappaa ihmisiä toisella puolella maailmaa?

Googlen Maven-projektin tarkoituksena oli parantaa ja nopeuttaa ihmisten ja kohteiden tunnistamista miehittämättömien lennokkien kuvaamista videoista. Projektin parissa työskennellyt ohjelmistoinsinööri Laura Nolan sanoo, että Mavenin päämääränä oli korvata ihmisanalyytikko koneella.

Nolanin mukaan Googlen työntekijät huolestuivat, että Maven johtaa valvonnan lisääntymiseen. Kun videomateriaalia pystytään analysoimaan tehokkaammin, taivaalle voidaan laittaa enemmän lennokkeja.

– Jo valvonta itsessään on tuhoavaa. Se on psykologisesta rankkaa yhteisöille, jotka joutuvat sen kohteeksi. Valvonta tuhoaa yhteisöllisyyden, kun ihmiset eivät uskalla kokoontua yhteen. Mielestäni se on ihmisoikeusrikkomus, Helsingissä vieraillut Nolan toteaa.

Ohjelmistoinsinööri ja robottiaseiden vastaisen International Committee for Robot Arms Control (ICRAC) verkoston Laura Nolan, Helsinki, 14.2.2020.
"Jos emme toimi nyt, nämä koneet hiipivät käyttöön ja niistä tulee normaaleja samalla tavalla kuin on käynyt muulle sotilasteknologialle aikaisemmin", sanoo Campaign to Stop Killer Robots -verkoston Laura Nolan.Jari Kovalainen / Yle

Google lopetti yhteistyön painostuksen alla

Useat työntekijät jättivät Googlen vastalauseena Maven-projektille. Nolan oli yksi heistä. Ennen irtisanoutumistaan hän oli työskennellyt amerikkalaisyhtiön Irlannin toimipisteessä neljä vuotta.

Nolanin mielestä Maven oli osa armeijan tappoketjua, joka alkaa tiedustelusta ja päättyy iskuun.

– Projekti Maven oli ongelmallinen, koska se raivasi tietä autonomisille asejärjestelmille, Nolan sanoo.

Google ilmoitti kesäkuussa 2018, ettei se jatka yhteistyötä Yhdysvaltain puolustusministeriön kanssa. Työntekijöiden painostus sai yhtiön luopumaan sopimuksesta, joka olisi tuonut Googlelle vuosittain jopa 250 miljoonaa dollaria.

Nolan puolestaan on Google-uransa jälkeen kiertänyt maailmaa kampanjoimassa autonomisia asejärjestelmiä rajoittavan sääntelyn puolesta Campaign to Stop Killer Robots -verkoston nimissä. Useista järjestöistä (mm. Amnesty International, Human Rights Watch ja International Committee for Robot Arms Control) koostuvan verkoston tavoitteena on estää tekoälyä saamasta lupaa tappaa. Se haluaa autonomisille asejärjestelmille samanlaisia rajoituksia kuin mitä YK on määritellyt kemiallisten aseiden käyttöön.

– Uskon, että voimme voittaa tämän taistelun. Maailmassa on selkeä moraalinen konsensus siitä, että näitä autonomisia asejärjestelmiä ei haluta nähdä. Ihmiset pitävät moraalisesti vääränä delegoida päätös jonkun tappamisesta koneelle, Nolan sanoo.

Sodan sääntöjä noudattava robotti voisi tappaa lapsen

Itsenäisesti päätöksiä tekevät robottiaseet synnyttävät moraalisia kysymyksiä siitä riippumatta, toimivatko ne niin kuin pitää tai eivät. Nolan ei usko, että autonomiset sotakoneet toimisivat oikein koko ajan.

– Keskityn työssäni pääsääntöisesti ohjelmistojen luotettavuuteen ja voin sanoa, että järjestelmät eivät koskaan toimi niin kuin niiden pitäisi.

Täysin autonomisten asejärjestelmien tekemien virheiden hinta voi olla ihmishenkiä. Tappajarobotti ei välttämättä osaa erottaa sotilasta metsästäjästä tai kepillä leikkivästä lapsesta. Tekoälylle voi olla vaikeaa arvioida iskun aiheuttamat sivulliset uhrit. Se ei välttämättä osaa ottaa huomioon, että isku tuhoaisi samalla ihmisille tärkeän vedenpuhdistamon.

Entä jos virhe tapahtuu, kuka on vastuussa? Onko se komentaja, joka on lähettänyt lennokin konfliktialueelle? Onko se koneen valmistaja tai algoritmin kirjoittanut ohjelmoija? Entä jos tekoäly vioittuu vihollisen ampumasta luodista ja kääntää aseensa omia joukkoja vastaan?

Asevalmistajat mainostavat robottejaan eettisinä vaihtoehtoina ihmissotilaille. Robotit eivät tee virheitä, koska ne ovat väsyneitä tai peloissaan. Ne eivät janoa kostoa, minkä ansiosta ne eivät sorru sotarikoksiin samalla tavalla kuin tunteelliset ihmiset.

Sodankäyntiä varten on määritelty paljon yhteisiä kansainvälisiä säännöksiä ja lakeja, kuten Geneven sopimukset ja humanitääriset oikeudet. Asevalmistajien mukaan sodan säännöt voidaan ohjelmoida näihin tappokoneisiin, jolloin ne itse asiassa vähentävät vääryyksiä taistelukentällä.

Yhdysvaltain armeijan entinen ammattisotilas ja autonomisten asejärjestelmien asiantuntija Paul Scharre kyseenalaistaa kirjassaan Army of None: Autonomous Weapons and the Future of War robottiaseiden moraalisen paremmuuden. Hän huomauttaa, että aina sodassa sääntöjen mukaan toimiminen ei ole moraalisesti oikea ratkaisu.

Esimerkkinä tästä Scharre kertoo tarinan Afganistanin-komennukseltaan (siirryt toiseen palveluun). Taliban-taistelijat olivat havainneet hänen ryhmänsä ja lähettäneet 6-vuotiaan tytön tarkkailemaan amerikkalaissotilaita. Tytön tehtävänä oli kertoa Scharren ryhmän sijainti radiopuhelimen välityksellä talibaneille. Scharre huomauttaa, että sotaa koskevien sääntöjen mukaan amerikkalaissotilaat olisivat voineet ampua tytön, koska tämä osallistui sotilasoperaatioon. Sotia koskevat säännöt eivät sisällä alaikärajaa taistelijoille.

Sotilaat eivät ampuneet tyttöä. Kansainvälisiä sääntöjä noudattamaan ohjelmoitu tappajarobotti olisi voinut näin tehdä.

Lue myös:

Tulevaisuuden Rokka voi olla robotti – Kauko-ohjattavat aseet ovat jo sotakentillä ja älyaseet ovat tulossa