Katri Saarikiven kolumni: Kuka opettaisi hoivaorganisaatioille etiikkaa?

Jos Attendon tai Esperi Caren hoito huonoimmillaan olisi tekoälyn ehdotus siitä, miten vanhusten hoivaa kannattaisi toteuttaa, tuomittaisiin tämä tekoäly vaaralliseksi, kirjoittaa Katri Saarikivi.

huonolaatuinen vanhustenhoito
Katri Saarikivi
Juha Kivioja / Yle

Viime viikkoina on käynyt ilmi, että joissakin Attendon ja Esperi Caren hoivakodeissa vanhuksia on kohdeltu käsittämättömän epäeettisellä tavalla. Toiminta on ollut ihmisten arvojen vastaista, sillä se on herättänyt laajaa kritiikkiä.

Jos tällainen toimintatapa olisi algoritmin tuottama ehdotus siitä, miten vanhusten hoivaa kannattaisi toteuttaa, tuomittaisiin tämä tekoäly vaaralliseksi.

Miten on mahdollista, että näiden työorganisaatioiden johdolle toiminta on ollut älykkään oloista? Tulisiko näille työorganisaatioille opettaa paremmin etiikkaa? Voisiko sitä opettaa samaan tapaan kuin koneille?

Maailma on aina ollut täynnä ongelmia, joita on vaikea vajavaisena ihmisenä ratkaista. Onneksi ihminen on oppinut rakentamaan työkaluja, jotka paikkaavat puutteitamme. Teknologinen kehitys on osa tarinaa siitä, miten ihminen pyrkii olemaan parempi. Tekoäly on tuorein edistysaskel tässä kehityskulussa, tavoitteena rakentaa ihmisaivoja älykkäämpi ongelmanratkaisukone.

Ratkaisun toimivuus riippuu siitä, millä tavalla se vastaa ihmisten arvoja.

Ongelmanratkaisu ihmisten maailmassa edellyttää kuitenkin muutakin kuin perinteisesti älykkyyteen liitettyä nopeaa ja laajaa tiedonkäsittelyä. Ratkaisun toimivuus riippuu nimittäin siitä, millä tavalla se vastaa ihmisten arvoja.

Miten opettaa etiikkaa koneelle? Yksi vaihtoehto on kysyä ihmisiltä mikä on oikein, ja muodostaa tiedon perusteella peruskoodisto koneelle.

Koodiston ongelma on se, että ihmisten eettiset päätökset eivät ole yksiselitteisiä. Klassisia moraalikokeita mukaillen: jos voisit nappia painamalla ohjata junanvaunun toisille raiteille, ettei se tappaisi radalla olevaa viittä ihmistä, tekisitkö sen? Entä jos tämä johtaisi vaunussa olevan yhden ihmisen kuolemaan? Mitä jos voisit pelastaa nuo radalla olevat viisi, mutta napin painamisen sijaan joutuisit omin käsin tönäisemään yhden ihmisen raiteille? Tai mitä jos voisit itsesi uhraamalla pelastaa kaikki kuusi? Mitä jos he olisivat aikuisten sijaan lapsia? Mitä jos he olisivat tuntemattomien lasten sijaan omiasi?

Toinen vaihtoehto on miettiä sitä, miten ihmiset elämässään oppivat etiikkaa, ja yrittää samaan tapaan opettaa tätä koneille.

Toisten ihmisten tunteet kertovat siitä, mikä on suotavaa.

Lapsi oppii vuorovaikutuksessa sen, mikä on oikein. Toisten ihmisten tunteet kertovat siitä, mikä on suotavaa. Lapsen kyky havaita näitä reaktioita on eettiseksi ihmiseksi kasvamisen ytimessä. Tunteet tarttuvat, ja muuttuvat omiksi. Lapsi oppii nauttimaan siitä, mikä omassa kulttuurissa koetaan oikeaksi ja oppii tuntemaan pahaa oloa siitä, mikä koetaan vääräksi.

Voisi siis ajatella, että jos halutaan koneiden oppivan etiikkaa samaan tapaan kuin ihmisen, pitäisi koneille kehittää empatiakykyä.

Työorganisaatio on yksi ihmisten luoma työkalu, tai kone. Sen tarkoitus mahdollistaa tehokkaampaa ongelmanratkaisua kuin mihin ihmiset ilman organisaatiota yltäisivät. Tämäkin kone on älykäs, tehokas ja turvallinen, jos sen tuottama toiminta palvelee ihmistä ja heijastaa ihmisille tärkeitä arvoja.

Voi olla niin, että monessa hoivakoneessa johtaja on lähempänä osakkeenomistajaa kuin hoivattavaa.

Mitä jos eettisyydessään hairahtuneille organisaatioille yrittäisi opettaa etiikkaa samoin kuin koneille?

Vaikka yleispätevää eettistä koodistoa ei ole tarjolla, ovat ihmiset ajan saatossa yhdessä laatineet melko hyviä yleisohjeita (siirryt toiseen palveluun). Johto voi miettiä, millä tavalla niiden toteutuminen on mukana tavoitteiden asettamisessa.

Toinen mahdollisuus on tehdä organisaatiossa enemmän tilaa empatialle.

Voi olla niin, että monessa hoivakoneessa johtaja on lähempänä osakkeenomistajaa kuin hoivattavaa. Johtajalla ei välttämättä ole pääsyä tietoon, joka lisäisi oppimista siitä, miten organisaatio onnistuu hoivattavan kannalta.

Mitä jos kuunneltaisiin enemmän niitä ihmisiä, joilla on parasta tietoa organisaation toiminnan seurauksista?

Jos johto tekee päätöksiä ilman tajua siitä, mitä niistä hoivattavalle seuraa, ei päätöksenteko voi olla kovin älykästä. Sama kuin itseohjautuva auto saisi ajaa liikenteessä, pelkästään huippunopeutta maksimoiden, piittaamatta jalankulkijoiden tai autossa olevien turvallisuudesta. Se johtaisi ehkä hetkelliseen tavoitteiden saavuttamiseen, mutta hintana on ihmisen kärsimys. Ja lopulta, kun tämä kärsimys huomataan, joku viheltää pelin poikki. Silloin ei huippunopeuden tai huippuvoittojen tavoittelukaan enää onnistu (siirryt toiseen palveluun).

Miten sitten saada enemmän empatiaa organisaation johdolle? Yhtenä ratkaisuna tähän on parempi vuorovaikutus.

Mitä jos kuunneltaisiin enemmän niitä ihmisiä, joilla on parasta tietoa organisaation toiminnan seurauksista? Sitä, joka peittelee vanhuksen lattialle, kun ei muutakaan voi. Sitä, joka peitellään.

Miltä heistä tuntuu?

On organisaation johdon vastuulla pitää huolta siitä, että sen ohjaama kone on ajokunnossa.

Katri Saarikivi

Kirjoittaja on tutkija, joka johtaa empatian ja laadukkaan vuorovaikutuksen mekanismeja selvittävää projektia Helsingin yliopiston Kognitiivisen aivotutkimuksen yksikössä. Hän haluaa ymmärtää paremmin todellisuutta, ei olla oikeassa. Hän ei ole ”vihervassari”, ”äärioikeistolainen” tai ”tolkun ihminen”.