Timo Huovinen: Tekoälyn käyttö journalismissa – erityisesti opetetut ja itseoppivat kielimallit
Ylen Timo Huovinen kirjoittaa tekoälyn vaikutuksesta journalismiin ja Ylen tavoista toimia.
Tekoälyn käyttöä on pohdittu ja pohditaan Ylessä vastuullisesti. Utopioita siitä, että tekoäly ohittaa ihmisen, on esitetty jo vuosikymmeniä. Herkemmällä korvalla aiheesta on oltu viimeisen puolen vuoden aikana. Toki asialla on hyvä pelotella ja samalla löytää itse ratkaisu pelotteluunsa. Toimiva kaava monessa asiassa, mm. niin politiikassa kuin liike-elämässäkin.
Tekoälyn (viimeaikoina esim. Chat GPT) on sanottu olevan uusi kirjapainotaito. Sen on uskottu vievän työpaikkoja. Esimerkiksi maaliskuussa 2023 monet tekoälyn huippututkijat ja muut vaikuttajat julkaisivat avoimen kirjeen, jossa vaativat tekoälyn kokeilun laittoa tauolle. Tietenkin vaatimus on mahdoton toteuttaa. Toisessa päässä ovat henkilöt, jotka uskovat tekoälyn voimaan. Into on kova eikä sitä saa sammuttaa. Joka tapauksessa tekoälyn kehitys on mennyt jo niin pitkälle, ettei sitä saa jättää monikansallisille yhtiölle tai epädemokraattisille valtioille.
Suomalaisessa journalismissa elämme tekoälyn jalostamisessa tällä hetkellä jonkinlaisessa välitilassa. Tekoäly ja sen käyttö menee yhä nopeammassa tahdissa eteenpäin, ja myös Journalistin ohjeita käydään juuri läpi, koska toimittamisen on seurattava aikaansa.
Sain mahdollisuuden olla toukokuun lopussa ONO:non (The Organization of News Ombudsmen and Standards Editors) vuosikokouksessa. Siellä puntaroitiin myös tekoälyn (Artificial Intelligence) vaikutusta journalismiin. Lainaan session vetäjä Andrew Cochrania: aikaisemmin journalismissa sanottiin ”follow the money”, nyt sanotaan ”follow the data”.
Tässä yhteenveto Ylen viime aikojen mietinnästä tekoälyn ympärillä.
Ylen journalismi perustuu avoimuuteen, joten tekoälyn käytöstä on hyvä ilmoittaa jutussa, jos se on tarpeen (OTS 6). Tekoäly on yksi tietolähde muiden joukossa. Siihen on siis suhtauduttava myös kriittisesti (JO 12).
Tekoälyn avulla kehitettyjä ja kehittyviä, esiopetettuja kielimalleja (esim. Chat GPT tai Google Bard) voi tietenkin käyttää journalismin tekemisessä. Jos niitä käytetään, olisi hienoa, jos journalistinen esihenkilö olisi niiden käytöstä tietoinen.
Mutta missä tilanteissa tekoälyn käytöstä ilmoitetaan journalismissa lopputuotteen vastaanottajalle? Onhan se myös helpompaa tekstissä kuin audiossa tai videossa.
Lähtökohta: Ihminen (toimittaja ja toimitus) vastaa aina juttujen ja ohjelmien sisällöstä.
Journalismin on oltava ihmisten vastuulla. Miksi? Eettinen päättelykyky ei ole yhtä kuin kyky eettiseen päätöksentekoon. Eettinen päättely ei eroa muusta päättelystä, mutta eettinen päätöksenteko edellyttää kykyä vapaaseen tahtoon toimia myös toisin kuin moraalinen velvoite vaatisi. Koneella ei ole lopulta vapaata tahtoa, eikä ihminen voi ulkoistaa moraalista päätöksentekoa.
Palaan tekoälyn pohtimisessa aina tähän äärimmäisen kliseiseen lauseeseen: journalismissa(kin) tekoäly on hyvä apulainen mutta huono hallitsija. Hallinta on oltava ihmisellä ja toimituksella.
Jos tekoälyn käyttö näkyy suoraan jutun lopputuloksessa, sen käytöstä kannattaa kertoa. Maininnasta hyvä esimerkki on tämä Svenska Ylen malli:
Vi har (delvis) använt oss av AI (artificiell intelligens) för att producera det här innehållet. Svenska Yle ansvarar för att uppgifterna är riktiga och att det som publicerats följer Journalistreglerna. En redaktör går alltid manuellt igenom vårt innehåll innan publicering.
Suomennettuna: Olemme (osittain) käyttäneet tekoälyä tämän sisällön tuottamiseen. Yle vastaa siitä, että tiedot ovat oikeita ja että julkaisu on journalismin sääntöjen mukaista. Toimittaja tarkistaa sisältömme aina manuaalisesti ennen julkaisua.
Jutusta osa voi olla toimittajan, osa tekoälyn tuottamaa. Siis esimerkiksi lauseita, jotka ovat tekoälyn tuottamia ja sitten sisältöä, joka ei ole sellaista. Suosittelen tässä tilanteessa avoimuutta niin, että lopputuloksen katsojalle selviää, mikä osa jutusta on ihmisen ja mikä koneen tekemään. Joissakin tapauksissa asia avautuu yleisestä lausekkeesta jutun ohessa, joissakin tilanteissa olisi hyvä, jos tekoälyn käyttömerkitään jutun sisälle. Tärkeää tulkinnassa on se, että tavallinen lukija/katsoja/kuuntelija ymmärtää asian.
Miten toimitaan, jos tekoälyn käyttö ei näy suoraan jutun lopputuloksessa? Saatetaanhan tekoälyä käyttää esim. otsikkotestauksessa tai juttuideoinnissa. Tällöin tekoäly on enemmän toimituksen apuri. Näissä tilanteissa tekoälyn hyödyntämisen lopputulos ei näy niin suoraan (vaikka se näkyykin epäsuorasti), eikä käyttöä tarvitse mainita.
Lähdesuojan (OTS 10) alaista tietoa en antaisi toistaiseksi tekoälyn rouskutettavaksi. En siis myöskään sellaista tietoa, joka saattaa johdattaa lähteen pariin. Myöhemmin järjestelmät saattavat kehittyä niin tietoturvallisiksi, että tämäkin on mahdollista, mutta tällä hetkellä olisin tilanteessa varovainen.
Miten sitten juttujen tiivistykset tai koosteet? Tekoälyn avulla niitä voi tehdä, mutta laittaisin mukaan lukijalle helposti löydettävän maininnan, että tiivistykset on tehty tekoälyn avulla. Varsinaisen toimituksen tekemän jutun saa luettavaksi avaamalla tiivistyksen.
Tekoälyn tekijänoikeudet ovat sitten oman mietintänsä aihe.
Timo Huovinen, etiikkapäällikkö, Yle