Hyppää pääsisältöön

Valheenpaljastaja: Näin meitä huijattiin vuonna 2019 - moneenko vipuun menit?

Notre Damen katedraali palaa.
Notre Damen katedraali palaa. Kuva: Yle Notre Damen katedraali,Valheenpaljastaja (artikkelisarja)

Valheenpaljastajan vuosikooste listaa vuoden 2019 pahimmat ja pöhköimmät valeuutiset ja nettihuijaukset. Moneenko vipuun sinä menit?

1) Simppeli videofeikki meni suomalaisiin sukkana läpi

Vuoden 2019 disinformaatiokeskustelun muotisana oli deepfake, suomeksi syväväärennös. Termillä tarkoitetaan tekoälyn ja koneopimisen avulla tuotettua videota, joka näyttää erehdyttävän aidolta. Deepfake-videoilla voi laittaa esimerkiksi sanoja presidenttien suuhun tai liimata omat kasvonsa Hollywood-näyttelijän kroppaan.

Yle Uutiset teki imitaattorin kanssa syväväärennöksen Sauli Niinistöstä pitämässä puhetta.

Silti videoväärennös, joka upposi yleisöön parhaiten, oli tehty aivan yksinkertaisella leikkaa-liimaa-tekniikalla. Se oli siis niin kutsuttu shallowfake, matalaväärennös.

Videolla perussuomalaisten puheenjohtaja Jussi Halla-aho kysyy eduskunnassa sisäministeri Maria Ohisalolta (vihr.), meneekö ulkomaalaisten turvallisuus suomalaisten turvallisuuden edelle. Sitten tulee leikkaus. “Kyllä, siitä tämä hallitus tulee pitämään kiinni”, vastaa Ohisalo. Ministerin vastaus on kuitenkin napattu toiselta päivältä, jolloin hän vastasi todellisuudessa aivan toiseen kysymykseen.

Kun ihmisellä on halu uskoa, hänellä on myös kyky jättää varoitusmerkit vaille huomiota.

Leikkaus on selkeä ja huijaus olisi helppo huomata siitäkin, että viittomakielen tulkki vaihtuu ruudulla ällistyttävän nopeasti. Lisäksi Ohisalon todellisen vastauksen Halla-ahon kysymykseen voi tarkistaa eduskunnan kyselytunnin pöytäkirjasta, joka löytyy verkosta.

Video alkoi levitä toden teolla Facebookissa, mutta ei mistään suuresta ryhmästä tai merkittävän mielipidevaikuttajan profiilista. Viraalihitti lähti liikkeelle kuortanelaismieheltä, jolla oli Facebookissa vain 224 kaveria. Video sai silti reippaasti yli 115 000 näyttöä ja 1600 jakoa.

Facebook ei ole valituksista huolimatta poistanut videota.

Selvitin, että videota oli jaettu innokkaasti Ylilaudalla jo useita päiviä ennen kuin se lähti leviämään Facebookissa. Yritystä sen levittämiseen todella oli, mutta hittiosuma näyttäisi olevan sattuman kauppaa. Videon tekijä on jäänyt arvoitukseksi.

Olennaista on kuitenkin huomata, että deepfake-algoritmeja ei toistaiseksi tarvita suurten joukkojen onnistuneeseen sumuttamiseen. Kun ihmisellä on halu uskoa, hänellä on myös kyky jättää varoitusmerkit vaille huomiota.

Yhdysvalloissa huomiota herätti keväällä 2019 video, jolla Yhdysvaltain edustajainhuoneen puhemies Nancy Pelosi vaikutti humalaiselta. Efekti oli saatu aikaan hyvin yksinkertaisesti: hidastamalla videota niin, että Pelosin puhe kuulosti sammaltavalta.

Facebook kieltäytyi poistamasta manipuloitua videota alustaltaan. Pian joku irvileuka tekikin Mark Zuckerbergista ihan oikean deepfake-videon.

2) Simpsonien tekijät eivät ole selvännäkijöitä

Oletko kuullut, että animaatiosarja Simpsoneissa on nähty ennalta lukuisia meidän aikamme ilmiöitä jo kymmenen tai kaksikymmentä vuotta sitten? No eipä ihme, koska sellaisia meemejä liikkuu sosiaalisessa mediassa useita kertoja vuodessa. Myös monet aivan järkevinä pidetyt uutissivustot ovat lähteneet mukaan “Simpsonit ennusti tämänkin” -meemiin ja julkaisseet artikkeleita, joissa listataan sarjan toteutuneita ennusteita.

Kerrataanpa siis:

Simpsonit ei ennustanut Donald Trumpin presidenttiehdokkuutta vuonna 2000. Piirros Trumpista ehdokkaana on vuodelta 2015.

Simpsonit ei ennustanut Notre Damen tulipaloa.

Simpsonit ei ennustanut puhelinten autocorrect-toimintoa, ei myöskään älykelloa.

Simpsonit ei ennustanut, että Donald Trump yrittäisi ostaa Grönlannin.

Itse asiassa kannattaa virittää hälytyskellot soimaan aina, kun huomaa “Simpsonit ennusti” -kuvan kiertävän somessa.

3) Viraali sometarina sattui omaan nilkkaan

Viraaleihin sometarinoihin pätee edelleen vanha nyrkkisääntö: jos tarina kuulostaa liian hyvältä ollakseen totta, se ei todennäköisesti ole totta. Hyvällä tarkoitan tässä yhteydessä liian täydellistä kertomusta, joka iskee suoraan yleisön tunteisiin.

Yksi esimerkki tällaisesta vuonna 2019 oli taksikuskina työskennelleen Helsingin kaupunginvaltuutetun Abdirahim ”Husu” Husseinin (sd.) huomattavan yleisön kerännyt tviitti. Hän kertoi Twitterissä jättäneensä rasistisen asiakkaan taksinsa kyydistä moottoritien varteen ja kieltäytyneensä maksusta. Hussein toisti tarinaansa useissa haastatteluissa.

Hussein jäi sepitteestään kiinni, kun asiasta nousi häly ja taksifirma alkoi tutkia asiaa. Selvisi, että tapahtuma oli mielikuvituksen tuotetta. Siitä kirjoitettiin silti laajalti mediassa jo ennen asian paljastumista.

Hussein joutui vain väliaikaiselle jäähylle sosiaalidemokraattien valtuustoryhmästä, mutta tapauksella saattaa olla kauaskantoiset seuraukset hänen poliittiselle uralleen.

4) Mielikuvituslento al-Holista

Suomalaisten äitien ja lasten kohtalo al-Holin leirillä on ollut loppuvuoden suurimpia puheenaiheita. Koska heidän tuomisestaan Suomeen on syntynyt suuria tunteita herättävä kiistakysymys, se on ollut ilmiselvä täky myös disinformaation tuottajille.

Hieman ennen joulukuun puoliväliä sosiaalisessa mediassa levisi kuvakaappaus Erbilin lentokentän lentoaikatauluista. Erbil on Irakin kurdialueella ja todennäköisimmin se kenttä, jolta al-Holin suomalaiset voisivat matkustaa.

Vanhojen kuvien kierrättäminen huijaustarkoituksessa on tuttu ilmiö, joka ei näytä olevan laantumassa.

Kuvakaappaus oli peräisin FlightRadar24-palvelusta, jonka avulla voi seurata eri puolilla maailmaa lentäviä koneita. Kuva ei kuitenkaan ollut aito, vaan sitä oli käsitelty kuvankäsittelyohjelmalla. Lentojen listaan oli lisätty Helsingistä aamuyöllä kolmelta saapuva kone. Lentoyhtiön kohdalla luki “unknown”, tuntematon.

Alla näet manipuloidun aikataulun ja todellisen aikataulun, jossa Helsingistä tulevaa lentoa ei ole lainkaan. Manipuloidussa kuvassa lento on yksinkertaisesti lisätty listaan.

Aikataulu
Oikealla alkuperäinen lentoaikataulu, vasemmalla muokattu. Aikataulu Kuva: Yle / Mikko Lehtola Yle Oppiminen,aikataulut

Nettikeskusteluissa olematon lento yhdistettiin Tullin viranomaisharjoitukseen Helsinki-Vantaalla. Vauhtia huhumyllyyn löi Jussi Halla-aho, joka tviittasi ensin Tullin harjoituksesta ja sitten näin: “Hassu yhteensattuma tuo harjoitus, kun viime viikolla liikkui epävirallisissa kanavissa tietoja, että juuri keskiviikkona odoteltaisiin tilauskonetta Erbilistä.”

Myöhemmin Tulli kertoi Iltalehdelle, että se oli joutunut merkittävän disinformaatiokampanjan kohteeksi.

5) Epäile aina, kun dramaattisia katastrofikuvia alkaa levitä

Aina, kun maailmalla tapahtuu jokin merkittävä ja huomiota herättävä katastrofi tai onnettomuus, siitä aletaan välittömästi levittää valokuva- ja videohuijauksia. Tyypillisesti kuvat ovat kyllä aitoja, mutta liittyvät aivan muihin tilanteisiin. Vanhojen kuvien kierrättäminen huijaustarkoituksessa on tuttu ilmiö, joka ei näytä olevan laantumassa.

Vuoden 2019 onnettomuuksista mainittakoon Amazonin sademetsän tulipalot ja Pariisin Notre Damen tulipalo. Molemmista levisi verkossa hurja määrä kuva- ja videohuijauksia.
Skip Twitter post


Esimerkiksi ylläolevassa tviitissäkin näkyvä laajalle levinnyt dramaattinen valokuva ei ole tuore uutiskuva Amazonista. Se on vuodelta 1989.

Mitä voisi tapahtua vuonna 2020?

Lopuksi Valheenpaljastajan misinformaatioennuste vuodelle 2020.

Misinformaatio siirtyy aina sinne, mistä se löytää yleisöä. Sitä mukaa kun ihmiset siirtyvät julkisilta ja puolijulkisilta somealustoilta Whatsappin kaltaisiin pikaviestimiin, huijaukset ja huhut siirtyvät perässä. Monissa maissa tällaiset pikaviestipalveluiden ryhmissä leviävät valeet ja vihakampanjat ovat jo johtaneet väkivallantekoihin, Intiassa jopa lynkkauksiin.

Kenties ensi vuonna Suomessakin nähdään ensimmäinen viraali Whatsapp-huhu.

Deepfake-teknologia tulee vuonna 2020 todennäköisesti kaikkien saataville, ja kuka tahansa voi tehdä videoväärennöksiä helposti käytettävillä ja ilmaisilla työkaluilla. Tämä on mahdollista jo nyt, mutta vaatii toistaiseksi sen verran teknistä osaamista ja tietotaitoa, ettei homma ole lähtenyt vielä aivan käsistä.

Syyskuussa 2019 julkaistun selvityksen mukaan peräti 96 prosenttia deepfakeista on itse asiassa pornografiaa, jota tietenkin tehdään ilman deepfake-videoille päätyvien ihmisten suostumusta. Tähän liittyvä naisviha ja erityisesti niin kutsuttu kostoporno ovat valtavia yhteiskunnallisia ongelmia.

Suuren yleisön tietoisuuteen deepfaket tulevat silti todennäköisemmin jonkun poliittisen videofeikin kautta. On oikeastaan väistämätöntä, että jokin tällainen aiheuttaa lähitulevaisuudessa kaaosta ja epätietoisuutta.

Valheenpaljastaja ennustaa, että yllättävin disinformaatioskandaali tulee kuitenkin äänen muodossa. Audiofeikkien tekemisestä tulee niin ikään helpompaa. Moni tietää jo, että videoita voi väärentää, mutta synteettisen äänen mahdollisuuksista on puhuttu huomattavasti vähemmän. Sitä ei osata odottaa.

Valheenpaljastaja käsittelee faktaa ja fiktiota uutisissa ja sosiaalisessa mediassa. Lähetä juttuvinkki: valheenpaljastaja@gmail.com

Valheenpaljastaja

Media- ja digitaidot