Kaikki talviolympialaisista!

Lisääntyykö syrjintä työnhaussa? Tekoäly seuloo entistä useammin hyvät akanoista

Tekoälyn käyttö lisääntyy työpaikkahakemusten käsittelyssä. Algoritmit voivat johtaa syrjintään, eikä työnhakija saa välttämättä tietoa ratkaisujen taustoista.

rekrytointi
Tekoäly, kuvamanipulaatio
Tekoälyn käyttö on tehokasta isojen hakijamäärien valikoinnissa, mutta tutkijat ovat huolestuneita taustamateriaaliin liittyvistä riskeistä.AP Graphics Bank, Antti Eintola / Yle

Digitalisaatio etenee henkilöstöpalveluyrityksissä ja tekoälyn käyttö rekrytoinnin apuna yleistyy.

Henkilöstöpalveluyrityksissä on suuria määriä tietoja aiemmin tapahtuneista rekrytoinneista ja niiden pohjalta isostakin hakijajoukosta löytyy sopivimmat ehdokkaat.

Nämä algoritmit laittavat hakijat järjestykseen. Tekoälyohjelmat oppivat sen, mitä niille opetetaan

Esimerkiksi Suomen suurimmassa henkilöstöpalveluyrityksessä Baronassa tekoäly on opetettu seulomaan hyvät akanoista vertailemalla noin 700 000 ansioluetteloa ja tehtyjä valintoja.

Kirsi Louhelainen
Tekoäly ei tee valintoja, Barona Technologies Oy:n teknologiapäällikkö Kirsi Louhelainen muistuttaa.Jari Hakkarainen/Yle

– Meille on kertynyt paljon tietoa siitä, minkälaisilla CV:llä ihmiset ovat työllistyneet. Nähin tietoihin perustuen meidän algoritmi on oppinut, millaisin perustein mihinkin paikkaan voi päästä, kertoo teknologiajohtaja Kirsi Louhelainen Barona Technologies Oy:stä.

Tekoäly ei tee valintoja, vaan sen avustaa rekrytointeja, Kirsi Louhelainen tähdentää ja jatkaa:

– Tekoäly oppii vain sen, mitä sille opetetaan. CV:n lisäksi tekoäly voi myös ottaa huomioon hakijan työpaikkaan liittyviä toiveita. Rekrytoija voi puolestaan hyödyntää myös tavanomaisia hakuehtoja tai päättää olla käyttämättä tekoälyn suosituksia.

”Tekoäly automatisoi hylkäämisen”

Tekoälyn käyttö on tehokasta isojen hakijamäärien valikoinnissa, mutta mitkä asiat vaikuttavat päätöksiin?

Tutkijat ovat huolestuneita taustamateriaaliin liittyvistä riskeistä.

Syrjintä saatta siirtyä tekoälyyn, koska algoritmit perustuvat aiemmin tehtyihin henkilövalintoihin ja asenteisiin.

Virheet tai vinoutunut tapa niputtaa asioita voivat estää pääsyn työhaastatteluun, eikä oikaisumahdollisuutta ole.

Arto Laitinen

Tampereen yliopiston filosofian professori Arto Laitinen seuraa tekoälyn ja robotiikan kehitystä eettisestä näkökulmasta.

– Tekoäly automatisoi hakemuksen hylkäämisen. Tekoälyn käyttö henkilövalinnoissa ei synnytä syrjintäongelmaa, mutta pahimmassa tapauksessa se saattaa sementoida syrjinnän ja tehdä siitä entistä jäykemmän, hän sanoo.

”Nyt päätetään, mitä automatisoidaan”

Teknologiajohtaja Kirsi Louhelaisen mielestä on virhekuvitelma, että tekoälyn tarvitsisi automatisoida päätöksentekoa.

– Barona Technologiesissa näemme tekoälyn ennemminkin “tukiälynä” – se ei pudota tai suodata ketään pois, mutta tarjoaa tehokkaita apuvälineitä rekrytoijalle.

– Myös EU:n uusi tietosuojalaki, GDPR, nostaa esiin automaattisen päätöksenteon riskit ja vaatii, että asiakkaalla on oikeus olla joutumatta automaattisen päätöksenteon kohteeksi. Työnhakijan ei siis tarvitse pelätä, että järjestelmä pudottaisi hakijan automaattisesti, Louhelainen sanoo.

– Juuri nyt on se hetki, jolloin teemme valintoja siitä, miten tekoälyä hyödynnämme. Kukaan ei pakota automatisoimaan kaikkea, vaan voimme valita käyttää tekoälyä tukemaan ihmisen päätöksentekoa ja automatisoimaan mekaanisempia tehtäviä.

Väärät vastaavuudet vaarana

Yhdysvalloissa tutkijat ovat raportoineet siitä, miten algoritmiperusteinen valinta kohtelee huono-osaisia. Esimerkiksi nimi, asuinpaikka tai maksuhäiriöt saattavat pudottaa hakijan mahdollisuuksia tulla valituksi.

Kirsi Louhelaisen mukaan vääristymien vaara on tiedostettu.

– Ennen kuin mitään dataa voidaan käyttää, se pitää puhdistaa. Eli meidän on pidettävä huoli siitä, että siinä ei ole sellaisia aineksia, jotka johtaisivat vääränlaisiin tuloksiin tai vääränlaisiin korrelaatioihin.

Kukaan ei pakota automatisoimaan kaikkea, vaan voimme valita käyttää tekoälyä tukemaan ihmisen päätöksentekoa ja automatisoimaan mekaanisempia tehtäviä.

Kirsi Louhelainen

Jos osoitetiedot olisivat valintaperusteina, voisi käydä vaikka yhtä hassusti, kuin leikkimieleisessä, pienellä aineistolla tehdyssä kokeilussa.

– Kun testidatasta ei oltu poistettu osoitteita, löytyi heikko korrelaatio siihen, että tietynnumeroisessa asunnossa asuvat ihmiset työllistyivät hyvin Python-koodareiksi, Louhelainen kertoo.

– Korrelaatioita voi löytää mistä tahansa, erityisesti jos dataa on vähän ja tästä syystä data pitää käsitellä.

– Me poistamme osoitteen, nimen, henkilötiedot, sukupuolen ja iän väärien korrelaatioiden välttämiseksi. Työnhakijan muut CV:ssä ilmoittamat tiedot ovat tärkeimmät, Kirsi Louhelainen sanoo.

Kuka teki mitä, häh?

Työnhaussa jatkoon pääsevät ne, jotka kelpaavat koneelle. Professori Arto Laitinen puhuu mustan laatikon ongelmasta.

– Virheet tai vinoutunut tapa niputtaa asioita voivat estää pääsyn työhaastatteluun, eikä oikaisumahdollisuutta ole. Saattaa olla, että edes ohjelmoijat eivät tiedä, millä perusteilla algoritmit suosituksiinsa päätyvät.

– Läpinäkyvyys puuttuu. Päädytään tuloksiin ilman että kukaan tietää, millä perusteilla niihin on päädytty.

Avoimuus ja julkisuus ovat keskeisiä sosiaalisen oikeudenmukaisuuden kannalta, Arto Laitinen muistuttaa.

Filosofian professori Arto Laitinen
Läpinäkyvyyttä tarvitaan oikeudenmukaisuuteen, sanoo professori Arto Laitinen.Antti Eintola / Yle

Tilastollisen suuraineiston käyttö huolestuttaa myös kansainvälisesti. Helsingin Sanomat esitteli (siirryt toiseen palveluun) äskettäin yhdysvaltalaisen matemaatikon Cathy O'Neilin maalailemaa uhkakuvaa amerikkalaisesta tietosuojasta.

Myös Kirsi Louhelainen jakaa huolen avoimuudesta.

– On erittäin tärkeää, että läpinäkyvyyteen kiinnitetään paljon huomiota. Meillä ei tälläkään hetkellä anneta koneen tehdä yksin päätöstä sopivuudesta.

– Mustan laatikon ongelma koskee erityisesti tietyntyyppisiä algoritmeja kuten neuroverkkoja, ja tällä hetkellä tutkitaan kiivaasti sitä, miten niiden päätöksenteosta saisi lisätietoa ulos.