Mikä on selittävä tekoäly (XAI) ja mitä hyötyä siitä on?

Selittävä tai selitettävä tekoäly, (explainable artificial intelligence, XAI/xAI), viittaa joko sellaiseen tekoälyjärjestelmään, jonka päättelyä ihminen pystyy seuraamaan tai menetelmiin tämän saavuttamiseksi. XAI:ssa ihmisellä säilyy käsitys siitä, miten tekoäly tekee päätöksiä ja miksi se tuottaa tiettyjä tuloksia. Monet tämän päivän tekoälykehittäjistä eivät pysty itsekään selittämään, miksi ja miten tekoäly päätyy tiettyyn tulokseen. Tällaisista järjestelmistä puhutaan mustina laatikkoina (black box), mikä viittaa siihen, että kukaan ei tiedä, mitä laatikon sisällä tapahtuu. Itse prosessi jää siis tuntemattomaksi.

Syy sille, miksi ei tiedetä tekoälyn päättelyketjua, johtuu siitä, että koneoppimismallit ovat usein todella monimutkaisia ja sisältävät suuria määriä parametreja. Esimerkiksi uusimmissa GPT-malleissa on miljardeja tai biljoonia parametreja, joista jokainen on monimutkaisessa vuorovaikutuksessa neuroverkossa. Lopullinen päätös perustuu niin abstrakteihin ja epälineaarisiin yhteyksiin, että niiden hahmottaminen on vaikeaa ihmismielelle. XAI:ssa käytetään yhtä lailla monimutkaisia koneoppimismalleja, mutta lisäksi siinä pyritään kehittämään tekniikoita ja menetelmiä, jotka mahdollistavat taustalla olevien päättelyketjujen avaamisen. Tämä tehdään tarjoamalla tekoälyä työssään hyödyntäville ihmisille työkaluja ja näkymiä, jotka auttavat hahmottamaan, miten tekoälymallit päätöksensä tekevät.

 

Miksi selittävää tekoälyä tarvitaan?

Tekoälymallien käyttö on vakiintunut lukuisilla eri aloilla, minkä vuoksi selittävälle tekoälylle on tullut pysyvä tarve. Tutkijoiden, organisaatioiden ja viranomaisten täytyy ymmärtää, miten tekoäly on päätynyt antamaansa vastaukseen. Kuinka esimerkiksi lääkäri voisi luottaa tekoälyn ehdottamaan diagnoosiin, mikäli päättelyä ei avattaisi mitenkään? Tai kuinka voimme luottaa autonomisen ajoneuvon tekemiin päätöksiin vilkkaassa liikenteessä, jos emme tiedä, mihin ne perustuvat?

Erityisesti sellaiset alat, joilla päätöksentekojärjestelmältä vaaditaan läpinäkyvyyttä, tarvitsevat selittävää tekoälyä. Tällaisesta hyvä esimerkki on rahoitusala, jonka lainapäätökset ja riskiarviot hyötyvät selittävästä tekoälystä. XAI voi auttaa selittämään, mitkä tekijät vaikuttavat lainapäätökseen ja miten riski on arvioitu. Myös monet muut alat, kuten teollisuus, markkinointi, vakuutusala ja terveydenhuolto hyötyvät XAI:n käyttöönotosta.

 

Kenelle selitetään?

On selvää, että kaikki eivät tarvitse samanlaista selitystä mallin käyttäytymiselle. Tekoälyasiantuntija ei tarvitse samaa selitystä kuin maallikkokäyttäjä. Maallikko on tyytyväinen yksinkertaiseen selitykseen: Netflix suositteli hänelle elokuvaa x, koska hän on katsonut aikaisemminkin sen kaltaisia elokuvia. Tekoälyasiantuntija taas haluaa päästä syvemmälle ja teknisemmälle tasolle. Lisäksi nämä eri käyttäjät tarvitsevat luultavasti täysin erilaisen selityksen sille, miksi malli tekee jotakin ja miten se on päätynyt tiettyyn lopputulemaan. Maallikkokäyttäjällä ei myöskään todennäköisesti ole tietoa tekoälyalasta, jolloin selityksen täytyy jo senkin vuoksi olla erilainen. Tekoälyn selittävyydellä on siis eri kohdeyleisöjä, ja selitysten tulee mukautua vastaamaan kunkin yleisön tarpeita ja tietotasoa.  

Usein selitykset tehdään tietylle yleisölle. Tällä hetkellä XAI-trendi on rakentaa selityksiä, jotka palvelevat esimerkiksi data scientisteja, joilla on hyvä koneoppimisen tuntemus. Selityksiä tarjotaan koneoppimisen tutkijoille itselleen, ei maallikkokäyttäjille. Tämä onkin yksi lähitulevaisuudessa ratkaistava kysymys: tehdäänkö selittävää tekoälyä pienelle porukalle vai suuremmalle yleisölle?

Edellinen
Edellinen

Mikä on tunnetekoäly (EAI) ja mitä hyötyjä ja haasteita siihen liittyy?

Seuraava
Seuraava

Paremmilla prompteilla saat tekoälystä kaiken hyödyn