Tekoäly hallintaan standardeilla, standardit hallintaan tekoälyllä
Terveisiä SFS:n tekoälyn standardointiryhmästä SR 315! Me pyrimme edustamaan täkäläistä näkemystä, kun kansainvälisiä ja eurooppalaisia standardeja viilataan kohdalleen. Standardoijat yrittävät tehdä fiksuja malleja, joilla tekoälyä voi hallita, ja hyvät mallit ohjaavat kivaan tulevaisuuteen. Keräsin tähän kirjoitukseen viime aikoina tekemiäni huomioita aihepiiristä.

EU:n tekoälyasetus (AIA) julkaistiin alkusyksystä 2024, ja siirtymäajat alkoivat rullata sen asteittaiseen voimaan astumiseen. Nyt maailmanvalloitukseen tähtääviä pahoja tekoälyjä ei saa enää kehittää täällä.
Asetuksen perusrakenne pysyi muuttumattomana pitkään, ja siten se on jo ennakkoon ohjannut tekoälyn kehitystä. Tämän olen saanut huomata kotimaisen tekoälyn standardointiryhmämme kautta ja erityisesti kansainvälisissä CENin kokouksissa.
Eri työryhmät ovat työstäneet tekoälyasetuksessa mainittuja kymmentä asetuksen kanssa harmonisoitua standardiaihiota ja niihin tulleita lukuisia kommentteja. Piru niin sanotusti asuu yksityiskohdissa myös tekoälyn standardoinnissa ja tuottaa työtä – jatkoaikoja projekteihin on anottu. Suurin osa näistä on silti tulossa prosessiputkesta syksyllä 2026, minkä lisäksi odotettavissa on myös ISOn standardeja aiheesta. Määrä taustatöineen on melkoinen.
Miten standardit ohjaavat tekoälyn kehitystä?
Tekoälyn kohdalla standardeilla on ehkä poikkeuksellisenkin suuri rooli tekoälyasetuksen viittausten kautta ohjata sitä, miten sen kanssa tulee toimia. Laajemmassa kuvassa standardit myös osaltaan ohjaavat tulevaisuudessa kehittyvää jaettua näkemystämme siitä, mikä on hyväksyttyä ja toivottua tekoälyjärjestelmissä ja -palveluissa sekä niitä käyttävien organisaatioiden toiminnassa.
Standardointiryhmien vapaaehtoiset asiantuntijat tunnistavat vastuunsa. Juuri standardointiin käytettävä hallinnollinen rakenne mahdollistaa, että kaikki tahot voivat tulla kuulluksi tässä kaikkia tahoja ennemmin tai myöhemmin koskettavassa yhteiskunnallisessa ja teknisessä muutoksessa.
Läpinäkyvyys ja osallistavuus ovat vaatimuksia paitsi tekoälyssä myös sitä ohjaavien kehikoiden laadinnassa, jotta eettisyys, turvallisuus ja luotettavuus saadaan riittävälle tasolle. Kansainvälisissä työkokouksissa on tullut hyvin esiin, miten rakentavasti erilaisten näkökulmien edustajat osallistuvat, vaikka aikataulu on tiukka ja vaatimukset korkeita.
Miten organisaatiot selviävät tekoälyn sääntelyn taakasta?
Tekemäni tutkivan vertailun kautta tulin vastaavanlaisiin päätelmiin kuin mistä kansainväliset etujärjestöt ovat esittäneet huolensa. Vaikka standardit ja sääntely sisältävät perusteltuja vaatimuksia, niistä voi muodostua etenkin pienille organisaatioille raskas kynnys tekoälyn käyttöönottoon – eli juuri niille, jotka sen tehostavaa vaikutusta voisivat eniten tarvita.
Esimerkiksi julkishallinnossa näkyy DVV:n tilastojen valossa, että IT-puolen asiantuntijuutta on noin 0–2 henkilötyövuotta kahdella kolmasosaa organisaatioista – ja nämä organisaatiot ovat jo täystyöllistettyjä järjestelmien ylläpidon ja digitaalisen turvallisuuden vaatimusten kanssa. Korkeasti koulutetulta asiantuntijaltakin vaaditaan melko paljon, että kaikki tekoälyyn liittyvä olisi hanskassa. Tekoälyn käyttöönotto toki vaatii osallistumista kaikilta organisaation tasoilta ja osaajaryhmistä. Standardit auttavat rajallista resursointia tarjoamalla valmiita malleja, mutta niiden hyödyntämiseen tarvitaan silti riittäviä resursseja.
Viime ja tulevien vuosien taakka muuttuvasta sääntelystä on tunnistettu haasteeksi, mutta organisaatiot ovat toivottavasti myös ottaneet sen riskikartalleen seurantaan. Resurssitarpeen lisäksi kyse on hallinnan kompleksisuuden kasvusta. Alamme olla tilanteessa, jossa tekoälyä tarvitaan tämän moninaisuuden seurantaan ja käsittelyyn.
Standardit auttavat rajallista resursointia tarjoamalla valmiita malleja.
Jos on ymmärrystä, osaamista ja resursseja kokeiluihin (joita tekoälyasetus ei pääsääntöisesti koske artikla 2 (8) mukaan), ongelmaksi voi muodostua pitkäjänteisyyden puute eli pysyvän rahoituksen ja pysyvien tukirakenteiden luominen organisaatiolle. Esimerkiksi viime syksyn tekoälyviikon aikana kuulin asiantuntijan peukkuarvion, että jokainen AI-euro tarvitsee kolme euroa sen toimintaympäristön ja datan kehittämiseen. Tätä nostettiin esiin Nordic State of AI -tutkimuksessa.
Standardien osalta ongelmallista olisi, jos niitä toteutettaisiin säästösyistä vain näennäisesti ja pintapuolisesti. Silloin eettisistä pohdinnoista ja vaikutuksenarvioinneista voi olla houkuttelevaa oikaista ja jättäytyä syrjään yhteiskunnallisesta tekoälykeskustelusta. Näin muodostuisi vinoumaa, jollaisista usein ollaan huolissaan tekoälyn saralla.
Mikäli tekoälyn kanssa toimivat pienten organisaatioiden asiantuntijat eivät ajan puutteen vuoksi toisi huomioitaan esiin, se jättäisi kehityksen vain muutaman suuren toimijan vastuulle. Huolella rakennettuja standardejakin voidaan soveltaa huonosti, jolloin positiivinen tekoälykehitys ei saa tukea. TEM:illä riittää näiden yhtälöiden ratkaisemisessa töitä. Toivottavaa olisi tuki myös itse standardointityölle, jotta suomalainen näkökulma tulee edustetuksi.
Kielellä on väliä, tarkkuudella tarpeensa
Alati elävässä kapulakielikeskustelussa usein syyttä nostetaan tikunnokkaan ei-asiantuntijan suuhun sopimattomalta tuntuvia termejä, jotka on poimittu pois asiatekstin kontekstistaan. On kuitenkin eri asia, että käytetään monimutkaisia ja tarpeettoman polveilevia ilmaisuja kuin että tarkkuuden vuoksi käytetään erityisiä ja kieltämättä hieman kankealtakin kuulostavia termejä.
Tarkkuuden vuoksi tarvittavia termejä muodostetaan standardeja rakennettaessa, eli ne eivät ole syntyneet ”luonnollisesti” osana kielenkäyttöä. On eri asia puhua tekoälyn sidosryhmistä kuin sivustakatsojista, kun mietitään, keihin AI-järjestelmä vaikuttaa ja kenen näkemyksiä kuulostellaan. Riskin määrittely ja konteksti ovat saaneet aikaan laajoja keskusteluja tekoälyasetuksesta johtuen. Kaikki tekoälykään – tai sen hallinta – ei ole saman arvoista vaan erottuu eri tasoille.
Oman mausteensa antavat käännökset, joita SFS tekee myös tekoälyn standardeista. Esimerkiksi tekoälyn hallintajärjestelmän kansainvälinen standardin SFS-ISO/IEC 42001 loppusuoralla oleva suomennos on antanut aihetta miettiä, millaisin termein puhuimme tekoälystä suomeksi. Toisaalta tekoälyn standardit on tärkeää saada omalle kielellemme myös luodaksemme yhteensopivuuden kansainväliseen käsitykseen. Joitain ilmaisuja ei vain ole olemassa ja päädymme luomaan uutta kieltä.
Tekoälyn standardit on tärkeää saada omalle kielellemme.
Alati automatisoidumpien virkapäätösten ilmoitukset kuin yhtä lailla standardien dokumentit tuntuvat tasapuolisesti kankeilta meille kaikille. Tekstidokumentit käyttöliittymänä harvemmin ovat tarjonneet tiivistettyä vaihtoehtoa ydinasiasta selkosuomeksi – tai TL;DR, too long; didn’t read, eli liian pitkä; jätin lukematta, kuten nettislangissa asia ilmaistaan. Tekoäly voisi auttaa tässä ja tulkata pääasiat lukijan tarvitsemalle tasolle. Pitää vain tiedostaa, että siinä voi kadota oleellisia yksityiskohtia. Aina niitä kaikkia ei toki tarvita asian ymmärtämiseen.
Käsitellään tekstiä tekoälyllä, tekoälyä standardeilla
Tekoälyn käytön voi ennustaa laajenevan myös standardien soveltamiseen. Tekoälyllä voitaisiin madaltaa standardien hahmottamisen ja käyttöönoton kynnyksiä sekä päästä alkuun, kun hyödynnetään useita standardeja yhdessä. Moni ei vielä ole ehkä ymmärtänyt, että samalle pohjalle rakentuvissa standardeissa on paljon jaettua yhteistä, jolloin uusia asioita voi tulla toteutettavaksi pelättyä vähemmän, mikäli on jo seuraillut edes ohjeellisesti joitain hyviä käytäntöjä.
Talven aikana käyttöön tullut OSD-alusta on tarjonnut harppauksen kansainväliselle standardointitekstien työstölle, mutta innovoinnille ja palvelumuotoilulle on vielä tilaa. Onneksemme ainakin ISO on tuomassa tukea tekoälyn hyödyntämiselle, mutta käytännön toteutukset pitää vielä ohjeistaa SFS:n toiminnassa.
Tämänkaltainen teknisen kehityksen hermolla olo olisi luonnollista SFS:n yhteisölle, joka vähän aikaa sitten vietti 100-vuotisjuhliaan. Parhaiden yhteisten käytänteiden luomiseen tarvitaan jatkossakin laajaa asiantuntijoiden osallistumista, eikä sitä voi ulkoistaa tekoälylle, vaikka se yksi työkalu voikin olla.
Tekoälyn yleisen kehityksen suhteen joudumme pohtimaan, minkälaisen suunnan valitsemme tulevaisuudelle – vai jättäydymmekö ajelehtimaan oleellisten resurssien puutteessa. Standardit ovat yksi työkalu ohjata tätä kehitystä. Niillä luodut hallintamallit antavat ihmisille, organisaatioille ja yhteiskunnile turvaa ja kontrollia toimia ja toteuttaa – käsitellä AI-riskejä ja -mahdollisuuksia, joita ei voida teknisesti ratkaista koodissa.
Järjestelmällinen asian eri puolien hallinta luo luottamusta siihen, että tekoäly tuottaa meille hyötyjä ja ongelmat pysyvät kurissa.

Juho Reivo
Kirjoittaja on yksi vapaaehtoisista standardointiin osallistuvista.