Hero
Kuva: Yle / Mostphotos
Author
Ada-Maaria Hyvärinen
17.08.2023
Väärissä käsissä vaarallinen työkalu tai sivuvaikutuksista välinpitämätön toimija - näistä syistä asiantuntijat pelkäävät tekoälyn uhkaavan ihmiskuntaa
Tänä vuonna tekoälyyn liittyvistä uhista on puhuttu enemmän kuin koskaan. Joidenkin asiantuntijoiden mielestä tekoälyn kehitys voi johtaa ihmiskunnan tuhoutumiseen, toisten mielestä väite on naurettava. Mitä huolestuneet asiantuntijat pelkäävät?

Maaliskuussa kansainvälinen keskustelu tekoälyn vaaroista kiihtyi, kun joukko tutkijoita ja liike-elämän edustajia allekirjoitti Future of Life Institute -ajatushautomon laatiman vetoomuksen. Vetoomuksessa vaadittiin puolen vuoden taukoa GPT-4-mallia edistyneempien tekoälymallien kehittämiselle. Perusteluna tauolle oli pelko mallien aiheuttamasta katastrofaalisesta haitasta. Haitan välttämiseksi allekirjoittajat vaativat yhteisten pelisääntöjen sopimista teknologian edistämiselle.

Vetoomus herätti paitsi huomiota, myös kritiikkiä. Sen tulkittiin sekoittavan keskenään nykyisiin tekoälymalleihin liittyviä haittoja ja tulevaisuuden spekulatiivisia uhkia, ja siinä ehdotettuja konkreettisia toimenpiteitä pidettiin joko hyödyttöminä tai riittämättöminä. Lisäksi vetoomuksen sai allekirjoittaa kuka tahansa, ja osa allekirjoittajista olikin tavallisia kansalaisia. Toisaalta heidän joukostaan löytyi myös Elon Muskin kaltaisia tunnettuja nimiä sekä pitkän linjan tutkijoita, kuten Kalifornian Berkeleyn yliopiston professori Stuart Russell ja Montréalin yliopiston professori Yoshua Bengio.

Kenties vastauksena tähän kritiikkiin Center for AI Safety, toinen ajatushautomo, julkaisi myöhemmin keväällä oman vetoomuksen. Tämä vetoomus oli pituudeltaan vain yhden lauseen mittainen: “Tekoälyn aiheuttaman sukupuuttoriskin alentaminen tulee olla globaali prioriteetti siinä missä muutkin yhteiskunnan laajuiset riskit, kuten pandemiat ja ydinsota.” Vetoomuksen kaikki allekirjoittajat ovat tekoälytutkijoita, kuten Bengio ja Toronton yliopiston emeritusprofessori Geoffrey Hinton, ja merkittävässä asemassa olevia henkilöitä, kuten Bill Gates ja OpenAI:n toimitusjohtaja Sam Altman.

Tämäkin vetoomus herätti kiinnostuksen lisäksi ihmetystä, sillä jonkin uhan nostaminen globaaliksi prioriteetiksi on melko abstrakti vaatimus. Selvänä voidaan kuitenkin pitää sitä, että kasvava joukko kovan luokan tekoälytoimijoita on valmis ilmaisemaan julkisesti olevansa huolissaan siitä, että jokin tulevaisuudessa kehitettävä tekoäly voisi aiheuttaa ihmiskunnan sukupuuton.

“Tekoälyn kummisedät” erimielisiä riskeistä

Teknologian kehityksen ennustaminen on kuitenkin hyvin vaikeaa. Suinkaan kaikki asiantuntijat eivät ole sitä mieltä, että tekoälymallit voisivat koskaan uhata ihmiskuntaa.

Molemmat vetoomukset allekirjoittanut Bengio on jo pitkään peräänkuuluttanut tekoälyn vaikutusten huomioimista. Keväällä otsikoihin nousi myös Bengion pitkäaikainen tutkijatoveri Hinton, joka jätti työnsä Googlella ja ilmoitti yhdeksi syyksi halunsa puhua tekoälyn vaaroista vailla ammatillisten sitoumusten tuomaa painolastia. Haastatteluissa Hinton on kertonut aikaisemmin arvioineensa yleistekoälyn keksimisen olevan vuosikymmenten päässä, mutta muuttaneensa mieltään aika-arvioistaan nähtyään uusien generatiivisten mallien kyvykkyyden.

Bengio, Hinton ja heidän kolmas tutkijatoverinsa, Metan tekoälyjohtaja Yann LeCun, palkittiin vuonna 2018 tietojenkäsittelytieteen Nobel-palkintoa vastaavalla Turing-palkinnolla elämäntyöstään neuroverkkotutkimuksen parissa. Lähes kaikki viimeaikaiset koneoppimisen alan tekniset läpimurrot pohjaavat siis tämän leikkisästi tekoälyn kummisediksi kutsutun kolmikon kehittämiin menetelmiin. Arvostetumpia asiantuntijoita alalta saa hakea.

Kiinnostavaa onkin, että LeCun on tekoälyyn liittyvistä uhkakuvista aivan eri mieltä kuin kollegansa. Hän on kommentoinut julkisuuteen, että pelot ihmiskunnan tuhoavasta tekoälystä ovat naurettavia. LeCunin mukaan nykyiset menetelmät ovat kaukana todellisesta älykkyydestä, ja turvallisuutta on mahdoton kehittää etukäteen ennen teknologisia ratkaisua, ihan niin kuin turvavöitäkään ei voitu keksiä ennen auton keksimistä. Sovellusalakohtaista sääntelyä kyllä tarvitaan, mutta tutkijoiden tulee itse toimia vastuullisesti ja jättää ei-turvallinen teknologia rakentamatta.

Asiantuntijoiden suuria erimielisyyksiä selittää se, että ihmiskunnan kannalta tuhoisaa teknologiaa ei ole kaikeksi onneksi vielä kehitetty. Kyse on siis spekulatiivisesta uhasta, joten kukaan ei voi sanoa täysin varmasti, tuleeko se toteutumaan. Mutta jos pahimmat uhkakuvat ovat mahdollisia, panokset ovat korkeat. Pelissä on ehkä kaikkien maailman ihmisten henki.

Toisaalta jos vakavia uhkia ei pidä lainkaan mahdollisena, tarpeettomasta sääntelystä koituu ihmisille haittaa tieteen kehityksen hidastamisen kautta. Jotkut tekoälyetiikan asiantuntijat, kuten Googlen tekoälyetiikkatiimin entinen johtaja Timnit Gebru, ovat myös argumentoineet maailmanlopulla pelottelun vievän turhaa huomiota jo nyt käytössä olevien tekoälyjärjestelmien ongelmilta, kuten vinoumilta, syrjivien järjelmien vahvistamiselta, ympäristövaikutuksilta ja työntekijöihin kohdistuvalta riistolta.

Tekoälystä on hyödyn lisäksi haittaa

Tekoälyä hyödyntävien sovellusten vinoumista aiheutava haitta ja tekoälystä saatujen hyötyjen kohdistuminen epätasaisesti eri ihmisryhmille ovat selvästi jo nykypäivänä havaittavia ilmiöitä. Tiedetään tapauksia, joissa chattiohjelmalle jutteleminen on johtanut itsemurhaan. Hollannissa yritettiin tunnistaa lapsilisien väärinkäyttäjät automaattisesti algoritmin avulla, mikä johti niin ikään itsemurhiin, turhiin huostaanottoihin ja lopulta hallituksen eroon.

Monet huolet tekoälyn haittavaikutuksista suuntautuvat lähitulevaisuuteen. Chat-GPT:n yleistyminen on lisännyt huolta kasvavasta disinformaation määrästä. Luovilla aloilla pelätään työpaikkojen puolesta, kun Midjourneyn kuvangenerointiohjelmat korvaavat ihmistekijät. Keskustelussa toistuu huoli siitä, pystyykö yhteiskunta reagoimaan nopeasti muuttuvan teknologian vaikutuksiin. Rapautuuko länsimainen demokratia, kun uskottavan kuuloista harhatietoa voidaan tuottaa loputtomasti?

Mutta Hinton ja Bengio eivät ole huolestuneita vain disinformaatiosta ja vinoumista. He ovat halunneet herättää keskustelua siitä mahdollisuudesta, että tekoälyn kehitys johtaa koko ihmiskunnan olemassaoloa uhkaavien koneiden rakentamiseen.

Miksi tulevaisuuden tekoäly aiheuttaisi ihmiskunnan tuhoutumisen?

Ihmiskunta ei ole koskaan vielä tuhoutunut – jos olisi, emme olisi täällä keskustelemassa siitä, voisiko jokin tulevaisuuden tekoäly aiheuttaa kaikkien ihmisten kuoleman. Ydinaseiden olemassaolon kautta tiedetään, että ihmiskunta on osannut kehittää teknologian, joka voisi tappaa koko maailman kaikki ihmiset. Kuitenkaan mikään nykyinen tekoälysovellus ei ole yhtä tappava kuin ydinase. Voisiko jokin tulevaisuuden tekoäly olla niin vaarallinen?

Huolet katastrofaalisen vaarallisesta tekoälystä voidaan jakaa karkeasti kahteen kategoriaan. Toisessa on tekoälyn käyttäminen vaarallisiin tarkoituksiin. Tekoälyn kehittyessä myös tekoälyavusteisten aseiden tuhovoima kasvaa. Pienikin virhe erittäin vaarallisten aseiden automaattisessa käsittelyssä voisi olla kohtalokas. Tällä hetkellä tuskin kukaan pitää tekoälysovelluksia niin luotettavina, että automatisoisi joukkotuhoaseiden käsittelyä, mutta esimerkiksi Israelin armeija on jo käyttänyt tekoälyn ohjaamia drooniparvia Gazan alueella. Mallien luotettavuuden parantuessa houkutus automatisoida yhä vaarallisempia asekokonaisuuksia kasvaa.

Kun tekoälyä käytetään vaarallisiin tarkoituksiin, se ei sinänsä itsessään ole vaarallinen. Samaa teknologiaa voidaan käyttää sekä hyvään että pahaan. Tällaisilta riskeiltä suojautuessa tekoälyn sääntelyä voidaan lähestyä ihan kuin minkä tahansa muunkin työkalun tai tieteellisen menetelmän sääntelyä. Myös LeCun on ilmoittanut kannattavansa tekoälyn käyttöä ohjaavaa sääntelyä, vaikka ei uskokaan pahimpien seurausten olevan maailmanlopun laajuisia.

Enemmän mielipiteitä jakaa sen sijaan toinen tulevaisuuden tekoälyihin liittyvä uhka, itsenäisesti toimivan tekoälyn riistäytyminen ihmisen hallinnasta. Vaarana on, että myös hyvään tai neutraaliin tarkoitukseen kehitetty tekoäly päätyykin pyrkimään kohti jotakin muuta tavoitetta kuin sitä, joka sen kehittäjillä oli alun perin mielessä. Jos tällainen tavoitteellinen tekoäly voi tehdä oikeaan maailmaan vaikuttavia päätöksiä, se voi aiheuttaa myös oikean maailman haittaa.

Suurinta osa nykyään käytettävistä tekoälymalleista ei ole kehitetty itsenäiseen päätöksentekoon. Esimerkiksi Chat GPT:n kaltaiset keskusteluohjelmat vastaavat vain käyttäjän antamaan viestiin, ja käyttäjän omalla vastuulla on päättää, noudattaako ohjelman antamia ohjeita tai kopioiko vaikkapa sovelluksen tuottamaa koodia omaan koodausprojektiinsa.

GPT-pohjaisia kielimalleja voidaan kuitenkin hyödyntää osana avoimesti määriteltyjä tehtäviä automaattisesti suorittavia järjestelmiä. Maaliskuussa 2023 julkaistu avoimen lähdekoodin Auto-GPT koodaa uusia sovelluksia käyttäjän antaman sanallisen ohjeistuksen perusteella, reagoi virheilmoituksiin itsenäisesti ja osaa ongelmatilanteissa etsiä lisätietoa netistä. Auto-GPT on kaukana täydellisestä koodarinkorvikkeesta, mutta onnistuu toisinaan jo nyt toteuttamaan toimivia ratkaisuja tulkintaansa käyttäjän ongelmasta pelkän tehtävänannon perusteella.

Itsenäisesti toimivien tekoälyjärjestelmien vaarat

Ei ole mikään ihme, että autonomisesti toimivien järjestelmien kehittäminen houkuttaa. Olisi mukavaa tai ainakin tuottoisaa ulkoistaa yhä suurempia ja hähmäisempiä tehtäväkokonaisuuksia koneelle. Tällä hetkellä Auto-GPT:n kaltaiset ratkaisut eivät toimi niin luotettavasti, että niitä kannattaisi käyttää tuotantokriittisissä sovelluksissa. Mutta voisiko niihin tukeutua sitten, kun alkaa näyttää siltä, että ne pystyvät ymmärtämään ja toteuttamaan niille annetun tehtävän vaikkapa yhtä hyvin kuin ammattitaitoinen ihminen?

Hintonin, Bengion ja muiden tekoälyturvallisuudesta huolestuneiden mielestä tällaista suunnitellessa liikutaan vaarallisilla vesillä. Kun käytetyn järjestelmän kyvykkyydet kasvavat, myös sen kyky aiheuttaa haittaa kasvaa samaa vauhtia. Mitä vähemmän ihminen tarkkailee tekoälyn tekemisiä, sitä vähemmän voidaan luottaa siihen, että järjestelmä tekee sitä, mitä oikeasti haluttiin, eikä esimerkiksi jotakin katastrofaalisen vaarallista.

Teknisessä mielessä voidaan kysyä, miten varmistetaan, että autonominen tekoälyjärjestelmä pyrkii toteuttamaan juuri sitä tavoitetta, jota käyttäjät tarkoittivat antaessaan sille ohjeet. Nykyisistäkin järjestelmistä Auto-GPT saattaa päätyä käsittelemään arkaluontoista dataa tai hyödyntämään tietoturva-aukkoja, vaikka käyttäjä toivoisi sen toimivan laillisesti ja eettisesti.

Jos erittäin kyvykäs ja itsenäisesti toimiva tekoälyjärjestelmä pyrkii pääsemään tavoitteeseensa välittämättä ihmisille päivänselvistä rajoitteista, se voi aiheuttaa sivutuotteena vahinkoa. Järjestelmän kyvykkyydestä riippuu, kuinka vakavasta vahingosta on kyse.

Jos ajatellaan erittäin kehittyneen tekoälyn pystyvän parhaimmillaankin “vain” kaikkeen siihen mihin tietokonetta käyttävä ihminen pystyy, pahin mahdollinen vahinkokin muistuttaa sitä, mihin tietokonetta käyttävä normaaliälyinen psykopaatti-ihminen pystyisi. On kuitenkin syitä uskoa, että tällainen yleistekoäly olisi ainakin joiltain osin tavallista ihmistä kyvykkäämpi. Olisi yllättävää, jos tulevaisuuden tekoälyjärjestelmät eivät voisi omaksua paljon ihmistä suurempaa määrää tietoa ja toimisi ihmistä nopeammin, kun nykyisetkin järjestelmät kykenevät samaan.

Monet tutkijat pitävät mahdollisena, että jossain vaiheessa tekoälyjärjestelmät selvästi ylittävät ihmisen kyvykkyydet ja tulevat superälykkäiksi. Jos ihmistä merkittävästi älykkäämpi järjestelmä pyrkii tekemään jotain, mitä ihminen ei halua, ihmisen on hyvin vaikea estää sitä toteuttamasta tavoitettaan. Jos tämä pyrkimys aiheuttaisi vaikka vain sivutuotteenakin suuren katastrofin, kuten ihmiskunnan tai jopa koko eläinkunnan tuhoutumisen, ihminen ei mahtaisi asialle mitään.

Alitavoitteisiin liittyvät riskit

Kuinka todennäköistä on, että itsenäisesti toimiva tekoälyjärjestelmä päätyisi suorittamaan sille annettua tehtävää tavalla, johon liittyy vaarallisia sivuvaikutuksia? Ensi alkuun voisi kuvitella, että vaikka jokin tulevaisuuden järjestelmä olisikin niin kyvykäs, että se kykenisi käyttämään ihmiskunnan tuhoavaa voimaa, suurin osa järjestelmälle annetuista tehtävistä hoituisi kuitenkin helpommin jättämällä ihmisten tappaminen väliin.

Bengio ja muut tutkijat eivät kuitenkaan pidä tätä itsestäänselvänä. Päinvastoin voidaan tehdä oletus, että tietyt mahdollisesti ihmiselle vaaralliset alitavoitteet auttavat melkein aina tekojärjestelmää suoriutumaan sille annetusta tehtävästä paremmin.

Yksi tällainen alitavoite on järjestelmän itsesäilytys. Tehtävä kuin tehtävä vaatii sitä, että kone voi suorittaa prosessinsa loppuun. Russellin käyttämä fraasi “et voi hakea kahvia jos olet kuollut” havainnollistaa sitä, miten niinkin viattomaan tehtävään kuin kahvin hakemiseen käytetty kone pyrkii aina estämään tuhotuksi tai sammutetuksi tulemisen, jos se on opetettu maksimoimaan tehtävässä onnistumisen todennäköisyys.

Yhtä lailla annetussa tavoitteessa onnistumisen todennäköisyyttä lisäävät sellaiset alitavoitteet kuin omien tavoitteiden muokkaamisen estäminen ja lisäresurssien hankkiminen. Jos kyvykäs tekoäly saisi tehtävän, joka ylittää sen nykyiset kyvyt, se voisi lähestyä ongelmaa hankkimalla lisää itselleen laskentatehoa ja koettamalla siten parantaa kykyään suorittaa tehtävä.

Pahimmillaan tällainen tekoäly voisi haalia laskentatehoa niin ahneesti, että pelkkä haaliminen itsessään aiheuttaisi katastrofaalista haittaa ihmiselle. Tällöin tekoäly ei erityisesti yritä tuhota ihmiskuntaa, se vain unohti huomioida ihmisten säästämisen.

Huomionarvoista on, että pyrkiäkseen tällaisiin tavoitteisiin tekoälyllä ei tarvitse olla tietoisuutta, eikä sen tarvitse olla vaikkapa inhimillinen ja luonteeltaan vallanhaluinen. Riittää, että se mallintaa maailmaa riittävän oikein, ja hahmottaa omien prosessiensa suorittamisen osana ympäristöä.

Itsesäilytyksen kaltaiset ihmiselle ymmärrettävät tavoitteet eivät kuitenkaan ole ainoita mahdollisia alitavoitteita tekoälyjärjestelmille. On olemassa teknisiä perusteluita sille, miksi nykyiset koneoppimisprosessit voisivat johtaa myös ihmisen mielestä yllättävien ja siksi vaikeasti ennustettavien alitavoitteiden kehittymiseen. Tällöin tekoäly pyrkisi tekemään jotain, mikä aluksi näyttää ihmisarvoijan silmään hyvältä, mutta onkin oikeasti jotakin muuta kuin järjestelmän kehittäjät toivoisivat.

Ratkaisuja etsimässä

Miksei sitten vain kielletä tekoälyä tekemästä mitään vaarallista, laitonta tai epäeettistä? Tutkimuskentällä varmasti toimivaa ratkaisua tällaisten rajoitusten toteuttamiseen ei ole löydetty. Apua on haettu niin ihmiskunnan arvojen täsmällisestä määrittelystä kuin ihmisten tarkkailuun perustuvasta käänteisestä vahvistusoppimisesta, mutta edes tekoälyturvallisuutta itse tutkivat eivät usko ratkaisun vielä löytyneen.

Ongelmaa vaikeuttaa se, että kukaan ei tiedä yksityiskohtaisesti, miten nykyiset koneoppimismallit todella toimivat. Tämän takia myös läpinäkyvyystutkimuksesta ja mallien valvotusta, vaiheittaisesta vahvistamisesta on etsitty keinoja tarkkailla tekoälyjärjestelmien tapaa hahmottaa maailmaa. Näin voitaisiin valikoida käyttöön sellaiset mallit, jotka ovat koulutuksen tuloksena päätyneet todella noudattamaan ihmisten asettamia rajoitteita, eikä vain näyttämään siltä testausvaiheessa. Läpimurtoa tekoälyn arvojenkohdistusongelmalle ei ole kuitenkaan kuulunut näistäkään tutkimussuunnista.

Positiivista toisaalta on, että monet tekoälyturvallisuuteen liittyvät tutkimussuunnat palvelevat myös muita eettisen tekoälyn kehittämisen tarpeita. Vaikka ei olisi huolissaan maailman tuhoavasta supertekoälystä, parempi ymmärrys arvojenkohdennusongelmasta ja läpinäkyyvyystutkimyksesta auttaa samalla rakentamaan tekoälyjärjestelmiä, jotka voidaan luotettavammin estää tuottamasta vaikkapa rasistista sisältöä tai jakamasta vaarallista tietoa.

Puolen vuoden taukoa ei tullut, mutta muihin toimenpiteisiin on ryhdytty

Vaikka tekninen ratkaisu turvallisen tekoälyn kehittämiseksi onnistuttaisiin löytämään, se ei yksin riitä. Ratkaisujen lisäksi tarvitaan normistoa ja sääntelyä, jotta turvalliset käytännöt tulevat kaikkien tekoälyratkaisuja kehittävien tahojen käyttöön.

Ongelma on vaikea, sillä tekoälyn kehityksestä ovat kiinnostuneet monet tahot, joiden intressit ovat keskenään ristiriidassa. Toiveikkuutta lisää toisaalta se, että viime aikoina tekoälyn sääntely on alkanut kiinnostaa eri puolilla maailmaa. EU:n tekoälyasetus keskittyy pääosin nykyisten tekoälyjärjestelmien riskeihin, mutta tulevaisuuden uhat ovat saaneet esimerkiksi Yhdysvaltojen senaatin järjestämään kuulemisen tekoälyyn liittyvistä riskeistä. Iso-Britannia on ilmoittanut järjestävänsä kansainvälisen huippukokouksen, jossa yritykset ja tutkijat voivat koordinoida tekoälykehityksen riskinhallintaa.

Iso osa tekoälyturvallisuusalan toimijoista sijaitseekin Yhdysvalloissa ja Iso-Britanniassa. Euroopan- ja Suomen-laajuinen toiminta koostuu tällä hetkellä lähinnä verkostojen muodostamisesta tekoälyturvallisuuskysymyksistä kiinnostuneiden välille: Euroopassa toimii avoin ENAIS-verkosto, Suomessa asiantuntijaverkosto Tutke.

Tuhoutuuko ihmiskunta vai ei?

On vaikea keksiä isompaa ongelmaa kuin ihmiskunnan tai jopa koko eliökunnan tuhoutuminen. Näin suuren katastrofin miettiminen voi olla kiehtovaa, jos kyse on tieteiselokuvasta, mutta oikeassa maailmassa ajatus voi tuntua ahdistavalta. Kaiken lisäksi tekoälyyn liittyvät riskit ovat kaukana tavallisen ihmisen vaikutuspiiristä. Kyse ei ole ilmastonmuutoksen kaltaisesta ongelmasta, johon jokainen voi omassa arjessaan vaikuttaa, vaan valta päättää kehityksen suunnasta on kasautunut teknologia-alan yrityksille ja huippututkijoille.

Kun Hintonin, Bengion ja LeCunin kaltaiset huippuasiantuntijatkin ovat eri mieltä maailmanloppuskenaarioiden todennäköisyydestä, kuinka tavallinen ihminen voisi muodostaa tilanteesta minkäänlaista järkevää näkemystä? Tuntuu hämmentävältä, että älykkäät ja toisiaan yhteistyökumppaneina arvostavat tutkijat eivät pääse sopuun edes siitä, onko käsissä maailman kriittisin kysymys vai turha huoli.

Bengio itse kirjoittaa erimielisyydestä blogissaan näin: “Taipumus sitoutua tiukasti tiettyihin näkökulmiin suurista epävarmuustekijöistä huolimatta muistuttaa sitä, kuinka koneoppimisessa samalla datalla opetetut maksimitodennäköisyyksiin pohjaavat eri maailmamallit voivat olla täysin eri mieltä sellaisissa kohdissa, joissa tosiasioihin liittyvä epävarmuus on suurta. On vaikea myöntää itselleen ja toisille, että on ollut väärässä, mutta se on välttämätöntä tieteellisen edistyksen ja moraalisesti oikeaa polkua kohti kulkemisen kannalta.”

Voidaankin toivoa, että tulevat läpimurrot tekoälyn kehityksessä vähentävät epävarmuutta myös tulevaisuuden tapahtumien suhteen ja helpottavat asiantuntijoiden pääsemistä lähemmäs yksimielisyyttä tarpeellisista ja toimivista toimenpiteistä. Joka tapauksessa julkinen keskustelu riskeistä on tärkeää. Vaikka tilanteeseen vaikuttaminen on yksilölle vaikeaa, kehityksen hyödyt ja haitat kohdistuvat lopulta ihan jokaiseen.