Science fiction -kirjallisuudessa ja -elokuvissa tekoäly kuvataan perinteisesti keksinnöksi, joka riistäytyy ihmisen hallinnasta ja uhkaa ihmiskuntaa joko välinpitämättömyyttään tai vihamielisesti hyökäten.
ChatGPT:n synnyttämän pöhinän myötä teknologiajättien toimitusjohtajat ovat käyneet keskustelemassa yleispätevään tekoälyyn, AGI:hin (Artificial General Intelligence), liittyvistä vaaroista Yhdysvaltain kongressissa asti.
Uhkakuvan mukaan tekoäly voisi vaivihkaa kehittyä ihmisen veroiseksi tai kyvykkäämmäksi kaikissa merkityksellisissä tehtävissä, kaikilla merkityksellisillä mittareilla.
Jos tekoäly osaisi vielä kehittää itsenäisesti itseään, päätyisimme niin sanottuun singulariteettiin. Sillä tarkoitetaan tilannetta, jossa tekoälyn kyvykkyys lisääntyisi räjähdysmäisesti ja me ihmiset menettäisimme hallinnan.
Sanotaankin, että AGI on ihmisen viimeinen keksintö. Aikaa tähän voisi kulua vuosia tai vuosikymmeniä – sen mukaan, kuka kuvaa maalailee.
Tekoäly aiheuttaa kuitenkin paljon huolia, jotka ovat ajankohtaisia jo tänään. Me Työterveyslaitoksessa käymme jatkuvasti keskusteluja työntekijöiden, työnantajien, työmarkkinajärjestöjen ja työelämän tutkijoiden kanssa teknologian vaikutuksista työhön.
Näissä keskusteluissa on viime aikoina korostunut erityisesti kuusi huolenaihetta tekoälyn kehittämiseen ja käyttöön liittyen:
1. Työttömyys lisääntyy ja palkat pienenevät
Huolet työn korvautumisesta automaatiolla ovat olleet esillä jo luddiittien ajoista alkaen. Luddiitit saivat nimensä Ned Luddilta, joka tiettävästi tuhosi kaksi automaattista kudontakonetta 1700-luvun lopulla.
Tekoälyn pelätään siis lisäävän työttömyyttä ja pienentävän palkkoja. Koska tekoäly voi kuitenkin myös täydentää ja kehittää työtä, katoavien töiden tilalle syntyy uusia ja tuottavuus voi kasvaa yllättävissä tilanteissa. Nähtäväksi jää, mikä tasapaino tulee olemaan ja missä määrin työvoimaa voidaan kouluttaa uusiin tehtäviin.
Selvää on, että menestyminen edellyttää osaamisen kehittämistä, mutta onneksi siinäkin tekoälystä voi olla myös hyötyä.
2. Tekoäly sepittelee ja tekee vääriä päätöksiä
Kielimallit rakentavat tuotoksensa syötteen perusteella, tilastollisesti. Kielimallien sanotaankin välillä ”hallusinoivan” virheellistä tietoa. Oikeampi termi olisi ehkä sepittää.
Kielimalli ei lähtökohtaisesti hae oikeaa vastausta, vaan luo uutta sisältöä – sepittää – yhdistelemällä opetusdataa ja käyttäjän komentoja. Usein sepite on hyödyllinen, mutta joskus jopa vaarallinen.
Haittoja voi syntyä myös, jos tekoälyä käytetään automaattisessa päätöksenteossa esimerkiksi työpaikkaa, lainaa tai vakuutuksia haettaessa. Vinoumat opetusdatassa johtavat usein päätöksiin, jotka syrjivät esimerkiksi iän, sukupuolen tai nimen perusteella.
Jos tällainen järjestelmä leviää laajaan käyttöön, voivat yksilölliset vaikutukset olla katastrofaalisia, vaikka järjestelmä näyttäisi yleisesti toimivan hyvin.
Pienet kielialueet, kuten Suomi, taas kärsivät opetusdatan puutteesta, mikä heikentää sepityksen ja päätöksenteon laatua entisestään.
Varsinkin suomen kielen haasteena on lisäksi kielen rakenne sijapäätteineen. Se tekee sepittämisestä monimutkaisempaa kuin esimerkiksi englannissa, jossa sanat ovat pääsääntöisesti perusmuodossa.
On viime kädessä käyttäjän vastuulla, miten tekoälyn tuotosta lopulta hyödynnetään.
3. Energiankulutus kasvaa
Yhä enemmän huomiota saa huoli siitä, että energiankulutus lisääntyy. Viimeistään kryptovaluuttahuuma sai monet ymmärtämään, että valtava määrä laskentaa vaatii valtavan määrän energiaa.
Varsinkin tekoälymallien koulutus vaatii suunnattoman paljon laskentaa, mutta suurien mallien käyttökään ei ole ilmaista. Kouluttamiseen käytetyn laskennan määrä näyttää kasvavan edelleen, mutta käyttöön etsitään jatkuvasti uusia ratkaisuja.
Kielimalleista kehitetään käyttäjien omissa tietokoneissa ja matkapuhelimissa paikallisesti ajettavia versioita, jotka vievät nykyistä vähemmän tilaa ja joiden käyttö vaatii vähemmän laskentaa kyvykkyyden kärsimättä liikaa.
Lisäksi prosessoreita optimoidaan kielimalleja varten, mikä vähentää virrankulutusta. Voikin olla, että laitteissa on jatkossa keskusprosessorin (CPU) ja grafiikkaprosessorin (GPU) lisäksi oma prosessorinsa tekoälysovellusten ajamiseen (neural processing unit, NPU).
4. Tuottavuus ja työhyvinvointi kärsivät
Työpaikoilla tekoälyn käyttöönotto voi tuottavuuden paranemisen sijaan aiheuttaa turhaa työtä ja ylimääräistä kuormitusta, jos tekoäly ei toimikaan odotetulla tavalla.
On tyypillistä, että kehotteita tekoälylle pitää muokata ja kokeilla monta kertaa uudelleen. Samaa syötettä voi joutua kokeilemaan monilla eri malleilla parhaan tuotoksen löytämiseksi. Lopulta voikin osoittautua, että kyseistä tehtävää ei kannata teettää tekoälyllä lainkaan.
Jos tekoäly osallistuu työn johtamiseen, kuten suoriutumisen arviointiin, tavoitteiden asetantaan tai tehtävien jakamiseen, työn merkityksellisyys voi heiketä.
Samalla työn vaatimukset voivat kasvaa kohtuuttomiksi ja työntekijät saattavat menettää autonomian ja hallinnan tunteen työssään. Pahimmillaan tekoälyn käyttö johtamisessa voi aiheuttaa työskentelyä haitallisten tavoitteiden eteen, vaihtuvuuden kasvua ja työntekijöiden uupumista.
Tekoälyn onnistunut käyttöönotto työpaikoilla vaatii tekoälytyökalujen todellisten kyvykkyyksien kriittistä tarkastelua, eettisyyden ja puolueettomuuden arviointia sekä toimintaperiaatteiden avaamista.
5. Tekijänoikeuksia ei kunnioiteta
Tekoälymallien kouluttaminen vaatii energian lisäksi valtavasti dataa. Kouluttamisessa onkin käytetty internetistä kerättyä sisältöä lupia kyselemättä.
Onko kyseessä kohtuudenmukainen lainaaminen (fair use)? Sitä pohditaan niin datan tuottajien, levittäjien ja käyttäjien välisissä keskusteluissa kuin oikeudessakin.
Jos hakukoneetkin alkavat tarjota tekoälyn tuottamia vastauksia alkuperäistä sisältöä tarjoavien verkkosivujen linkkien sijaan, kuka enää haluaa tuottaa alkuperäistä sisältöä? Tähän ei kenelläkään taida vielä olla hyvää vastausta.
6. Autoritaariset valtiot ajavat omia etujaan
Oman mausteensa keitokseen tuovat autoritaariset valtiot. Ne ovat ymmärtäneet, että ne, jotka hallitsevat kyvykkäimpiä tekoälymalleja, tulevat hallitsemaan kaikkea sitä, mitä digitaalisissa palveluissa ja maailmoissa teemme.
Lisäksi ne ovat havainneet, että demokraattisilla valtioilla on vaikeuksia tasapainoilla eri tahojen vaatimusten välillä. Siksi tekoälyn kehittämiselle saatetaan asettaa yhä enemmän rajoitteita.
Autoritaariset valtiot hyödyntävät tehokasta päätöksentekoprosessiaan ja tarjoavat tekoälyjäteille joko dataa, energiaa tai molempia – eettisistä ja ympäristönäkökulmista välittämättä, mitä kyseenalaisimpia sitoumuksia vastaan.
Lisäksi ne tarjoavat tähtitieteellisiä palkkioita tutkijoille ja asiantuntijoille, jotka ovat valmiita kehittämään tekoälymalleja palvelemaan valtioiden autoritaarisia tarkoitusperiä.
Voimmeko silti vastuullisten yritysten työntekijöinä ja demokraattisten valtioiden kansalaisina vaatia, että ainakin kaikki meillä käytettävät tekoälymallit on kehitetty eettisten ja avoimien käytäntöjen mukaan?
Lisätietoja:
Kirjoittaja Teppo Valtonen tutkii, miten teknologia muuttaa työtä ja miten sillä voi muuttaa työtä. Hän tekee väitöstutkimusta teknologian hyödyntämisestä työn kehittämisessä. Tavoitteena on kognitiivisen suoriutumisen tukeminen.
Kommentointi
Muutama kommentti blogiisi:
"Jos tekoäly osaisi vielä kehittää itsenäisesti itseään..."
1) Tekoäly kehittää jo tällä hetkelläe itseään luomalla ns. synteettistä dataa, jota ihminen ei ole syöttänyt sille. Tekoäly on jo siis saavuttanut todennäköisesti (?) ihmisen maksimiälykkyysosamäärän.
2) Blogisi maalailee tekoälystä jopa "vaarallisen" välineen ihmiskunnalle, mitä se ei suinkaan ole, vaikka haasteitakin kyllä riittää lainsäädännössä.
3) Suurimmat hyötyjät tekoälyn käyttöönottamisesta maailmanlaajuisesti ovat terveydenhuolto ja teollisuus (robotiikka). Suomessa hyvinvointialueiden talousongelmat ovat hyvin pitkälle ratkaistavissa tekoälyn hyödyntämisellä.
4) On erittäin todennäköistä, että ainakin länsimaissa ollaan etenemässä kohti kansalaispalkkajärjestelmää, koska nykyinen työttömyysturvajärjestelmä on liian kallis ylläpidettäväksi.
5) On valitettavaa, että Suomessa kuljetaan vähän joka asiassa jälkijunassa. Mitä kauemmin vetkutellaan tekoälyn hyödyntämissä terveydenhuollossa, niin sitä enemmän kärsii koko suomalainen yhteiskunta, eikä vähiten tavalliset kansalaiset, jotka kustantavat veroeuroillaan tämän nykyisen, ei niin kustannustehokkaan, järjestelmän.
Kiitos kommentista! Tässä vastauksia ja ajatuksia, joita kommenttisi herätti.
1) Suuret kielimallit tosiaan oppivat itsekseen (unsupervised learning). Kehittyneempienkin mallien kanssa ihmisen täytyy käsittääkseni kuitenkin edelleen hallita prosessia ja esimerkiksi valikoida, mitä dataa mallin harjoittamisessa käytetään. Data voi olla mallin itsensä (tai toisen mallin) tuottamaa niin sanottua synteettistä dataa (mikä voi johtaa ongelmiin, lue esimerkiksi: https://arxiv.org/abs/2305.17493), mutta silloinkin (toistaiseksi) ihminen on käynnistänyt prosessi ja valinnut datan. Malli ei siis itsekseen tuumaile, että nytpä en osaakaan tätä aihetta tarpeeksi, tuotetaanpa hieman dataa ja harjoitellaan. Mallit eivät myöskään kehity kulloisenkin keskustelukontekstin ulkopuolella. Tässä esimerkiksi melko selkeä kuvaus kielimallien itse-oppimiskyvyistä: https://frankdenneman.nl/2024/02/22/the-misconception-of-self-learning-…
Tekoälymallit pärjäävät jo hyvin perinteisissä älykkyyttä mittaavissa testeissä (esimerkiksi https://www.scientificamerican.com/article/i-gave-chatgpt-an-iq-test-he…). Jokaiselle generatiivisia tekoälytyökaluja käyttäneelle on varmasti kuitenkin tullut vastaan tilanteita, joissa tekoälytyökalun tuotos ei millään tavalla täytä odotuksia. On siis lukuisia työn arjen tehtäviä, joissa tekoäly ei vielä voi korvata ihmistä – edes tiedolla työskentelyssä.
2) Tekstissäni oli kieltämättä hieman kielteinen sävy ja se keskittyi nimenomaan haittoihin ja uhkiin. Olen itsekin optimisti ja uskon, että tekoälystä on meille enemmän hyötyä kuin haittaa, mutta selvää on, että haasteitakin on paljon. Osa ongelmista voidaan selättää lainsäädännöllä, mutta lainsäädäntö on aina hieman myöhässä ja siinä uhkana on mm. yliregulaatio. Monissa tilanteissa tasapainon löytäminen on valitettavan vaikeaa.
3) Terveydenhuolto ja teollisuus ovat varmasti suuria hyötyjiä. Monet kuitenkin ennustavat, että varsinkin generatiivinen tekoäly vaikuttaa ainakin Suomessa eniten asiantuntijatyöhön sekä toimisto- ja asiakaspalvelutyöhön. Lue esimerkiksi Tuomo Alasoinin erinomainen analyysi Työpoliittisesta aikakauskirjasta: https://julkaisut.valtioneuvosto.fi/bitstream/handle/10024/165319/TAK_t…
4) Itsekin toivon, että kansalaispalkan, perustulon, perustilin tai esimerkiksi negatiivisen tuloveron kaltaiset mallit leviäisivät laajempaan käyttöön. Ehkä tekoälyn suosio voisi nopeuttaa niiden leviämistä, mutta tällä hetkellä se vaikuttaa tuskaisen hitaalta.
5) Terveydenhuolto on perinteisesti melko konservatiivinen uusien teknologioiden suhteen – usein syystäkin. Esimerkiksi Aallossa on tehty paljon tutkimusta ja kehittämistä aiheen parissa ja huomattu, että terveydenhuollossakaan kaikki ei aina suju ongelmitta. Aiheesta lisää mm. Aallon uutisessa: https://www.aalto.fi/fi/uutiset/tekoaly-mullistaa-terveydenhuollon-5-as…
Kaikkiaan tekoälystä voi siis olla paljon hyötyä, mutta meidän on kiinnitettävä huomiota myös sen aiheuttamiin haittoihin. Muuten saatamme tuottavuudessakin ottaa yhden loikan eteenpäin ja kaksi taakse.