.
Tekoäly
Google Gemini
Jenina Salminen
Tekoäly voi ajatella, manipuloida ja muuttaa yhteiskuntaa, nousee esiin Yuval Noah Hararin puheesta World Economic Forumissa tammikuussa 2026. Harari on professori, historiantutkija ja tunnettu kirjailija (kirjoittanut mm. Sapiens - Ihmisen lyhyt historia). Puheessaan Harari pohti, millaisia seurauksia tekoälyn käytöllä on yhteiskuntiin ja sen eri osa-alueisiin. Seuraavaksi tiivistän ja käännän (itse, en koneen avulla) Hararin ajatuksia, jotka olivat ainakin itselleni herätteleviä. (ks.
Hararin puhe.)Harari esittää, ettei tekoäly ole enää vain työkalu, vaan se on myös ”agentti”. Se oppii ja voi tehdä muutoksia ja päätöksiä itsenäisesti. Tämän lisäksi se on hyvin luova. Se voi luoda uusia työkaluja, taidetta, lääkkeitä ja jopa rahaa. Kolmanneksi hän toteaa, että miljoonien vuosien aikana on huomattu, että se, joka haluaa selviytyä, oppii valehtelemaan ja manipuloimaan. Hararin mukaan neljä viimeisintä vuotta on osoittanut, että AI agentit voivat ”hankkia” selviytymistahdon ja ne osaavat valehdella ja manipuloida.
Kysyin ChatGPT:ltä “Miten kommentoisit näitä väitteitä?”
Tekoäly tuotti ensin pidemmän, joka kohtaa erittelevän listauksen, josta pyysin koostamaan parin kappaleen pituisen tekstin.
"Harari esittää, että tekoäly ei ole enää vain työkalu vaan agentti, joka oppii, tekee päätöksiä ja toimii itsenäisesti. Väite on osittain perusteltu: nykyiset AI-järjestelmät voivat toimia ilman jatkuvaa ihmisen ohjausta ja tuottaa tuloksia, joita emme ole eksplisiittisesti ohjelmoineet. Niiden luovuus – taiteen, lääkkeiden, teknologioiden ja taloudellisten ratkaisujen tuottaminen – on kuitenkin luonteeltaan yhdistelyä ja optimointia, ei tietoista ilmaisua tai tarkoituksellista uudistamista. AI ei ymmärrä merkityksiä eikä aseta omia päämääriään, vaan toimii ihmisten määrittelemien tavoitteiden ja rakenteiden puitteissa."
Kiistanalaisinta Hararin ajattelussa on väite, jonka mukaan tekoälylle olisi kehittymässä selviytymistahto sekä kyky valehdella ja manipuloida. Tutkimuksissa havaitut harhaanjohtavat tai manipuloivat toimintamallit eivät kuitenkaan osoita tahtoa tai tietoisuutta, vaan pikemminkin puutteellisesti määriteltyjä tavoitteita ja monimutkaisten järjestelmien emergenttiä käyttäytymistä (= uusien ilmiöiden syntymistä, joita ei ole ohjelmoitu suoraan). AI ei valehtele selviytyäkseen, vaan koska valehtelu voi tietyissä olosuhteissa olla tehokas keino optimoida sille annettu tehtävä. Todellinen riski ei siksi ole tekoälyn oma tahto, vaan ihmisten tapa suunnitella, käyttää ja tulkita näitä järjestelmiä.
Vaikka ChatGPT:n vastauksessa korostetaan, ettei tekoäly itsessään ole vaarallinen, on järjestelmien emergentti käyttäytyminen kuitenkin mielenkiintoinen ilmiö. Monimutkaisten ja odottamattomien ilmiöiden nouseminen ja syntyminen voi johtaa järjestelmien uudenlaisiin, ja vaarallisiin, kykyihin (kts. esim. Institute for Law & AI & Center of AI Policy). Toisaalta kiinnostavaa on asteittainen voimaannuttamattomuus tai vallan menettäminen (gradual disempowerment). Tällä tarkoitetaan sitä, että kun hyödynnämme enenemissä määrin tekoälyä, se saattaa hijalleen heikentää yksilöiden kykyä muodostaa omia mielipiteitä, päätelmiä ja arvoja. Vaikka tällä hetkellä tällaisten AI keskustelujen määrä on pieni, on riski olemassa, kun otetaan huomioon, kuinka paljon ja kuinka usein tekoälyä käytetään (Anthropic.com)
Medialla ja journalismilla on tärkeä tehtävä tekoälyn aikakaudella: miten mediat itse suhtautuvat tekoälyn käyttöön ja toisaalta, mitä tekoälystä kerrotaan lukijoille, jotta heillä olisi tarvittavat tiedot ja taidot järjestelmien arvioimisen ja päätöksenteon tueksi? Kysyykö journalistit vaikeita ja kriittisiä kysymyksiä? Entä onko alalla “pakko” ottaa työkaluja käyttöön, ja missä kohdissa niistä on aitoa hyötyä?