Tekoäly
Google Gemini
Jenina Salminen
Etsiskelin joskus lähteitä kirjoitustehtävääni varten. Etsin, enkä löytänyt sopivia, joten laitoin muistiinpanoni ja löytämäni lähteet ChatGPT:lle ja pyysin sitä etsimään lisää aiheeseen sopivia tieteellisiä artikkeleita ja lähteitä.
Ensisilmäyksellä se tuotti hyvin tulosta: useampi lähde, jotka sopivat aiheeseeni ja lisäksi selitys tai alustus, mitä lähteestä voisi hyödyntää. Halusin lukea itse muutamien lähteiden sisällön ja aloin googlettamaan näiden nimiä – vain huomatakseni, ettei kyseisiä teoksia tai artikkeleita ollut olemassa. Kirjoittaja oli kyllä oikea ihminen, mutta kyseinen artikkeli oli tuulesta temmattu. Kysyin tekoälyltä: ”oletko varma, että artikkeli on olemassa?” Vastauksena sain pahoittelut virheestä ja vakuuttavan selityksen siitä, mistä virhe johtui sekä viisi uutta sopivaa lähdettä.
Tämä kokeilu kuitenkin herätti minut pohtimaan sitä, kuinka hankalaa tekoälyn tuottamasta tekstistä on erottaa, mikä on faktaa ja mikä tekoälyn ”valistunut ja todennäköisyyksiin pohjautuva veikkaus”.
Tekoälysovellukset käyttävät suuria kielimalleja (LLM), joita on opetettu valtavilla tietomassoilla ja joiden pohjalta ne laskevat todennäköisimmän jatkon sanalle. Tekoälyjärjestelmien kouluttaminen sekä niiden käyttämät algoritmit ovat salaisia, joten epäselväksi jää, millaiselta pohjalta tekoäly tekee valintoja – ja millaisia vääristymisiä se voi tuottaa.
Tekoälyn ajatellaan olevan neutraalimpi ja objektiivisempi kuin ihmisen, mutta todellisuudessa myös tekoälyä ohjaa aiemman pohjalta opittu. Tekoälyn tuotokset pohjaavat todennäköisyyksiin. Jos pyydämme tekoälyä kirjoittamaan uutisen, käyttää se pohjanaan tekstejä, jotka voivat olla vanhoja ja siten aikansa tuotteita: kieli ja kulttuuri on kehittynyt eteenpäin, mikä ei näy vuosikymmeniä vanhoissa teksteissä. Jos tekoälyä koulutetaan datalla, jossa on vääristymiä, voi tekoäly vahvistaa niitä jälleen.
Tekoäly on kuin kalastaja, joka toisinaan saa oikean vonkaleen ja toisinaan palaa tyhjin käsin kotiin, mutta vakuuttaa naapureille aina saaneensa saalista. Näiden epäonnistumisten ja virheiden huomaaminen on haastavaa, sillä tekoäly ei ole epävarma, ellei sitä siihen ohjeista. Se on selkeä, johdonmukainen ja argumentoi vakuuttavasti, jolloin siihen on helppo luottaa – ja vaikea epäillä.
Joten ennen kuin alamme käyttämään tekoälyä toimituksissa esimerkiksi uutisten tuottamisessa, tulisiko meidän tutkia miten tekoäly toimii, millaisia riskejä sen käytöstä tunnistetaan jo nyt ja millaisia rajoituksia sen käyttöön tarvitaan?