Tekoälyn kehityksessä on ollut erinäisiä trendejä vuosikymmenten saatossa. Tämänkertainen julkisuus pohjautuu lähinnä dataan, jota korporaatiot pilvipalveluineen käyttäjiltään haalivat. Esimerkiksi muodikkaat ChatGPT:n kaltaiset kielimallit saavat julkisuutta, koska ne on avattu kenen tahansa käytettäviksi.
Kielimallit tuottavat sujuvan lukuista tekstiä ja vastaavat kysymyksiin vakuuttavan oloisesti, myös suomeksi. Se on kuitenkin harhaa, koska kielimallit eivät ymmärrä tuottamaansa tekstiä, saati maailmaa sen takana. Ne eivät välitä kielellä merkityksiä, hahmota kokonaisuuksia tai erota olennaista epäolennaisesta.
Virheiden tuottaminen onkin tekoälyn ja kielimallin toistaiseksi pysyvä ongelma. Esimerkiksi käännösohjelmilla tuotettu kieli on helppo erottaa ihmisen kääntämästä. Käännösohjelmia ei enää yleiskielessä edes luokitella tekoälyksi, koska konekäännökset on vakiintunut jokapäiväiseen toimintaan.
Sama koskee kasvojentunnistusta. Vaikka teknologia on kehittynyt, siinäkin virheet haittaavat jokapäiväistä toimintaa esim. rajatarkastuksissa. Molemmat luokitellaan nykyään tietokoneohjelmiksi, ja vain sellaisia muutkin tekoälyn sovellukset ovat.
Tekoäly toimii siinä tehtävässä, johon ne on suunniteltu, niillä tiedoilla, jotka sille on annettu. Toiminnan ohjaukseen löytyy eettisiä periaatteita, joita prosessissa kannattaa noudattaa. Koneoppiminen on tosin yleinen ominaisuus, joka erottaa uuden tiedon käsittelyn perinteisestä ohjelmasta. Kasvojentunnistusohjelma ei kuitenkaan opi tunnistamaan esim. eläinten kasvoja. Uusimmat tekoälyagentitkin toteuttavat vain tehtäviä, joihin ne on koulutettu, vaikka niitä mainostetaan no- tai low-code oppijoina, joita kuka tahansa voi määritellä. Agentteja käytettäessä on äärimmäisen tärkeää, että tieto luokitellaan luottamuksellisuuden mukaan ja määritellään datalle hallintamalli tietoturvan takaamiseksi.
Tietoturva tarkoittaa tietokoneiden, ohjelmistojen, tietoverkkojen yms. turvaa, ja sitä laajempi kyberturvallisuus yleisesti digitaalisen maailman turvallisuutta. Tietoturvasta on tullut erottamaton osa jokapäiväistä elämäämme useimmilla osa-alueilla, esimerkkeinä älypuhelimet, digitaalinen raha, sosiaalinen media tai internetiin yhteyksissä olevat IoT-laitteet ja kodinkoneet.
Kyberturva voidaan jakaa kolmeen osa-alueeseen:
1) Luottamuksellisuus: Tietoihin pääsevät käsiksi vain ne, joiden tuleekin päästä.
2) Saatavuus: Jos kasvojentunnistus rajalla ei toimi, niin tavallaanhan se on todella turvallista, mutta tärkeämpää olisi pitää palvelu saatavilla ja antaa ihmisten liikkua.
3) Eheys: Tieto on oikein. Organisaation kirjanpidon tiedot ovat verkkosivujen käännöksiä kriittisempiä.
Kyberturvan osat
Jos vertaillaan kahta em. tekoälyn sovellusaluetta kyberturvan kannalta, on erot suuret. Tekoälypohjainen kasvojentunnistus on osa biometriikkaa, kuten sormenjäljet tai silmän tunnistus, joissa kone tunnistaa ihmisen nopeasti jonkin tämän fysiologisen ominaisuuden perusteella. Vaihtoehtoja yhdistämällä eheys lähestyy sataa prosenttia, mutta se on alhaisempi pelkälle kasvojentunnistukselle. Käytettävyys on myös kriittistä: Mitä teet, jos tunnistetietosi ei ole saatavilla? Entä jos rikolliset kopioivat tunnisteesi, niin aiotko tilata uuden sormenjäljen tai uudet kasvot?
Luottamuksellisuus ja tietosuoja ovat tärkeä osa kasvojentunnistusta yleisemmässäkin taustapalvelussa, kuten kameravalvonnassa. Kameravalvonta on henkilötietojen käsittelyä, jos kuvaajana on yritys tai organisaatio ja henkilöistä tallentuu tunnistuskelpoista kuvaa tai ääntä. Tällöin toimitaan rekisterinpitäjänä, jolla on velvollisuutensa. Tietosuojasäännösten ulkopuolelle jää kameravalvonta, jota yksityishenkilö harjoittaa kotirauhansa piirissä eli kodin tai mökin ja oman pihapiirin alueella, ja siinä vielä toistaiseksi harvemmin hyödynnetään tekoälyä.
Kameravalvonta ja kasvojentunnistus sisältävät tietosuojan piirissä olevaa henkilökohtaista tietoa. Yleensä siihen liittyy muitakin henkilötietoja. Näitä käsiteltyjä tietoja ei missään tapauksessa tule yleisesti jakaa. Sen sijaan kielimallit pohjautuvat lähes pelkästään jaettuun tietoon. Ilmaispalveluja käytettäessä olisi syytä lukea sopimusehdot, mikäli ei halua omien kirjoitustensa päätyvän palvelun lähdeaineistoksi.
Tekoäly tekee sen, mitä ohjelmassa määritellään. Se on hyvä tiedonhaussa, suurten tietomassojen käsittelyssä ja loogisessa tai tilastollisessa päättelyssä. Siltä kuitenkin puuttuu inhimillinen maalaisjärki ja elämänkokemus. Esimerkiksi käännösohjelma osaa enemmän kieliä kuin yksikään ihminen ja kääntää niitä nopeasti. Laatu on kuitenkin edelleen ihmisen tekemää käännöstä huonompaa – riippuen tosin kääntäjän tasosta ja työmäärästä. Optimi tulos voikin syntyä kääntäjän ja käännösohjelman yhteistyönä.
Generatiivinen kielimalli tarjoaa vain tilastollisen ennusteen seuraavasta lauseen sanasta. ChatGPT jaarittelee mediaanin mukaan keskinkertaista kieltä, antaen välillä harhaanjohtavia vastauksia. Se tai käännösohjelma eivät itse päättele mitään. Päättelykykyä ei millään sovelluksella ole sen vertaa, että niillä olisi toistaiseksi suurempaa vaikutusta työelämässä. Riskeinä sen sijaan on, että laajat kielimallit tekevät paljon virheitä ja hallusinoivat eli keksivät tosiasioita.
Kielimallien mahdollisuuksia rajoittaa aineisto, jolla ne on opetettu. Se, miten mallit prosessoivat asioita, perustuu siihen, mitä ne ovat oppineet. Tekoäly on hyödytön, jos data on huonoa tai integraatio puuttuu. Jos niille annetaan tehtävä, joka on kaukana siitä, mihin ne on opetettu, ne antavat virheellisiä vastauksia.
Tekoälysovellukset voivat siis tuottaa virheellistä tekstiä, mutta niillä voi myös tarkoituksellisesti tehdä harhaanjohtavia kuvia, puheääntä ja videoita. Sosiaalinen hakkerointi onkin kasvava tekoälyn sovellusala, ja tarjoaa uudet mahdollisuudet myös ns. toimitusjohtajahuijauksiin: Esim. rajamuodollisuuksissaan kasvontunnistukseen nojaavassa Hong Kongissa rikolliset saivat vastikään pankin virkailijan maksamaan 25 miljoonaa dollaria heille, luotuaan tekoälyn avulla pankin talousjohtajan hahmon keskustelemaan hänen kanssaan videopuhelun välityksellä. Tosin Konecranesin ulkomaiselta tytäryhtiöltä huijattiin 17 miljoonaa euroa vastaavasti jo kymmenen vuotta sitten, joten tekoäly ei ole tässä rikollisuuden lajissa välttämätön tai uusi ilmiö. Hong Kkongin tiedemuseossa on kokonainen kerros omistettu tekoälylle – siellä nykyisetkin sovellukset ovat jo museossa.
Tekoälyltä puuttuu medialukutaito. Ihmisillä on kyky ymmärtää mediaa, nähdä ilmiselvien merkitysten taakse, sekä suodattaa ja arvioida vastaanotettua informaatiota. Tekoäly sen sijaan prosessoi kielimalleihinsa mitä tahansa verkosta tai pilvipalveluista löytyvää sisältöä. Sitä voi käyttää myös valeuutisiin, eli harhautustarkoituksessa tehtyyn tekstiin, joka matkii ulkoisesti journalismia, mutta ei ole sitä. Tämä on sosiaalisen median kaudella oleellinen kyberturvaan kohdistuva hybridivaikuttamisen riski.
Tekoäly kiihdyttää kehitystä internetissä moneen suuntaan. Sosiaalisen median sovellukset yrittävät vaikuttaa ihmisiin jo tekoälyn avulla. Sosiaalipsykologinen vaikuttaminen on nykyään paljon muutakin kuin mainosten kohdentamista, mikä sinänsä on tietoturvan ja -suojan uhka. Edes ohjelmistotasolla ei ole järkevää suunnitella palveluita, jotka muistuttavat ihmistä, varsinkaan negatiivisessa kontekstissa. Tekoälyä kannattaa käyttää vain niillä alueilla, joissa se on ihmistä parempi sekä kyberturvan että yleisen edun vuoksi. Varsinkin tulevaisuuden laajemmassa käytössä on hallintamallin suunnittelu ja tiedon luokittelu kriittistä. Ja kyberturvan tarkoitus on mahdollistaa tekoälyn ja muun tietotekniikan käyttö, ei estää sitä.
Jouni Meriluoto
Johtaja, tekoäly ja kyberturvallisuus
Lawder Oy