Tekoäly päihittää terveen ihmisjärjen shakissa
Tietotekniikkainsinööri Melanie Mitchell on ollut amerikkalaisen tekoälytutkimuksen keskiössä vuodesta 1984. Kehitys on ollut monilla alueilla odotukset ylittävää, mutta on osoittautunut, että tekoäly on kaikkein vaikein pähkinä purtavaksi.
Tietojenkäsittelytieteen professori Melanie Mitchell on juuri julkaissut kirjan nimeltä "Artificial Intelligence: A Guide for Thinking Humans".Melanie Mitchell on tietojenkäsittelytieteen professori Portland State University -yliopistossa, ja häntä siteerataan runsaasti tekoälyä koskevassa keskustelussa. Tie hänen nykyiseen asemaansa alkoi 1980-luvun alussa tohtoriväitöksestä, jonka hän teki ohjaajanaan Douglas Hofstadter, yksi tekoälytutkimuksen uranuurtajista. Vastavalmistuneena matemaatikkona hänellä ei ollut kokemusta ohjelmoinnista, mutta luettuaan Hofstadterin nykyisin jo klassikoksi muodostuneen teoksen GEB hän oli löytänyt kutsumuksensa.
Tekoäly oli ensi alkuun suhteellinen kapea tutkimusalue korkeakouluissa, ja vain harva uskoi, että se kokisi jonkin suuren läpimurron. Kaikki muuttui kuitenkin vuonna 1997, kun IBM:n kehittämä shakkitietokone Deep Blue päihitti silloisen hallitsevan shakin maailmanmestarin Garri Kasparovin. Vuonna 2001 IBM:n kehittämä Watson-tekoäly teki saman television Jeopardy-tietovisassa, ja AlphaGo nujersi yhden Go-lautapelin mestaripelaajista 4–5. Sittemmin tekoälyohjelmista, kuten Google Kääntäjästä ja puhetunnistukseen perustuvasta Siri-ääniavustajasta, on tullut osa arkipäiväämme.
Fiksumpi kuin ihminen
Odotukset ovat korkealla, mutta niin ovat myös epäilykset. Mitä tapahtuu silloin, kun tekoälyn kapasiteetti päihittää omamme?
Yleisesti ottaen voidaan sanoa, että tekoäly on hyvä pienissä tehtävissä, kuten shakin peluussa ja kasvojentunnistuksessa, mutta ei sellaisessa, mikä vaatisi yleistietoa ja kokemusta.
Googlen kehityspäällikkö Ray Kurzweilin vuonna 2005 kirjoittama teos The Singularity Is Near maalaa tulevaisuudennäkymän, jossa tekoälyn hallinta karkaa käsistämme aiheuttaen kohtalokkaita seurauksia ihmiskunnalle. Tapahtumaketju on tuttu monista tieteiselokuvista.
Saadaksemme tietää, miten kaukana tällaisesta skenaariosta todellisuudessa vielä ollaan, meidän täytyy ensin määritellä, mitä älykkyydellä tarkoitetaan.
– Näkemys älykkyydestä jonakin mitattavana asiana on harhaanjohtanut monia. Älykkyys on monitahoinen asia, ja sitä voi hyödyntää monella tapaa. John McCarthy, joka loi käsitteen ”keinoäly” vuonna 1956, toivoi useasti, että olisi kutsunut asiaa jollakin vähemmän latautuneella nimellä, Melanie Mitchell kertoo.
Tekoälytutkimuksella on todella paljon oppimista luonnollisesta älykkyydestä ja siitä, miten me ihmiset omaksumme ja hyödynnämme osaamistamme jokapäiväisessä toiminnassamme.
Parhaillaan Melanie Mitchell on virkavapaalla professorintoimestaan ja istuu työhuoneessaan Santa Fe -instituutissa New Mexicossa.
Älykkyyttä on vaikeaa määritellä
– Yleisesti ottaen voidaan sanoa, että tekoäly on hyvä pienissä tehtävissä, kuten shakin peluussa ja kasvojentunnistuksessa, mutta ei sellaisessa, mikä vaatisi yleistietoa ja kokemusta.
Tekoälylle vaikeat asiat ovat helppoja ja helpot asiat, kuten johtopäätösten teko arkipäivän asioista, vaikeita. Mutta jos harjoitusmateriaalia on riittävästi, tekoälyn voi opettaa tunnistamaan kissan YouTube-videosta, mutta tämä vaatii ihmistä pitämään datan ja tiedot hallussaan. Ihminen sen sijaan osaa jo pienenä erottaa toisistaan kissan ja koiran, vaikka molemmilla on neljä jalkaa ja häntä.
Moni on sitä mieltä, että ihmisellä tulee olla päätäntävalta ihmiselämään liittyvissä asioissa.
Jo aloittaessaan tekoälytutkimuksen Melanie Mitchell tajusi, että tiedämme itse asiassa todella vähän ihmisaivoista. Tekoälytutkimuksella on todella paljon oppimista luonnollisesta älykkyydestä ja siitä, miten me ihmiset omaksumme ja hyödynnämme osaamistamme jokapäiväisessä toiminnassamme.
– Tietokoneiden kehitys on ollut eksponentiaalista. Niistä on tullut pienempiä ja nopeampia. Ohjelmistojen suhteen kehitys ei kuitenkaan ole ollut samanlaista.
Ylivertainen jollakin rajatulla osa-alueella
Nykypäivän tietokoneet kykenevät käyttämään älykkyyttä vain niillä osa-alueilla, joihin ne on koulutettu. Deep Blue tai AlphaGo ei kumpikaan selviäisi erästä Kimble-peliä ihmisen kanssa. Menee vielä kauan siihen, että kykenemme siirtämään tietoa osa-alueelta toiselle. Avaimet saattavat löytyä kognitiotutkimuksesta ja psykologiasta: niiden avulla opimme ymmärtämään, miten luonnollinen älykkyys toimii.
Melanie Mitchellin mukaan tekoälytutkimuksessa on parhaillaan kaksi koulukuntaa: Ensimmäisessä koulukunnassa uskotaan, että haaste ratkeaa datan määrää lisäämällä. Toisessa koulukunnassa (johon Mitchell itsekin kuuluu) uskotaan, että eteenpäin pääsemiseksi on opittava ymmärtämään älykkyyttä yleisemmällä tasolla.
Autolla ajaminen edellyttää nopeaa päätöksentekoa
Se, mitä kutsumme ihmisjärjeksi, on usein kykyä oppia jo koetusta ja kykyä käyttää tätä tietämystä uusissa tilanteissa.
– Tekoäly suoriutuu hyvin sellaisilla alueilla kuin shakki ja Go-lautapeli, joissa säännöt ovat tarkat, mutta oikeassa elämässä ei ole tarkkoja sääntöjä sille, miten pitäisi toimia.
Tämä selittää esimerkiksi sen, miksei itsestään ajavia autoja lopulta tullut, vaikka kokeiluja onkin tehty 1980-luvulta lähtien.
Jotta itseohjautuvien autojen käyttö olisi turvallista, niiden on opittava säällä kuin säällä tulkitsemaan paitsi muiden tienkäyttäjien liikkeitä myös liikennemerkkejä ja -valoja sekä muita ohjeita.
– Autolla ajamisessa on se ongelma, että siinä tulee jatkuvasti eteen uusia tilanteita. Milloin on mahdollista pysähtyä tiellä olevaan esteeseen: silloin, kun tuulilasiin lentää muovipussi, vai silloin, kun maassa on lasinsirpaleita?
Ihmisinä tiedämme, että seuraukset lasinsirpaleiden päältä ajamisesta ovat vakavammat kuin mitä muovipussin lentämisestä tuulilasiin aiheutuu, mutta sellaisten algoritmien ohjelmointi, jotka ottavat tämän huomioon, ei olisikaan enää niin helppoa.
Elämän ja kuoleman kysymys
Se, milloin päätäntävallan voi luovuttaa tekoälylle, on myös eettinen kysymys. Jos tekoälyllä itsestään liikkuva auto tulee tilanteeseen, jossa valittavana on joko neljän jalankulkijan yli ajaminen tai matkustajan hengen menetys, miten se toimii? Useimmat ovat yksimielisiä siitä, että auto valitsisi yhden matkustajan kuoleman, sillä se on kuitenkin pienempi menetys kuin neljän jalankulkijan kuolema tai vammautuminen. Mutta kysyttäessä, voisiko tällaisen auton ostaa, vastaus on heti kieltävä.
– Moni on sitä mieltä, että ihmisellä tulee olla päätäntävalta ihmiselämään liittyvissä asioissa.
Voisiko tekoälylle siis opettaa moraalia?
– Se on vaikeaa, sillä sitä varten tekoäly pitäisi saada ymmärtämään moraalin käsite.
Robotiikan kolme sääntöä
Tieteisromaaneissa puhutaan joskus robotiikan kolmesta säännöstä, joiden mukaan robotti ei saa koskaan vahingoittaa ihmistä. Melanie Mitchellin mukaan ”vahingoittaminen” on kuitenkin epämääräinen käsite. Samoin on vaikeaa myös määritellä, mikä sitten olisi moraalin mukaista käyttäytymistä. Se vaihtelee tilanteesta riippuen ja on erilainen myös eri yhteiskunnissa.
Erään käsityksen mukaan tekoälyn avulla saadut vastaukset olisivat puolueettomia ja rationaalisia. Melanie Mitchell kuitenkin torjuu tämän käsityksen.
– Tekoäly on riippuvainen siitä datasta ja ohjelmoinnista, joihin sillä on pääsy. Tulos on sen jälkeen ihmisen tulkinnan varassa.
Milloin on oikein käyttää kasvojentunnistusta henkilöiden tunnistamiseksi julkisilla paikoilla?
Kasvojentunnistuksen kehittämiseen käytetyn harjoitusmateriaalin pohjalta voidaan todeta, että palvelut toimivat nykyään paremmin valkoihoisten miesten kuin tummaihoisten ja naisten kohdalla. Entä kuinka kasvojentunnistus todella toimisi rekrytoinnissa?
– Tekoäly voi ottaa odottamattomiakin asioita tilastollisiksi malleikseen, esimerkiksi sen, minkä nimisiä ihmisiä yrityksessä on työskennellyt aikaisemmin. Ihmisinä ymmärrämme, ettei tällainen tieto ole tärkeää, mutta tekoäly ei aina osaa erottaa tärkeää tietoa vähemmän tärkeästä.
Ymmärrettävä tekoäly
Tänä päivänä EU:n tietosuoja-asetus GDPR sääntelee oikeutta saada tietää läpinäkyvällä ja helposti saatavilla olevalla tavalla, kuinka IT-järjestelmä on arvioinut henkilöä eli tehnyt algoritmipohjaisen päätöksen. Käytännössä katsoen on kuitenkin vaikeaa tietää, miten riskiluokitukseen tai markkinointiin tarkoitettu järjestelmä toimii ja minkälaista dataa sillä on käytettävissään.
Melanie Mitchell poisti itse Facebook-tilinsä vastalauseena yhtiön toiminnalle Cambridge Analytica -skandaalissa, jossa 50 miljoonan ihmisen tiedot kerättiin yhteen ja paljastettiin ilman lupaa.
– Se häiritsi minua. Enkä tosiasiassa ole kaivannut Facebookiin, sillä minulla on tili Twitterissä, hän kertoo.
Kasvojentunnistus ja deepfakes
Tekoälyn käytön laajentuessa aina uusille alueille kasvaa tarve lainsäädännölle, joka pysyy samalla tasolla yhteiskunnan kehityksen kanssa ja saa kansalaiset tuntemaan olonsa turvalliseksi tekniikan suhteen.
Milloin on esimerkiksi oikein käyttää kasvojentunnistusta henkilöiden tunnistamiseksi julkisella paikalla? Ja kuinka voi estää itseään joutumasta manipuloiduksi Deepfakes-videoilla? Ne ovat tekoälyn keinoin käsiteltyjä videoita, joilla käyttäjä saadaan näkemään tai kuulemaan asioita, joita ei koskaan tapahtunut.
Vaikka tulevaisuus tuokin monia haasteita, Melanie Mitchell uskoo, että tekoäly tulee tarjoamaan loistavia mahdollisuuksia ihmisille. Nämä mahdollisuudet näkyvät etenkin terveydenhuollossa: siellä tekoälyä voidaan käyttää potilaiden diagnosoimiseen sekä uusien hoitomuotojen löytämiseen.
Stanley Kubrickin 2001: Avaruusseikkailu -elokuvan pahansuovan HAL-tietokoneen kaltaiset skenaariot ovat lähiaikoina hyvin epätodennäköisiä. On kuitenkin syytä olla varovainen ja asettaa turvallisuus etusijalle; onhan kyse kuitenkin keinotekoisesta älystä, jota ihmiset käyttävät.