Patmos-blogi

Tekoäly ja tietoisuus

Juha Ahvio Juha Ahvio on teologian tohtori, dosentti ja Patmos Lähetyssäätiön tutkimusjohtaja.
Julkaistu:

Käsittelen tässä tekstissä tekoälyä ja tietoisuutta. Varsinainen tarkastelun kohteeni on kysymys siitä, että voiko teknomekaanisen koneellinen tekoäly olla tietoinen olio tai joskus tulla sellaiseksi, eli kysymys siitä, onko tekoälyn niin sanottu älyllisyys analogista persoonallisen inhimillisen mielen kykyjen ja toimintojen kanssa. Tämä aihe liittyy läheisesti 9.5.2025 julkaistuun Patmosblogi-artikkeliini ”Materialistinen naturalismi on kestämätöntä”.

Lähden liikkeelle viittaamalla kahteen tekoälyä käsittelevään artikkeliin, joita osiltaan lainaan. Nostan niistä esiin joitakin avainnäkökohtia ja pohdin sen jälkeen sitä, mitä inhimillinen tietoisuus mielenkykyineen on ja sitä, voiko tekoälyllä todella olla tällaista tietoisuutta.

Ensimmäinen viittaamani artikkeli on Niclas Storåsin 13.5.2025 päivätty Helsingin Sanomien Visio-artikkeli ”Tekoälyltä odotetaan liikoja”, jonka ingressi kuuluu, varsin merkille pantavasti, näin: ”Tutkijoiden perkaamat luvut eivät tue yleistä tarinaa tekoälyn mullistavuudesta, kirjoittaa HS Vision toimittaja Niclas Storås”. Viimeaikaista tekoälyhypetystä ja tekoälyn mullistavuuteen kritiikittömästi uskovaa kuumaa huumaa inhorealistisesti viilentäen artikkelissa tuodaan esiin muun muassa seuraavaa:

”Viime aikoina toisteltu tarina väittää, että on olemassa teknologia, joka mullistaa työelämän, muuttaa lähes jokaisen työnkuvaa. Kyseessä on tietenkin tekoäly. Erityisesti suuret kielimallit. Tutkijoiden silmin tilanne ei olekaan niin mullistava. Ei ainakaan vielä. Toistaiseksi suositut tekoälyohjelmat eivät tuota voittoa. Ne kuluttavat valtavia määriä sähköä. Ne eivät erota oikeaa tietoa väärästä. Ne eivät nosta juuri tuottavuutta. Ne lisäävät uusia työtehtäviä. Erilaiset konsulttiraportit ovat esittäneet, että tekoälymurros iskee muun muassa kirjanpitäjien, markkinoinnin asiantuntijoiden, juristien, ohjelmistokehittäjien, toimittajien ja opettajien työhön. Pahimmassa tapauksessa tekoäly aiheuttaa massatyöttömyyttä…”

”Huomionarvoista on se, että tekoälychatit ovat sen sijaan luoneet uusia työtehtäviä 8,6 prosentille tutkituista. Opettajat ovat tästä hyvä esimerkki. Vaikka opettajat eivät itse käyttäisi tekoälyohjelmia, heidän oppilaansa saattavat käyttää niitä salaa tehtävien suorittamiseen. Tämä saattaa lisätä opettajien työtaakkaa. Heidän täytyy pohtia, kuka on käyttänyt tekoälyä ja kuka ei. Vielä parempi kysymys kuuluu, miten oppilaat saadaan oppimaan asioita, joita tekoäly tekee heidän puolestaan. Tekoälyä käyttävillä työaikaa kuluu myös käskyjen eli promptien laatimiseen ja chatista saatujen vastausten tarkastamiseen ja muotoiluun. Ilmiö on jo historiasta tuttu. Usein automaatio vähentää joitain työtehtäviä, mutta luo samaan aikaan aivan uudenlaisia hommia…”

Artikkelissa todetaan näinkin:

”Tutkimuspaperi osoittaa, että tekoälyn vaikutuksien mittakaava on ollut toistaiseksi mitätön siihen nähden, mitä aiemmat raportit ja tutkimukset ovat ennustaneet. Tieteellisissä kokeissa, joissa osa ryhmästä on saanut käyttää tekoälyä ja toinen ei, tekoälyn vaikutukset tuottavuuteen ovat olleet 15–50 prosentin luokkaa. Todellisuudessa vastaaviin lukuihin ei kuitenkaan ole vielä päästy. Maltillisempiakin arvioita on toki kuultu. Taloustieteen Nobelilla palkittu Daron Acemoglu on laskenut, että tekoälyn vaikutus Yhdysvaltain kokonaistuottavuuteen ja bruttokansantuotteeseen on alle prosentin luokkaa koko seuraavan kymmenen vuoden aikana. Siis hyvin vaatimaton.”

Ehkä tekoälystä kerrottu monen omaksuma tarina ei ihan pidä paikkansa. Siitä kielii esimerkiksi se, että yhdysvaltalainen lääkejätti Johnson & Johnson ilmoitti huhtikuussa painavansa jarrua tekoälyprojekteissaan…Joissain tehtävissä ja osalla työntekijöistä tekoäly saattaa jopa heikentää suoriutumista, kävi ilmi konsulttiyhtiö Boston Consulting Groupin selvityksestä pari vuotta sitten. Syynä on se, että työntekijät eivät enää ajatelleet itse vaan luottivat sokeasti tekoälyyn…Yrityksissä koetaan jonkinlaista fomoa, pelkoa siitä, että tekoälyjunasta jääminen voisi kostautua tulevaisuudessa. Mukaan halutaan, vaikka se kävisi kalliiksi”.

Toinen viittaamani artikkeli on Tuomas Linnakkeen 13.5.2025 päivätty Ilta-Sanomien Digitoday-artikkeli ”Suomalaistutkija teki pysäyttävän havainnon: ’Mitä enemmän tekoälylle annetaan vapauksia…’”, jonka ingressi kysyy, myös varsin paljonpuhuvasti: ”Kuka saa päättää, mikä on hyvää tai pahaa?”. Tässä artikkelissa kerrotaan muun muassa seuraavasti:

”Filosofi Frank Martela peräänkuuluttaa moraalista kompassia tekoälylle. Hän tutki kahta generatiivisen tekoälyn eli suurten kielimallien ratkaisua: Minecraft-pelin Voyager-agenttia ja kuvitteellisia Spitenik-tappajadroneja, joiden kognitiivinen toiminta vastaa nykyisiä miehittämättömiä ilma-aluksia. Aalto-yliopistossa apulaisprofessorina työskentelevän Martelan mukaan tekoäly täytti vapaan tahdon kolme vaatimusta, jotka ovat tavoitteellinen toimijuus, aidot vaihtoehdot ja mahdollisuus kontrolloida omaa toimintaansa. – Emme kykene ennustamaan tai ymmärtämään uusimpien tekoälyagenttien toimintaa, jos emme oleta niiden toimivan vapaasti, Martela sanoo tiedotteessa. Tekoälyn tekemät virheet eli niin sanottu hallusinointi on myös Martelan mukaan eräällä tapaa merkki tekoälyn vapaasta tahdosta.”

”Mutta kuka on vastuussa, jos esimerkiksi robottiauto ajaa ihmisen päälle? – Tekoälyllä ei ole moraalikäsitystä, jos sille ei ole sellaista erikseen ohjelmoitu. Mutta mitä enemmän tekoälylle annetaan vapauksia, sitä enemmän sille on tarpeen määritellä alusta lähtien myös moraalinen kompassi. Vain siten se osaa valintoja tehdessään toimia oikein, Martela sanoo. Martelan tutkimus on osa laajaa tieteellistä keskustelua, jossa pohditaan, kuinka tekoäly saadaan palvelemaan ihmisiä parhaalla mahdollisella tavalla. Osa ongelmaa on se, että tekoäly pitäisi saada ylipäätään ymmärtämään, mitä paras mahdollinen tarkoittaa. Ja, että se ei esimerkiksi tarkoita ihmisten pitämistä huumeissa ja toimettomina kaiket päivät.”

”Voi myös olla niin, ettei tekoälyn tarvitse edes olla ihmisen näkökulmasta ’hyvä’ tai ’paha’ aiheuttaakseen paljon vahinkoa…Martelan mukaan ohjeistaessaan tekoälyä toimimaan tietyllä tavalla kehittäjät tulevat samalla välittäneeksi sille omat moraaliset vakaumuksensa. Siksi heillä olisi hyvä olla jonkinlainen käsitys moraalifilosofiasta – etenkin, koska ihmistenkin kohtaamat moraaliset haasteet ovat hyvin vaikeita. Frank Martelan artikkeli aiheesta on julkaistu AI and Ethics -lehdessä.”

Viitattujen ja lainattujen artikkelien pohjalta nostan esiin seuraavia huomioita ja näkökulmia.

Tekoälymullistus ei ole ollutkaan niin dramaattinen kuin hypetyskertomus on esittänyt ja ennakoinut. Tekoäly ei, käyttöön otettunakaan, ole mullistanut työelämää. Tekoäly ei ole myöskään taloudellisesti ollut niin tuottavaa kuin ennakoitiin. Kouluissa ja oppilaitoksissa tekoäly suorittaa nyt tehtäviä, jotka kuuluisivat oppilaiden ja opiskelijoiden oppimisprosessiin, eli oppimisprosessi on itse asiassa heikentynyt paikoin. Tekoälyn tuotteet ja sen antamat vastaukset täytyy edelleen tarkasti tarkastaa inhimillisesti, ja tämä vaatii lisäaikaa ja joka tapauksessa inhimillistä valvontaa ja päältä katsontaa. Tekoälykone ei edelleenkään ole korvannut ihmistä. Koneen ”äly” ei edelleenkään vertaudu ihmisen älyyn.

Kaksi erityistä avainhuomiota lainatuista artikkeleista ovat seuraavat.

Tekoälystä, eli generatiivisesta tekoälystä eli suurista kielimalleista ja niiden toimintakyvystä, kerrottu monen omaksuma tarina ei ehkä pidäkään paikkaansa, ja ”työntekijät eivät enää ajatelleet itse vaan luottivat sokeasti tekoälyyn”. Näitä on syytä vakavasti pohtia, varsinkin siltä osin, että valtavirtaisesti omaksuttu tekoälytarina lobbaa myös sitä vaikutelmaa, että kone todellakin kykenisi älyllisesti ajattelemaan ja toimimaan kuten inhimillinen tietoinen persoona. Tähän liittyy seuraava erittäin oleellinen tematiikka, joka nousee keskiöön jälkimmäisessä viittaamassani ja lainaamassani artikkelissa, eli kysymys vapaasta tahdosta.

Vapaa tahto edellyttää, filosofi Frank Martelan mukaan, intentionaalisuutta, aitoja vaihtoehtoja ja niistä valitsemista ja omasta itsestä ja toiminnastaan tietoisena olemista ja oman toiminnan kontrollointikykyä. Joten huomaa: Nämä ehdot voi täyttää vain tietoinen olio ja toimija. Martelan mukaan tekoälyllä on vapaa tahto, tai voi olla, tai meidän ainakin täytyy olettaa sillä olevan. Eli Martela siis, de facto, katsoo, että meidän tulee olettaa tekoälyn olevan tietoinen olio ja toimija. Kuitenkaan sillä ei silti ole mitään sellaista moraalia, mitä ihminen ei sille ohjelmoi. Vain siten se osaa valintoja tehdessään toimia oikein.

Edellä esitetystä seuraa mielenkiintoisia johtopäätelmiä. Jos tekoälyn ”äly” ja toimintakyky on verrannollinen ihmisen älyyn ja toimintakykyyn, eikö tämä tarkoita silloin sitä, että ihminenkään ei osaa valintoja tehdessään toimia oikein, jollei ole alkujaan ohjelmoitu toimimaan oikein? Jos näin, niin silloin päädytään Jumalaan ja Luojaan ohjelmoijana ja luomisessa ihmiseen istutettuun luonnolliseen lakiin oikeaa ja väärää, hyvää ja pahaa koskevan tiedon perimmäisimpänä lähteenä ja perustuksena.

Joka tapauksessa filosofi Martela sanoo aivan oikein, että ohjelmoijilla kuten toki kaikilla muillakin tulisi olla jonkinlainen käsitys moraalifilosofiasta. Vaikka kuinka nyt puhumme nykyteknologian riemuläpimurrosta eli koneellisesta tekoälystä, emme silti pääse pakoon perimmäistä kysymystä siitä, mitä ovat hyvä, parempi ja paras ja mitä tarkoitetaan sillä, että jokin oikein tai väärin? Tämä on edelleen, huippuunsa viritettynä koneteknologisena aikanakin, inhimillinen peruskysymys, eli kysymys siitä, mistä tulee hyvän ja pahan määritelmä ja miten ihminen voi näistä tietää?

Ennen kaikkea: Mitä on inhimillinen tietoisuus ja mitä tarkoittaa, että olio on tietoinen toimija? Voiko tekoäly, siis teknomekaaninen kone eli generatiivinen algoritmipohjainen kielimalli, koskaan olla tietoinen entiteetti ja toimija? Näihin kysymyksiin tarjoavat selkeää valoa esimerkiksi seuraavat artikkelit:

Filosofi George Matwijecin 21.3.2025 päivätty LifeSiteNews-artikkeli ”How St. Thomas Aquinas can help us understand why AI can’t become conscious”, jonka ingressin mukaan “AI merely simulates human cognitive and volitional activities”; dominikaanifilosofi Anselm Ramelowin 1.5.2024 päivätty artikkeli “Self-conscious A.I.?” Society of Catholic Scientists -sivustolla; filosofi Dhananjay Jagannathan 20.1.2025 päivätty Public Discourse -artikkeli “On Angels, Demons, and Artificial Intelligence”, sekä Vatikaanin uskonopin sekä kulttuurin ja koulutuksen virastojen 28.1.2025 julkaisema analyysipaperi ANTIQUA ET NOVA: Note on the Relationship Between Artificial Intelligence and Human Intelligence.

Näiden pohjalta voidaan todeta seuraavaa.

Inhimillisellä tietoisuudella tarkoitetaan aineettoman sielun/mielen mielenkykyjä, joihin lukeutuvat:

Passiivinen intellekti eli kyky ottaa vastaan sitä kokemusperäistä dataa, jota viisi aistia tarjoaa. Data säilyy mielessä aistikuvina mielikuvituksen ja muistin avulla. Toimiva intellekti puolestaan abstrahoi eli muodostaa yksinkertaistamalla ja yleistämällä arvostelmia ja informaatiota edellä mainitusta datasta. Toimiva intellekti ohjaa itseään. Muodostetuista tosista eli todellisia asiantiloja vastaavista arvostelmista muodostuu tieto. Tahto tekee valintoja toimivan intellektin sille esittämästä informaatiosta ja tavoittelee päämääriä, jotka voidaan toiminnalla saavuttaa.

Tietoisuus tarkoittaa siten selvillä oloa kognitiivisista ja ratkaisuntekoprosesseista, mukaan lukien selvillä olo tiedon hankinnasta, arvioinnista ja soveltamisesta. Persoona on tietoinen aistihavainnoistaan, tunteistaan, mielikuvistaan, arvioistaan, tiedostaan ja valinnoistaan.

Edellä esitetyn tietoisuusmääritelmän nojalla tekoälyllä ei voi olla inhimillisen kaltaista tietoisuutta, koska:

Tekoäly vain kerää dataa. Ihminen puolestaan myös kokee tunteita aistihavaintojen kokoamisen yhteydessä. Tekoäly kyllä kykenee palauttamaan tiedostoistaan dataa nopeammin ja suurempia määriä kuin ihminen muististaan. Tekoäly toimii kuitenkin vain algoritmiensä mukaisesti. Tekoäly ei ohjaa itseään. Ihminen on ohjelmoinut tekoälyn algoritmit. Ihminen on tekoälyn toiminnan primus motor. Ihminen sen sijaan ohjaa ajatuksiaan ja abstrahoi käsitteitä aistiraakadatastaan, itseohjautuvan autonomisesti, riippumattomasti.

Tekoäly ei tee persoonallisen päämäärähakuisia valintoja. Ihminen tekee tarkoitus- ja päämäärähakuisia ratkaisuja. Tekoäly ei kykene persoonallisiin suhteisiin kuten ihminen. Tekoäly ei ole moraalinen entiteetti, kuten ihminen on. Tekoäly matkii teknisen määräytyneesti inhimillisälyllisiä mielen toimintoja, mutta ei itse itseään ohjaten. Tekoäly ei ajattele. Se reagoi ohjelmointinsa mukaisesti. Tekoäly ei koe tunteita.

Tekoäly ei reflektoi eli pohdi itseään ja olemistaan ja ajatteluaan. Ihminen pohtii itseään kokonaisuutena sieluineen ja ruumiineen, ajatuksineen ja aistihavaintoineen. Tekoäly suorittaa, ihminen ajattelee. Ihminen pohtii asioiden olemusta ja merkityksiä. Tekoäly jäljittelee inhimillisen mielen/sielun kognitiivisintellektuaalisia ja tahtoon perustuvia volitionaalisia kykyjä. Tekoälyn ”äly” on toiminnallista, ihmisen äly on olemuksellisen persoonallista ja kokonaisvaltaista. Tekoäly on loogismatemaattisen suorittavaa, ihmisen äly on luonteeltaan kokonaisvaltaisen orgaanista ja ruumiillistunutta.

Tekoälyllä ei ole tietoisuutta, se ei ole tietoinen itsestään. Inhimillinen aineeton tietoisuus kattaa havainnon, intellektin, tahdon ja itse itsensä suuntaamisen, persoonallisten ratkaisuiden ja päämäärien pohjalta. Ruumiillissielullinen ihminen harjoittaa itse itsensä pohtimista kokonaisuutena, materiaalisaineellinen ohjelmoitu kone ei harjoita. Mieli ei ole materiaalisen tietokoneen mallinen, vaan aineeton mieli, ruumiillisuuden kautta itseään ilmaistessaankin, ylittää materian rajoitukset.

Teknohybristinen tekoälyhypetys on vaarassa ajautua taantumukselliseen järjettömyyteen, jos materiaalisella koneella ja sen algoritmeillä nähdään olevan käytännössä apokalyptinen voima, valta ja kyvykkyys.

Yhteenvetona voidaan selkeästi todeta, että teknomekaanisen koneellinen tekoäly ei voi koskaan olla tietoinen entiteetti.

Sillä ei voi siten myöskään olla vapaata tahtoa kuten persoonallisen tietoisella oliolla, kuten ihmisellä ja enkelillä.

Inhimillinen tietoisuus ja sielun mielenkyvyt eivät ole tietokoneluonteisen mekaanisia eivätkä materialistisen aineellisia todellisuuksia, vaan ovat aineettomia vaikkakin ruumiillistuneesti itseään ilmaisevia.

Patmos-blogilla kirjoittavat sitoutuvat Apostoliseen uskontunnustukseen. Muilta osin blogistien esittämät näkemykset ovat heidän omiaan, eivätkä välttämättä edusta Patmos Lähetyssäätiön kantaa.

Lue ohjeet kommentoinnille

Kommentit (0)

Kommentoi

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *