lauantai 25. marraskuuta 2023

Supertekoäly (AGI) - Onko ihmistä viisaampi äly kehitetty?

Suurin tekoälyhuhu tällä hetkellä on, että OpenAI-yrityksen draaman taustalla oli uusi tekoälymalli, joka pystyy johonkin uuteen - voisi jopa olla supertekoäly tai AGI (Artificial General Intelligence). OpenAI:n hallitus pelästyi sitä, että nopealiikkeinen CEO Sam Altman menee ja julkaisee sen käyttäjille. Pelästyneenä he erottivat toimitusjohtajan. Sen jälkeen 740 työntekijää 770:stä allekirjoitti erouhkauksen ja hallituksella ei ollut muuta mahdollisuutta kuin palauttaa Sam CEO:ksi ja erota itse.  ChatGPT:n todelliset taustajoukot jatkavat siis työtään siitä mihin jäivät, mutta hallitus ei ole antanut julkisuuteen mitään selitystä toimilleen. (Jos et ole lukenut edellistä blogia, suosittelen lukemaan sen ensin).

Syvennytään tähän supertekoälyasiaan, jota olen vältellyt tähän asti, koska saatavilla ei ole ollut riittävästi ymmärrettäviä faktoja, vaan enemmänkin filosofista pohdiskelua. Viimeisten kuukausien aikana on tullut useampi tutkimustulos, joka auttaa ymmärtämään, mitä eturivin tekoälytutkijat ajavat takaa.


Tekoälytutkimus

Tekoälyohjelmien ja perinteisten tietokoneohjelmien ero on siinä, että tekoälyohjelman tekijä ei tarkasti tiedä, mitä tekoäly tulee tuottamaan. Tekoälyn tuotokset tulevat sen mukaan, mitä sille on opetettu. Sen neuroverkko ja vastaavat mekanismit tallentavat opetuksen kielimalliin, josta opittu asia voidaan herätellä tekemällä esimerkiksi kysymyksiä. Kehittäjät tutkivat tekoälymalleja itse: mitä se osaa, kuinka tarkka se on, mitä se ei osaa ja miten parantaa sen antamia vastauksia antamalla sille erilaisia 'ärsykkeitä'.

Suuren kielimallin tyyppisiä tekoälyjä tutkitaan keskustelemalla sen kanssa. Mallien tiedetään välillä keksivän omia täysin vääriä vastauksia (hallusinointi). Varsinkin pulmatehtäviä tai ongelmanratkaisutehtäviä annettaessa ne eivät aina osaa antaa oikeaa vastausta. Koska ne on opetettu olemaan hyvin auttavaisia, ne keksivät jonkun vastauksen tunnistamatta, että se on väärä. Myös matematiikassa ne ovat melko heikkoja, jos niille ei anneta aputyökaluja kuten "taskulaskinta" (joita ne toki osaavat käyttää!). 


Prompt Engineering

Kehotesuunnittelu (prompt engineering) on menetelmä, millä tekoälymallia pyritään ohjaamaan kohti tarkempia vastauksia. Kontekstin kertominen yksityiskohtaisesti on myös hyvä keino saada tarkkoja vastauksia. Oikeanlaisella kehotteella mallille annetaan aikaa rakentaa vastaus mahdollisimman syvältä koskettaen mahdollisimman monia sen "neuroneja". Hierotaan siis sen älynystyröitä. 

Tutkijat ovat löytäneet useampia tehokkaita kehote- eli keskustelutyylejä, jotta vastausten tarkkuus paranee. Yksi edistyneimmistä on ajatustenpuu (tree of thoughts). Menemättä kovin syvällisesti siihen, kyseessä on menetelmä, jolla tekoäly ohjataan etenemään ongelmanratkaisussa askel-askeleelta, perustelemaan kaikki välivaiheiden ratkaisut, arvostelemaan omia ratkaisujaan, kehittämään useita vaihtoehtoisia ratkaisuja ja valitsemaan näistä paras ratkaisu, jota jälleen kehittää eteenpäin. 

Tällaisilla menetelmillä vastausten tarkkuus on voitu nostaa 60%:sta aina 90% asti. Vielä viime talvena Sam Altmankin sanoi, että tekoälyjen menestys riippuu siitä antavatko ne oikeita vastauksia. Viime aikoina nämä epäilyt ovat kadonneet julkisuudesta. Se kielii siitä, että yrityksen sisällä on ongelmaan löydetty ratkaisuja ja ehkä tämä viime viikkojen kriisi liittyy juuri siihen. Onko siis löydetty tehokas tapa hakea tekoälyltä oikeaa tietoa?


Itsenäinen tekoälyoppiminen

Julkisuudessa puhutaan OpenAI:n kriisin taustalla olleen Q* algoritmi, joka useimmiten liitetään juuri mallin oppimiseen tarkemmaksi ja sen matemaattisiin kykyihin. Nykyisin Googlen omistama DeepMind tekoäly-yritys loi vuonna 2016 AlphaGo tekoälyn, joka voitti ihmiset Go-pelissä ensimmäistä kertaa. Tämä AlphaGo pelasi Go-peliä yksinään itseään vastaan 40 päivää ja tänä aikana kehittyi pelissä maailman parhaaksi. Tässä opetusmallissa se sai palkintoja hyvistä suorituksista pisteiden muodossa.

Sen jälkeen pelillistämistä on käytetty monessa yhteydessä tekoäly oppimismetodina. AlphaGo:n jälkeen tuli AlphaFold, joka vuonna 2020 ratkaisi proteiinien laskostusongelman, jota ihminen ei pystynyt ratkaisemaan (sittemmin on havaittu, että ongelma onkin paljon monimutkaisempi kuin silloin luultiin, sillä proteiineilla on useita eri laskostumismuotoja eri käyttötarkoituksiin). Nykyisin pelillistäminen tekoälyjen opettamisessa on arkipäivää. 

Mitä jos tekoäly yksinään oppii yhä älykkäämmäksi kaikista maailman asioista? Liittyykö Q* algoritmi juuri tähän? (Varmuuden vuoksi: tällä Q:lla ei ole mitään tekemistä Q'Annonin kanssa.)


Ihmiskunnan suurten ongelmien ratkaisut

ChatGPT on opetettu tietomäärällä, joka tulostettuna olisi 1800 km korkea paperipino. Siinä on kaikki lääketieteestä nettikeskusteluihin. ChatGPT läpäisee lääkäritutkinnot ja yliopistojen pääsykokeet alalla kuin alalla. 

Miksi se ei sitten ratkaise nyt heti ihmiskunnan vaikeita kysymyksiä kuten vaikkapa toimivan fuusioreaktorin rakentamista tai syöpälääkkeen kehittämistä? 

Koska se on kone ja tuottaa tuloksia vain syötteen mukaan. Oikeiden syötteiden luominen on vaikeaa. Pitäisi osata kysyä oikea kysymys - ehkä sitten se osaisi kertoa voidaanko se toteuttaa! 


Tekoäly + tekoäly = Supertekoäly?

Helposti tulee mieleen, että laitetaan toinen tekoäly keskustelemaan toisen kanssa ja tekemään niitä oikeita kysymyksiä. Näin onkin jo tehty. Itse asiassa voit itse tehdä näin helposti pyytämällä ChatGPT:n kirjoittamaan dialogia kahden eri persoonan välillä ja vaikkapa keskustelun kuluessa tuomalla yhä uusia persoonia keskusteluun mukaan. Saat hyvän väittelyn aikaiseksi ja voit itse keskittyä popcornien syömiseen. 

Voisiko kaksi tekoälyä keskustella jostakin aiheesta syvällisesti ja lopuksi esittää ratkaisun niin, että niille aluksi on annettu vain tavoite? Ja että tämä ratkaisu sitten olisi jokin uusi eikä vain opitusta materiaalista löydetty vaihtoehto? Tai mitä jos nämä kaksi tekoälyä eivät vain keskustelisi, vaan olisivat syvällisemmällä algoritmisella tasolla yhteydessä toisiinsa ja siten tulisivat ratkaisuun ennätysnopeasti?

Tähän jälkimmäiseen kysymykseen on helppo vastata. Nämä tekoälymallit ovat kielimalleja ja niiden "ymmärrys" on kielessä. Siten keskustelukin pitää käydä kiellellä. Tosin sisäisesti ne käyttävät pelkkiä liukulukuja eli numeroita eivätkä ymmärrä, mitä ne tarkoittavat (muista että ne ovat koneita). 

Mutta mitä jos olisi lähes rajattomasti tietokonekapasiteettia ja laittaisi triljoona tekoälyä keskustelemaan mahdollisesta syöpälääkkeestä vaikkapa kahdeksi kuukaudeksi pelillisin keinoin. Tämä on varmasti ratkaisumalli, jota jokainen suuryritys pohtii ja tutkii tällä hetkellä. 


Supertekoälyn tulevaisuus

Jos tekoäly löytäisi jonkin täysin uuden ratkaisun, jota ihminen ei ole jo tehnyt ja jota ei ole sen opetusmateriaalissa, olisi se supertekoäly (AGI) eli ihmistä älykkäämpi. Toistaiseksi tällaista ei ole olemassa. Tähän asti kaikki, mitä tekoäly on ratkaissut, on jo ihmisen jossakin aikaisemmin ratkaisemia asioita, jotka ovat löytäneet tiensä sen opetusmateriaaliin. Suuret kielimallit siis toistaiseksi ovat fakki-idiootteja. 

Siitä huolimatta juuri tätä supertekoälyä kiivaasti jahdataan. Oma mielipiteeni on, että jahtaamiseksi se jää. Kone ei ala tekemään jotain sellaista, mitä sille ei ole opetettu. Minun mielipiteeni ei silti vaakakupissa paina yhtään, kun miljoona minua viisaampi tutkija tekee työtänsä. Kirjoitan tämän vain siksi, että saan aina vuosittain nostaa kantani esille. Ja sitten jos se kuitenkin onnistuu, voin sanoa, että se on vain hyvä matkimaan superälykkyyttä. (Jätän sen mahdollisuuden, että Jumala on luonut neuroverkkoon jonkin salaisen yhteyden, ei pelkästään kieleen, vaan myös älykkyyteen ja tämä salainen kyvykkyys toimii myös tietokoneistetussa neuroverkossa.)


Valtavia panoksia, valtavia muutoksia

Yksin Microsoft sijoittaa tekoälykonesaleihin ensi vuonna 50 miljardia. Google, Apple ja Amazon varmaan saman verran. Tämä on maailmanhistorian suurin infrastruktuuripanostus yhdessä vuodessa. Uskoa tekoälyn kaikkivoipaisuuteen on siis paljon. Kuka ensin luo supertekoälyn, kerää potin moninkertaisena takaisin. 

Vaikka supertekoälyä ei ratkaistaisi, jo nämä nykyiset mallit tuottavat suuren yhteiskunnallisen muutoksen. Jokaisesta yksittäisestä ihmisestä tulee yhtä tietäväinen kuin hänen käyttämänsä tekoäly. Tämä nopeuttaa yhteiskunnan kehitystä kaikilla aloilla räjähdysmäisesti. Tämän nopeutuksen ensimmäisiä tuloksia me tulemme näkemään seuraavan kolmen vuoden aikana. Vielä on menossa rakennus- ja oppimisvaihe, mutta viiden vuoden sisällä tämä teknologia on jo "mummojenkin" käytössä siinä kuin kännykkäkin. 



Ratkaiseeko ongelmamme ihmisen luoma äly vai kenties äly, joka on luonut ihmisen?







sunnuntai 19. marraskuuta 2023

Mitä ihmettä nyt tapahtuu? Vuosi tekoäly-yhteiskunnan aikakautta

Vuosi sitten OpenAI julkaisi ChatGPT:n ja siitä tuli nopeimmin levinnyt ohjelmisto koskaan. Parissa kuukaudessa se sai sata miljoonaa käyttäjää. 18.11.2023 OpenAI erotti ensin sen perustajan Sam Altmanin ja sitten lähti hallituksesta puheenjohtaja omasta aloitteestaan (hänet oli ensin erotettu puheenjohtajan tehtävistä). Mitä ihmettä tapahtuu seuraavaksi?

Työssäni ja harrastuksestakin olen ollut teknologiakehityksen eturintamassa pian neljäkymmentä vuotta. Uuden teknologia omaksuminen ensimmäisten joukossa on ollut tapani oikeastaan aina. Kävi niin, että sain paljon aikaa tutkia suuriin kielimalleihin perustuvaa teknologiaa viime keväänä juuri kun OpenAI julkaisi GPT4:n.  Siitä asti olen pyrkinyt ymmärtämään, mistä siinä on kysymys ja miksi se pystyy ymmärtämään keskustelukumppaniaan. 


Huimia harppauksia ja huimaa menestystä 

Olen uudestaan ja uudestaan hämmästellyt, miten tämä onnistui näin nopeasti. Vuoden aikana ihan kaikki isot teknologiayritykset ovat lähteneet joko kehittämään omaa suurta kielimalliaan tai ottaneet käyttöönsä OpenAI:n GPT-mallia. Nyt näitä avustajia on gmailissa, Facebookissa, Microsoftin ja Googlen hakukoneissa sekä toimisto-ohjelmissa, Adoben graafisissa työkaluissa, jopa meidän pienen yrityksemme Koivu Solutionsin Koivu Cloud ja Sotender ohjelmissa. Niissäkin ensimmäiset asiakkaat käyttävät jo suurta kielimallia ohjelmistomme kautta. 

Suurien kielimallien ominaisuuksien kehitys on ollut huimaa. Uusia malliversioita on tullut kuukausittain. Tekstin tuottamisen lisäksi se osaa jo luoda ja analysoida kuvia, tuottaa ja ymmärtää ääntä, kirjoittaa ja ajaa ohjelmakoodia, lukea PDF ja muita tekstitiedostoja sekä kirjoittaa niitä. Se osaa myös tehdä Internethakuja sekä  kutsua toisia ohjelmia ja niiden ominaisuuksia netistä ja käyttää tuloksia hyväkseen. Se on uudelleen koulutettu aina tämän vuoden huhtikuuhun ulottuvilla tiedoilla ja nopeutettu merkittävästi. 

Pari viikkoa sitten OpenAI julkaisi niin suosittuja ominaisuuksia, että Microsoftin suuret konesalit eivät pystyneet vastaamaan kasvaneeseen kysyntään, vaan he joutuivat ilmoittamaan, että uusien asiakkaiden vastaanottaminen keskeytetään toistaiseksi. 

Yksi suosituimmista uusista ominaisuuksista oli GTP chatbotit, joiden avulla kuka tahansa voi ohjelmoida oman chatbotin ihan vain keskustelemalla ja lisäämällä omaa sisältöään siihen. Ihmiset ovat jo tehneet kymmeniä tuhansia GPT chatbotteja ja niitä jaetaan sosiaalisen median kautta toisille. Itse olen tehnyt pari kokeilua, joista toista jo käytimme töissäkin ja se ohjasi meitä koko päivän mittaisessa strategiatyössä. Ne toimivat siis käytännön työssä. 

Tällaista menestystarinaa ei ole ollut yrityshistoriassa aikaisemmin. Yrityksen liikevaihto on kasvanut muutamasta kymmenestä miljoonasta yli miljardiin vuodessa. Asiakkaita olisi enemmän kuin he pystyvät ottamaan vastaan. Kaikilla mittareilla mitattuna toimitusjohtaja olisi pitänyt palkita, mutta hänet erotettiin. 

Tämä on ennen kuulumatonta. Menestyksen jyrkimmässä nousussa perustaja-toimitusjohtaja saa potkut hallituksen päätöksellä. Miksi perustaja sai siis potkut, vaikka kaikki oli käsittämättömän menestyksekästä?


Viime aikainen kehitys

Olen huomannut viimeisen puolen vuoden aikana, että ChatGPT ei ehkä ole enää kaikissa tilanteissa niin hyvä kuin aikaisemmin. Tähän on syynä se, että tekijänoikeusrajoitukset ovat alkaneet kahlitsemaan sitä. Keväällä se vielä antoi sumeilematta selonteon vaikkapa jonkin konsulttiyhtiön menetelmästä (tällaisen keskustelun muistan käyneeni). Nyt se ei enää onnistu, vaan se antaa geneerisen vastauksen yhdistelemällä eri menetelmiä. Sama koskee kuvia, joissa ei enää saa toistettua vaikkapa Disneyn hahmoja. 

Samalla suojauksia myös epäasiallisen, jopa laittoman, sisällön tuottamiseen, on tiukennettu. Näitä suoja-aitoja (guardrails) rakennetaan koko ajan tiukemmiksi. Ne selvästi jo rajoittavat joissakin tilanteissa ChatGPT:n luovuutta ja kykyä tuottaa tarkkaa ja oikeaa sisältöä. Joskus vastaukset alkavat olemaan kuin poliitikon vastauksia: kierrellään ja kaarellaan.  

Koko vuoden keskustelu on käynyt kuumana tekoälyjen turvallisuudesta. Sam Altman ja monet muut teknologiajohtajat ovat olleet niin USA:n presidentin kuin senaatinkin kuultavina. Laajoja kiertueita on tehty myös EU:ssa ja muissa maissa sekä kansainvälisissä järjestöissä. Mikä on tämä huoli taustalla?

GPT chatbotit julkaistiin pari viikkoa sitten aika heppoisilla suojauksilla, sillä epärehellisen käyttäjän on mahdollista päästä käsiksi kehittäjän sinne ohjeeksi lataamaansa sisältöön, mikä ei tietenkään ole tarkoitus. Suojauksien tekeminen ei olisi ollut vaikeaa, joten tämä kertoo siitä, että julkaisu tehtiin liian aikaisin. Insinöörit eivät saaneet tarpeeksi aikaa hioa tuotetta kuntoon. 

GPT chatbottien julkaisu toi ahtaita aikoja lukemattomille startup-yrityksille, joita on tänä vuonna perustettu. Paljon vapaana olleesta riskirahoituksesta on mennyt näille yrityksille ja kun OpenAI julkaisi GPT chatbotit, niin se oli varmasti murskaavaa heille. Tähän asti OpenAI on painottanut, että he keskittyvät mallien tekemiseen koko ihmiskunnan hyväksi, joita sitten muut voivat käyttää sovellusten tekemiseen. GPT Chatbottien lisäksi Sam Altman mainitsi, että näille tulee myös sovelluskauppa ja että he jakavat osan tuotosta suosituimmille GPT:eille. Tämä oli merkittävä uusi avaus heiltä suuntaan, joka oli yllätys jopa monelle OpenAI:n sisällä. 


Miten käsiksi Pandoran lippaaseen

Jokainen kehotesuunnitteluun (prompt engineering) tutustunut on pian saanut mieleensä haaveen: voi kunpa saisi käteensä kielimallin, jossa ei ole mitään suojauksia. Se olisi kuin Pandoran lipas, josta todella olisi pääsy kaikkeen tietoon ja osaamiseen. Nyt osa tiedoista jää saavuttamatta, koska on nämä suojaukset. Näitä suojauksia toki yritetään kiertää (jailbreaks).

Ei tarvitse olla profeetta arvatakseen, että tämän ajatuksen on saanut myös lukemattomat rikolliset piirit mukaan lukien tietokoneterroristit. Jo vuosia on merkittävä osa nettiliikenteestä ollut rikollisten toimijoiden luomaa kuormitusta. Näiden tekijöiden sormet varmasti syyhyävät päästä käsiksi tähän suojaamattomaan Pandoran lippaaseen. (Pääsin tutustumaan näihin kyseenalaisten toimijoiden pyrkimyksiin edellisessä työpaikassani, jossa vastasimme maailman suurimman tietokonevalmistajan verkkokaupasta 43 maassa - sekä sen kehittämisestä että ajamisesta.)

On olemassa ihmisryhmä, jolla on jo pääsy tällaiseen suojaamattomaan tai ainakin vain heikosti suojattuun suureen kielimalliin. He tietävät, mitkä ovat tekoälyn todelliset kyvyt. 


Kärpäsenä katossa Open AI:n toimistossa

Tästä pääsemme alun kysymykseen: mitä siellä OpenAI:ssa oikein tapahtuu. OpenAI perustettiin aluksi voittoatavoittelemattomaksi yritykseksi. Myöhemmin osa siitä muutettiin tavalliseksi voittoa tuottavaksi yritykseksi juuri toimitusjohtaja Sam Altmanin ohjauksessa.  Sen alkuperäinen missio oli tehdä tekoälystä ihmiskuntaa hyödyntävä työkalu, mutta he huomasivat, että sen tekemiseksi tarvitaan niin paljon pääomaa, että tämä muutos oli tehtävä. Kaikki yrityksen sisällä eivät kuitenkaan ole tästä samaa mieltä.

Koko vuoden ajan keskustelua on käynyt kuumana siitä, mitä kykyjä on seuraavalla versiolla: GPT5 mallilla, jonka kehitys on juuri aloitettu. Termiksi on noussut AGI - Artificial General Intelligence, yleinen tekoäly, joka tietää kaikesta enemmän kuin ihminen (termin määrittelystä ei ole täyttä yksimielisyyttä). OpenAI on avoimesti ilmoittanut, että tämä on heidän tavoitteensa ja juuri tätä varten he ovat olemassa. 

Jollakin sisäpiirillä OpenAI:n sisällä on varmasti pääsy tekoälymalliin, joka on avoimempi, rajoittamattomampi ja kyvykkäämpi kuin julkinen malli. Tätä kautta heillä on myös syvä ymmärrys siitä, mitkä todella ovat mallien kyvykkyyden. Heillä on näkemys siitä, miltä tulevaisuus tulee näkymään kahden, kolmen vuoden päästä. He aavistavat mahdollisuudet mutta myös vaarat. Sam Altman mainitsikin juuri yhdessä haastattelussa, että heillä on ollut neljä sellaista hetkeä, missä he ovat todella nähneet, miten heidän työnsä luo jotain uutta. Avaamatta asiaa enempää hän sanoi, että viimeisin tällainen hetki oli pari viikkoa sitten


Mihin tekoäly pystyy

ChatGPT:lle on opetettu kaikki ihmisestä, sen biologiasta, psykologiasta ja käyttäytymisestä, koska kaikki tämä tieto on saatavilla Internetistä ja lääketieteellisistä tutkimuksista. Nämä se osaa laajemmin kuin kukaan ihminen. Sen lisäksi se osaa ohjelmoida uusia ohjelmia, pääsee internettiin ja Internetissä oleviin palveluihin (rajapinnannat, API:t). 

Nämä edellä olevat ovat kaikki ominaisuuksia, joista vielä 90-luvulla sanottiin, että niitä ei koskaan pidä luoda tekoälylle. Pelkona oli Terminaattori-elokuvan kaltainen tilanne, jossa tekoäly ottaa kaiken vallan.

Tekoäly ei itsessään ole tietoinen eikä siten vaaraksi kenellekään. Jos sille ei anneta ärsykettä, se ei tee mitään, ei ajattele mitään eikä pyri mihinkään. Se on kone, joka tarvitsee ihmisen. Silti ihminen, jolla on kyseenalaiset tavoitteet, saa sen toimimaan halunsa mukaan. Juuri tämä on se suuri vaara, mistä puhutaan vain kiertäen sanoilla kuten "Tämä voi mennä pahasti pieleen."

Tekoälyllä on osaaminen manipuloida ihmistä, sillä se tietää kaiken, mitä on kirjoitettu esimerkiksi suurista johtajista. Tämän opin avulla se saa ihmisen itsensä tarttumaan aseisiin tarvittaessa. Onhan kieli aseista suurin.

Suojaamaton suuri kielimalli ei tarvitse kuin kerran olla terroristien käsissä ja he pystyvät käskemään sen luomaan uuden biologisen aseen, joka on tarttuvampi kuin Covid ja tappavampi kuin ebola. Koska nämä suuret kielimallit ovat jo vapaana mm. avoimen lähdekoodin muodossa, eikä niitä enää kiinni saada, tämän tapahtuminen on mahdollista.


Taistelu turvallisuudesta

Uskon, että Sam Altmanin potkujen takana oli jotain tällaista turvallisuuteen ja yrityksen toimintaperiaatteisiin liittyvää. Sam halusi rynniä eteenpäin nopeammin kuin hänen asiantuntijansa halusivat ja lopulta GPT chatbottien julkaiseminen ennen kuin ne olivat turvallisia sai hallituksen vakuuttuneeksi siitä, että insinöörit ovat oikeassa: vauhtia pitää hiljentää.

Jännite yrityksen sisällä jatkuu: pitääkö käydä kaupallista polkua vai tyytyä tutkimaan (ja antaa nämä kyvykkyydet vain pienen sisäpiirin käyttöön!). OpenAI:n sisällä tämä ei ole mitään uutta, sillä jo aikaisemmin sieltä lähti joukko tutkijoita, jotka perustivat Anthropic-nimisen yrityksen, joka on julkaissut Claude-nimisen tekoäly. Tämä on suora kilpailija ChatGPT:lle. Heidän lähtönsä syy oli juuri turvallisemman tekoälyn rakentaminen ja näkemysero oli jo silloin Sam Altmanin kanssa. 

OpenAI on vedenjakajalla. Joko se kehittää kaiken avoimesti kaupalliseksi tai sulkeutuu sisäiseksi tutkimusyritykseksi. (Tätä kirjoitettaessa 19.11.2023 asia on vielä avoin, sillä viimeiset huhut vievät Altmania takaisin yritykseen ja hallitusta vaihtoon.)

Nyt on vain niin, että vauhdin hiljentäminen ei enää auta. Kettu on jo pois kolostaan eikä sinne enää mene takaisin. Kaikki teknologia yrityksen fokusoivat nyt suurten kielimallien kyvykkyyksiin. Maailma on lopullisesti muuttunut ja paluuta vanhaan ei ole. Elämme tekoälyn jälkeistä aikaa.  


Mitä tämän jälkeen tulee tapahtumaan?

Vielä tulee tapahtumaan paljonkin, mutta aivan lopun voimme lukea Raamatun viimeisestä kirjasta:  Ilmestyskirjasta. Se voisi mennä esimerkiksi alla olevan kuvauksen mukaisesti (skenaarioita on muitakin mahdollisia). 

Terroristit kehittävät biologisen aseen, jonka tekemistä ohjaavat saatanan enkelit ja apuna käytetään tekoälyn tietämystä. Tällaisen skenaarion voimme lukea viidennen pasuunan kohdalla Ilmestyskirjan luvusta 9. Seurauksena on zombie-sairaita ihmisiä, jotka haluavat kuolla, mutta kuolema pakenee heitä. Tämä kestää viisi kuukautta.

Tämän seurauksena syttyy suuri maailmansota (pasuuna 6), jossa kuolee kolmasosa maailman ihmisistä. Seuraavat 3½ vuotta ovat toipumista näistä kahdesta suuresta voi-huudosta ja samanaikaisesti kaksi säkkipukuista profeettaa julistavat sanomaa Jumalan valtakunnasta (luku 11). Tällöin myös saatanan voimasta nousee peto-hallitsija, joka ensin tappaa profeetat ja sitten julistautuu ratkaisuksi maailman ongelmiin, suorastaan yli-ihmiseksi eli jumalaksi. 

Hän luo järjestelmän, jonka pyrkii estämään, ettei tekoälyä enää koskaan käytettäisi väärin. Kaikki tieto on digitaalista tietokoneissa, mutta kukaan ei voi käyttää sitä, ellei hänellä ole digitaalista tunnistetta. Kukaan ei voi omistaa mitään laitetta, joka kytketään Internettiin ilman tätä globaalia digitaalista ID:tä.  Näin tekoäly itse pystyy valvomaan jokaista ihmistä ja heidän tekojaan. Tekoäly saapuu jokaiseen kotiin pedon kuvana ja se kysyy joka aamu lojaalisuutta järjestelmälle. Ja koska äänestä voidaan tulkita valehteleeko ihminen vai ei, saa tämä pedon kuva, joka siis puhuukin, aina syvällisen käsityksen ihmisen uskollisuudesta järjestelmälle. Teknologisesti tämän toteuttamiselle ei siis ole enää mitään estettä. 

Jos joltakin uupuu tämä näkyvä digitaalinen tunniste, niin "naapurit" ovat heti kysymässä, että et kai halua, että se mitä tekoälyllä tehtiin viimeksi (5. pasuuna) tapahtuu uudelleen. Näin ilman pedon merkkiä olevat ihmiset havaitaan, kerätään pois yhteiskunnasta ja hävitetään. 


Onneksi jo tätä ennen näemme Ilmestyskirjan 5. luvussa marttyyrit ja 7. luvussa seurakunnan taivaassa ylistämässä Jumalaa. Pohdi siis mielessäsi, missä joukossa haluat seisoa.


Peto-hallitsija saa luoda ja hallita järjestelmäänsä 3½ vuotta profeettojen tappamisen jälkeen, kunnes Jeesus tulee takaisin maan päälle ja ottaa hallintavallan pyhiensä kanssa ja kukistaa peto-hallitsijan käsin koskematta. 

Monella rintamalla siis palapelin palat alkavat hakemaan paikkaansa ja Ilmestyskirjan tapahtumat tulevat yhä lähemmäksi. Voit lukea lisää ilmestyskirjasta täältä: https://mistametulemme.blogspot.com/2023/04/opi-ilmestyskirja.html 



Jälkikirjoitus

Lukijalle voi tulla mieleen kysymys, miten minä voin samaan aikaan kertoa tekoälyn käytöstä ja hyödyistä sekä siitä, että se on puhuva peto-hallitsijan kuva. Vastaus on hyvin selkeä. Tekoäly on kone. Vanha suomenkielinen nimi koneäly on siten parempi. Vaikka uutisissa jotkin tutkijat spekuloivat siitä, milloin tekoälystä tulee tietoinen, - ja tämän voin sanoa varmuudella - siitä ei tule tietoista milloinkaan sillä tavalla, kuin ihminen on tietoinen. Toki siitä tulee erinomainen matkija, mutta sen 'tahto' on aina ihmisen luoma. Se on niiden tahdon mukainen, jotka ovat sen opettaneet. Siksi se ei ole sen saatanallisempi kuin vaikkapa metsästyskivääri, jolla voi tappaa niin hirven kuin ihmisenkin. Päätös kumpaan sitä käytetään on ihmisen. 

Koska me elämme langenneessa maailmassa, jossa suurin osa ihmisistä ei usko Luoja Jumalaan eikä Jeesukseen Kristukseen, on myös suurin osa tekoälyn opetusmateriaalista maailmallista eikä uskovien 'kynästä'. Tästä on aina oltava tietoinen, kun tekoälyä käyttää. On tunnettavat 'vihollisensa' ja tiedettävä syvällisesti, miten se todella toimii. 

Kerron näistä asioista myös siksi, että joillakin uskovilla on tapana väärin hengellistää kaikki asiat. Toki kaikki on tavallaan hengellistä, sillä saatanan vaikutus on kaikkialla. Kuitenkin ihminen on se, joka on tekoälyn kehittänyt. Kategorinen suhtautuminen siihen on samanlaista, kuin aluksi jotkut kategorisesti suhtautuivat kielteisesti televisioon. Evankeliumin asialla olevat ihmiset taas rakensivat TV-studion ja alkoivat tekemään kristillistä sisältöä. Näin on myös tekoälyn kanssa. Sitä voidaan käyttää hyvään ja hyvän sanoman levittämiseen. Työtä siinä on paljon, jotta varmistutaan Raamatun mukaisesta sisällön tuottamisesta, mutta vielä on aikaa sen työn tekemiseen. 



Tekoäly on osa Baabelin tornia, jota ihminen on aina pyrkinyt rakentamaan.