Tekoäly on aiheuttanut melkoista kohua viime vuosina, mutta tekoälyn kehittämisen perusta luotiin jo 1900-luvun alussa.
Tekoälyä koskevan viimeaikaisen hypetyksen myötä jotkut meistä saattavat tuntea sen olevan uusi ilmiö. Se ei ole. Kaikki alkoi 1900-luvun alussa. Merkittävä työ tällä alalla alkoi kuitenkin tapahtua vasta 1900-luvun puolivälissä. Näihin aikoihin visionäärinen matemaatikko Alan Turing keksi älykkäiden koneiden luomisen – unelman, joka toteutui tekniikan, kuten koneoppimisen ja luonnollisen kielenkäsittelyn, myötä.
Tämä yli 100 vuoden evoluutiotarina on kiehtova. Se muistuttaa tammenterhoa, joka kylvetään pelloille, sitä kastellaan ja ravitaan ja sitten odotetaan, että siitä kehittyy mahtava tammi. Ymmärtääksemme, kuinka varhainen pohjatyö kehittyi älykkääksi teknologiaksi, jota näemme nykyään, sukeltakaamme tekoälyn historiaan.
Ennen kuin tiedemiehet tutkivat mitään tieteellisesti kiinnostavaa käsitettä tai ideaa, se syntyy taiteilijoiden mielissä. Sama pätee "keinotekoisten ihmisten" tai "robottien" ideaan, joka itäytti tšekkiläisen näytelmäkirjailijan Karel Capekin mielessä ja huipentui hänen vuoden 1920 hittinäytelmäänsä "RUR - Rossumin universaalit robotit". Hänen ansiotaan on luotu termin "robotti", joka tarkoittaa työntekijöitä.
Ihailemme Googlen itseohjautuvia autoja, mutta tiedämmekö, että kuljettajattomien autojen konsepti lanseerattiin ensimmäisen kerran vuonna 1925? Ensimmäiset New Yorkin kaduille saapuneet kuljettajattomat autot olivat Houdina Radio Controlin julkaisemia radio-ohjattuja autoja. Googlen emoyhtiöllä Alphabet Inc.:llä kesti 90 vuotta avata Waymo, joka tarjoaa nyt kaupallisia robotaksipalveluita – älykkään teknologian ihmeitä.
Kun idea alkaa jossain osassa maailmaa, se kulkee nopeasti ja saa uusia ulottuvuuksia. Vuonna 1929 japanilainen professori Makoto Nishimura loi onnistuneesti sen, mitä Karel Capek oli visioinut näytelmässään – robotin! Tämä japanilainen ihme nimeltä Gakutensoku, joka tarkoittaa oppimista luonnon laeista, pystyi liikuttamaan päätään ja käsiään sekä muuttamaan ilmeitä. Nishimura saavutti sen käyttämällä ilmanpainemekanismia.
Näyttää siltä, että ihmisten tietoisuusvirta haaveili yhdessä koneista, jotka eivät voi vain jäljitellä ihmisen työtä, vaan myös tehdä asioita, joita ihmiset eivät pystyneet. HG Wells, futuristinen kirjailija, joka keksi aikamatkailun, näkymättömyyden, biotekniikan ja muiden käsitteitä, ennusti vuonna 1937, että "koko ihmismuisti voidaan ja todennäköisesti tehdään lyhyessä ajassa jokaisen yksilön saataville" ja että "Jokainen opiskelija missä tahansa päin maailmaa voi istua [mikrofilmi]-projektorinsa kanssa omassa työhuoneessaan, milloin hänelle sopii, tutkia mitä tahansa kirjaa tai asiakirjaa jäljennöksenä." Voimme turvallisesti olettaa, että hän haaveili tulevaisuuden tietokoneista, joita käytämme nykyään.
Myöhemmin, vuonna 1949, amerikkalainen tietojenkäsittelytieteilijä Edmund Callis Berkley julkaisi kirjan "Giant Brains Or Machines That Think". Tämä oli ensimmäinen kerta, kun prototyyppi, jota voidaan kutsua ensimmäiseksi henkilökohtaiseksi tietokoneeksi, Simon, kuvattiin kirjassa. Tieteen ja teknologian harrastajille suunnatun kirjan jännittävin osa oli aikansa uraauurtavien mekaanisten aivojen (varhaisten tietokoneiden) kartoitus – MIT:n differentiaalianalysaattori, Harvardin IBM:n sekvenssiohjattu laskin, Moore Schoolin ENIAC ja Bell Laboratoriesin relelaskin. .
Kun 1900-luvun alku oli aikaa, jolloin ihmiset joko vielä loivat älykkäitä koneita mielessään tai ottivat pieniä askelia kohti todellisten koneiden luomista, 1950-luvulla otettiin todellisia harppauksia tähän suuntaan. Se oli ylivoimaisesti virkistävin ajanjakso tekoälyn historiassa.
Sinun on oltava sydämeltään lapsi, jos haluat ajatella yhtä vapaasti ja luovasti kuin lapsi. Pelien pelaaminen on yksi parhaista tavoista pitää lapsi hengissä. Mutta Alan Turing meni askeleen edellä, kun hän kehitti "Jäljitelmäpelin", joka tunnetaan yleisesti Turingin testinä, vuonna 1950 ilmestyneessä merkittävässä artikkelissaan "Computer Machinery and Intelligence". Tämä peli on suunniteltu arvioimaan koneen älykästä käyttäytymistä, mikä vaikeutti sen erottamista ihmisestä. Nykyaikana käytämme käänteistä Turing-testiä, jota kutsutaan nimellä "Täysin automatisoitu julkinen Turing-testi, joka erottaa tietokoneet ja ihmiset toisistaan" tai CAPTCHA:a määrittääksemme, että konetta käyttää ihminen eikä robotti.
Vuonna 1948 Turing alkoi kirjoittaa ohjelmaa tietokoneelle shakkipeliä varten. Vuonna 1952 hän toteutti tämän ohjelman Ferranti Mark 1:ssä. Valitettavasti tietokone ei voinut käyttää ohjelmaa pelin pelaamiseen, mutta Turing aktivoi sisäisen lapsensa pelaamaan shakkia algoritmioppaan ohjeiden mukaan. Paljon myöhemmin venäläinen shakin suurmestari ja entinen shakin maailmanmestari Garri Kasparov katsoi pelin tallennetta ja mainosti sitä "tunnistettavana shakkipelinä".
Mutta pelien kiehtominen ei rajoittunut Turingiin. Toinen tietokonepelaamisen ja tekoälyn edelläkävijä, Arthur Samuel, esitteli vuonna 1952 maailman ensimmäisen onnistuneen tammipelin itseoppimisohjelman nimeltä "Samuel Checkers-Playing Program". Samuel näki pelien potentiaalin tekoälyn tutkimuksessa, kun he tekivät tietokoneen suorituskykyä on helppo arvioida ihmisen suorituskykyyn verrattuna. Samuelin loisto näkyi entisestään, kun hän teki vuonna 1959 suosituksi termin "koneoppiminen", jonka tutkimuksen hän aloitti vuonna 1949.
1950-luvun puolivälin aikakausi oli vilkasta tekoälyn tutkimuksesta ja työstä. Itse asiassa termin "tekoäly" tai "AI", kuten sitä yleisesti kutsutaan, loi vuonna 1955 toinen häikäisevä mieli, joka on myös yksi tekoälyn tieteenalan perustajista - John McCarthy. Hän loi termin yhteiskirjoittamassa asiakirjassa, mutta termi saavutti suosion hänen kesätyöpajassaan Dartmouth Collegessa, johon sanotaan osallistuneen ajan johtavien tietojenkäsittelymielten kanssa. Hän ei pysähtynyt tähän, kun hän jatkoi ajatuksiaan tekoälystä keksimällä Lispin, ohjelmointikielen, vuonna 1958. Hän julkaisi vuonna 1959 "Programs with Common Sense", jossa hän kuvaili ohjelmaa ongelmien ratkaisemiseksi lauseita manipuloimalla. – sitä kutsuttiin neuvonantajaksi.
Kaikkia näitä 1950-luvun keksintöjä ja löytöjä seurasivat muut uraauurtavat työt 1960- ja 70-luvuilla. Näistä tärkein oli interaktiivinen ohjelma ELIZA. Joseph Weizenbaumin vuonna 1965 kehittämä ohjelma voisi käydä keskustelua mistä tahansa aiheesta englannin kielellä, aivan kuten nykypäivän chatbotit! Kaikkein mielenkiintoisinta tässä ohjelmassa oli se, että monet ihmiset pitivät sitä ihmisen kaltaisten tunteiden ansioksi – ominaisuus, joka on edelleen vaikeasti arveluttava ja kiistanalainen.
Tekoälyn kehittämisessä nykyään käytettävän "Deep Learning" -metodologian kehitti vuonna 1968 Neuvostoliiton matemaatikko Aleksei Ivakhnenko työssään "Group Method of Data Handling", joka julkaistiin Avtomatika-lehdessä. Se saattaa kuulostaa uskomattomalta, mutta nopea teknologian kehitys, jota näemme nykyään, seisoo hitaan ja vakaan työn harteilla 1900-luvun puolivälissä.
\Mutta asiat eivät pysyneet hitaasti ja tasaisina. Ne nousivat vauhtiin 1980-luvulla, kun kiinnostus tekoälyä kohtaan ja siitä johtuva alan rahoitus ja tutkimus kasvoivat harppauksin. Tänä aikana kehitettiin ohjelmia, jotka toistivat tiettyjen alojen inhimillisten asiantuntijoiden päätöksentekokykyjä.
Vuosi 1980 oli vuonna 1979 perustetun AAAI:n (Association for the Advancement of Artificial Intelligence) kaikkien aikojen ensimmäinen konferenssi. Tänä vuonna järjestetyllä 38. vuosittaisella konferenssillaan tämä yhdistys jatkaa tekoälyn alan tutkimuksen edistämistä. ja tieteellisten ajatusten vaihto alan maailmanlaajuisten toimijoiden kesken. Mutta oli aika vuonna 1984, jolloin AAAI oli ennustanut niin sanotun " AI Winter " -ajan, hitaan tutkimuksen aikaa, koska kiinnostus tekoälyä kohtaan oli vähentynyt.
Kuitenkin ennen tätä ennustetta Japanin kansainvälisen kaupan ja teollisuusministeriö myönsi ällistyttävät 850 miljoonaa dollaria Fifth Generation Computer Projectiin vuonna 1981. 10 vuotta kestänyt projekti oli kunnianhimoinen, aikaansa edellä ja kaupallinen epäonnistuminen – täydellinen esimerkki olemasta hypeä ennätyksen sijaan. Projekti kuitenkin osoitti japanilaista IKIGAI-filosofiaa, kun tutkijat käyttivät intoaan vauhdittaakseen samanaikaisen logiikkaohjelmoinnin kehitystä.
Toisin kuin meteorologisen osaston sääennusteet, AAAI:n ennustus tekoälytalvesta osoittautui oikeaksi. Viidennen sukupolven hankkeen päättyminen oli yksi syistä kiinnostuksen ja investointien menetykseen tekoälyn alalla 1980-luvun lopulla. Mutta muut asiantuntijajärjestelmien ja konemarkkinoiden takaiskut, mukaan lukien erikoistuneen LISP-pohjaisen laitteiston romahtaminen IBM:n ja Applen halvempien vaihtoehtojen vuoksi vuonna 1987, vaikuttivat myös välinpitämättömyyteen tekoälyä kohtaan.
Kaikki ei kuitenkaan ollut paskaa tänä aikana. Tapetun amerikkalaisen toimittajan Daniel Pearlin isä ja vuoden 2011 Turing-palkinnon voittaja, professori Judea Pearl julkaisi "Probabilistic Reasoning in Intelligent Systems" vuonna 1988. Tekoälyn probabilistisen lähestymistavan mestari ja Bayesin verkkojen keksijä oli vallankumouksellinen ajattelija, jonka Bayesin malleista tuli merkittävä työkalu tärkeässä tekniikan ja luonnontieteiden työssä.
Jabberwock saattaa olla pelottava fiktiivinen hahmo Liisa Ihmemaassa, mutta sen tarkoitus oli sama kuin Jabberwackylla, Rollo Carpenterin vuonna 1988 kehittämällä chatbotilla – ilahduttaa ja viihdyttää. Jabberwacky oli varustettu simuloimaan luonnollista ihmisten keskustelua viihdyttävästi ja humoristisesti.
Talvi ei ole pitkä, etenkään subtrooppisilla alueilla, ja lähteessään kevät tuo kauniin kukinnan, jota kaikki rakastavat. Jotain vastaavaa tapahtui myös AI-talvella. Vaikka Vernor Vingen vuoden 1993 "The Coming Technological Singularity" -kirjassa "The Coming Technological Singularity" tehty pahaenteinen ennuste saattoi pelästyttää meistä parhaita, tämä paperi ennusti myös, että 30 vuoden sisällä "saamme teknologian luoda yli-inhimillistä älykkyyttä". ” Kolmekymmentä vuotta siitä, kun emme ehkä ole saavuttaneet sitä, mitä hän ennusti, mutta näyttää siltä, että olemme menossa siihen suuntaan.
Vuonna 1997 maailma näki hallitsevan shakin maailmanmestarin Gary Kasparovin tappion Deep Bluen, ensimmäisen tietokonesahkin peliohjelman, käsissä. Tämä tapaus oli vedenjakaja tekoälyn historiassa, ja siitä tuli siten luova vaikutus moniin kirjoihin ja elokuviin. Samana vuonna Dragon julkaisi NaturallySpeaking 1.0:n, joka tunnetaan myös nimellä DNS, puheentunnistusohjelmiston, joka toimisi Windowsissa.
Vuonna 2000 alalla kehitettiin edelleen Kismet, robotti, joka voisi simuloida ihmisten tunteita. Tämä ja muut robotit olivat professori Cynthia Breazealin idea, joka oli vielä opiskelija MIT Artificial Intelligence Labissa. Unelmat, joita 1900-luvun alun näytelmäkirjailijat näkivät, alkoivat hahmottua.
Juri Gagarinin avaruusodysseia ja Neil Armstrongin laskeutuminen kuuhun olivat juhlimisen arvoisia, mutta samoin olivat kahden yhdysvaltalaisen mönkijän Spirit ja Opportunity laskeutuminen Marsiin vuonna 2003. Ne toimivat planeetalla menestyksekkäästi ilman ihmisen väliintuloa – suuri voitto teknologiamaailmalle. .
Twitter, Facebook ja Netflix – nykyaikaiset teknologiajättiläiset – alkoivat käyttää tekoälyä mainontaan ja UX-algoritmeihinsa lähes kaksi vuosikymmentä sitten vuonna 2006. Merkkejä siitä, että tekoäly teknologiana todella käynnistyisi, olivat alkaneet näkyä. Deep Bluen voitto vuonna 1997 oli välähdys IBM:n tutkimukseen tekoälyn alalla, ja IBM Watson osoitti, kuinka pitkälle heidän tutkimuksensa oli johtanut heidät, kun ohjelma voitti Brad Rutterin ja Ken Jenningsin Jeopardyssa! Haaste vuonna 2011.
IBM:n Watson sai teollisuudenalat vähittäiskaupasta rahoituspalveluihin ajattelemaan tekoälyn käyttöönottoa liiketoiminnassa. Vuosi 2011 oli myös vuosi, jolloin Applen virtuaaliassistentti Siri lanseerattiin.
Aika on jatkumo ja kaikki mitä teemme, jopa tekoäly, on osa tätä jatkumoa. Olemme nähneet, kuinka 1900-luvun vauvan askeleet johtivat 2000-luvun suuriin löytöihin ja keksintöihin. Kun 2000-luvun ensimmäinen neljännes lähestyy loppuaan, näemme, kuinka pitkälle tekoäly on edennyt, etenkin viimeisen vuosikymmenen aikana ja vähän enemmän.
Yksi näistä matkoista on Deep Learning -mallin matka. Sen vaatimattomasta suunnittelusta vuonna 1968 malli saavutti jättimäisen näkymän, kun Googlen Jeff Dean ja Andrew Ng yhdistivät 16 000 tietokoneprosessoria luodakseen vuonna 2012 yhden suurimmista neuroverkoista, jossa on yli miljardi yhteyttä koneoppimiseen. He syöttivät verkkoon 10 miljoonaa satunnaisia kuvia kissoista YouTube-videoista ja jotain poikkeuksellista tapahtui – verkosto alkoi tunnistaa kissoja. Kissan ystävät voivat pitää melua!
Toinen matka on robottien matka. Karel Capekin Rossumin universaaleista roboteista Makoto Nishimuran Gakutensokuun, Joseph Weizenbaumin chatbottiin ELIZA ja Cynthia Breazealin Kismetiin, robotti oli kulkenut pitkän matkan, mutta vuonna 2016 Sophiasta, humanoidirobotista, jolla oli realistisia ihmisen ominaisuuksia ja ilmeitä, tuli ensimmäinen "robottikansalainen". Yllättynyt paljon, älä ole.
Jotkut asiat ravistelevat venettämme ja sitten jotkut ihmiset. Yksi tällainen tapaus tapahtui vuonna 2017, kun teknologiamaailma hämmästyi kahden Facebook-chatbotin käyttäytymisestä, jotka näyttivät kehittäneen oman neuvottelukielen, joka oli ihmisille käsittämätön, mutta osoitti tiettyjä malleja, jotka vakuuttivat tekoälyinsinöörit siitä, että se ei ollut satunnaista höpötystä, vaan kieltä, jota he todella ymmärsivät. Vaikka tämä ei ennustanut singulariteetin saapumista, kuten Vernor Vinge ennusti, botien neuvottelut, mukaan lukien heidän teeskennellyt kiinnostuksensa esineeseen vakuuttaakseen toinen kompromissista myöhemmin, jättivät ihmiset näkemään koneiden tulevaisuuden mahdollisuuksia.
Maaliskuussa 2020 tuli ensimmäinen Covid-19-pandemian aalto, joka katkaisi työn sellaisina kuin tiesimme sen siihen asti. Kun yritykset alkoivat etsiä tapoja tehdä etätyötä, Open AI lanseerasi Generative Pre-trained Transfomer tai GPT-3, kuten sitä yleisesti kutsutaan, toukokuussa 2020. GPT-3 on yksi suurimmista kieltenoppimismalleista, joka voi suorittaa tehtäviä parannetulla tarkkuudella, koska sen kapasiteetti ja suurempi parametrien määrä – 175 miljardia, mikä on 10 kertaa enemmän kuin sen lähin kilpaileva malli Turing-NLG.
Sittemmin uudempia parannettuja versioita, GPT-3.5 ja GPT-4, on julkaistu. Äskettäin GPT-5 on myös ilmoitettu lupaavan Advanced AI:ta, empatiaa, luottamuksellisuutta, dynaamista räätälöintiä sekä ajatus- ja päättelyketjua askel askeleelta.
Matkamme on tuonut meidät nykypäivään, jossa tekoäly läpäisee elämämme kaikki osa-alueet. Tekoälypioneerien kerran fantastisista unelmistamme on tullut päivittäistä todellisuuttamme tarpeitamme ennakoivista virtuaaliassistenteista itseohjautuviin autoihin kaupungin kaduilla.
Mutta kun käännämme sivua tulevaisuuteen, juoni tiivistyy eettisistä ongelmista, yhteiskunnallisista vaikutuksista ja pyrkimyksestä yleiseen tekoälyyn – äärimmäiseen rajaan. Tekoälyn saaga kehittyy edelleen, valloittaa mielikuvituksemme ja haastaa ymmärryksemme siitä, mitä älykkyyden luominen piistä ja koodista tarkoittaa.
Ja niin, tarina tekoälystä, lumoava sekoitus ihmisen kekseliäisyyttä ja teknologista kehitystä, marssii eteenpäin kohti tuntematonta ja kutsuu meidät kaikki todistamaan tämän kiehtovan tarinan seuraavia lukuja.
Liite: