LUD Literatura

Raziskovanje umetne inteligence je bilo vedno zelo interdisciplinarno

Joseph Racknitz, The Turk

Pogovor z Olgo Markič o zgodovini umetne inteligence

Martin Justin

Na prvem dogodku iz cikla Umetna inteligenca v kulturi smo se s filozofinjo Olgo Markič pogovarjali o zgodovini umetne inteligence. Markič je redna profesorica na Oddelku za filozofijo Filozofske fakultete Univerze v Ljubljani, predava pa tudi na skupnem interdisciplinarnem magistrskem programu Kognitivna znanost. Raziskovalno se ukvarja z logiko, kognitivno znanostjo, filozofijo duha, nevrofilozofijo in filozofijo športa. Poleg številnih znanstvenih člankov je izdala in uredila tudi več knjig in zbornikov. Med drugimi je leta 2011 izdala znanstveno monografijo Kognitivna znanost: filozofska vprašanja, s filozofom Markom Uršičem sta napisala učbenik logike Osnove logike, leta 2021 je skupaj s kognitivnim znanstvenikom Tomo Sterletom izdala monografijo O odločanju in osebni avtonomiji, lani pa je uredila zbornik o delu slovenske filozofije Alme Sodnik.

Pod izrazom umetna inteligenca si pogosto predstavljamo neko entiteto, robota ali računalniški program, ki zna razmišljati in početi podobne stvari kot ljudje. A znanstveniki in znanstvenice, ki se ukvarjajo z umetno inteligenco, s tem izrazom pogosto merijo na način pristopanja k problemom oziroma na raziskovalni program. Kaj je torej raziskovalni program umetne inteligence?

Ja, to je zanimivo vprašanje, saj lahko glede na obdobje nanj podamo različne odgovore. Težko rečemo, da je umetna inteligenca nekaj zelo enotnega, trenutno smo v eni fazi, bili pa smo tudi v drugih. Na eni strani je znanstvenike vedno zanimalo, kako deluje človeški um. Ko so se začeli razvijati računalniki, se je pojavila ideja, da bi lahko znanstvene teorije predstavili z računalniškimi modeli in ugotavljali, ali so te dobre ali ne. To raziskovanje je bilo usmerjeno predvsem v raziskovanje duševnih oziroma kognitivnih procesov. Od tod potem izvira tudi ideja, da bi lahko naredili stroj, ki bi repliciral človeško delovanje. Se pravi: ki bi znal sklepati, se učiti, ki bi prepoznaval okolico, vidno zaznaval, procesiral jezik in podobno. To je bila ena linija razvoja, pri kateri se je umetna inteligenca kot raziskovalni program ukvarjala predvsem s tem, da je poskušala z računalnikom replicirati človeške zmožnosti.

Druga linija pa se je osredotočala predvsem na razvoj orodij. Tako da je vedno obstajala neka dvojnost med izdelovanjem modelov kognicije na eni in izdelovanjem pametnih orodji na drugi strani. V prvi fazi razvoja umetne inteligence je šlo predvsem za modele kognicije, zdaj, v tem – kot pogosto rečemo – drugem valu, pa gre predvsem za izdelovanje orodij. Danes je na primer težko najti koga, ki bo trdil, da strojno učenje posnema naše učenje. Seveda, na neki način morda ga, a ne gre za model človeškega delovanja. Gre za pametno orodje, ki nam lahko pomaga pri reševanju določenih problemov.

Se pravi, to je delitev med močno umetno inteligenco in šibko umetno inteligenco?

Tako, to je recimo ena delitev. Druga delitev pa je bolj zgodovinska. Pogosto govorimo o prvem valu, drugem valu, nekateri pa zdaj omenjajo že tretji val. V prvem valu razvoja umetne inteligence je bila v ospredju tako imenovana simbolna umetna inteligenca, ki se je zgledovala predvsem po formalnih sistemih logike. V začetku 20. stoletja so logiki, matematiki in filozofi ugotovili, da lahko argumentacijo v naravnem jeziku podobno kot pri matematiki prestavimo v spremenljivke in sklepanje analiziramo zgolj sintaktično. To je bilo tudi izhodišče za razvoj računalništva. Eden od začetnikov takšnega načina razmišljanja je bil seveda Alan Turing. Filozofi pa gremo vedno radi še malo nazaj in omenimo Thomasa Hobbesa. Ta je imel idejo, da si mišljenje lahko predstavljamo kot vrsto premikanja simbolov, ki jim imamo nekje v glavi. V ozadju je filozofsko gledano tudi descartesovska ideja, da imamo v svojem umu sliko, reprezentacije zunanjega sveta, nad katerimi potem izvajamo različne operacije.

Drugi val razvoja umetne inteligence se je zgledoval po delovanju možganov. Sicer ni šlo za to, da bi na ta način poskušali možgane modelirati – to počne veja nevroznanosti, ki ji pravimo računska nevroznanost. Pri drugem valu umetne inteligence je šlo za to, da je kot zgled za računske modele rabilo predvsem dejstvo, da se procesi dogajajo vzporedno. Tak je bil recimo model Warrena S. McCullocha in Walterja Pittsa iz leta 1943. Temeljil je na ideji, da lahko po vzoru možganov naredimo mrežo preprostih računskih enot, ki so lahko bodisi prižgane bodisi ugasnjene. S tem, da jih na pravilen način povežemo med seboj in te povezave med njimi pravilno utežimo, pa lahko modeliramo sklepanje in različne matematične operacije. Pri McCullochovem in Pittsovem modelu je zanimivo tudi to, da je še združeval oba pristopa k raziskovanju umetne inteligence.

K McCulloch-Pittsovemu modelu in nevronskim mrežam bi se vrnil še kasneje. Najprej pa eno povsem kronološko vprašanje: kot začetek morda bolj institucionaliziranega raziskovanja umetne inteligence se pogosto omenja leto 1956. Kaj se je zgodilo takrat?

Leto 1956 se običajno res omenja kot rojstno leto umetne inteligence, tudi sam izraz umetna inteligenca je nastal takrat. Domislil se ga je John McCarthy, po njegovih besedah predvsem zato, da bi raziskovalce umetne inteligence ločil od kibernetikov. Kakorkoli, leta 1956 je bila na Dartmouth Collegeu v Združenih državah poletna šola, na katero je prišlo kar nekaj zelo slavnih znanstvenikov, ki so se ukvarjali s problemi raziskovanja kognitivnih procesov. Bili so iz različnih disciplin, raziskovanje umetne inteligence je bilo vedno zelo interdisciplinarno. Že McCulloch in Pitts sta bila nevrofiziolog in logik. Poletne šole pa so se udeležili na primer Marvin Minsky, ki je bil računalničar in kognitivni znanstvenik, Claude Shannon, ki ga danes poznamo kot očeta teorije informacij …

Prišel je tudi Herbert Simon …

Simon, ja, ki je bil po izobrazbi politolog, potem pa se je veliko ukvarjal z odločanjem, danes je znan predvsem po teoriji omejene racionalnosti. V Dartmouthu pa je Simon skupaj z Allenom Newellom predstavil model, ki je znal dokazovati logične izreke. V začetku 20. stoletja sta Bertrand Russell in Alfred North Whitehead namreč napisala knjigo Principia Mathematica (1910), v kateri sta sistematizirala propozicijsko logiko, naredila aksiomski sistem in pokazala, kako lahko z njim dokažemo izreke v propozicijski logiki. To je bil takrat zelo velik dosežek. Program Newella in Simona pa je dejansko uspel ponovno dokazati te izreke, nekatere morda na še bolj zanimiv način, kot je to uspelo Whiteheadu in Russellu.

Leto 1956 torej velja za rojstvo umetne inteligence, čeprav seveda nekateri kot začetek umetne inteligence razumejo že model McCullocha in Pittsa iz leta 1943, pomembno izhodišče pa predstavlja tudi kibernetika.

Prej si omenila Hobbesa, zdaj tudi kibernetike. Lahko malo več poveš o tej predzgodovini raziskovanja umetne inteligence?

Seveda lahko začnemo že pri Hobbesu, ki je imel zanimive ideje, ni pa še imel na voljo orodij, da bi jih lahko uresničil. Zelo zanimiv je tudi Leibniz, ki je hotel razviti univerzalni simbolni jezik. Na splošno je ideja, da bi mišljenje lahko formalizirali, iz malega števila osnovnih trditev izpeljali vse ostale, ljudi vedno vznemirjala. To idejo najdemo že pri Aristotelovi silogistiki ali pa v Evklidovih Elementih. Pravi zagon pa je dobila s Turingom, Alonzom Churchom in razvojem formalnih orodij ki so omogočila nastanek računalnikov.

Druga linija te predzgodovine pa je kibernetska. Kibernetika je poudarjala predvsem, da so sistemi vedno v interakciji z okoljem in se od njega učijo. To je ključna razlika med pristopoma: logika poskuša neki sistem izčrpno opisati, določiti in ga tako nekako zamrzniti v času, kibernetika pa je poudarjala moment dinamičnosti in spreminjanja s časom. In v resnici so imeli klasični formalni modeli precej težav z modeliranjem učenja. Ideje, kako bi se modeli učili, so sicer obstajale, a je bila to za klasične pristope precejšnja težava.

Leta 1965 je omenjeni Herbert Simon napovedal, da bodo v dvajsetih letih stroji zmožni narediti vse, kar lahko naredimo ljudje. Tudi danes lahko slišimo podobne napovedi. Ampak zgodovino razvoja umetne inteligence poleg obdobij velikega optimizma zaznamujejo tudi bolj pesimistična obdobja, govori se celo o »zimah umetne inteligence«. Zdaj zagotovo živimo v zlati dobi umetne inteligence, ampak zakaj je vmes prihajalo do takšnih zastojev v raziskovanju?

Ja, klasična umetna inteligenca je imela zelo bombastične napovedi. Je pa že takrat ideja, da lahko mehansko poustvarimo nekatere človeške kognitivne procese, naletela na hude filozofske kritike. Pogosto se v tem kontekstu omenja Huberta Dreyfusa in njegovo knjigo What Computers Can’t Do (1978). Dreyfus se je pri svoji kritiki umetne inteligence naslonil na fenomenologijo in na razlikovanje med »znanjem da« in »znanjem kako«. »Znanje da« je termin za propozicijsko znanje, torej poznavanje dejstev o svetu. Dreyfus je opozoril, da takšno znanje ne zadostuje, če želimo delovati v svetu. Ljudje namreč veliko stvari počnemo kot veščino, imamo znanje o tem, kako nekaj narediti, ki se ga ne da vedno ubesediti. To se je izkazalo tudi praktično. Raziskovalci umetne inteligence so sprva mislili, da imajo lahko roboti oziroma programski modeli veliko banko podatkov, iz katere jemljejo informacije, potrebne za svoje delovanje. Ampak izkazalo se je, da to ni izvedljivo, saj takšno iskanje po podatkih traja predolgo, da bi bilo praktično uporabno.

Drugo pomembno kritiko pa je predstavil John Searle. Ta je trdil, da samo z uporabo pravil in formalnih simbolov stroj nikoli ne more doseči pravega razumevanja. Pride namreč do težave ozemljitve simbolov, s katerimi operira neki stroj ali program. Ta jih sicer lahko spreminja na podlagi določenih pravil, ne more pa vedeti, kaj pomenijo. Ta kritika je sicer zanimiva s filozofskega vidika, računalničarji pa so v resnici veliko bolj resno vzeli Dreyfusa. Spomnim se obdobja, ko so računalničarji brali Heideggerja, Husserla, pa tudi Merleau-Pontyja. Searle je zagovarjal teorijo, da imajo možgani nekakšno svojo vrsto kavzalnosti, s pomočjo katere lahko pridejo do pomena, njegova teorija ostaja bolj na ravni spekulacije in odpira nova vprašanja. Vseeno pa sta obe kritiki znanstvenike spodbudili, da so pri razvoju modelov dali večji poudarek učenju iz okolja, na primer z razvojem robotov, ki se učijo prek delovanja v svetu.

Hkrati pa tudi učenje ni nekaj, česar bi se spomnili šele v devetdesetih, ampak so o njem raziskovalci razmišljali že leta 1943 ob nastanku McCulloch-Pittsovega modela. Pomemben naslednji korak pri razvoju takšnih modelov, ki se lahko učijo z delovanjem, je nato leta 1958 naredil Frank Rosenblatt z modelom, ki ga je imenoval perceptron. Ta je bil sicer zelo enostaven in ni mogel modelirati niti tako osnovnih logičnih operacij, kot je izključujoči ali. Ta je za ljudi zelo preprost, vsi razumemo, da grem lahko ali na predavanje na LUD Literaturo ali pa na piknik, ne morem pa obojega hkrati. Zato je bil perceptron močno kritiziran, na primer v vplivni knjigi Minskega in Seymoura Paperta Perceptrons iz leta 1969. Zaradi takšnih kritik se je financiranje raziskovanja nevronskih mrež v nekem obdobju skoraj povsem ustavilo.

Razvoj je nato ponovno zaživel v osemdesetih, ko so začeli uspešno razvijati tudi kompleksnejše nevronske mreže. Ključno vlogo pri tem je imelo predvsem odkritje novih učnih algoritmov, s katerimi je bilo mogoče popravljati uteži tudi v večnivojskih mrežah. Gre za tako imenovana delta pravila, eno takih je, po angleško, backpropagation rule. Od takrat lahko tudi sledimo drugemu valu razvoja umetne inteligence, ki še vedno traja. Ni pa bil ta razvoj vedno linearen ali zelo preprost, zato govorimo tudi o zimah umetne inteligence.

Nekajkrat si že omenila nevronske mreže. Kaj točno so to?

Kolikor vem, je bila prva nevronska mreža model McCullocha in Pittsa. Povedano zelo enostavno: šlo je za mrežo, sestavljeno iz posameznih računskih enot oziroma »nevronov«, razporejenih v različne ravni, ki so bile med sabo tudi povezane. Podobno kot sinapse v možganih so bile tudi povezave med enotami v tej mreži lahko močnejše ali pa šibkejše oziroma različno utežene. Vsaka enota je imela neko aktivacijsko vrednost, ki je glede na vhodne podatke določila, ali je enota prižgana ali ugasnjena. Mreža se uči po učnem pravilu, ki določa, na kakšen način se tekom delovanja uteži med posameznimi enotami spreminjajo. Učenje se je lahko zgledovalo po delovanju možganov in je na primer temeljilo na Hebbovem pravilu, poimenovanem po nevroznanstveniku Donaldu O. Hebbu. Ta je ugotovil, da so v možganih bolje povezani tisti nevroni, ki so pogosteje aktivirani ob istem času.

Nevronske mreže se potem razlikujejo glede na to, koliko nivojev imajo, ali pa na to, kakšne so povezave med posameznimi enotami. Poleg vhodnega in izhodnega nivoja imajo lahko tudi tako imenovane skrite nivoje. Globoke nevronske mreže, o katerih govorimo danes, so tako mreže, ki imajo veliko število teh vmesnih nivojev. Mreže se razlikujejo tudi po tem, kako se učijo. Poznamo nenadzorovano učenje, pri katerem se mreža sama uči iz podatkov. Tako je na primer učenje po prej omenjenem Hebbovem pravilu. Imamo pa tudi nadzorovano učenje, kjer mrežo učimo s pomočjo vnaprej pripravljenih učnih podatkov. Tako je na primer učenje po prej omenjenih delta pravilih. Učenje nevronskih mrež je danes zelo napredovalo, pri njem se uporabljajo ogromne količine podatkov. Ko pa sem bila v začetku devetdesetih let na študijski izmenjavi v Londonu, je bilo vse še zelo eksperimentalno. Računalničarji so preprosto preizkušali, kaj se bo z mrežo dogajajo med učenjem, kakšno mrežo naj sploh naredijo in kakšne učne primerke naj uporabljajo.

Lahko rečemo, da nevronske mreže temeljijo na prepoznavajo vzorcev in posploševanju. Če so klasični modeli delovali na podlagi dedukcije, nevronske mreže delujejo na podlagi indukcije oziroma posploševanja. Eden izmed odmevnih programov s konca osemdesetih let prejšnjega stoletja se je imenoval NETtalk in je bil narejen za prevajanje angleškega besedila v fonetični zapis, torej na neki način za branje angleščine. To namreč težko naredimo samo z uporabo pravil, saj ima angleška fonetika veliko različnih izjem. Zato so znanstveniki za to nalogo uporabili nevronsko mrežo. Tej so najprej pokazali veliko parov teksta in pripadajočega fonetičnega zapisa. Po tej fazi učenja pa so ji dali samo tekst, da bi videli, ali ga zna na podlagi učnih primerov sama prevesti v fonetični zapis. NETtalk je bil pri tem dejansko kar uspešen. Problem pa je bil, da raziskovalci niso vedeli, zakaj. To je ena od velikih težav pri uporabi nevronskih mrežah, saj znanstveniki pogosto ne vedo zares, kaj se te iz podatkov naučijo in zakaj so uspešne. So pa pri NETtalku kasneje to vseeno poskušali ugotoviti. S statističnimi metodami so analizirali skrite nivoje in prišli do ugotovitve, da je NETtalk iz podatkov posplošil pravila, ki so bila precej podobna ugotovitvam lingvistov.

Da je delovanje globokih mrež netransparentno in da pogosto ne znamo razložiti, kako je sistem prišel do rezultata, je včasih manj, drugič pa precej bolj problematično. Če sistem uporabljamo kot orodje, kjer je pomemben zgolj rezultat, nas dejstvo, da si tega ne znamo razložiti, verjetno niti ne moti preveč. Včasih se da delovanje sistema analizirati naknadno, kot v prej omenjenem primeru programa NETtalk. Na ta način se lahko v znanosti odpre prostor novim teoretskim uvidom. Na nekaterih področjih, kjer se pričakuje ali zahteva utemeljitev odločitve, na primer v pravu in zdravstvu, pa je netransparentnost velik problem. Če na primer preiskovalnemu sodniku pri odločitvi, ali naj osumljenca pošlje v pripor ali ne, pomaga orodje, za katerega se ne ve, kako je prišlo do rezultata, to ni v redu. Nekateri zato že napovedujejo tretji val umetne inteligence, ki bi združeval induktivni pristop nevronskih mrež, ki se je izkazal za zelo uspešnega, in deduktivno logiko klasičnih modelov, ki je bolj transparentna in razumljiva.

O avtorju. Martin Justin (1998) je mladi raziskovalec in doktorski študent filozofije. Kot literarni kritik ter esejist sodeluje predvsem z revijo Literatura, od julija 2023 pa tudi ureja ta spletni portal. Seznam njegovih objav lahko najdete na njegovi spletni strani.

Pogovor o tekstu

Pripiši svoje mnenje

Sorodni prispevki

Kdor bere, je udeležen!

Prijava na Literaturin obveščevalnik

* obvezno polje

Za obveščanje uporabljamo storitev Mailchimp, ki bo tvoje podatke uporabljala skladno s pravili. Vedno si lahko premisliš. Brez nadaljnjega. Navodila za odjavo ali spremembo nastavitev so na dnu vsakega elektronskega dopisa. Tvoje podatke in odločitve bomo spoštovali. Spodaj lahko potrdiš, da se s tem strinjaš.