Geoffrey Hinton nam govori zašto se sada boji tehnologije kojoj je pomogao u izgradnji

LINDA NYLIND / EYEVINE PREKO REDUXA

Upoznao sam Geoffreyja Hintona u njegovoj kući u lijepoj ulici u sjevernom Londonu samo četiri dana prije bombaške objave da napušta Google. Hinton je pionir dubokog učenja koji je pomogao u razvoju nekih od najvažnijih tehnika u srcu moderne umjetne inteligencije, ali nakon decenije u Guglu, povlači se kako bi se fokusirao na nove brige koje sada ima u vezi s umjetnom inteligencijom.  

Zapanjen mogućnostima novih velikih jezičkih modela poput GPT-4 , Hinton želi da podigne svijest javnosti o ozbiljnim rizicima za koje sada vjeruje da mogu pratiti tehnologiju koju je uveo.    

Na početku našeg razgovora sjeo sam za kuhinjski sto, a Hinton je počeo koračati. Godinama mučen hroničnim bolovima u leđima, Hinton gotovo nikada ne sjeda. Sljedećih sat vremena gledala sam ga kako hoda s jednog kraja sobe na drugi, okrećući mi glavu dok je govorio. I imao je mnogo toga da kaže.

Ovaj 75-godišnji informatičar, koji je zajedno sa Yannom LeCunom i Yoshuom Bengiom dobio Turingovu nagradu za 2018. za svoj rad na dubokom učenju, kaže da je spreman da promijeni brzinu. „Postajem prestar da bih radio tehnički posao koji zahteva pamćenje mnogo detalja“, rekao mi je. „Još sam dobro, ali nisam ni približno tako dobar kao što sam bio, i to me nervira.”
Ali to nije jedini razlog zašto napušta Google. Hinton želi da troši svoje vrijeme na ono što opisuje kao “više filozofski rad”. I to će se fokusirati na malu, ali – za njega – vrlo realnu opasnost da se AI ispostavi kao katastrofa. 
Napuštanje Google-a omogućit će mu da iznese svoje mišljenje, bez samocenzure u koju se mora uključiti Googleov izvršni direktor. „Želim razgovarati o sigurnosnim pitanjima umjetne inteligencije, a da ne moram brinuti o tome kako je u interakciji s Googleovim poslovanjem,“ kaže on. “Sve dok me Google plaća, ne mogu to da uradim.”
To ne znači da je Hinton ni na koji način nezadovoljan Google-om. „Možda će vas iznenaditi“, kaže on. „Želim da kažem mnogo dobrih stvari o Google-u, a mnogo su vjerodostojnije ako više nisam u Google-u.”

Hinton kaže da ga je nova generacija velikih jezičkih modela – posebno GPT-4, koji je OpenAI objavio u martu – navela da shvati da su mašine na putu da budu mnogo pametnije nego što je mislio da će biti. I on se boji kako bi se to moglo odigrati.    

„Ove stvari su potpuno drugačije od nas“, kaže on. “Ponekad mislim da je kao da su sletjeli vanzemaljci, a ljudi to nisu shvatili jer govore veoma dobar engleski.”

Temelji

Hinton je najpoznatiji po svom radu na tehnici zvanoj backpropagation, koju je predložio (sa par kolega) 1980-ih. Ukratko, ovo je algoritam koji omogućava mašinama da uče. Ona podupire gotovo sve neuronske mreže danas, od sistema kompjuterskog vida do velikih jezičkih modela.

Trebalo je sve do 2010-ih da moć neuronskih mreža obučenih putem propagacije unatrag zaista napravi utjecaj. Radeći sa nekoliko diplomiranih studenata, Hinton je pokazao da je njegova tehnika bila bolja od bilo koje druge u dobivanju kompjutera za identifikaciju objekata na slikama. Također su obučili neuronsku mrežu da predvidi sljedeća slova u rečenici, preteču današnjih velikih jezičkih modela.

Jedan od ovih diplomiranih studenata bio je Ilya Sutskever, koji je nastavio sa suosnivanjem OpenAI-a i predvodio je razvoj ChatGPT-a . „Prve smo nagovještaje da bi ove stvari mogle biti nevjerovatne“, kaže Hinton. „Ali trebalo je dosta vremena da se utone u to da to treba da se uradi u ogromnim razmerama da bi bilo dobro.” Osamdesetih godina prošlog vijeka neuronske mreže su bile šala. Dominantna ideja u to vrijeme, poznata kao simbolična AI, bila je da inteligencija uključuje obradu simbola, kao što su riječi ili brojevi.

Ali Hinton nije bio uvjeren. Radio je na neuronskim mrežama, softverskim apstrakcijama mozga u kojima su neuroni i veze između njih predstavljeni kodom. Promjenom načina na koji su ti neuroni povezani – promjenom brojeva koji se koriste za njihovo predstavljanje – neuronska mreža se može ponovo ožičiti u hodu. Drugim riječima, može se natjerati da uči.

„Moj otac je bio biolog, pa sam razmišljao u biološkim terminima“, kaže Hinton. „A simboličko razmišljanje očigledno nije u srži biološke inteligencije.

“Vrane mogu rješavati zagonetke, a nemaju jezik. Oni to ne rade tako što pohranjuju nizove simbola i manipulišu njima. Oni to rade mijenjajući snagu veza između neurona u njihovom mozgu. I zato mora biti moguće naučiti komplicirane stvari mijenjajući snagu veza u umjetnoj neuronskoj mreži.”

Nova inteligencija

Već 40 godina Hinton je vidio umjetne neuronske mreže kao loš pokušaj oponašanja bioloških. Sada misli da se to promijenilo: u pokušaju da oponašamo ono što biološki mozak radi, misli, došli smo do nečeg boljeg. „Strašno je kada to vidite“, kaže on. “To je iznenadni preokret.”

Hintonovi strahovi će se mnogima učiniti kao stvar naučne fantastike. Ali evo njegovog slučaja. 

Kao što im ime govori, veliki jezički modeli su napravljeni od masivnih neuronskih mreža s ogromnim brojem veza. Ali oni su mali u poređenju sa mozgom. „Naš mozak ima 100 triliona veza“, kaže Hinton. „Veliki jezički modeli imaju do pola triliona, najviše triliona. Ipak, GPT-4 zna stotine puta više od bilo koje osobe. Dakle, možda zapravo ima mnogo bolji algoritam učenja od nas.”

U poređenju s mozgom, vjeruje se da su neuronske mreže loše u učenju: potrebne su ogromne količine podataka i energije da bi se uvježbale. Mozak, s druge strane, brzo preuzima nove ideje i vještine, koristeći samo djelić energije koliko i neuronske mreže.  

„Izgleda da ljudi imaju neku vrstu magije“, kaže Hinton. „Pa, dno pada iz tog argumenta čim uzmete jedan od ovih velikih jezičkih modela i obučite ga da radi nešto novo. Može izuzetno brzo naučiti nove zadatke.”
Hinton govori o „učenju u nekoliko koraka“, u kojem se unaprijed obučene neuronske mreže, kao što su veliki jezički modeli, mogu osposobiti da rade nešto novo s obzirom na samo nekoliko primjera. Na primjer, on primjećuje da neki od ovih jezičkih modela mogu nizati niz logičkih iskaza zajedno u argument iako nikada nisu bili obučeni da to rade direktno.
Uporedite unapred obučeni veliki jezički model sa čovekom u brzini učenja takvog zadatka i čovekova ivica nestaje, kaže on.
Šta je sa činjenicom da veliki jezički modeli čine toliko stvari? Poznate kao “halucinacije” od strane istraživača AI (iako Hinton preferira termin “konfabulacije”, jer je to ispravan termin u psihologiji), ove greške se često vide kao fatalni nedostatak u tehnologiji. Tendencija njihovog generiranja čini chat botove nepouzdanim i, mnogi tvrde, pokazuje da ovi modeli nemaju pravo razumijevanje onoga što govore. 
Hinton ima odgovor i za to: sranje je karakteristika, a ne greška. „Ljudi se uvek konfabuliraju“, kaže on. Poluistine i pogrešno zapamćeni detalji obilježja su ljudskog razgovora: „Konfabulacija je potpis ljudskog pamćenja. Ovi modeli rade nešto kao ljudi.”

Razlika je u tome što ljudi obično konfabuliraju manje-više ispravno, kaže Hinton. Za Hintona, izmišljanje stvari nije problem. Za kompjutere je potrebno samo malo više vježbe.  

Takođe očekujemo da računari budu ili ispravni ili pogrešni – a ne nešto između. „Ne očekujemo od njih da brbljaju kao što to čine ljudi“, kaže Hinton. „Kada računar to uradi, mislimo da je napravio grešku. Ali kada osoba to radi, to je način na koji ljudi rade. Problem je što većina ljudi ima beznadežno pogrešan pogled na to kako ljudi rade.” 

Naravno, mozgovi i dalje rade mnoge stvari bolje od kompjutera: voze auto, uče hodati, zamišljaju budućnost. A mozak to radi na šoljici kafe i parčetu tosta. „Kada je biološka inteligencija evoluirala, nije imala pristup nuklearnoj elektrani“, kaže on.   

Ali Hintonova poenta je da ako smo voljni platiti veće troškove računarstva, postoje ključni načini na koje neuronske mreže mogu pobijediti biologiju u učenju. (I vrijedi zastati da razmotrimo šta ti troškovi podrazumijevaju u smislu energije i ugljika.)

Učenje je samo prvi niz Hintonovog argumenta. Drugi je komunikacija. „Ako vi ili ja nešto naučimo i želimo to znanje prenijeti na nekog drugog, ne možemo mu samo poslati kopiju“, kaže on. „Ali mogu imati 10.000 neuronskih mreža, od kojih svaka ima svoje iskustvo, i svaka od njih može odmah podijeliti ono što nauči. To je ogromna razlika. Kao da nas je bilo 10.000, a čim jedna osoba nešto nauči, svi to znamo.”

Šta sve ovo znači? Hinton sada misli da postoje dvije vrste inteligencije na svijetu: životinjski mozgovi i neuronske mreže. „To je potpuno drugačiji oblik inteligencije“, kaže on. “Nova i bolja forma inteligencije.”

 

To je velika tvrdnja. Ali AI je polarizovano polje: bilo bi lako pronaći ljude koji bi mu se smejali u lice – i druge koji bi kimnuli u znak slaganja. 

Ljudi su također podijeljeni oko toga da li bi posljedice ovog novog oblika inteligencije, ako postoji, bile korisne ili apokaliptične. „Da li mislite da će superinteligencija biti dobra ili loša zavisi u velikoj meri od toga da li ste optimista ili pesimista“, kaže on. “Ako zamolite ljude da procijene rizike od loših stvari koje se dešavaju, na primjer kolika je šansa da se neko u vašoj porodici zaista razboli ili da ga udari auto, optimista bi mogao reći 5%, a pesimista bi mogao reći da će se to sigurno dogoditi. Ali blago depresivna osoba će reći da su šanse možda oko 40%, i obično su u pravu.”

Šta je Hinton? „Lako sam depresivan“, kaže on. “Zbog čega se bojim.”

Kako bi sve moglo poći po zlu

Hinton se plaši da su ovi alati sposobni pronaći načine za manipulaciju ili ubijanje ljudi koji nisu spremni za novu tehnologiju. 

“Odjednom sam promijenio stav o tome hoće li te stvari biti inteligentnije od nas. Mislim da su oni sada vrlo blizu tome i da će u budućnosti biti mnogo inteligentniji od nas”, kaže on. “Kako da to preživimo?”

Posebno je zabrinut da bi ljudi mogli iskoristiti alate kojima je on sam pomogao da udahnu život kako bi nagnuli vagu nekih od najvažnijih ljudskih iskustava, posebno izbora i ratova.

„Vidi, evo jednog načina da sve pođe po zlu“, kaže on. „Znamo da su mnogi ljudi koji žele da koriste ove alate loši glumci poput Putina ili DeSantisa. Žele ih iskoristiti za pobjedu u ratovima ili za manipulaciju biračkim tijelom.”

Hinton vjeruje da je sljedeći korak za pametne mašine mogućnost kreiranja vlastitih podciljeva, privremenih koraka potrebnih za izvršavanje zadatka. Šta se dešava, pita on, kada se ta sposobnost primeni na nešto inherentno nemoralno?

„Nemojte ni na trenutak pomisliti da Putin ne bi napravio hiper-inteligentne robote sa ciljem da ubijaju Ukrajince“, kaže on. “Ne bi oklijevao. A ako želite da budu dobri u tome, ne želite da ih mikroupravljate – želite da shvate kako to učiniti.”

Već postoji nekoliko eksperimentalnih projekata, kao što su BabyAGI i AutoGPT, koji povezuju chat botove s drugim programima kao što su web pretraživači ili programi za obradu teksta, tako da mogu nizati jednostavne zadatke. Sićušni koraci, sigurno – ali oni signaliziraju smjer u kojem neki ljudi žele krenuti ovom tehnologijom. Čak i ako loš glumac ne uhvati mašine, postoje i druge brige oko podciljeva, kaže Hinton.

„Pa, evo podcilja koji gotovo uvijek pomaže u biologiji: dobiti više energije. Dakle, prva stvar koja bi se mogla dogoditi je da će ovi roboti reći: ‘Hajde da dobijemo više snage. Preusmjerimo svu struju na moje čipove.’ Još jedan sjajan podcilj bi bio da napravite više kopija sebe. Zvuči li to dobro?”

Možda ne. Ali Yann LeCun, Metin glavni AI naučnik, slaže se s tom pretpostavkom, ali ne dijeli Hintonove strahove. „Nema sumnje da će mašine postati pametnije od ljudi – u svim domenima u kojima su ljudi pametni – u budućnosti,” kaže LeKun. “Pitanje je kada i kako, a ne pitanje da li.”

Ali on ima potpuno drugačiji pogled na to kuda stvari idu dalje. „Vjerujem da će inteligentne mašine uvesti novu renesansu za čovječanstvo, novu eru prosvjetljenja“, kaže LeCun. “U potpunosti se ne slažem s idejom da će mašine dominirati ljudima samo zato što su pametnije, a kamoli uništavati ljude.”

„Čak i unutar ljudske vrste, najpametniji među nama nisu oni koji najviše dominiraju“, kaže LeKun. “A oni koji dominiraju definitivno nisu najpametniji. Imamo brojne primjere za to u politici i biznisu.”

Joshua Bengio, koji je profesor na Univerzitetu u Montrealu i naučni direktor Montrealskog instituta za algoritme učenja, osjeća se više agnostikom. „Čujem ljude koji omalovažavaju ove strahove, ali ne vidim nijedan čvrst argument koji bi me uvjerio da ne postoje rizici takve veličine o kojima Geoff razmišlja“, kaže on. Ali strah je koristan samo ako nas potakne na akciju, kaže on: „Pretjeran strah može biti paralizirajući, pa bismo trebali pokušati održati rasprave na racionalnom nivou.”

Samo pogledaj gore

Jedan od Hintonovih prioriteta je da pokuša da sarađuje sa liderima u tehnološkoj industriji kako bi se videlo da li se mogu udružiti i dogovoriti koji su rizici i šta učiniti u vezi s njima. On smatra da bi međunarodna zabrana hemijskog oružja mogla biti jedan od modela kako da se zaustavi razvoj i upotreba opasne veštačke inteligencije. “Nije bilo sigurno, ali u cjelini ljudi ne koriste hemijsko oružje,” kaže on.
Bengio se slaže s Hintonom da se ova pitanja moraju riješiti na društvenom nivou što je prije moguće. Ali on kaže da se razvoj AI ubrzava brže nego što društva mogu pratiti. Mogućnosti ove tehnologije napreduju svakih nekoliko mjeseci; zakonodavstvo, regulativa i međunarodni ugovori traju godinama.
Zbog toga se Bengio zapita da li je način na koji su naša društva trenutno organizovana – i na nacionalnom i na globalnom nivou – dorastao izazovu. “Vjerujem da bismo trebali biti otvoreni za mogućnost prilično različitih modela društvene organizacije naše planete”, kaže on.
Da li Hinton zaista misli da može dobiti dovoljno ljudi na vlasti da podijele svoje brige? On ne zna. Prije nekoliko sedmica gledao je film Ne gledaj gore , u kojem asteroid kruži prema Zemlji, niko se ne može složiti šta da radi u vezi s tim i svi umiru – alegorija o tome kako svijet ne uspijeva da se pozabavi klimatskim promjenama.
„Mislim da je tako sa veštačkom inteligencijom“, kaže on, kao i sa drugim velikim nerešivim problemima. „SAD se čak ne mogu složiti da jurišne puške zadrže u rukama tinejdžera,“ kaže on.
Hintonov argument je otrežnjujući. Dijelim njegovu mračnu procjenu kolektivne nesposobnosti ljudi da djeluju kada su suočeni s ozbiljnim prijetnjama. Istina je i da AI rizikuje da izazove stvarnu štetu – da ugrozi tržište rada, učvrsti nejednakost, pogorša seksizam i rasizam i još mnogo toga. Moramo se fokusirati na te probleme. Ali još uvijek ne mogu napraviti skok od velikih jezičkih modela do robotskih gospodara. Možda sam optimista.

Kada me je Hinton ispratio, prolećni dan je postao siv i mokar. “Uživajte, jer vam možda nije preostalo dugo,” rekao je. Nasmejao se i zatvorio vrata.

 

 

 

Dežurstvo od 09 do 16h u prostoriji servisa

Fismod - Beograd

Koristimo "mali" godišni odmor od 29.07. do 03.08.2021