Ar šiuolaikinis dirbtinis intelektas jau padarė proveržį?

1726 metais Džonatanas Swiftas išleido savo populiariausią knygą „Guliverio kelionės“, kurioje buvo aprašoma ir kelionė į skraidančią salą Laputą. Salos gyventojai – labai protingi, bet nelabai tikrame gyvenime besigaudantys mokslininkai, kurie vis prigalvoja visokiausių keistenybių, turinčių visiems palengvinti gyvenimą. Vienas toks išradimas yra milžiniška mašina su daugybe ratų ant kurių pritvirtintos lentelės su įvairiausiais žodžiais, paimtais iš išradėjo jaunystės užrašų: patempus virvelę tie ratai sukasi ir žodžiai susidėlioja daug maž atsitiktine tvarka į sakinius. Dažniausiai ne itin prasmingus, bet kartais juose yra reikšmingų frazių, kurias kaip mat į knygas surašo penkios dešimtys prie mašinos dirbančių studentų. Mašinos išradėjas tiki, kad žmonijai nuo šiol galvoti nebereikės, nes visas pasaulio knygas rašys ši jo mašina. Mašina nuo šiol atras visus pasaulio dėsnius ir tik beliks juos užrašyti į knygas. Tiesa, tam reiktų papildomo finansavimo, nes darbas su viena mašina lėtokas…

Neseniai pasirodęs GPT-3 (generative pre-trained transformer) dirbtinio intelekto modelis iš OpenAI veikia panašiu principu: apmokius modelį milžinišku kiekiu teksto jis randa sąsajas tarp visokiausių terminų ir, uždavus kokį klausimą, gali sugeneruoti visai protingą atsakymą. Paprašius, atsakymą jis gali pateikti ir eilėraščio, ar mokslinio straipsnio stiliumi, gali imituoti žiniasklaidos antraštes, programavimo kalbos kodą, formalaus dokumento tekstą ar tiesiog kaip anekdotą. Norint išbandyti GPT modelį, programavimo žinių nereikia – OpenAI padarė galimybę tiesiog pasikalbėti su šiuo dirbtinio intelekto modeliu. Rezultatai tikrai pranokstantys lūkesčius, generuojamas tekstas kokybiškas. Lyg kalbėtumeisi su lingvistikos profesoriumi, mokančiu kalbėti begale kalbų ir stilių, o kartu ir tobulai žinančiu visus faktus, kuriuos galima rasti Wikipedijoje. Vienintelis minusas: to profesoriaus logika yra kaip maždaug ketverių metų vaiko ir sudėtingų uždavinių jis išspręsti (kol kas?) nesugebės. Jei paklausi, koks Jono mamos trečio sūnaus vardas, jeigu jis turi brolius Petrą ir Paulių, GPT-3 tokio klausimo neatsakys. Bet, kita vertus, beveik tobulai sugeneruos tau skundą oficialioms institucijoms sklandžia biurokratine kalba, jeigu nori jiems pasiskųsti apie nebarstomas gatves. Sutaupo laiko paprastoms užduotims.

Daug kam toks geras teksto generavimas gali pasirodyti kone stebuklingas, tad ir noriu surašyti čia savo mintis ką apie tai šiuo metu manau. Tikėtina, kad mano spėjimai gali ir stipriai prašauti, bet norisi turėti juos užfiksuotus raštu, mat žmogaus atmintis mėgsta jam pačiam pataikauti: prisimeni tik tuos dalykus, kuriuos tiksliai atspėjai ir netyčia pamiršti savo spėjimų klaidas. Visada pamenu, kad 2015-2016 metais buvau įsitikinęs, jog Teslos ambicija 2020-aisiais turėti self-driving mašiną yra visiškai nereali. Esu linkęs pamiršti, jog 2008-aisiais tikėjau, kad Ukraina (lygiai kaip ir Rusija!), nenumaldomais septynmyliais žingsniais juda link vakarų ir ten po kelių metų nebeliks korupcijos.

Dažnai su naujomis, daug žadančiomis technologijomis, atsitinka taip, kad trumpuoju laikotarpiu jos nepateisina į jas sudėtų (per daug didelių) lūkesčių. Pradinei euforijai praėjus, pastebima, kad visgi technologija turi kažkokių ribojimų, ne visada veikia idealiai. Paaiškėja, kad bet kuris vaistas nuo visų ligų turi tam tikrus šalutinius poveikius, ar negydo tam tikrų simptomų – tada minia greitai persimeta ant naujos panacėjos. GPT modelio problema – logikos trūkumas. Generuojamas tekstas gražus, iš pažiūros protingas ir netgi logiškas, bet atidžiau pažiūrėjus, ta logika pasirodo esanti kreivoka ir pradeda nebekelti pasitikėjimo. GPT generuojamas tekstas man labai panašus į sapnus: kol sapnuoji, viskas atrodo aišku ir tvarkinga, bet pabudęs loginio ryšio ne visada atseki. Pasirodo, jog plaukiojai ant nendrinio plausto baseine, o jis tapo krokodilu ir kaip tik tau pabundant bandė tave sugriebti už kojos. Kol sapnavai, plaustas iš nendrių ir krokodilas uždarame baseine atrodė logiškiausias dalykas pasaulyje, bet geriau pagalvojus belieka stebėtis, kodėl sapno logika taip skiriasi nuo realios. Taip ir su GPT generuojamu tekstu: skamba gerai, bet kas kartą turi tikrinti, ar jo logika ne iš sapnų pasaulio. Pasitikėti tokiu tekstu (kol kas) taip pat sunku, kaip patikėti svarbų darbą keturmečiui: gal rezultatas ir bus pasiektas, bet jis nebūtinai bus toks, kokio tikėjaisi.

Sunkiausia, kad kuo sudėtingesnis uždavinys, tuo atidžiau reikia tikrinti rezultatą. GPT gali generuoti programavimo kodą ir stebėtinai gerai išspręsti paprastas programavimo užduotis. Užtenka pažiūrėti į šios bibliotekos demonstracinį filmuką. Manau, kad didžiausia problema tame, kad davus sudėtingą užduotį ir gavus klaidingą rezultatą (t.y. jeigu modelis sugeneruoja klaidingą kodą), reikia be galo daug žinių atsekti, kur modelis suklydo ir sugeneruotą kodą pataisyti. Kitaip sakant, dirbtinis intelektas lengvus dalykus išsprendžia lengvai, o sudėtingų dalykų išspręsti nemoka (makes easy things easy and hard things impossible, tuo tarpu žmonėms gana lengvus uždavinius spręsti sunku, bet jie bent jau sugeba su daug pastangų išspręsti sudėtingus, humans make easy things hard, but hard things possible). Dar blogiau: jis ne visada (niekada?) nesugeba atskirti, kurios problemos yra lengvos, o kurios sudėtingos. Neaišku kur yra riba, kur modeliu dar vis galima pasitikėti, o kur jau reikia kuo ankstyvesnio žmogaus įsikišimo.

Tiesa, juk čia dar pati technologijos aušra, viskas tobulės. Juk ir naujas darbuotojas negalės iš karto tobulai atlikti užduoties. Skirtumas tas, kad žmogus kol kas gali turėti pajautimą, kad kažkas čia ne taip, gali, gavęs instrukciją „na, dar pagalvok, kažkaip tau gavosi nelogiškas atsakymas“, iš tiesų išmokti savo klaidas ir jas ištaisyti. Kol kas to GPT negali, o jei galėtų – būtume radę bendrinio dirbtinio intelekto (general artificial intelligence) Gralio taurę.

Kita vertus, ilguoju laikotarpiu tokios technologijos turi žymiai didesnį efektą nei buvo tikimasi, tik tas efektas pasireiškia visai kitokiais, netikėtais būdais. Tarkim interneto pradžioje buvo tikimasi, kad žmonės taps labai protingi, nes galės lengvai bet kada prieiti prie visų pasaulio bibliotekų resursų: realybėje visi laiką leidžia socialiniuose tinkluose ir internetą vartoja daugiausiai visai ne tekstinės informacijos vartojimui. Kur mus nuves dirbtinai generuojamo teksto perteklius? Tikėtina, kad tekstą skaitys dar mažiau žmonių. Kažkas, rašydamas elektroninį kvietimą į renginį užduos dirbtiniam intelektui užduotį sukurti tris išsamius Šekspyro plunksnos vertus paragrafus apie renginio išskirtinumą, kažkas, gavęs šį laišką, dirbtiniam intelektui duos užduotį tai išversti į tris žodžius „Petras kviečia alaus“, kad tik nereiktų tų trijų paragrafų skaityti. Jau dabar didžioji teksto dalis internete yra generuojama visai ne žmonėms, daugiausiai tekstų yra rašomi Google botams, kad jie aukščiai paieškose įvertintų vieną ar kitą puslapį.

Taigi, mano trumpos prognozės:

  • Dirbtinis intelektas išgyvens susižavėjimo fazę: juo bus galima daryti nuostabių dalykų, bet kartu pradės ryškėti ir jo trūkumai ir apribojimai
  • Po kelių metų dirbtinis intelektas ras savo pritaikymo nišų, bet jos nebeatrodys stebuklingos (kaip kad dabar nebeatrodo stebuklinga numerių nuskaitymo technologija įvažiuojant į parkingą)
  • Žemiausio lygio teksto rašytojams ateis labai sunkios dienos. Jau dabar automatiniai vertėjai ir teksto generatoriai gerai atlieka savo darbą, konkuruoti su jais beprasmiška.
  • Kita vertus, specializacija vis dar bus vertinga: versti grožinę literatūrą sunkiau nei techninę dokumentaciją. Kūrybiški žmonės, darantys kokybišką darbą, išliks vertingi. Dar vertingesni nei dabar: kaip kad tie, kurie rankomis mezga vienetinius megztinius Fareruose vis dar gali konkuruoti su Indijos ar Kinijos fabrikais.
  • Didžiausias žmogaus privalumas: jis gali suprasti, ko tiksliai reikia. Net jei programuotojų darbas pasikeis tiek, kad vietoje kodo rašymo jam reikės teikti užklausas dirbtiniam intelektui, išgyvens tie, kas geriausiai supranta kliento poreikius. Dirbtinis intelektas bus tik dar vienas įrankis darbui palengvinti.
  • Deja, kuo toliau, tuo mažiau bus vertinamas tekstas: jį lengva generuoti, o skaitančių jaunoje kartoje yra mažai: jau dabar atsakymų jie ieško video formatu ir geriau žiūrės problemą paaiškinantį filmuką Youtube ar TikTok nei perskaitys techninę dokumentaciją ar ilgą knygą. Tekstas reikalauja susikaupimo, o dėmesio trukmė stipriai sumažėjusi. Tekstas internete tampa svarbus tik automatinėms sistemoms. Botų generuojamas botams.
  • Vis dar didžioji žmonijos išmintis bus kaupiama knygose, ir, tikiuosi, jog jos vis dar bus daugiausiai rašomos ne dirbtinio intelekto. Pažiūrėsim, kiek būsiu atspėjęs po kokio dešimtmečio.

Nick Bostrom: „Superintelligence“

Kai perskaičiau Max Tegmark’o „Life 3.0“, buvau piktas – tema įdomi ir aktuali, bet skaitai ir supranti, kad autoriui kompetencijos dirbtinio intelekto klausimais mažokai. Tad ėmiausi Nick Bostromo knygos „Superintelligence“, nes ją dauguma laiko žymiai rimtesne.

Šioje knygoje esminiai skyriai yra patys pirmieji, kuriuose diskutuojama apie tai, kada (ir ar iš vis) įmanoma pasiekti dirbtinio intelekto sprogimą: kada jau turėsime tokį dirbtinį intelektą, kuris pats besimokydamas mus aplenks savo protu. Visi kalbinti ekspertai teigė, jog arba po kokio šimtmečio, arba niekada. Likusi didžioji knygos dalis yra „kas būtų, jeigu būtų“ pasvarstymai, kurie gal ir įdomūs ir arčiau žemės nei Max Tegmarko svaičiojimai apie Daisono sferas, bet vis tiek palieka intelektualinio savismaginimosi prieskonį.

Manau, kad didžiausia problema, jog į dirbtinį intelektą žiūrima kaip į technologinę problemą, neturint filosofinio pagrindo. Vien dėl to Asimovas robotizacijos klausimais gali pasakyti žymiai daugiau nei Bostromas – ir Asimovo apysakos net po penkiasdešimties metų atrodo aktualesnės. Dirbtinio intelekto suvaldymas nėra vien tik mechaninis technologinis sprendimas – tai žymiai gilesnė problema. Mes juk net nežinome, kaip dirbtiniam intelektui suformuluoti optimizacijos uždavinį: nepakanka pasakyti, jog norime, kad žmonija būtų laimingesnė, nes iš karto kyla klausimas, kaip tą laimę apibrėžti ir išmatuoti. Ir čia algoritmai bejėgiai.

Knygoje yra ir daug keistokų bei naivokų svarstymų apie žmoniją: kaip čia juos suvaldyti, kad kas nors piktybiškai neimtų kurti pavojingo dirbtinio intelekto. Sako, tereikia tik tvirto susitarimo ir melo detektoriaus, tik skaitant neapleidžia toks jausmas, kad autorius nelabai supranta, kaip veikia pasaulis, ir iš istorijos nėra daug ko išmokęs: galėjai tartis kiek tik nori, bet atominę bombą vis tiek visi susikūrė, kas tik labai norėjo. O melo detektorius, kaip techninis sprendimas irgi itin naivus – ar bent įmanoma tiksliai apibrėžti, kas yra melas, o kas tiesa?

Ar jums tikrai reikia besimokančių (machine learning) sistemų?

Žiūrėk, turim duomenų, gal galėtumėt ką nors padaryt su machine learning ar dirbtiniu intelektu? Juk čia gi dabar ateitis“ – labai dažnas šiuolaikinis prašymas iš potencialių klientų. Neretai pasirodo, kad realių problemų sprendimui nereikia nei gudrių algoritmų, nei dirbtinio intelekto: didžioji vertė iš duomenų išspaudžiama žymiai paprastesnėmis priemonėmis, vien tik sutvarkius duomenis ar pasinaudojant senais gerais statistikos įrankiais. Kita vertus, logistinės regresijos terminai panašiai kaip ir bet kokios diskusijos apie neuroninius tinklus: nei apie vienus, nei apie kitus nedaug kas girdėjęs.

Problema tame, kad dirbtinis intelektas ir besimokančios sistemos yra dažnai minimos tokiose stebuklinguose kontekstuose, kad paprastas žmogus vargu ar gali suprasti, kad, nepaisant visų pastarųjų metų pasiekimų, jos nėra visagalės. Taip, jos gali atpažinti objektus paveiksliukuose, taip, jog pusėtinai gali išversti vienos kalbą į kitą, taip, jog gali kūrybiškai imituoti meno kūrinius. Ne, besimokančios sistemos dar negreit sukurs naują Nobelio literatūros kūrinį, ne, jos nesugalvos jums naujos verslo strategijos, ne, jūsų atsitiktinė duomenų sankaupa netaps aukso grynuoliu, nešančiu jums milijonus vien todėl, kad nutarėte investuoti į dirbtinį intelektą.

Vienas geriausių kriterijų, kuris labai greitai atmeta visas dirbtiniam intelektui kol kas neįkandamas idėjas yra užduoti sau klausimą, ar su norima spręsti užduotimi susidorotų paprastas žmogus. Jei žmogus duomenyse gali atrasti paaiškinamus sąryšius bei dėsnius, tai yra šansų, kad tai galės atlikti ir dirbtinis intelektas, nors to garantuoti negalima. Jei žiūri į klientų duomenis, ir pradedi suprasti dėsningumus, tuos dėsningumus galbūt atras ir besimokančios sistemos. O jei duomenys nieko nesako net protingiausiam žmogui, tikėtina, jog nieko protingiau nesugalvos ir dirbtinės sistemos.

Panašios nuomonės yra ir šio dienoraščio autorius. Jis gal dar griežtesnis: jei įmanoma duomenis perkratyti statistinės analizės pagalba ir jų ryšius aprašyti matematinėmis formulėmis, dirbtiniam intelektui – ne vieta. Nors suprantu, jog riba tarp sudėtingos statistikos ir besimokančių sistemų kartais nebe tokia ir aiški.

Kad ir kaip ten bebūtų, duomenys atneša daugiausiai verslo vertės, kai yra labai aiškiai suprantama, ką su jais norima padaryti ir kai yra užduodami teisingi verslo klausimai. Vien perleidus atsitiktinių duomenų rinkinį per dirbtinio intelekto algoritmus, verslo įžvalgų grynuolio nerasi. Garbage in, garbage out.

Max Tegmark – „Life 3.0“

Jau senokai skaitoma knyga mane taip erzino: nuolat norėjosi su autoriumi nesutikti ir nurašyti jį kaip nieko nesuprantantį naivų hipsterį. Paviršutiniškas tekstas, pilnas gal ir įdomių, bet dažniausiai visiškai neesminių pastebėjimų, užteptas riebiu sluoksniu autoriaus sutiktų žymių žmonių pavardžių. Buvimas fiziku visai neužtikrina, jog supranti dirbtinio intelekto problemas, juolab, kad jos daugiau filosofinės / humanitarinės, o ne iš tiksliųjų mokslų srities. Nors ir tiksliųjų mokslų problemos knygoje nušviestos skurdokai.

Aišku, visai nepadeda ir tai, kad mano paties nuomonė apie dirbtinį intelektą labai skiriasi nuo autoriaus, bet būtent todėl ir noriu geriau suprasti Bostromo, Kurzweilo ir kitų požiūrį, kad tuoj tuoj pasaulį užvalgyt superprotingas dirbtinis intelektas. Kiek suprantu, su bendruoju dirbtiniu intelektu (t.y. ne tokiu AI, kuris sugeba atlikti tik siaurą užduotį, tarkim, žaisti šachmatais ar atpažinti objektus paveiksle) kol kas yra labia mažai pasistūmėta. Dar blogiau: netgi tie dirbtinio intelekto pritaikymai, kurie jau yra radę savo vietą, susilaukia vis daugiau kritikos. Facebook algoritminis žinių srautas, pasirodo, nėra toks jau nekaltas, tad gal tai nebėra jau tokia išspręsta problema kaip atrodė prieš kelis metus. Net save vairuojančios mašinos vėluoja pasirodyti: o buvo manančių, kad jau 2020-aisiais jų bus daugiau nei žmonių valdomų automobilių. Dirbtinio intelekto mokymo progresas bent jau kol kas nėra eksponentinis: priešingai, kuo daugiau sieki tikslumo, tuo sunkiau jį pasiekti. Kaip ir visur kitur gyvenime.  

Filosofuoti apie šauniai skambančias Daisono sferas, kurios nelabai turi ką bendro su dabartimi, visada yra smagu. Galvoti, kad didžiosios pasaulio problemos yra inžinerinės, ir, kad tiesiog atradus teisingą algoritmą viskas išsispręs, yra super naivu. Matyt reiks paskaityti BostromoSuperintelligence“.

Robotas irgi žmogus

Iš pažiūros duomenų analizė yra labai nešališkas ir objektyvus reikalas: paimi krūvą duomenų, perleidi per sudėtingą statistinių algoritmų mėsmalę ir gauni kažkokias įžvalgas. Mūsų produktą labiau mėgsta Marijampolėje, brangesnius produktus moterys perka savaitgaliais, socialiniuose tinkluose sekantys veikėją X skaito portalą Y, bent tris kartus gavę labai didelę mėnesinę sąskaitą yra linkę perbėgti pas konkurentus. Su regresijomis (ar sudėtingesnėmis analizėmis) ginčytis sunku, nes duomenys lyg ir kalba už save. Nebereikia spėlioti ir remtis dažnai mus pavedančia intuicija. Bet algoritmai nėra jau tokie neutralūs: jie klysta visai kaip žmonės, nes jie mokosi iš tų pačių žmonių jiems pateiktų duomenų. Tad aklai pasitikėti algoritmų sprendimais nereikėtų.

Vienas to pavyzdys yra JAV naudojamas algoritmas, sprendžiantis apie nuteisto nusikaltėlio polinkį dar kartą nusikalsti. Neseniai buvo pastebėta, jog šis algoritmas turėjo rasistinių polinkių: jeigu esi juodaodis, jo nuomone, tavo recidyvizmo tikimybė didesnė. Kadangi tokiais algoritmais naudojamasi sprendžiant, kokio dydžio bausmę skirti, juodaodžiai už tokius pat pažeidimus automatiškai baudžiami stipriau nei visiškai toks pats baltasis kaimynas, kuris gyvena beveik identiškomis socialinėmis sąlygomis. Su panašiomis diskriminacinėmis problemomis susiduria ir moterys: algoritmai mano, kad jos turi žymiai mažesnę tikimybę uždirbti aukštesnę algą, todėl net joms net nerodo gerų darbo pasiūlymų. Jei tik keliolika procentų vadovų yra moterys, tai net neverta švaistyti lėšų joms rodant vadovų darbo skelbimus.

Tokią algoritmo klaidą ištaisyti nėra taip paprasta, kaip gali pasirodyti. Net jei įstatymais uždrausi kuriant algoritmą atsižvelgti į žmogaus lytį ar odos spalvą, yra daug kitų su šiais dalykais koreliuojančių faktorių. Jei 82% namų ūkių su nepilnamečiais ir tik vienu suaugusiuoju sudaro vieniša mama su vaikais, tai iš šeimos sudėties nesunku atspėti suaugusiojo lytį. Juodaodžius galima atskirti pagal vardus, o Lietuvos atveju, tautybę tikriausiai nesunku suprasti pagal pavardę. Žmogaus gyvenamosios vietos pašto indeksas irgi labai daug ką pasako.

Dirbtinio intelekto algoritmai yra kaip vaikai, kurie mokydamiesi iš aplinkos pradeda suvokti ryšius tarp kintamųjų. Lygiai taip, kaip svarbu, jog vaikas bendrautų su tinkamais žmonėmis ir augtų ne asocialioje aplinkoje, taip ir algoritmo negalima lengvabūdiškai tiesiog paleisti mokytis į platųjį pasaulį. Tai pernai suprato Microsoft, paleidusi savaime besimokantį Twitterio botą Tay, kuris per kelias valandas iš interneto vartotojų išmoko daug rasistinių frazių ir tapo piktu keikūnu. Net ir akylai prižiūrint dirbtinio intelekto mokymosi procesą, mokymosi pavyzdžių imtis turi gerai atitikti realaus pasaulio proporcijas (o tai nevisada lengva pasiekti). 2015-aisiais Google išleistas atpažįstantis objektus nuotraukose algoritmas sukėlė skandalą, mat juodaodžių nuotraukas klaidingai klasifikuodavo kaip beždžiones: jis mokėsi daugiausiai iš baltųjų nuotraukų. Panašiai, kaip Delfi žino apie automobilius tik tiek, kad jie dažnai patenka į avarijas.

Galų gale net jei ir labai atsargiai suformuosi duomenų imtį algoritmo mokymuisi ir atidžiai prižiūrėsi visą procesą, mūsų visuomenėje yra tam tikrų stereotipų ar šališkumų, kurie atsispindės duomenyse. Jei dirbtinio intelekto algoritmą mokysi naudodamasis 1870-ųjų studentų duomenų baze, tikėtina, jog jis į magistro programą siūlys priimti beveik vien tik vyrus. Jeigu algoritmas išmoksta tavo keistumus ir atsižvelgdamas į tavo iškreiptą pasaulio vaizdą tau siūlo skaityti tik straipsnius apie konspiracijos teorijas, tai tik padidina tavo tikėjimą jomis – algoritmai ne tik kad nepadeda objektyviau suvokti pasaulį, bet vis labiau jį iškreipia. Klaidingi įsitikinimai sustiprinami ir daromos vis didesnės klaidos.

Ar yra išeitis iš šios spiralės? Vargu, ar visiškai įmanoma sukurti idealius algoritmus, nes jie tėra mūsų visuomenės atspindys. Kritinis mąstymas ir skeptiškumas tampa labai svarbiais įrankiais atskiriant tiesą nuo melagingų naujienų, tik šiais hiperaktyviais laikais, kai dėmesį gali sukaupti tik kelioms sekundėms, tai tampa brangu ir nemadinga.