Max Tegmark – „Life 3.0“

Jau senokai skaitoma knyga mane taip erzino: nuolat norėjosi su autoriumi nesutikti ir nurašyti jį kaip nieko nesuprantantį naivų hipsterį. Paviršutiniškas tekstas, pilnas gal ir įdomių, bet dažniausiai visiškai neesminių pastebėjimų, užteptas riebiu sluoksniu autoriaus sutiktų žymių žmonių pavardžių. Buvimas fiziku visai neužtikrina, jog supranti dirbtinio intelekto problemas, juolab, kad jos daugiau filosofinės / humanitarinės, o ne iš tiksliųjų mokslų srities. Nors ir tiksliųjų mokslų problemos knygoje nušviestos skurdokai.

Aišku, visai nepadeda ir tai, kad mano paties nuomonė apie dirbtinį intelektą labai skiriasi nuo autoriaus, bet būtent todėl ir noriu geriau suprasti Bostromo, Kurzweilo ir kitų požiūrį, kad tuoj tuoj pasaulį užvalgyt superprotingas dirbtinis intelektas. Kiek suprantu, su bendruoju dirbtiniu intelektu (t.y. ne tokiu AI, kuris sugeba atlikti tik siaurą užduotį, tarkim, žaisti šachmatais ar atpažinti objektus paveiksle) kol kas yra labia mažai pasistūmėta. Dar blogiau: netgi tie dirbtinio intelekto pritaikymai, kurie jau yra radę savo vietą, susilaukia vis daugiau kritikos. Facebook algoritminis žinių srautas, pasirodo, nėra toks jau nekaltas, tad gal tai nebėra jau tokia išspręsta problema kaip atrodė prieš kelis metus. Net save vairuojančios mašinos vėluoja pasirodyti: o buvo manančių, kad jau 2020-aisiais jų bus daugiau nei žmonių valdomų automobilių. Dirbtinio intelekto mokymo progresas bent jau kol kas nėra eksponentinis: priešingai, kuo daugiau sieki tikslumo, tuo sunkiau jį pasiekti. Kaip ir visur kitur gyvenime.  

Filosofuoti apie šauniai skambančias Daisono sferas, kurios nelabai turi ką bendro su dabartimi, visada yra smagu. Galvoti, kad didžiosios pasaulio problemos yra inžinerinės, ir, kad tiesiog atradus teisingą algoritmą viskas išsispręs, yra super naivu. Matyt reiks paskaityti BostromoSuperintelligence“.

Robotas irgi žmogus

Iš pažiūros duomenų analizė yra labai nešališkas ir objektyvus reikalas: paimi krūvą duomenų, perleidi per sudėtingą statistinių algoritmų mėsmalę ir gauni kažkokias įžvalgas. Mūsų produktą labiau mėgsta Marijampolėje, brangesnius produktus moterys perka savaitgaliais, socialiniuose tinkluose sekantys veikėją X skaito portalą Y, bent tris kartus gavę labai didelę mėnesinę sąskaitą yra linkę perbėgti pas konkurentus. Su regresijomis (ar sudėtingesnėmis analizėmis) ginčytis sunku, nes duomenys lyg ir kalba už save. Nebereikia spėlioti ir remtis dažnai mus pavedančia intuicija. Bet algoritmai nėra jau tokie neutralūs: jie klysta visai kaip žmonės, nes jie mokosi iš tų pačių žmonių jiems pateiktų duomenų. Tad aklai pasitikėti algoritmų sprendimais nereikėtų.

Vienas to pavyzdys yra JAV naudojamas algoritmas, sprendžiantis apie nuteisto nusikaltėlio polinkį dar kartą nusikalsti. Neseniai buvo pastebėta, jog šis algoritmas turėjo rasistinių polinkių: jeigu esi juodaodis, jo nuomone, tavo recidyvizmo tikimybė didesnė. Kadangi tokiais algoritmais naudojamasi sprendžiant, kokio dydžio bausmę skirti, juodaodžiai už tokius pat pažeidimus automatiškai baudžiami stipriau nei visiškai toks pats baltasis kaimynas, kuris gyvena beveik identiškomis socialinėmis sąlygomis. Su panašiomis diskriminacinėmis problemomis susiduria ir moterys: algoritmai mano, kad jos turi žymiai mažesnę tikimybę uždirbti aukštesnę algą, todėl net joms net nerodo gerų darbo pasiūlymų. Jei tik keliolika procentų vadovų yra moterys, tai net neverta švaistyti lėšų joms rodant vadovų darbo skelbimus.

Tokią algoritmo klaidą ištaisyti nėra taip paprasta, kaip gali pasirodyti. Net jei įstatymais uždrausi kuriant algoritmą atsižvelgti į žmogaus lytį ar odos spalvą, yra daug kitų su šiais dalykais koreliuojančių faktorių. Jei 82% namų ūkių su nepilnamečiais ir tik vienu suaugusiuoju sudaro vieniša mama su vaikais, tai iš šeimos sudėties nesunku atspėti suaugusiojo lytį. Juodaodžius galima atskirti pagal vardus, o Lietuvos atveju, tautybę tikriausiai nesunku suprasti pagal pavardę. Žmogaus gyvenamosios vietos pašto indeksas irgi labai daug ką pasako.

Dirbtinio intelekto algoritmai yra kaip vaikai, kurie mokydamiesi iš aplinkos pradeda suvokti ryšius tarp kintamųjų. Lygiai taip, kaip svarbu, jog vaikas bendrautų su tinkamais žmonėmis ir augtų ne asocialioje aplinkoje, taip ir algoritmo negalima lengvabūdiškai tiesiog paleisti mokytis į platųjį pasaulį. Tai pernai suprato Microsoft, paleidusi savaime besimokantį Twitterio botą Tay, kuris per kelias valandas iš interneto vartotojų išmoko daug rasistinių frazių ir tapo piktu keikūnu. Net ir akylai prižiūrint dirbtinio intelekto mokymosi procesą, mokymosi pavyzdžių imtis turi gerai atitikti realaus pasaulio proporcijas (o tai nevisada lengva pasiekti). 2015-aisiais Google išleistas atpažįstantis objektus nuotraukose algoritmas sukėlė skandalą, mat juodaodžių nuotraukas klaidingai klasifikuodavo kaip beždžiones: jis mokėsi daugiausiai iš baltųjų nuotraukų. Panašiai, kaip Delfi žino apie automobilius tik tiek, kad jie dažnai patenka į avarijas.

Galų gale net jei ir labai atsargiai suformuosi duomenų imtį algoritmo mokymuisi ir atidžiai prižiūrėsi visą procesą, mūsų visuomenėje yra tam tikrų stereotipų ar šališkumų, kurie atsispindės duomenyse. Jei dirbtinio intelekto algoritmą mokysi naudodamasis 1870-ųjų studentų duomenų baze, tikėtina, jog jis į magistro programą siūlys priimti beveik vien tik vyrus. Jeigu algoritmas išmoksta tavo keistumus ir atsižvelgdamas į tavo iškreiptą pasaulio vaizdą tau siūlo skaityti tik straipsnius apie konspiracijos teorijas, tai tik padidina tavo tikėjimą jomis – algoritmai ne tik kad nepadeda objektyviau suvokti pasaulį, bet vis labiau jį iškreipia. Klaidingi įsitikinimai sustiprinami ir daromos vis didesnės klaidos.

Ar yra išeitis iš šios spiralės? Vargu, ar visiškai įmanoma sukurti idealius algoritmus, nes jie tėra mūsų visuomenės atspindys. Kritinis mąstymas ir skeptiškumas tampa labai svarbiais įrankiais atskiriant tiesą nuo melagingų naujienų, tik šiais hiperaktyviais laikais, kai dėmesį gali sukaupti tik kelioms sekundėms, tai tampa brangu ir nemadinga.