Kai perskaičiau Max Tegmark’o „Life 3.0“, buvau piktas – tema įdomi ir aktuali, bet skaitai ir supranti, kad autoriui kompetencijos dirbtinio intelekto klausimais mažokai. Tad ėmiausi Nick Bostromo knygos „Superintelligence“, nes ją dauguma laiko žymiai rimtesne.
Šioje knygoje esminiai skyriai yra patys pirmieji, kuriuose diskutuojama apie tai, kada (ir ar iš vis) įmanoma pasiekti dirbtinio intelekto sprogimą: kada jau turėsime tokį dirbtinį intelektą, kuris pats besimokydamas mus aplenks savo protu. Visi kalbinti ekspertai teigė, jog arba po kokio šimtmečio, arba niekada. Likusi didžioji knygos dalis yra „kas būtų, jeigu būtų“ pasvarstymai, kurie gal ir įdomūs ir arčiau žemės nei Max Tegmarko svaičiojimai apie Daisono sferas, bet vis tiek palieka intelektualinio savismaginimosi prieskonį.
Manau, kad didžiausia problema, jog į dirbtinį intelektą žiūrima kaip į technologinę problemą, neturint filosofinio pagrindo. Vien dėl to Asimovas robotizacijos klausimais gali pasakyti žymiai daugiau nei Bostromas – ir Asimovo apysakos net po penkiasdešimties metų atrodo aktualesnės. Dirbtinio intelekto suvaldymas nėra vien tik mechaninis technologinis sprendimas – tai žymiai gilesnė problema. Mes juk net nežinome, kaip dirbtiniam intelektui suformuluoti optimizacijos uždavinį: nepakanka pasakyti, jog norime, kad žmonija būtų laimingesnė, nes iš karto kyla klausimas, kaip tą laimę apibrėžti ir išmatuoti. Ir čia algoritmai bejėgiai.
Knygoje yra ir daug keistokų bei naivokų svarstymų apie žmoniją: kaip čia juos suvaldyti, kad kas nors piktybiškai neimtų kurti pavojingo dirbtinio intelekto. Sako, tereikia tik tvirto susitarimo ir melo detektoriaus, tik skaitant neapleidžia toks jausmas, kad autorius nelabai supranta, kaip veikia pasaulis, ir iš istorijos nėra daug ko išmokęs: galėjai tartis kiek tik nori, bet atominę bombą vis tiek visi susikūrė, kas tik labai norėjo. O melo detektorius, kaip techninis sprendimas irgi itin naivus – ar bent įmanoma tiksliai apibrėžti, kas yra melas, o kas tiesa?
Atrodo, kad visai neseniai susidūrei su šia tematika. Kažkada ( http://old.mindey.com/singuliaritarianizmas.htm ) mane ji buvo sudominus. Galutinių atsakymų čia nerasim, tačiau galėčiau pasiūlyti sąrašą nuorodų, kurios dengia tematikos kilmę: https://workflowy.com/s/nuorodos-gilintis-i/T5KMueF7pncaV0Mw
Ši tema ir mane ganėtinai domina. Pasiekęs tam tikrą “lygį” (galbūt tiktų apibūdinimas įgyjęs sąmonę) dirbtinis intelektas pats sau kurs užduotis. Panašiai kaip su gyvaisiai intelektais – bakterijų procesus gal ir pavyksta gerai sukontroliuoti įvairiais dirgikliais, bet pavyzdžiui su šunimi jau vyksta beveik lygių individų bendradarbiavimas su ne visada garantuotais rezultatais. Manau dirbtinio intelekto evoliucija eis per panašias stadijas.
O suvaldymo klausimas manęs visai nebaugina. Manau vienas iš natūralių tikslų kylančių dirbtiniam intelektui bus išgyvenimas. Ir čia matau 2 galimybes: arba egzistuoja galimybė technologiškai užtikrinti amžiną išgyvenimą, arba būtinas bendradarbiavimas su gyvais padarais. Šita takoskyra gal ir keista, bet remontas yra sudėtingas procesas ir jokios gamyklos neveikia amžinai be priežiūros. Dirbtinis intelektas norintis palaikyti savo techniniams procesus gali būti fizikos dėsnių priverstas užtikrinti žmonijos išgyvenimą. Bet gal dirbtinis intelektas atras būdą užsitikrinti savo procesų veikimą be žmonių ir tada nuspręs jog žmonija tik kliūtis trukdanti siekti svarbių tikslų. Net jei tai lemtų žmonijos pražūtį – nematau tame blogybės: toks dirbtinis intelektas faktiškai būtų žmonijos palikuonis, turintis daug gerensnes galimybes keliauti po galaktiką ir toliau, atrasti kitus panašius į save ir t.t. Aš asmeniškai vis tiek kelionių po galaktiką nepatirsiu, ir realiai koks skirtumas kas tuom užsiimtų: žmonijos genetiniai palikuonys, ar techniniai palikuonys.