Jau senokai skaitoma knyga mane taip erzino: nuolat norėjosi su autoriumi nesutikti ir nurašyti jį kaip nieko nesuprantantį naivų hipsterį. Paviršutiniškas tekstas, pilnas gal ir įdomių, bet dažniausiai visiškai neesminių pastebėjimų, užteptas riebiu sluoksniu autoriaus sutiktų žymių žmonių pavardžių. Buvimas fiziku visai neužtikrina, jog supranti dirbtinio intelekto problemas, juolab, kad jos daugiau filosofinės / humanitarinės, o ne iš tiksliųjų mokslų srities. Nors ir tiksliųjų mokslų problemos knygoje nušviestos skurdokai.
Aišku, visai nepadeda ir tai, kad mano paties nuomonė apie dirbtinį intelektą labai skiriasi nuo autoriaus, bet būtent todėl ir noriu geriau suprasti Bostromo, Kurzweilo ir kitų požiūrį, kad tuoj tuoj pasaulį užvalgyt superprotingas dirbtinis intelektas. Kiek suprantu, su bendruoju dirbtiniu intelektu (t.y. ne tokiu AI, kuris sugeba atlikti tik siaurą užduotį, tarkim, žaisti šachmatais ar atpažinti objektus paveiksle) kol kas yra labia mažai pasistūmėta. Dar blogiau: netgi tie dirbtinio intelekto pritaikymai, kurie jau yra radę savo vietą, susilaukia vis daugiau kritikos. Facebook algoritminis žinių srautas, pasirodo, nėra toks jau nekaltas, tad gal tai nebėra jau tokia išspręsta problema kaip atrodė prieš kelis metus. Net save vairuojančios mašinos vėluoja pasirodyti: o buvo manančių, kad jau 2020-aisiais jų bus daugiau nei žmonių valdomų automobilių. Dirbtinio intelekto mokymo progresas bent jau kol kas nėra eksponentinis: priešingai, kuo daugiau sieki tikslumo, tuo sunkiau jį pasiekti. Kaip ir visur kitur gyvenime.
Filosofuoti apie šauniai skambančias Daisono sferas, kurios nelabai turi ką bendro su dabartimi, visada yra smagu. Galvoti, kad didžiosios pasaulio problemos yra inžinerinės, ir, kad tiesiog atradus teisingą algoritmą viskas išsispręs, yra super naivu. Matyt reiks paskaityti Bostromo „Superintelligence“.
O man neramu dėl AI. Ir dėl žmonijos, į kurią AI žiūrės, kaip mes dabar į žuvis.
Na, čia jei tiki, kad mes sugebėsime kažkada greitai sukurti tokį AI, kuris visapusiškai bus už mus protingesnis. Kol kas progreso link to nėra.
O juk, tarkim, skaičiavimo mašinėlės skaičiuoja už tave žyyymiai greičiau – bet ar dėl to jautiesi nepilnavertis prieš mašinas?
Savavaldžiai automobiliai realiai tuoj tuoj susidurs su etikos problemomis. Pvz objektyviai įvertinęs situaciją automobilis nuspręs, kad avarija neišvengiama ir mažiausiai nuostolio bus nuvažiuoti su jumis nuo skardžio žemyn. Matote – kitame automobilyje važiuoja šeima su dviem mažamečiais vaikais, o jūs – tik vienas, tad geriau jus nuo skardžio, nei rizikuoti jus gelbėti ir už jų užkliūti. Pagal terms and conditions pirkdamas tokį automobilį būsit informuotas, kad taip visuomenei geriausia. Deal? :)
Tikrai rekomenduoju Bostromo Superintelligence. Man jo knygoje bene naudingiausi buvo pasvarstymai apie objective function, etiką ir kaip žmonija realiai pati nežino ko nori sau (pvz nelinkiu žmonijai, kad AI pirminę etiką grįstų šarijato principais..). Kaip galime tikėtis sėkmingai apibūdinti ką įdėti kaip pirminę naudos siekiamybę iš AI, arba bent jau saugiklius nuo kokio nors kritinio scenarijaus? Realiai beveik reikia kurti general AI, kad jis pirmiau pats išsiaiškintų ir ištirtų ko žmonės nori ar nenori ir pagal tai pačiam nuspręsti, kas ok.
Mūsų biologiniai protai gali labai sėkmingai laikyti kelias sau prieštaraujančias mintis vienu metu ir pagal jas veikti – pradedu manyti, kad tai yra tam tikras feature, o ne bug ir jis labai stipriai apibūdina kaip mes visi gyvenam. Ar AI evoliucionuotų pagal panašų principą, ar jis vis tik turėtų būti pilnai consistent savyje? Jei bandytų būti consistent, tai su tokiu pradiniu framework gal niekad ir nesuprastų, tai apie ką čia tie homo sapiens iš viso? :)