(Vyčio Snarskio pieš.)

Moralės pamokos robotams

Moralės pamokos robotams

Vis daugiau sričių dirbtinis intelektas lenkia žmogiškąjį. Bet kaip užtikrinti, kad jis elgtųsi moraliai? Simonas Parkinas kalbina žmones, bandančius kompiuterius išmokyti etikos.

Pasak legendos, prieš daugiau kaip 400 metų vienas rabinas priklaupė prie Vltavos upės kranto dabartinės Čekijos teritorijoje. Iš vandens semdamas saujas molio jis kruopščiai nulipdė žmogaus formos statulą. Prahos žydai buvo nepagrįstai kaltinami savo apeigose naudoję krikščionių kraują ir išgyveno neramius laikus. Todėl rabinas Judah Loewas ben Bezalelis nutarė, kad jo bendruomenei reikia sergėtojo, stipresnio už bet kurį žmogų. Savo kūriniui ant kaktos jis užrašė hebrajišką žodį emet (tiesa), o į burną įdėjo kapsulę su kabalistine formule. Ir tuomet statula atgijo.

Golemas nužygiavo į žydų kvartalą saugoti gyventojų ir atlikti naudingų darbų: šluoti gatvių, nešioti vandens ir skaldyti malkų. Visi gyveno darniai, kol vieną dieną rabinas užmiršo deramai išjungti golemą prieš šabą, todėl šis puolė žudyti. Dvasininkui teko nukrapštyti pirmąją jam ant kaktos užrašyto žodžio raidę, tad liko hebrajiškas žodis met (mirtis). Golemą apleido gyvybė ir jis subyrėjo į dulkes.

Ši pamokoma istorija apie pavojus, su kuriais galima susidurti kuriant žmogų primenančius mechaninius tarnus, vėl tapo svarbi dirbtinio intelekto amžiuje. Šiandien ištisos kariaunos robotų aklai vykdo visus mūsų nurodymus. Kaip užtikrinti, kad šie kūriniai, nepriklausomai nuo to, jie pagaminti iš molio ar silicio, visada siektų mūsų gerovės? Ar turėtume išmokyti juos mąstyti savarankiškai? Jei taip, tai kaip jiems išaiškinti, kas yra gera, o kas – bloga?

2017-aisiais šis klausimas kaip niekada svarbus. Savavaldžiai automobiliai mūsų keliais jau nuriedėjo milijonus kilometrų. Jie priima sprendimus, nuo kurių priklauso aplinkinių vairuotojų saugumas. Japonijoje, Europoje ir JAV kuriami paslaugų robotai, gebantys pasirūpinti pagyvenusiais ir neįgaliais asmenimis. 2015 m. pradėtas gaminti „Robear“ (baltojo lokio jauniklio snukučiu) pajėgia pakelti nusilpusį pacientą iš lovos. Tačiau jam neabejotinai pakaktų jėgos ir žmogui sutraiškyti. 2000 m. JAV kariuomenė ėmė naudoti tūkstančius kulkosvaidžiais ginkluotų robotų, galinčių aptikti taikinius ir nusitaikyti be žmogaus įsikišimo (tiesa, jiems neleidžiama be priežiūros paspausti nuleistuko).

Baimės nuotaikas dėl savarankiškų mašinų kursto kai kurie vieši asmenys. Technologijų verslininkas Elonas Muskas tvirtina, kad dirbtinis intelektas yra didžiausia egzistencinė žmonijos grėsmė. Praėjusią vasarą Baltieji rūmai užsakė keturis seminarus, kuriuose ekspertai aptarė moralinius robotikos aspektus. Masačusetso technologijų instituto Emocinės kompiuterijos grupės direktorė Rosalind Picard sako: „Kuo daugiau mašina turi laisvės, tuo labiau jai reikės moralės normų.“

Mąstyti ir spręsti

Futuristiniame biurų komplekse prie vingiuojančios Vltavos upės, netoli tos vietos, kur rabinas nulipdė savo golemą, gaudžia tvarkingas kompiuterių bankas. Šie įrenginiai neprimena mokytojų, bet yra atsidavę kilniam švietimo tikslui ne mažiau nei bet kuris žmogus. Mokiniai sėdi ne priešais kompiuterių ekranus, o jų standžiuosiuose diskuose. Ši virtualioji mokykla „GoodAI“ moko dirbtinį intelektą mąstyti, samprotauti ir atlikti veiksmus. „GoodAI“ siekia plataus tikslo – dirbtinį intelektą išmokyti etikos meno. „Tai nereiškia, kad norime užprogramuoti dirbtinį intelektą laikytis tam tikrų taisyklių, nurodyti jam, ką daryti ir ko nedaryti visais įmanomais atvejais, – aiškina slovakas kompiuterinių žaidimų kūrėjas ir „GoodAI“ steigėjas Marekas Rosa, į šią bendrovę investavęs 10 mln. JAV dolerių. – Siekiame jį išmokyti pritaikyti turimas žinias situacijose, su kuriomis jis dar nebuvo susidūręs.“

Ekspertai sutinka, kad M. Rosos metodas – sumanus. „Nelengva užprogramuoti visas aplinkybes, į kurias gali patekti etikos normų paisanti mašina, – sako Niujorko universiteto kognityvinių mokslų specialistas ir organizacijos „Geometric Intelligence“ įkūrėjas bei generalinis direktorius Gary Marcusas. – Pavyzdžiui, kaip užprogramuoti tokias sąvokas kaip „sąžiningumas“ arba „žala“? Jis dar pabrėžia, kad programuojant neįmanoma numatyti įsitikinimų ir požiūrių kaitos: „Įsivaizduokite, kaip atrodytų pasaulis, jei nebūtų pasikeitusios JAV įkūrėjų vertybės? Šiandien tebeklestėtų vergija, moterų teisės būtų ribotos ir taip toliau. Akivaizdu, kad mašina turi gebėti mokytis.“

M. Rosai dirbtinis intelektas primena vaiką – tuščią lapą, kuriame galima užrašyti pagrindines vertybes ir kuris laikui bėgant pritaikys tuos principus nenumatytais atvejais. Šis argumentas stiprus. Žmonės intuityviai supranta, kas yra etiška, stebėdami aplinkinių elgesį. Tiesa, esama pavojaus, kad iš prastų pavyzdžių galime išmokti ir ko nors bloga.

(Vyčio Snarskio pieš.)

„GoodAI“ projekte vertybes dirbtiniam intelektui perduoda skaitmeninis mokytojas, o vėliau situacijos, kai reikia priimti sprendimus, sudėtingėja. Pasak M. Rosos, tėvai juk irgi neleidžia vaikų tiesiog išbėgti į gatvę – šie pamažu supažindinami su kelių eismo taisyklėmis. „Ir mes dirbtinį intelektą įvedame į vis sudėtingesnę aplinką, kad jis galėtų pasitelkti anksčiau įgytas žinias ir susipažinti su mūsų darbuotojų reakcijomis.“

Taktika ar moralė?

„GoodAI“ – tik viena iš kelių įstaigų, siekiančių perprasti etinius robotikos aspektus, visame pasaulyje itin išryškėjusius per pastaruosius kelerius metus. Dauguma šių organizacijų puikuojasi įspūdingais grėsmingais pavadinimais: Gyvybės ateities institutas, Atsakingos robotikos grupė ir „Pasaulinė etinių savavaldžių sistemų iniciatyva“. Svarstomos kelios konkurencingos idėjos, kaip geriausia mašinas išmokyti moralės. M. Rosa propaguoja vieną iš jų, Ronas Arkinas – kitą.

R. Arkinas yra septintąją dešimtį įpusėjęs pliktelėjęs roboetikas nusvirusių kampučių akimis už panoraminių akinių. Jis dėsto kompiuterių etiką Džordžijos technologijų institute Atlantoje, bet jo darbas neapsiriboja vien auditorija. Mokslininko tyrimus finansuoja įvairūs šaltiniai, tarp jų – JAV kariuomenė ir Karinio laivyno tyrimų biuras. 2006 m. jis gavo lėšų sukurti techninę ir programinę įrangą automatizuotoms kovos mašinoms, gebančioms laikytis etinių karybos normų. R. Arkinas yra pasakęs, kad etiniu požiūriu robotai kariai, tikėtina, pranoks žmones. Juk jie negali prievartauti, plėšikauti ar iš pykčio sudeginti kaimo.

Geriausias sprendimas yra ugdyti robotus kaip vaikus, bet aš negaliu roboto auginti 20 metų.

Išmokyti robotus elgsenos mūšio lauke gali pasirodyti paprasta, nes valstybės kovos taisykles kuria remdamosi tarptautiniais įstatymais. Bet inžinierius negali numatyti visų mūšio lauke galimų scenarijų, panašiai kaip neįmanoma priimti etinių sprendimų visose dviprasmiškose situacijose remiantis vien Dešimčia Dievo įsakymų. Pavyzdžiui, ar robotas turėtų apšaudyti pastatą, kuriame itin vertingas taikinys laužo duoną su civiliais gyventojais? Jam derėtų paremti penkių neaukšto laipsnio karių grupę vienoje miestelio pusėje ar vieną aukšto rango karininką kitoje? Sprendimas turėtų būti grindžiamas taktika ar morale?

Siekdamas padėti robotams ir jų kūrėjams rasti atsakymus į tokius mūšio lauke iškylančius klausimus, R. Arkinas kuria kitokį modelį nei „GoodAI“. Vadinamojo etikos adapterio tikslas – imituoti ne žmogaus elgseną, o emocijas, kad robotai galėtų mokytis iš klaidų. Sistema leidžia robotui patirti šį tą panašaus į kaltę. „Kaltė yra mechanizmas, atgrasantis nuo tam tikrų poelgių kartojimo“, – aiškina jis. Taigi tai naudinga mokymosi priemonė ne tik žmonėms, bet ir robotams.

„Įsivaizduokite agentą, lauko sąlygomis vertinantį mūšio padarytą žalą prieš šūvį ir po jo, – aiškina R. Arkinas. – Jei žala viršija tam tikrą santykį, agentas patiria šį tą panašaus į kaltę.“ Kaltės jausmas stiprėja kaskart paaiškėjus, kad, pavyzdžiui, atsitiktinių civilių aukų daugiau, nei tikėtasi. „Pasiekęs tam tikrą ribą, agentas nustoja naudoti konkrečią ginklų sistemą. Priėjęs kitą ribą, jis apskritai nebenaudoja jokių ginklų sistemų.“ Roboto patiriamas kaltės jausmas tik imituojamas, bet modeliai imami iš gamtos ir, panašiai kaip žmonių atveju, susideda iš trijų dalių: suvokimo, kad pažeista tam tikra norma, nerimo dėl savo veiksmų ir troškimo grįžti į ankstesnę būseną.

Tai sumanus sprendimas, bet ir jis turi trūkumų. Pavyzdžiui, robotas gali pakeisti savo elgseną tik tuo atveju, kai nutinka kas nors negera. Galbūt tai priimtina verdant mūšiui, kai atsitiktinės aukos nėra visiškai nenuspėjamas reiškinys. Bet civiliuose pastatuose, ligoninėse arba keliuose visuomenės pakantumas mirtinoms robotų klaidoms gerokai mažesnis. Robotas žudikas greičiau bus nurašytas, nei gaus progą pasimokyti iš klaidų.

Įkvėptas bibliotekos

Moralės pamokos robotams neapsiriboja vien virtualiomis auditorijomis ir imituojama kalte. Juos dar tik pradedama tirti ir visais atvejais susiduriama su skirtingais sunkumais. Džordžijos technologijų instituto Pramoginio intelekto laboratorijos direktorius Markas Riedlas bando metodą, kurį įkvėpė ne auditorija, o biblioteka.

M. Riedlas mano, kad, dirbtiniam intelektui skaitant tūkstančius pasakojimų ir leidžiant pačiam iš gautos informacijos susidaryti elgsenos taisykles, galima išmokyti robotus elgsenos įvairiomis aplinkybėmis – nuo vakarienės žvakių šviesoje iki banko apiplėšimo. Šios grupės darbą finansuoja įvairios organizacijos, pavyzdžiui, JAV gynybos departamento mokslinių tyrimų biuras DARPA, JAV kariuomenė, „Google“ ir „Disney“.

Mudviem susitikus paskanauti mėsainių restorane prie laboratorijos, M. Riedlas pritaria „GoodAI“ pamatinei filosofijai. „Tai tiesa, geriausias sprendimas yra ugdyti robotus kaip vaikus, – sako jis. – Bet aš negaliu roboto auginti 20 metų. Tai būtų per ilgai ir per brangu. Man pakanka ir vieno vaiko. Todėl pamaniau, kad mokymosi procesą galima paspartinti pasitelkus pasakojimus.“

M. Riedlui ši mintis kilo aiškinantis, kaip galima panaudoti istorijas, dirbtinį intelektą mokant žmonių bendravimo taisyklių. „Jei Supermenas apsirengia kaip Klarkas Kentas ir su kuo nors susitinka pavakarieniauti, tai puikus pavyzdys, ką žmonės veikia restorane, – sako mokslininkas. – Jie prisėda ir laukdami maisto užsisako gėrimų. Tai socialinės vertybės, nurodančios, kokia seka dažniausiai atliekame veiksmus. Restorane etinių klausimų paprastai neiškyla. Bet esama kitų neaiškumų, kaip antai, kodėl jie patys nenuėjo į virtuvę pasiimti maisto? Nežinočiau, kaip dirbtiniam intelektui atsakyti į tokį klausimą, bet galiu jam parodyti, kad taip paprasčiausiai nesielgiama.“

M. Riedlas istorijų gauna iš „Amazon Mechanical Turk“ platformos. „Duodame „Amazon“ darbuotojams nurodymą papasakoti paprastą istoriją tam tikra tema, pavyzdžiui, apie apsilankymą restorane“, – aiškina M. Riedlas. Dalyviams kartais pasiūlomas veikėjas ir jie specialioje formoje turi detalėmis užpildyti trūkstamas istorijos vietas (pavyzdžiui, „Marija įėjo į restoraną“, „Marija palaukė, kol gaus stalelį“, „Marija nusivilko paltą ir užsisakė gėrimą“). Kasdienės kalbos apdorojimo algoritmai ieško panašių sakinių skirtingose istorijose ir remdamiesi šia informacija ima daryti išvadas apie socialines taisykles bei normas.

Dirbtinis intelektas, perskaitęs šimtus istorijų apie vogimą ir nevogimą, gali apžvelgti jų padarinius, suprasti taisykles bei išdavas ir imti formuluoti (autorių ir scenaristų) bendruomenės išmintimi pagrįstus moralinius principus. „Esama žodžiais neišreikštų taisyklių, kurias gali būti sunku užrašyti, bet tikrovėje taikomas vertybes iliustruoja knygų, televizijos ir kino filmų veikėjai. Pradedame nuo paprastų istorijų ir pamažu pereiname prie jauniems pilnamečiams skirtų pasakojimų. Kiekvienu atveju iškyla vis sudėtingesnių moralinių aplinkybių.“

M. Riedlo metodas skiriasi nuo „GoodAI“, bet priklauso tai pačiai mašinų mokymosi sričiai. „Tai galima pavadinti dėsningumų derinimu, nes šis procesas sudaro didelę mašinų mokymosi dalį, – sako jis. – Mintis ta, kad prašome dirbtinio intelekto susipažinti su tūkstančiais skirtingų veikėjų, susiduriančių su tos pačios kategorijos dilema. Tuomet mašina gali atrasti vidutinę reakciją ir suformuluoti vertybes, atitinkančias tai, ką dauguma žmonių pavadintų tinkama elgsena.“

Šis sprendimas pasižymi tam tikru poetiniu nuoseklumu: bandydami įsivaizduoti siaubingą savo kūrinių poveikį, žmonės visada griebdavosi istorijų, kaip antai apie golemą, Frankenšteino pabaisą ir kitus. Visi šie pramanyti įvykiai baigiasi liūdnai, bet lygiai taip pat nerimaujama, kad girdėdamas vien blogas istorijas dirbtinis intelektas išmoks elgtis netinkamai. „Vienintelis būdas sukurti piktavalį dirbtinį intelektą – pasakoti jam tik tas istorijas, kuriose veikėjai elgiasi blogai, – sako M. Riedlas. – Galėčiau specialiai atrinkti pasakojimus apie neigiamus personažus arba istorijas, kuriose visada laimi tik blogiukai. Bet jei agentas yra priverstas skaityti visas istorijas, vienam asmeniui bus labai sunku padaryti blogą įtaką dirbtiniam intelektui.“

Mokslinėje fantastikoje tomis akimirkomis, kai robotai tampa protingi, žmonės susimąsto apie etinius įsipareigojimus savo kūriniams.

Atrodo, kad šis metodas nepaprastai veiksmingas. „Žinome, kad sistema iš istorijų mokosi dvejopai, – pasakoja M. Riedlas. – Visų pirma, paprašėme žmonių įvertinti sistemos išmoktus dėsnius, kaip antai „restorane gėrimai užsakomi prieš maistą“. Antra, sistema geba kurti istorijas, kurias gali įvertinti žmonės.“ Mokslininkų grupė pastebi, kad dažniausiai sistemos įgytos žinios yra savaime suprantamos. Bet pasitaikė ir netikėtumų. „Mokydamasi apie pasimatymus kino teatruose, sistema padarė išvadą, kad bučiniai yra svarbi šio ritualo dalis. To nesitikėjome, bet, geriau pagalvojus, nederėtų stebėtis.“

„Audi“ inžinieriams, konstruojantiems savavaldžius automobilius, arba „BAE Systems“ specialistams, kuriantiems išmaniuosius ginklus, gal ir neatrodo svarbu išmokyti dirbtinį intelektą, kada priimtina bučiuotis ar stoti į eilę. Bet atskirai vertinant daugumą laimėjimų genetikos, nanotechnologijų ir neurofarmakologijos srityse taip pat neatrodo, kad jie susiję su morale, ką jau kalbėti apie socialinius aspektus. Vis dėlto jei šiuose tyrimuose išrastas technologijas sujungsime ir pavesime administruoti dirbtiniam intelektui, gali paaiškėti, jog technologinė pažanga pralenkė mūsų moralinį pasirengimą.

M. Riedlas tvirtina, kad pasiekėme svarbią istorijos akimirką ir kaip visuomenė turime priimti paprastą sprendimą. „Galime pasakyti, kad niekada neturėsime tobulo roboto, ir kadangi esama tam tikrų pavojų, turėtume atsisakyti tikslų juos kurti, – sako jis. – Arba galime nuspręsti susiimti ir pabandyti kuo labiau sušvelninti padarinius. Savavaldžiai automobiliai niekada nebus nepriekaištingi. Eismo įvykiai neišvengiami, bet jų įvyks mažiau, nei vairuojant žmonėms. Todėl turėtume siekti, kad šie autopilotai tiesiog vairuotų ne prasčiau nei žmonės. Ir galbūt jiems tai pavyks net geriau nei mums.“

Mokslinėje fantastikoje tomis akimirkomis, kai robotai tampa protingi, žmonės susimąsto apie etinius įsipareigojimus savo kūriniams. Išmanusis telefonas arba nešiojamasis kompiuteris gali būti kur kas sudėtingesni nei plaktukas ar kastuvas, bet ir vieni, ir kiti priklauso įrankių kategorijai. Vis dėlto gali būti, kad, robotams įgyjant šį tą panašaus į emocijas, imant elgtis kaip žmonės ir mokantis mūsų kultūrinių bei socialinių vertybių, teks peržiūrėti praeities istorijas. Visų pirma, turėtume pamąstyti, kaip išmokyti mašinas kuo geriau gyventi šiame pasaulyje. O paskui jau galėsime pagalvoti apie savo elgesį su jomis.

Simonas Parkinas yra britų rašytojas, žurnalistas ir knygos „Mirtis nuo kompiuterinių žaidimų“ („Death by Video Game“) autorius.

Jūsų komentaras

Daugiau leidinio naujienų