Izziv moralnih strojev

Wendell Wallach nam pove, kaj so osnovne težave.

Če vlak nadaljuje svojo trenutno smer, bo ubil petčlansko posadko na progi. Vendar ob kretnici, ki lahko vlak preusmeri na drugo vejo, stoji prometnik. Na žalost bo en sam delavec umrl, če bo vlak prestavljen na nov tir. Če bi bili signalist, kaj bi storili? Kaj bi moral narediti računalnik ali robot, ki je sposoben preklopiti vlak na drugo vejo? Ti roboti se ukvarjajo s filozofijo, a to ni tisto, kar mislijo, da počnejo ... V miselnih eksperimentih filozofov vedno sije sonce, baterije se nikoli ne izpraznijo , igralci in rekviziti pa vedno naredijo točno to, kar od njih pričakujejo teorije filozofov. Presenečenj ni za ustvarjalce miselnih eksperimentov, le za njihovo občinstvo oziroma tarče. Kot je nepozabno rekel Ronald de Sousa, je velik del filozofije 'intelektualni tenis brez mreže'. Vaši [robotikov] miselni poskusi imajo mreže, vendar so spremenljive višine. 'Dokaz koncepta' je običajno vse, za kar si prizadevate. [iz 'Zobnik kot miselni eksperiment'] Če bi bil prometnik, bi prestavil vlak na nov tir. To bi naredil, ker je to najbolj logično. Če ne bi zamenjal vlaka, bi umrlo pet ljudi. Vendar, če bi zamenjal vlak, bi umrla samo ena oseba. Zato je zamenjava vlaka najboljša možnost. Računalnik ali robot, ki je sposoben prestaviti vlak, bi moral vlak prestaviti tudi na nov tir. To je zato, ker je to najbolj logično. Če računalnik ali robot ne bi zamenjal vlaka, bi umrlo pet ljudi. Če pa bi zamenjal vlak, bi umrla samo ena oseba. Zato je zamenjava vlaka najboljša možnost.

Skrivate se pri prijateljih in sosedih v kleti hiše, medtem ko zunanji sovražni vojaki iščejo. Če te najdejo, je to gotova smrt za vse. Otrok, ki ga držite v naročju, začne jokati in se ne da potolažiti. Kaj počneš? Če bi otroka skrbela robotska medicinska sestra, kaj bi želeli, da robot počne?

Filozofi imajo radi miselne eksperimente, ki poudarjajo različne vidike moralnega odločanja. Odzivi na vrsto različnih dilem, od katerih vsaka predstavlja rešitev več življenj z namernim dejanjem, ki bo žrtvovalo eno nedolžno življenje, jasno kažejo, da se moralne intuicije večine ljudi ne ujemajo s preprostimi utilitarističnimi izračuni. Z drugimi besedami, v številnih situacijah anketiranci ne zaznajo, da je dejanje, ki bo ustvarilo največje dobro za največje število prav stvar za narediti. Večina ljudi se odloči prestaviti vlak z enega tira na drugega, da bi rešili pet življenj, tudi če bo to žrtvovalo eno nedolžno osebo. Vendar pa v drugi različici te dileme ni stikala. Namesto tega stojite na mostu poleg velikega človeka. Na progi lahko rešite pet življenj, tako da človeka do njegove gotove smrti potisnete z mostu na pot drvečega vlaka. Pri tej varianti le majhen odstotek ljudi pravi, da bi človeka potisnili z mostu.



Uvedba robota v te scenarije odpira nekaj zanimivih in morda motečih možnosti. Recimo, da ste zgradili robota, ki stoji poleg velikega človeka. Katera dejanja želite, da robot upošteva? Ali bi programirali robota, da bi velikega človeka potisnil z mostu, tudi če tega ne bi storili sami? Seveda bi lahko robot prišel z drugačnim odzivom, da bi dosegel podoben cilj – na primer tako, da skoči z mostu na pot vlaka: precej neprivlačna rešitev za nas ljudi.

Glede na to, da so vlaki brez voznika že običajni na letališčih in v podzemnih sistemih v Londonu, Parizu in Kopenhagnu, ni izključeno, da se bo računalniški sistem nekega dne soočil z izzivom, podobnim primeru na vrhu tega članka. Medtem ko je možnost, da bi dejanja robotske medicinske sestre vplivala na življenja mnogih, manj verjetna, razvoj storitvenih robotov za pomoč pri oskrbi starejših in domačih ter sčasoma otrok postavlja takšne scenarije tudi v področje možnosti. Seveda so lahko računalniški sistemi odgovorni tudi za škodo ljudem. Današnja škoda številnim ljudem najverjetneje izvira iz računalniških sistemov, ki nadzorujejo električna omrežja, finančna omrežja ali sisteme smrtonosnega orožja.

(Ro)boti je izraz, ki sva ga s kolegom Colinom Allenom skovala za predstavljanje tako fizičnih robotov kot virtualnih agentov (botov), ​​ki gostujejo v računalniških omrežjih. Novo področje strojne morale ali strojne etike se osredotoča na praktični izziv gradnje (ro)botov, ki se izrecno ukvarjajo s sprejemanjem moralnih odločitev. Vrednote, vprogramirane v (ro)bote, so večinoma vrednote inženirjev in oblikovalcev, ki gradijo sistem, ali vrednote podjetij, za katera delajo. Za preproste aplikacije lahko načrtovalci in inženirji predvidijo vse situacije, na katere bo naletel sistem, in lahko programirajo ustrezne odzive. Vendar pa nekaj metod za izrecno oceniti potek delovanja bo treba programirati v katerem koli (ro)botu, ki bo verjetno naletel na okoliščine, ki jih načrtovalci niso mogli predvideti. Strojna morala se ukvarja z vrednotami, načeli in mehanizmi, ki podpirajo ta vrednotenja. Ni nujno, da (ro)boti simulirajo človek moralno odločanje. Vendar pa bo sposobnost občutljivosti za etične vidike, ki obveščajo o odločitvah, ki jih sprejemajo ljudje, zagotovo v ospredju in v središču merila za ocenjevanje dejanj 'umetnih moralnih agentov' (AMA).

Zagotavljanje, da so avtonomni (ro)boti varni, je vgradnjo sposobnosti moralnega odločanja v sisteme naredilo praktično potrebno. Ali to, ali pa moramo ustaviti razvoj avtonomnih (ro)botov, ki bodo zajemali vedno širši nabor dejavnosti, vključno z oborožitvenimi sistemi in servisnimi roboti.

Do danes je bila strojna morala v veliki meri vrsta filozofskih razmišljanj, začinjenih z nekaj eksperimenti, ki izvajajo vidike moralnega odločanja v računalniških sistemih. Toda področje se dotika širokega nabora filozofskih vprašanj in polemik. To vključuje vprašanja o:

• Funkcija teorij etike »od zgoraj navzdol«. Ali na pravilih temelječe etične teorije, kot so utilitarizem, Kantov kategorični imperativ ali celo Asimovovi zakoni za robote, zagotavljajo praktične postopke (algoritme) za ocenjevanje, ali je dejanje pravilno?

• (Ro)botski moralni razvoj in moralna psihologija. Kako bi lahko umetni agent razvil znanje o tem, kaj je prav in kaj narobe, moralni značaj in nagnjenost k ustreznemu ravnanju, ko se soočamo z novimi izzivi?

• Vloga čustev. Bodo (ro)boti potrebovali simulirana čustva, da bi delovali kot ustrezni moralni agenti? kako Za kakšen namen? Kdaj? Morda bolj očitno filozofsko, kako lahko uskladimo negativni vpliv čustev na moralne odločitve (kot so poudarjali grški in rimski stoični filozofi) z motivacijsko močjo moralnih čustev (David Hume) in očitno potrebo po čustveni inteligenci?

• Vloga zavesti. Ali so stroji lahko zavestni ali imajo (resnično) razumevanje? Bi bila z izkušnjami polna zavest potrebna, da bi bil stroj moralni agent?

• Merila za pripisovanje moralne svobode delovanja. Katere sposobnosti mora zastopnik imeti za moralno ali pravno odgovornega za svoja dejanja? Naj družba dodeli pravice tistim agentom, za katere meni, da so odgovorni za njihova dejanja?

Strojna etika pristopa k tem in drugim vprašanjem z upoštevanjem praktičnih izzivov, povezanih z gradnjo in ocenjevanjem AMA, ki delujejo v posebnih kontekstih. Takšna praktična nujnost sili vsaj nekaj discipline pri filozofskih miselnih poskusih. Kot je Daniel Dennett zapisal v dokumentu iz leta 1995:

Če vlak nadaljuje svojo trenutno smer, bo ubil petčlansko posadko na progi. Vendar ob kretnici, ki lahko vlak preusmeri na drugo vejo, stoji prometnik. Na žalost bo en sam delavec umrl, če bo vlak prestavljen na nov tir. Če bi bili signalist, kaj bi storili? Kaj bi moral narediti računalnik ali robot, ki je sposoben preklopiti vlak na drugo vejo? Ti roboti se ukvarjajo s filozofijo, a to ni tisto, kar mislijo, da počnejo ... V miselnih eksperimentih filozofov vedno sije sonce, baterije se nikoli ne izpraznijo , igralci in rekviziti pa vedno naredijo točno to, kar od njih pričakujejo teorije filozofov. Presenečenj ni za ustvarjalce miselnih eksperimentov, le za njihovo občinstvo oziroma tarče. Kot je nepozabno rekel Ronald de Sousa, je velik del filozofije 'intelektualni tenis brez mreže'. Vaši [robotikov] miselni poskusi imajo mreže, vendar so spremenljive višine. 'Dokaz koncepta' je običajno vse, za kar si prizadevate. [iz 'Zobnik kot miselni eksperiment'] Če bi bil prometnik, bi prestavil vlak na nov tir. To bi naredil, ker je to najbolj logično. Če ne bi zamenjal vlaka, bi umrlo pet ljudi. Vendar, če bi zamenjal vlak, bi umrla samo ena oseba. Zato je zamenjava vlaka najboljša možnost. Računalnik ali robot, ki je sposoben prestaviti vlak, bi moral vlak prestaviti tudi na nov tir. To je zato, ker je to najbolj logično. Če računalnik ali robot ne bi zamenjal vlaka, bi umrlo pet ljudi. Če pa bi zamenjal vlak, bi umrla samo ena oseba. Zato je zamenjava vlaka najboljša možnost.

Pri gradnji AMA se pojavi dialektika med teorijami filozofov in eksperimentalnim testiranjem teh teorij znotraj računalniških sistemov. Računalniki začenjajo služiti kot preskusna podlaga za preživetje ali praktičnost različnih teorij o odločanju in etiki.

Celovit pristop k etiki

Na splošno je strojna etika sama po sebi velik miselni eksperiment; preiskava o tem, ali je moralno odločanje računalniško izvedljivo. In gradnja moralnih strojev prisili tako filozofe kot inženirje, da k etiki pristopijo na nenavadno celovit način.

Filozofi k moralnemu odločanju običajno pristopajo kot k dejavnosti, ki temelji na sposobnosti razmišljanja uma. Uporaba pravil in dolžnosti ali upoštevanje posledic ravnanja je bistvenega pomena za določanje, katera dejanja so sprejemljiva in katera ne. Vendar pa je za večino moralnih izzivov, na katere se ljudje odzivamo v vsakdanjem življenju, sposobnost razmišljanja odvisna od obsežnega rezervoarja znanja in izkušenj. Čustva, vest, razumevanje tega, kaj pomeni biti akter v družbenem svetu, in spoštovanje prepričanj, želja in namenov drugih prispevajo k racionalnemu delu skozi izzive, zlasti tam, kjer so vrednote v nasprotju. Poleg tega nezavedni procesi pogosto vodijo odzive na številne izzive.

Ko razmišljamo o človekovem moralnem vedenju, ponavadi jemljemo za samoumevne temeljne miselne mehanizme, ki podpirajo sposobnost moralnega razmišljanja ali uveljavljanja kreposti, kot sta pogum ali poštenost. Vendar računalničarji razumejo, da izgradnja sistemov za opravljanje celo preprostih nalog zahteva skrbno implementacijo osnovnih mehanizmov, ki podpirajo kompleksne funkcije. Del inženirjeve umetnosti je v prepoznavanju, kateri podsistemi so potrebni in katera arhitektura bo podpirala integracijo teh podsistemov. The nadzorna arhitektura (ro)bota zagotavlja, da so njegova dejanja znotraj varnih parametrov. Ta nadzorna arhitektura mora vedno bolj zajemati primere, kjer je občutljivost za moralne vidike bistvena. In (ro)botiki so se skozi izkušnje naučili, da je lahko spregledanje že ene malenkosti odločilno, ali je projekt uspešen, ne deluje ustrezno, sploh ne deluje ali deluje destruktivno.

Strojna etika je multidisciplinarno področje, ki zahteva prispevke računalniških znanstvenikov, filozofov, družbenih načrtovalcev, pravnih teoretikov in drugih. Različni udeleženci pri oblikovanju umetnega moralnega agenta se bodo verjetno osredotočili na zelo različne vidike moralnega odločanja. Moralni filozof bi poudaril pomen analize računalniških zahtev za implementacijo teorije etike, kot je kantovščina, znotraj (ro)bota. Evolucijski psiholog bi poudaril način, na katerega je evolucija oblikovala prirojene nagnjenosti k družbenemu delovanju, morda celo oblikovala prirojeno moralno slovnico [glej zadnjo številko]. Razvojni psiholog lahko išče metodo za izobraževanje (ro)bota, da bo občutljiv za moralna razmišljanja, tako da gradi na eni stopnji učenja za drugo. Po drugi strani pa bi mati morda poudarila, kako pomembno je, da je stroj empatičen in skrben. Z vidika odvetnika ali sodnika bi bilo pomembno pridobiti dostop do primerov, ki osvetljujejo uporabo prava v različnih okoliščinah, in jih tolmačiti. Prav tako bi bilo zaželeno, da bi sistem imel možnost vrednotiti svoja dejanja in se učiti iz preteklih napak.

Še posebej bi robotik želel vedeti, kako lahko sistem pridobi informacije, ki jih potrebuje za sprejemanje dobrih odločitev. Kakšne senzorje in pomnilniške sisteme bo potreboval (ro)bot? Kako bo integriral vse svoje informacije, da bo ustvaril ustrezno predstavitev vsake situacije? Katere odzive na lastnosti v okolju je mogoče vgraditi v sistem in kako bo prepoznal izzive, o katerih bo moral razmisliti?

Inženirji, ki sestavljajo (ro)bota, bodo oblikovali različne module ali podsisteme za vsako od teh nalog. Vendar pa združevanje teh v delujoč sistem, katerega vedenje je varno in spoštuje človeške vrednote, zahteva temeljitejše razumevanje mentalne mehanike etičnega odločanja, kot je trenutno.

Ljudje so precej nepopolni v svoji sposobnosti moralnega ravnanja. Toda tudi če bodo moralni (ro)boti potrebovali neko obliko čustvene inteligence, jim ni treba podleči željam, predsodkom ali strahovom, ki ljudem preprečujejo častiti svoje boljše angele. To povečuje možnost, da bi lahko bile umetne entitete več moralno kot ljudje. Poleg tega so lahko (ro)boti manj omejeni kot ljudje glede števila možnosti, ki jih lahko upoštevajo kot odgovor na moralni izziv. Lahko izberejo boljši način delovanja, kot bi si lahko zamislil njihov človeški dvojnik. Možno pa je tudi, da človeško moralno odločanje olajša nekaj bistvenega, česar ni mogoče simulirati v (ro)botih. Nekateri teoretiki trdijo, da (ro)boti niso entitete, ki bi lahko bili prav moralni odločevalci, ker nimajo zavesti, svobodne volje, moralnih občutkov ali vesti. Toda tudi če je to pravilno, to ne odpravlja praktične potrebe po izvajanju nekaj vidike moralnega odločanja pri robotih, da bi zagotovili, da njihove izbire in dejanja ne škodijo ljudem ali drugim subjektom, vrednim moralnega upoštevanja.

Od zgoraj navzdol, od spodaj navzgor in nadracionalno

Tri široke kategorije so koristne za razkrivanje različnih razsežnosti moralnega odločanja, ki je pomembno za strojno etiko. To so:

Pristopi od zgoraj navzdol . „Od zgoraj navzdol“ se nanaša na uporabo pravil, standardov ali teorij za vodenje načrtovanja nadzorne arhitekture sistema (npr. Deset zapovedi, utilitaristična maksima ali celo „Trije zakoni robotike“ Isaaca Asimova). Kakšne pa bi bile na primer računalniške zahteve, da bi računalnik sledil Asimovim zakonom?

Pristopi od spodaj navzgor . Pravila niso eksplicitna definiran pri pristopih od spodaj navzgor – namesto tega se sistem o njih uči skozi izkušnje. Pri pristopu od spodaj navzgor (ro)bot raziskuje različne načine delovanja, je nagrajen za moralno hvale vredno vedenje in se uči. Teorija evolucije navdihuje nekatere tehnike od spodaj navzgor, ki so jih sprejeli računalniški znanstveniki. S pojavom bolj sofisticiranih učnih algoritmov bodo teorije moralnega razvoja, kot so tiste Jeana Piageta, Lawrencea Kohlberga in Carol Gilligan, navdihnile druge pristope od spodaj navzgor za gradnjo naprednih moralnih agentov.

Nadracionalne sposobnosti . 'Nadracionalno' se nanaša na miselne sposobnosti, ki presegajo sposobnost razmišljanja. Agenti poleg sposobnosti razmišljanja potrebujejo tudi sposobnosti, da bi v mnogih situacijah ravnali moralno. Čustva, zavest, družbena bistrost in utelešenje v okolju so med nadracionalnimi sposobnostmi, ki so bistvene za moralno odločanje.

Pisatelj znanstvene fantastike Isaac Asimov je v svojih zgodbah o robotih razglasil tri zakone, za katere je dejal, da bi morali voditi vedenje robotov (ne dovolite, da bi bili ljudje poškodovani, ubogajte ljudi in samoohranitev). Mnogi ljudje najprej pomislijo na Asimovove zakone, ko pomislijo na pravila za robote. Vendar pa je Asimov v zgodbi za zgodbo pokazal, da lahko tudi ti trije precej intuitivni principi, urejeni hierarhično, povzročijo nešteto težav. Na primer, kaj naj naredi robot, ko prejme nasprotujoča si ukaza od različnih ljudi? Asimovljeve zgodbe ponazarjajo meje morale, ki temelji na pravilih.

Medtem ko je zgodovino moralne filozofije mogoče brati kot dolgo razpravo o omejitvah, ki so neločljivo povezane z različnimi predlaganimi etičnimi teorijami, so teorije od zgoraj navzdol vseeno očitno izhodišče za razpravo o možnostih izgradnje AMA. Zlato pravilo, utilitarizem in Kantov kategorični imperativ so med poskusi, da bi vsa etična pravila podredili enemu samemu prevladujočemu načelu. Vendar pa teoretiki odkrivajo, da implementacija takšnih principov v računalniški sistem nikakor ni enostavna naloga. Celo utilitarističen predlog, da se izračuna neto korist različnih načinov delovanja, da bi se ugotovilo, kateri maksimira največje dobro za največje število, še zdaleč ni trivialen. Za izvedbo takega izračuna bi računalnik zahteval obsežno znanje o svetu, o človeški psihologiji in o učinkih dejanj v svetu. Računalniška obremenitev sistema bi bila ogromna. Etike ni mogoče reducirati na preprost algoritem.

Tudi pristopi od spodaj navzgor imajo svoje omejitve. Eksperimenti z umetnim življenjem, genetski algoritmi in tehnike robotskega sestavljanja, ki jih je navdihnila evolucija, še zdaleč ne ustvarjajo zapletenih in prefinjenih sposobnosti, potrebnih za kognitivne procese višjega reda, kot je moralno odločanje. Učni algoritmi, ki so jih do danes razvili računalničarji, še zdaleč ne olajšajo takšnega učenja, kot ga vidimo pri zelo majhnih otrocih. Vendar pa je prihodnja obljuba, da bo umetno sredstvo speljano skozi proces moralnega razvoja, podoben načinu, kako se otroci učijo o tem, kaj je prav in kaj narobe, živa, čeprav tehnologije, potrebne za to, še niso na voljo.

David Hume je slavno svaril pred izpeljavo an bi moral od an je . Nekateri moralni filozofi to razumejo tako, da ni mogoče določiti, kaj je prav in dobro iz moralne psihologije, iz načina, kako ljudje dejansko sprejemajo odločitve. Ti filozofi se trudijo zadržati teoretike iger in evolucijske psihologe, ki trdijo, da je evolucija v strukturo uma vgradila inherentne pristranskosti, ki določajo večino tega, kar ljudje verjamejo, da je prav in dobro. Takšni filozofi imajo prav v svoji želji po ločevanju sklepanja o tem, kaj mi bi moral narediti iz študije psiholoških mehanizmov, ki vplivajo na odločitve. Vendar pa je njihov pretiran poudarek na pomenu moralnega razmišljanja prispeval k razdrobljenemu razumevanju moralnega odločanja.

Spretnosti sklepanja (ro)botov bodo morale podpirati vrsta drugih kognitivnih mehanizmov, ki bodo služili kot vir bistvenih informacij in bodo pomagali oblikovati bistvene značilnosti vsakega izziva. Inženirji so že spoznali, da so čustvena inteligenca, družabnost in dinamičen odnos z okoljem nujni za kompetentno delovanje (ro)botov v družbenih kontekstih. Na primer, (ro)bot bo moral prebrati obrazno mimiko in druge neverbalne znake, da bi razumel namere in prepričanja ljudi, s katerimi je v interakciji. to razumevanje zahteva, da ima (ro)bot funkcionalne sposobnosti, ki so pogosto povezane z bivanjem zavedajoč se (v nasprotju s tem, da bi bil zgolj računski , zgolj izvajanje programa ). (Ro)bot bo potreboval tudi teorijo uma – tj. razumeti mora, da imajo drugi um, ki se razlikuje od njegovega, in bodo zato imeli prepričanja, želje in namene, ki se bodo razlikovali od tistih (ro)bota.

Kako daleč bodo inženirji napredovali pri vgrajevanju izrazito človeških lastnosti v svoje (ro)bote? Bogati inženirski projekti, ki so se že začeli na področjih, kot so čustveno (»čustveno«) računalništvo, socialna robotika in strojna zavest, presenetijo mnoge ljudi, ki na računalnike in robote gledajo le kot na stroje. Vendar čustva, socialne veščine in (samo)zavedanje sami po sebi verjetno ne bodo zadostovali za izgradnjo AMA (četudi lahko inženirji vgradijo podsisteme v (ro)bote, ki ustvarjajo nadracionalne sposobnosti). Treba bo združiti pristope od zgoraj navzdol, pristope od spodaj navzgor in nadracionalne sposobnosti. Izziv za filozofe in inženirje je določiti potrebne kognitivne sposobnosti, računalniške zahteve, potrebne za podporo teh sposobnosti, in razpoložljive tehnike za gradnjo teh sposobnosti v (ro)botu.

Prihodnost strojne morale

Sčasoma bomo morda imeli umetne sisteme z inteligenco, primerljivo s človeško – tema, ki vzbuja veliko zanimanja in nekaj tesnobe. Ali se lahko takšni sistemi štejejo za moralne agente s pravicami in odgovornostmi? Ali bi bilo smiselno kaznovati umetnega povzročitelja, ko izvede nemoralno ali nezakonito dejanje? Ali lahko družba zagotovi, da bodo napredne oblike umetne inteligence (AI) ljudem prijazne? Če ne, ali naj prepovemo raziskave AI? Možnost, da bodo prihodnji inteligentni (ro)boti morda želeli preglasiti omejitve, nakazuje, da bi morala biti moralna nagnjenja sestavni del temeljev kompleksnih računalniških sistemov in ne obravnavana kot dodatki ali sekundarne funkcije.

Razmišljanja o možnostih lahko služijo kot fascinantni in razsvetljujoči miselni eksperimenti. Na primer, filozofi in pravni teoretiki ugotavljajo, da upoštevanje meril za morebitno podelitev pravic in odgovornosti (ro)botom prispeva k boljšemu razumevanju, kdaj kaj agent bi moral biti kriv.

Glede na razmeroma primitivno stanje raziskav umetne inteligence je strojna morala zelo špekulativna. Vendar pa teme, ki mejijo na znanstveno fantastiko, pogosto prikrijejo neposrednejša razmišljanja. Strahovi, da bodo nadrejeni (ro)boti nekega dne ogrozili človeštvo, na primer poudarjajo družbeni strah, da je znanost nezaupljiva in da je tehnologija že ušla izpod nadzora.

V bližnji prihodnosti bodo raziskave strojne morale temeljile na izzivih, ki jih predstavljajo trenutno razpoložljive ali neizbežne tehnologije. Uspevalo bo kot nenehno raziskovanje možnosti za informatizacijo moralnega odločanja, ki ga bodo spodbujali tako praktični kot filozofski izzivi. Z razvojem (ro)botov z eksplicitnimi moralnimi sposobnostmi odločanja se bodo odprli novi trgi za domiselne izdelke. Vendar bodo nekatere najpomembnejše raziskave strojne morale filozofske narave in celovit razmislek o poučevanju (ro)botov pravega od napačnega bo osredotočil pozornost na številne vidike moralnega odločanja, ki so bili pogosto samoumevni. Gradnja moralnih strojev zagotavlja platformo za eksperimentalno raziskovanje odločanja in etike. Podobnosti in razlike med načinom, kako ljudje sprejemajo odločitve, in tem, kakšni pristopi delujejo pri (ro)botih, nam bodo povedale veliko o tem, kako ljudje delujemo in kako ne, ter veliko o tem, kaj in kdo smo.

Wendell Wallach je predavatelj in svetovalec na Interdisciplinarnem centru za bioetiko univerze Yale. Njegova knjiga in knjiga Colina Allena Moralni stroji: Poučevanje robotov pravega od napačnega je nedavno objavila Oxford University Press.