Stroji in moralno razmišljanje

Thomas M. Powers o tem, kako bi lahko računalnik obdelal Kantov moralni imperativ.

Filozofe skrbi, kako primerjati ljudi in stroje, vse odkar je Alan Turing predlagal svoj slavni 'test inteligence' v svojem članku Mind iz leta 1950 'Računalniški stroji in inteligenca'. Če je uspešno posnemanje človeškega pogovora eden od zadostnih pogojev za inteligenco, kot je mislil Turing, le kaj bi še lahko dokazalo inteligenco? Kaj pa igranje dobre partije šaha ali brskanje po razmetani sobi in pometanje? Če naj se te in podobne dejavnosti štejejo za znake inteligence, potem se nam ljudem ni treba razmnoževati, da bi jih na svet prinesli več. Zahvaljujoč podjetjem, kot sta IBM in iRobot, je inteligenco mogoče kupiti v škatli – ali vsaj v organizirani mešanici plastike, kovine, polprevodnikov in programske opreme, oživeti z malo elektrike. (Dr. Frankenstein, imate konkurenco!) Ne morem verjeti, da sem tukaj. To je tako nadrealistično. Tako trdo sem delal, da sem prišel do te točke, in končno se je vse poplačalo. Občutek je kot sanje. Ne morem verjeti, da sem res tukaj. Občutek je kot uresničitev sanj. Ves moj trud je končno poplačan in to je neverjeten občutek. Zelo sem hvaležna za to priložnost.

Toda seveda obstajajo globlje skrbi glede implikacij inteligentnih strojev in če bi filozofi kaj radi počeli, je to globoka skrb. Strah je, da so Turing in računalniški inženirji, ki so mu sledili, povzročili neke vrste konceptualno erozijo človeške osebe. Vse vrste lastnosti, za katere se je nekoč mislilo, da pripadajo izključno ljudem, bi lahko zdaj bile vgrajene v vse vrste strojev. Zagotovo je bila inteligenca pomembna značilnost, ki so jo stroji izgubili, vendar je treba slediti še drugim. Hiter pregled literature o AI (umetni inteligenci) s seboj prinaša obljube zaznavnih, fino razlikovalnih, celo empatičnih strojev. (Trezni filozofi bodo vztrajali pri strašljivih narekovajih okoli vseh teh pridevnikov, poučno pa je, da inženirji tega ne počnejo.) Trenutno sem tako jezen. Ne morem verjeti, da bi naredila kaj takega. Tako neprofesionalno je. Popolnoma sem besen. Ne morem verjeti, da bi se spustila na kaj takega - to je nova nizka vrednost. To je popolnoma neprofesionalno in tega ne bom trpel.

Morda naši obeti ne bi smeli biti tako črni: ljudje ne tekmujemo s stroji – vsaj še ne. Zagotovo ni nič narobe z malo več inteligence na svetu. Če lahko računalniški stroji prevzamejo naloge usmerjanja letalskega prometa in ocenjevanja groženj javnemu zdravju, potem z njimi ne bomo izgubili (veliko) ničesar; namesto tega bodo stroji prevzemali vedno večji delež naših praktičnih in državljanskih bremen. Toda vprašanje ostaja: Ali ni nekaj, kar lahko storijo samo ljudje?



Moralni program

Eden verjetnih odgovorov na to vprašanje bi bil vztrajati pri tem, da lahko samo ljudje sodelujejo v moralnem razmišljanju. Za privržence kantovske tradicije v moralni filozofiji to ne označuje samo ločnice med nami in stroji, ampak kaže tudi na to, kaj ljudem daje poseben status kot 'samim sebi ciljem' – kar je razlog, zakaj ne obravnavamo ljudi (vključno s samim seboj) zgolj kot sredstvo. Pristna moralna avtonomija, vključno s svobodno voljo, je ključ do tega posebnega statusa in je značilnost, ki je stroji nikoli ne bodo imeli, saj je njihovo vedenje vezano na strogo vzročnost njihovih programov in logičnih vrat njihovih tranzistorjev in mikroprocesorjev. Tako lahko s svojim računalnikom počnete, kar želite – to je zgolj sredstvo.

Kljub temu, tudi za kantovca, kot sem jaz, obstajajo težave s tem odgovorom na vprašanje o človeški edinstvenosti, ki skrbi za 'konceptualno erozijo človeške osebe' daje nekakšen občutek z glavo v pesek. Prvič, ta odgovor lahko predstavlja nekakšen firov triumfalizem, saj je skoraj gotovo, da računalniki volja čedalje bolj komunicirajo z ljudmi, in pomirjujoče bi bilo, če bi lahko nekaj programirali kot moralno sklepanje vanje. Drugič, ni povsem jasno, ali koncept moralnega razmišljanja Immanuela Kanta nasprotuje konceptu mehanske inteligence, ki ga je prevzel Turing. To pomeni, da kantovci na splošno mislijo, da je morala sestavljena iz konstruiranja in upoštevanja pravil, in točno to, kar računalnik počne, je sledenje pravilom. Kant sam je vztrajal, da je moralno razmišljanje povsem 'formalno'; če bi Turingov test vključeval moralno razmišljanje, morda ne bi bila videti tako daleč narazen. Mogoče bi zmogel računalnik z umetno inteligenco ustvariti pravila in jih upošteva tako, da je njegovo vedenje videti načelno. Ne bi smeli prehitro asimilirati moralnih pravil v programske rutine, ampak raziščimo možnosti strojnega moralnega sklepanja nekoliko bolj podrobno, začenši z nekaj preprostimi primeri.

Recimo, da želimo izdelati računalnik za bančno industrijo, ki se vzdrži kraje. Programer si lahko »krajo« razlaga kot »prenos denarja z računa ene osebe na račun druge brez dovoljenja prve osebe«. Eden od načinov za doseganje takšne omejitve je programiranje računalnika brez kakršne koli rutine za prenos denarja. Vsekakor pa je to v moralnem smislu prazno: da bi bilo res moralno, želimo stroj, ki lahko delati slabe stvari, ampak refreni od njihovega početja. In primer tudi jasno pokaže, da bi bila nedejavnost moralnega stroja le polovica zgodbe. Želimo stroj, ki zmore dobro tudi stvari.

Predstavljajte si zdaj računalnik, ki razdeljuje dobrino – redko zdravilo, ki rešuje življenja, recimo več bolnikom v različnih položajih – v skladu s pravilom stroškov in koristi, prilagojenim verjetnosti, ki je zasnovano tako, da reši največ bolnikov. Takšna dejavnost bi se lahko štela za kantovsko, vendar bi lahko na računalnik gledali tudi kot na izvajanje utilitarističnega pravila za povečanje skupne družbene sreče. (Zdi se, da so nekatera pravila združljiva z več teorijami o naravi morale.) Lahko bi si predstavljali, da bi bil računalnik boljši pri izračunavanju zapletenih primerov z znanimi verjetnostmi kot večina ljudi. Poleg tega bi lahko dobili bolj nepristranske odločitve o razdeljevanju zdravil, saj je računalnik zaščiten pred nepomembnimi dejavniki, kot je na primer, kateri bolnik je zdravnikom bolj všeč ali kateri so sorodniki bolnišničnih administratorjev. Kljub temu obstajajo razlogi za domnevo, da bi se računalnik zmotil pri uporabi pravila stroškov in koristi. Ali bi bilo na primer najpomembnejše le okrevanje bolnikov ali je bolj pomembno, koliko časa bo vsak bolnik verjetno živel? Ali lahko računalnik upošteva količino trpljenja, ki ga morajo prestati bolniki, ki zdravila ne dobijo (ali ga prejmejo), in kako se to uteži glede na korist okrevanja za tiste, ki bodo verjetno ozdraveli? Če pacientovim okrevanjem ne bi bilo mogoče dodeliti statistične verjetnosti, kaj bi potem naredil računalnik? Ali ne bi prinesla rezultata in zato zdravila ne bi razdelila kaj bolnikov?

Mogoče naš stroj preprosto ni dovolj kantovski. Bolj eksplicitno kantovski stroj bi lahko imel vnaprej programirano bazo dovoljenih maksim. (Maksima je nekakšen akcijski načrt, primeren za določene okoliščine.) Maksime moralnega delovanja so tisto, za kar se zdi, da je Kant mislil, da jih je mogoče ustvariti iz prve formulacije ('formalne' različice) kategoričnega imperativa. Kategorični imperativ, Kantov osnovni moralni zakon, pravi, da se moramo ravnati le po maksimah, za katere bi lahko želeli, da postanejo univerzalni zakoni. Eden od pogojev, da maksima postane univerzalni zakon, je logična skladnost z drugimi univerzalnimi zakoni. To je računalniško videti kot nezačetno; nismo mogli preveriti nobene maksime, če že nismo vedeli, kateri so drugi univerzalni zakoni! Toda predpostavimo, da bi lahko začeli z enim univerzalnim zakonom in nato s ponavljajočim se postopkom zgradili zbirko podatkov o dovoljenih maksimah, ki bi jih ustvarili iz enega zakona, ki ga imamo. Ko smo imeli dovolj veliko zbirko podatkov, smo lahko ukazali računalniku, naj deluje po naslednjem pravilu: »Samo dejanje a če se pojavi v bazi dovoljenih maksim.'

Da bi to delovalo, bi najprej potrebovali računalnik z vrsto inteligence, ki bi lahko primerno razlikoval eno okoliščino od druge, kajti zelo malo dejanj je dovoljenih v vseh okoliščinah. (Izvedba nujne traheotomije je odličen primer.) Drugič, morda nikoli ne bomo programirali zadostnega števila maksim v bazo podatkov. Skoraj zagotovo bi naš stroj poslali v svet nepripravljen na določene okoliščine in zato nezmožen izračunati moralno dopustnega načina ukrepanja.

Programska rešitev tega problema je, da v programsko opremo vgradimo sposobnost prepoznavanja novih okoliščin in izračunavanja novih dovoljenih maksim z uporabo preizkusa logične skladnosti s predhodnimi univerzalnimi zakoni. In če gremo še dlje v smeri kantovske moralne teorije, lahko pričakujemo, da bo tak računalnik zmožen izračunati razrede prepovedanih in obveznih maksim z osnovno logiko (če dela a v okoliščinah c ni dopustno, potem je maksima narediti a v c je prepovedano; če ne stori a v c ni dopustno, potem je maksima narediti a v c je obvezno).

Čeprav še vedno obstajajo nekatere formalne ovire za izdelavo takšnega stroja (tukaj se ne bom spuščal v bolj skrivnostne logične težave), se je vredno vprašati, kaj bi imeli, če bi bil tak stroj izdelan. Po naši hipotezi bi moral stroj pred kakršnim koli dejanjem preveriti, ali je dejanje dovoljeno, prepovedano ali obvezno. Tega ne počnejo niti najbolj previdni človeški moralni preudarci. Dejansko je velika večina naših dejanj sprejeta nemoralno v naravi in ​​večinoma ni predmet moralnega vrednotenja. Naša intuitivna 'baza podatkov' dovoljenih dejanj je ogromna, čeprav to morda kaže na našo moralno lenobo. Na primer, kako pogosto razmišljamo, ali naj se v službo peljemo ali z javnim prevozom? Če obstajajo obveznosti za zmanjšanje našega ogljičnega odtisa ali celo za zmanjšanje prometnih zastojev, je ta izbira zagotovo moralna – vendar večina ljudi brez premisleka zapade v eno ali drugo navado. Stroj ne bi bil podvržen takšnim nereflektiranim navadam.

Triumph of the Moral Machines

Zanimivo je ovrednotiti takšen hipotetični stroj v luči možne 'erozije' osrednjih človeških značilnosti, kot so inteligenca, empatija in družabnost. Bolj ko naš moralni stroj izvaja tako formalno strukturirano kantovsko moralo, manj bi se v nekaterih pomembnih vidikih obnašal kot človek. Ne bi potreboval izrazov obžalovanja, moralnih konfliktov ali kakršnega koli dejanja vesti, saj bi vse, kar bi storil, lepo spadalo pod kategorije moralnih maksim, ki smo jih programirali vanj ali ki so bile logično izpeljane iz tistih, ki smo jih programirali. . Ne bi trpelo zaradi šibkosti volje, ker bi bilo programirano, da vedno deluje v skladu s svojimi moralnimi kategorijami.

Te vedenjske značilnosti bi morali obravnavati kot moralni uspeh s stališča kantovskega programerja, ki je ustvaril tak stroj. Kaj pa strojno pojmovanje moralnega uspeha, če domnevamo, da bi lahko imel kaj takega? Zdi se, da bi moral moralni uspeh povezati z izvajanjem dejanj v skladu s svojimi moralnimi kategorijami. Torej bi moralni stroj, podobno kot vedenjski družboslovec, definiral 'moralno agenta' iz opazovanega vedenja kandidatov. Po Adamu Smithu bi stroju lahko rekli 'nepristranski gledalec'. Takšen stroj bi človeško delovanje lahko razumel kot muhasto, nereflektirano in moralno leno. Morda bi celo obrnil ploščo na kantovce in skušal vzpostaviti moralni status »sredstev v sebi« – moralnih računalnikov. Konec koncev, po hipotezi , je ta formalna in mehanična moralna inteligenca tista, ki je dosegla tak moralni uspeh.

Ti hipotetični moralni stroji predstavljajo velik izziv za kantovsko pojmovanje avtonomije. Za Kanta igra pojem avtonomije dve veliki vlogi v njegovi metafiziki in moralni filozofiji. Služi kot nekakšna rešitev 'antinomije' [nerešljivega protislovja] svobodne volje in vzročnega determinizma, ki je osrednji problem njegovih prvih dveh Kritike . In kot sem že omenil, je avtonomija osnova za Kantovo trditev, da imajo ljudje poseben moralni status in notranjo vrednost. Za Kanta je praktična svoboda ali avtonomija preprosto zmožnost ravnanja v skladu z moralnim zakonom, ki ga človek ustvari s svojim razumom. Toda kaj, če to sposobnost najbolje izvaja stroj, ki strogo sledi formalnemu postopku za odločanje, kaj bi moral in česa ne bi smel narediti? Ali bo kantovski stroj boljši moralni agent, ker je njegovo vedenje strogo vzročno določeno z njegovim programom skozi njegova logična vrata? Kantovci so vedno domnevali, da formalno moralno razmišljanje in poseben moralni status ljudi vlečeta tako rekoč v isto smer, ker je bila svobodna volja ('nevzročena vzročnost volje') nekaj, česar zgolj sredstva – zgolj stroji – nikoli ne morejo imeti. . Zdaj se zdi, da bi bila sposobnost moralnega sklepanja bolje videti kot neodvisen naše avtonomne volje, ne pa njene posledice.

Morda je rezultat tega miselnega eksperimenta upoštevanje opozorila, naj bodimo previdni, kaj si želimo ... lahko se uresniči. Zato moramo biti zelo previdni, kakšne sposobnosti programiramo v računalnike in kakšne odgovornosti jim nalagamo. Na koncu, če prihajajo stroji, so ljudje tisti, ki jih konstruirajo.

Thomas Powers je docent za filozofijo in direktor programa za znanost, etiko in javno politiko na Univerzi v Delawareu.