Kuinka itsenäisesti ajavien autojen tulisi valita kuka ei tapa?

Suosittu MIT-tietokilpailu pyysi tavallisia ihmisiä tekemään eettisiä arvioita koneille

Luotto: Skaalattava yhteistyö / MIT Media Lab

Jos automaattisen auton piti valita törmäyksestä esteelle, tappaa sen kolme naismatkustajaa tai ajaa yhden lapsen yli kadulla - minkä puhelun pitäisi tehdä?

Kun kolme yhdysvaltalaista tutkijaa alkoi miettiä itse ajavien autojen tulevaisuutta, he ihmettelivät, kuinka näiden ajoneuvojen tulisi tehdä ankaria eettisiä päätöksiä, jotka ihmiset yleensä tekevät vaistomaisesti. Idea sai Jean-François Bonnefonin, Azim Shariffin ja Iyad Rahwanin suunnittelemaan Moraalikoneen nimisen online-tietokilpailun. Voisitko ajaa miehen tai naisen yli? Aikuinen vai lapsi? Koira vai ihminen? Ryhmä vai henkilö?

Vuoteen 2069 mennessä autonomiset ajoneuvot saattoivat häiritä liikennettä eniten, koska T-malli lanseerattiin Detroitissa vuonna 1908. Vaikka 62 yrityksellä on lupa itseohjautuvien autojen testaamiseen Kaliforniassa, teollisuus on eettisesti valmistautumaton. Moraalikone on suunniteltu antamaan tavallisille ihmisille jonkinlainen käsitys koneetiikasta - lisäämällä äänensä keskusteluun, joka rajoittuu usein päätöksentekijöihin, autonvalmistajiin ja filosofeihin. Medium puhui Bonnefonille ja Shariffille siitä, mitä heidän tuloksensa kertovat meille yhdestä tulevaisuuden suurimmista moraalisista ongelmista.

Tätä haastattelua on muokattu ja tiivistetty selvyyden vuoksi.

Keskipitkä: Mikä on ero ihmisten ja koneiden välillä moraalisten päätösten välillä?

Jean-François Bonnefon: Ihmisten tekemiin moraalisiin päätöksiin vaikuttaa niin monia asioita. Ihmiset reagoivat hormonien perusteella, mutta he eivät tee sitä järkevästi, eivät silloin, kun he tekevät päätöksiä todella nopeasti. Sinä ja minä voimme istua ja viettää tunnin keskustellaksesi siitä, kuinka haluaisimme reagoida. Mutta ei ole mitään järkeä, emme voi ohjelmoida itseämme tekemään mitä haluaisimme tehdä, koska toimimme vaistoilla. Mutta koneilla voimme kertoa heille, mitä haluamme heidän tekevän.

Azim Shariff: Koneilla on ylellisyyttä keskustelua, jota ihmisillä ei ole. Tämän ylellisyyden mukana tulee myös harkintavelvoitteet.

Mitä The Moral Machine kertoi sinulle kuinka haluamme koneiden toimivan?

Azim Shariff: Kaikissa maissa oli mieluummin pelastaa nuoria kuin vanhuksia ja melkein kaikkialla naiset pelastettiin miehistä. Vaikka kaikki mieltymykset suuntautuivat yhteen suuntaan, erot olivat siinä, kuinka voimakkaasti maat suhtautuivat valintoihin. Itäisissä maissa, kuten Japanissa, vähemmän suosittiin vanhojen uhraamista nuorten pelastamiseksi. Mutta tämä etuoikeus korostettiin lännessä.

Jean-François Bonnefon: On ehkä mielenkiintoista tarkastella makrotaloudellisia tekijöitä. Kaikissa maissa mielenkiintoinen suosiminen oli korkeamman aseman ihmisten pelastamiselle [esimerkiksi esimiehet kodittomille]. Huomasimme, että tämä liittyy melko tiukasti maan taloudellisen eriarvoisuuden tasoon. Jos epätasa-arvo oli suurempi, kodittomien uhraaminen oli parempana.

Kuinka paljon huomiota itsenäisten autonvalmistajien tulisi kiinnittää tuloksiin?

Azim Shariff: Se on kriittinen kysymys - kuinka paljon meidän pitäisi seurata sitä, mitä demot täällä sanovat? Jos kansalaiset haluavat meidän tekevän yhden asian, onko näin autojen eettinen organisointi? Puhtaasti demografisesta näkökulmasta meidän pitäisi antaa yleisölle mitä he haluavat. Mutta on ihmisiä, jotka on koulutettu ajattelemaan eettisiä päätöksiä, ja ehkä meidän pitäisi sen sijaan kuunnella niitä. En usko, että meidän pitäisi laiminlyödä sen, mitä enemmistö sanoo, mutta mielestäni on hyödyllistä tietää, mitä yleisö suosii. Se ehdottaa, millaista takaiskua saamme autoihin upotettuihin moraalikoodeihin.

Aikaisemmassa tutkimuksessa huomasit, että ihmisten mielestä autonomisen ajoneuvon tulisi suojata enemmän ihmisiä, vaikka se tarkoittaisi matkustajiensa uhraamista. Mutta he sanoivat myös, etteivät ostaisi itsenäistä autoa, joka on ohjelmoitu toimimaan tällä tavalla. Mitä tämä kertoo meille?

Azim Shariff: Ihmiset tunnustavat, että eettisesti vastuullisempi on pelastaa enemmän ihmishenkiä. Mutta ihmiset ovat itse kiinnostuneita, ja eettisen toiminnan tekeminen saattaa olla vaikeaa. Kun Mercedes-Benz sanoi, että jos he voisivat pelastaa vain yhden ihmisen, he pelastaisivat kuljettajan eikä jalankulkijan, julkinen järkytys sai heidät peruuttamaan kyseisen lausunnon. Tämä osoittaa mielenkiintoisen ongelman autoyhtiöille. Jos sanot, että autosi suosisi matkustajaa, esiintyy julkista törkeää. Jos päätät kohdella koko elämää yhtäläisesti, mutta vaarantaa auton ostaneen ihmisen elämän, saatat itse asiassa saada osuman loppupäähän, ihmiset eivät ehkä osta kyseistä autoa. Valmistajalta, jonka kanssa olemme keskustelleet, he haluavat päätöksen tekevän heidän käsistään ja he haluavat sääntelyn.

Pitäisikö Yhdysvaltain hallituksen noudattaa Saksan esimerkkiä ja antaa eettisiä ohjeita itsensä ajaville autoille?

Azim Shariff: Minusta se on hyvä idea. Hallituksen osallistumisen etuna on, että et jätä eettisiä päätöksiä markkinoille. En luota markkinoihin löytääkseen eettisimmän keskustelun. Olisi erittäin kaoottista, että jokaisella valmistajalla olisi omat ohjeensa, jotta kuluttajat voivat valita algoritmien välillä.

Ovatko ihmisten arvot tiukasti yhdenmukaisia ​​yleisten ohjeiden saavuttamiseksi?

Azim Shariff: Mielestäni se olisi mahdollista. Ihmiset olivat yhtä mieltä yleisistä seikoista, kuten pelastaa enemmän ihmisiä kuin vähemmän. Mutta on olemassa joitain variaatioita, esimerkiksi kuinka sinun tulisi kohdella jaywalking-ihmisiä. Tämä johtuu todennäköisesti epäjohdonmukaisuuksista näiden normien täytäntöönpanossa eri kulttuureissa. Japanissa jaywalking ei ole normaali tekemistä, mutta Delhissä tai New Yorkissa ihmiset jaywalkilla koko ajan. Se voi olla hankala, ja autojen on ehkä vastattava tähän jotenkin.

Vaikka yleinen etiikka olisi mahdollista saavuttaa, en usko sen olevan tarpeellista. Kun tuin autoa Kanadasta Yhdysvaltoihin, minun piti muokata ajovaloja. Laitteiden kanssa se on vaikeampaa kuin ohjelmistojen kanssa. Itse ajavan auto-ohjelmiston avulla olisi mahdollista vaihtaa algoritmi paikallisiin tapoihin. En usko, että kulttuurimuunnelmien löytäminen olisi valtava ongelma.

Googlen omaan itseohjautuvaan autoprojektiin työskentelevä insinööri sanoi, että tuloksesi eivät olleet niin merkittäviä, koska todellinen vastaus näihin skenaarioihin olisi melkein aina ”löysä jarruihin”. Ovatko Moraalikoneen skenaariot todella merkityksellisiä todellisessa elämässä?

Azim Shariff: Nämä tilanteet ovat uskomattoman harvinaisia. Mikä on ehdottomasti välittömästi merkityksellisempää, on se, kuinka jokainen pieni päätös, jonka auto tekee, muuttaa riskiä. Jos auto antaa enemmän tilaa lapsille, kyseinen päätös asettaa kuljettajan suurempaan vaaraan. Tämä pieni päätös ei välttämättä pääty kuolemaan, mutta meidän on esitettävä kysymys siitä, kuinka auton tulisi jakaa riski ihmisten kesken. Kysymys muuttuu paljon monimutkaisemmaksi, mutta myös paljon kiireellisemmäksi.