Love for robotter. Hvem vil løse de etiske og juridiske problemer med førerløs biler?

Tre love om robotteknologi-obligatoriske adfærdsregler for robotter-dukkede først op i marts 1942 på siderne i tidsskriftet forbløffende science fiction. De blev opfundet af den berømte science fiction forfatter Isaac Asimov i historien “The Kororeographer”, som derefter trådte forfatterens samling “I, robotten”.

Her er lovene:

En robot kan ikke skade en person eller dens passivitet for at gøre det muligt for en person at blive skadet.

Robotten skal adlyde alle ordrer afgivet af mennesker, medmindre disse ordrer er i modstrid med den første lov.

Robotten skal tage sig af sin sikkerhed i det omfang, at det ikke er i modstrid med den første eller anden lov.

Og hvis på det tidspunkt var det 100 procent science fiction, i 2019-en normal del af livet. Udviklingen af kunstig intelligens robotteknologi tager en ny dimension, som ud over fremskridt, fører til juridiske problemer.

Du kan ikke blive benådet.
Sidste år, forskere på MIT offentliggjort resultaterne af en rapport, der involverer mere end 2.000.000 brugere. Videnskabsfolk skabte en hjemmeside kaldet den moralske maskine og bad deltagerne om at vælge, hvad de skulle gøre med en ubemandet bil, hvis de havde et valg: at redde tre børne vandrere eller at ofre voksne.

Trods det faktum, at testresultaterne blev delt (nogen troede, det var rigtigt at redde så mange mennesker som muligt, og nogen var sikker på, at det var umuligt at blande sig i processen), folk var mere tilbøjelige til at redde unge passagerer i stedet for de ældre, store grupper i stedet for et par mennesker og mennesker, ikke dyr. Baseret på resultaterne af denne test, er forskerne meningen at udvikle en algoritme af valg for maskinen. Men det er ikke klart, hvad der præcist at fokusere på.

“Det er let at forestille sig en situation, hvor de algoritmer indlejret i sikker-bevægende program vil være i konflikt med hinanden,” skriver Edmond Awad, en af rapportens forfattere.

Fabrikanter af førerløs biler står over for samme dilemma. For eksempel, for et par år siden i USA og Kina var der to dødsulykker involverer selvkørende biler Tesla. Trods det faktum, at virksomheden formået at undgå ansvar, Elon Mask sagde, at passagererne af sådanne biler bør tage sig af forsikring på forhånd.

Virksomheden bør ikke holdes ansvarlig for ulykker, hvor førerløse biler falder. Virksomhedens ansvar for ulykken svarer til en person, der sidder fast i en elevator. Ansvaret for alle elevatorer rundt om i verden ligger hos Otis (producenten af elevatorer.-avt.), men de er ikke ansvarlige for alt dette, “Musk forklarede.

Regler for robotter
Markedet for industrielle og ikke-industrielle robotter anslås til ca. $100.000.000.000. Dette omfatter også førerløs biler. I 2025 vil dette tal stige til $498.000.000.000. Ud over kommerciel interesse er fabrikanter af fuldt autonome førerløse biler bekymrede over den etiske side af spørgsmålet, fordi et af de forventede resultater af indførelsen af sådanne biler-reduktion af ulykker på vejene.

Det antages, at med udbredelsen af autonome transport antallet af ulykker vil falde til et minimum, fordi en sådan bil er altid klar over situationen på vejen, aldrig bliver træt, ikke bliver syg og ikke skændes med chefen. Stephen Schledover, en ingeniør på California Institute of transport Technology Research, mener, at en dødsfald involverer førerløse biler vil tegner sig for 3.300.000 timers kørsel.

“Det automatiske system skal være pålideligt for at bryde denne rekord,” siger han i et papir til Science mag. Det var folks skyld.

Leave a Reply

Your email address will not be published. Required fields are marked *