Interessant

Programmieren wir Killerautos? Die Ethik autonomer Fahrzeuge

Programmieren wir Killerautos? Die Ethik autonomer Fahrzeuge


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

In den letzten Jahren wurden immer mehr autonome Funktionen in Autos eingebettet. Und vor ein paar Monaten veröffentlichte Tesla das folgende Video, in dem es sich rühmte, „Full Self-Driving“ erreicht zu haben.

Ein Techopedia-Artikel berichtete, dass noch frühere Tesla-Autos "die notwendige Hardware für autonomes Fahren" enthielten, obwohl die Aktivierung der Fähigkeit von einem Software-Update abhing. Der Artikel sah auch den Unterschied zwischen der Art und Weise, wie autonome Autos heute gebaut werden, und denen, die in Zukunft gebaut werden, vor.

Derzeit sind Tesla-Fahrzeuge mit der für das autonome Fahren erforderlichen Hardware ausgestattet. Um die Funktion vollständig zu aktivieren, sind jedoch Software-Updates erforderlich. Es wird zwar ein vollständig autonomes Fahren ermöglichen, aber es wird dem menschlichen Fahrer auch weiterhin ermöglichen, die Kontrolle zu übernehmen, wenn die Situation ein Eingreifen erfordert.

Die nächste Generation autonomer Fahrzeuge würde jedoch keine Lenkräder, Pedale oder Getriebe benötigen. Der Vorteil solcher Autos ist die Möglichkeit, Unfälle zu reduzieren und notwendige Transportmittel für Menschen bereitzustellen, die nicht in der Lage sind, wie ältere Menschen oder Menschen mit Seh- oder körperlichen Behinderungen zu fahren.

Es gibt aber auch einen möglichen Nachteil: Die Notwendigkeit, dass die menschliche Agentur, die die Programmierung des Autos einrichtet, alle möglichen Szenarien vorhersieht und das Auto anweist, die Art von Urteilen zu fällen, die Menschen treffen müssen, wenn das Szenario Maßnahmen erfordert, die unvermeidlich einige verursachen Form des Schadens.

Während Tesla der bekannteste Name an der KI-Front für Fahrzeuge ist, ist es sicherlich nicht der einzige Spieler in diesem wachsenden Markt. Einige weitaus ehrwürdigere Namen in der Branche sind ebenfalls aktiv geworden.

VERBINDUNG: DIE INTERESSANTE GESCHICHTE DER ELEKTROWAGEN

Bernard Marr schrieb kürzlich über die Milliardeninvestition von Toyota in selbstfahrende Autos und KI. Das Unternehmen hat sich Ziele gesetzt, die es bis 2020 erreichen will:

"Durch die Investitionen von Toyota in Technologie-Start-ups wie Perceptive Automata soll die Technologie geschaffen werden, die autonomen Fahrzeugen eine menschlichere Intuition ermöglicht, wenn sie unterwegs sind, ähnlich wie menschliche Fahrer mit Fußgängern interagieren."

Selbstfahrende Sicherheitsbilanz

Natürlich sind wir noch nicht da. Die Frage ist jedoch, ob dies das Endziel ist und ob es etwas ist, das wir verfolgen sollten, ohne die Auswirkungen eines völlig unabhängigen Autos vollständig zu berücksichtigen.

Jeder einzelne selbstfahrende Autounfall und jede Todesliste neun Unfälle mit autonomen Fahrzeugen, von denen nur vier Todesfälle verursachten. Trotz der Behauptungen des Titels ist die Liste jedoch unvollständig, da nach der Veröffentlichung des Artikels bei solchen Unfällen Todesfälle aufgetreten sind.

Das letzte Todesopfer war das eines Tesla Model X am 23. März 2018. Der Fahrer des Autos starb, als es auf eine Autobahnbarriere stieß. Tesla machte die Störung des autonomen Fahrsystems des Fahrzeugs durch die Barriere dafür verantwortlich:

"Der Grund, warum dieser Unfall so schwerwiegend war, liegt darin, dass der Crash-Dämpfer, eine Verkehrssicherheitsbarriere, die den Aufprall auf einen Fahrspurtrenner reduzieren soll, bei einem früheren Unfall ohne Ersatz zerquetscht wurde", sagte Tesla in seiner Erklärung.

Das Unternehmen fügte hinzu: "Wir haben noch nie einen solchen Schaden an einem Modell X bei einem anderen Absturz gesehen."

Leider war dies nicht das Ende tödlicher Unfälle für Teslas selbstfahrende Autos. Einige von ihnen sind in diesem Jahr aufgetreten.

Unter den Vorfällen war einer am 1. März 2019. Das US National Transportation Safety Board (NTSB) hat bestätigt, dass die halbautonome Autopilot-Software auf einem Tesla Model 3 eingesetzt wurde, als sie in einen Sattelzug gerammt wurde, der versuchte, ein Florida zu überqueren Autobahn und der Autofahrer wurde getötet.

Obwohl sie im Vergleich zu den von menschlichen Fahrern verursachten Autounfällen immer noch relativ selten sind, hat die Tatsache, dass es Unfälle und Todesfälle durch selbstfahrende Autos gibt, die Menschen um ihre Sicherheit und Programmierung besorgt gemacht. In diesem Jahr hat Quartz Zweifel an den Sicherheitsansprüchen von Tesla geäußert.

Wie bei diesem Tesla-Unfall führen die meisten autonomen Autounfälle zum Tod der Person, die auf dem Fahrersitz sitzt. Es gab jedoch Fälle von Personen außerhalb des Autos, die von autonomen Autos angefahren und getötet wurden.

Der berüchtigtste Vorfall dieser Art könnte der sein, an dem Uber am Tod von Elaine Herzberg im März 2018 beteiligt war. Die 49-jährige Frau ging und schob ihr Fahrrad über die Mille Avenue in Tempe, Arizona, als das Uber-Auto sie traf.

Das von der Polizei veröffentlichte Video des Vorfalls finden Sie hier:

Infolgedessen verfolgte Uber die Politik, menschliche Fahrer in seine Autos einzubeziehen. Die Geschichte wurde hier berichtet: Uber bringt selbstfahrende Autos wieder an die Arbeit, aber mit menschlichen Fahrern.

Dies ist eine Möglichkeit für Uber, das Problem zu umgehen, mit dem wir konfrontiert werden müssen, wenn vollständig autonome Autos zur Norm werden: wie man sie so programmiert, dass sie den Instinkt zur Erhaltung des menschlichen Lebens einbeziehen.

Programmieren von KI mit Sorge um Ethik

Wie wir in einem anderen Artikel gesehen haben, Unsere schöne neue Welt: Warum der Fortschritt der KI ethische Bedenken aufwirft, bringt die große Kraft der KI eine große Verantwortung mit sich, sicherzustellen, dass Technologie die Situation im Namen des Fortschritts nicht verschlimmert. Das Studium der Ethik für KI hat die Aufmerksamkeit von Menschen auf sich gezogen, die darüber nachdenken, was vor der Implementierung automatisierter Lösungen getan werden muss.

Einer dieser Leute ist Paul Thagard, Ph.D., ein kanadischer Philosoph und Kognitionswissenschaftler, der einige der Probleme angesprochen hat, mit denen wir uns jetzt in Bezug auf die Programmierung von Ethik in KI in Wie man ethische künstliche Intelligenz aufbaut.

Er wirft die folgenden 3 Hindernisse auf:

  1. Ethische Theorien sind sehr umstritten. Manche Menschen bevorzugen ethische Grundsätze, die in religiösen Texten wie der Bibel oder dem Koran festgelegt sind. Philosophen streiten darüber, ob Ethik auf Rechten und Pflichten, auf dem größten Wohl für die größte Anzahl von Menschen oder auf virtuosem Handeln beruhen sollte.
  2. Ethisches Handeln erfordert die Befriedigung moralischer Werte, aber es gibt keine Einigung darüber, welche Werte angemessen sind oder sogar welche Werte. Ohne eine Darstellung der angemessenen Werte, die Menschen verwenden, wenn sie ethisch handeln, ist es unmöglich, die Werte von KI-Systemen mit denen von Menschen in Einklang zu bringen.
  3. Um ein KI-System aufzubauen, das sich ethisch verhält, müssen Vorstellungen über Werte und Recht und Unrecht so präzise gemacht werden, dass sie in Algorithmen implementiert werden können, aber Präzision und Algorithmen fehlen in aktuellen ethischen Überlegungen schmerzlich.

Thagard bietet einen Ansatz, um diese Herausforderungen zu bewältigen, sagt er und verweist auf sein Buch: Naturphilosophie: Vom sozialen Gehirn zum Wissen, zur Realität, zur Moral und zur Schönheit. Im Verlauf des Artikels bietet er jedoch keine Lösung an, die sich speziell mit der Programmierung selbstfahrender Autos befasst.

Selbstfahrende Autos und das Trolley-Problem

Im Idealfall vermeiden Fahrer, irgendetwas oder irgendjemanden zu treffen. Es ist jedoch möglich, sich in einer Situation zu befinden, in der es unmöglich ist, eine Kollision zu vermeiden, und die einzige Wahl ist, welche Person oder Personen getroffen werden sollen.

Dieses ethische Dilemma ist das sogenannte Trolley-Problem, das wie der Trolley selbst über ein Jahrhundert zurückreicht. Es wird im Allgemeinen wie folgt dargestellt:

Sie sehen einen außer Kontrolle geratenen Wagen, der sich auf fünf gefesselte (oder anderweitig arbeitsunfähige) Personen zubewegt, die auf den Gleisen liegen. Sie stehen neben einem Hebel, der einen Schalter steuert. Wenn Sie den Hebel ziehen, wird der Wagen auf eine Seitenschiene umgeleitet und die fünf Personen auf der Hauptschiene werden gerettet. Es liegt jedoch eine einzelne Person auf der Seitenschiene.

Sie haben zwei Möglichkeiten:

  1. Tun Sie nichts und lassen Sie den Wagen die fünf Menschen auf der Hauptstrecke töten.
  2. Ziehen Sie den Hebel und lenken Sie den Wagen auf die Seitenschiene, wo eine Person getötet wird.

Natürlich gibt es hier keine wirklich gute Wahl. Die Frage ist, welche die geringere von zwei schlechten Optionen ist. Es war genau diese Art von Dilemma, das der Grüne Kobold Spiderman im Film von 2002 vorstellte und versuchte, ihn zu zwingen, zwischen der Rettung einer Seilbahn voller Kinder oder der Frau, die er liebt, zu wählen:

Als Superheld konnte Spiderman seine Web-Spinning-Fähigkeiten und seine Stärke einsetzen, um beide zu retten. Aber manchmal müssen sogar Superhelden eine tragische Entscheidung treffen, wie es im Film von 2008 der Fall warDer dunkle Ritter in dem Batman sich entschied, die Frau, die er liebte, in dem explodierenden Gebäude zu lassen.

Selbst diejenigen mit überlegenen Fähigkeiten können nicht immer alle retten, und die gleiche Situation kann für AI-fähige Autos gelten.

Die Frage ist dann: Welchen Ethikkodex wenden wir an, um sie so zu programmieren, dass sie solche Entscheidungen treffen?

Was soll das selbstfahrende Auto tun?

MIT Technology Review machte auf einige Forscher aufmerksam, die vor einigen Jahren daran arbeiteten, die Antworten in Wie man selbstfahrenden Autos hilft, ethische Entscheidungen zu treffen, zu formulieren. Zu den Forschern auf diesem Gebiet gehört Chris Gerdes, ein Professor an der Stanford University, der sich mit "den ethischen Dilemmata befasst hat, die auftreten können, wenn das Selbstfahren von Fahrzeugen in der realen Welt eingesetzt wird".

Er bot eine einfachere Wahl an: den Umgang mit einem Kind, das auf die Straße rennt, wodurch das Auto gezwungen wird, etwas zu treffen, es jedoch zwischen dem Kind und einem Van auf der Straße wählen kann. Für einen Menschen, der ein Kinderspiel sein sollte, ist der Schutz des Kindes wichtiger als der Schutz des Lieferwagens oder des autonomen Autos selbst.

Aber was würde die KI denken? Und was ist mit den Passagieren im Fahrzeug, die sich bei einer solchen Kollision möglicherweise verletzen?

Gerdes bemerkte: "Dies sind sehr schwierige Entscheidungen, denen sich diejenigen, die Steuerungsalgorithmen für automatisierte Fahrzeuge entwickeln, täglich stellen müssen."

Der Artikel zitiert auch Adriano Alessandrini, einen Forscher, der an automatisierten Fahrzeugen an der Universität von Roma La Sapienza in Italien arbeitet und als Leiter des italienischen Teils des in Europa ansässigen CityMobil2-Projekts zum Testen von automatisierten Transitfahrzeugen fungiert hat. Siehe das Video dazu unten:

In dieser Zusammenfassung hat sie das Trolley-Problem für Fahrer und selbstfahrende Autos zusammengefasst:

„Vielleicht sehen Sie etwas auf Ihrem Weg, und Sie beschließen, die Spur zu wechseln, und während Sie dies tun, befindet sich etwas anderes auf dieser Spur. Das ist also ein ethisches Dilemma. “

Ein weiterer prominenter Experte auf diesem Gebiet ist Patrick Lin, Professor für Philosophie an der Cal Poly, mit dem Geerdes zusammengearbeitet hat. Lins TED-Ed, der sich mit den ethischen Problemen bei der Programmierung selbstfahrender Autos befasst, um Entscheidungen über Leben oder Tod zu treffen, wird in diesem Video als Gedankenexperiment vorgestellt:

Wenn wir diese Box im Auto im manuellen Modus fahren würden, würde jede Art und Weise, wie wir reagieren würden, als genau das verstanden werden, eine Reaktion, keine absichtliche Entscheidung ", sagt Lin im Video. Dementsprechend würde es als" eine "verstanden werden instinktiv panische Bewegung ohne Voraussicht oder Bosheit. "

Die sehr reale Möglichkeit, dass Todesfälle nicht auf eine Fehlfunktion zurückzuführen sind, sondern darauf, dass die Autos ihrer Programmierung folgen, macht es so wichtig, vorauszudenken, wie mit dem umzugehen ist, was Lin als "eine Art Zielalgorithmus" bezeichnet.

Er erklärt, dass solche Programme "einen bestimmten Objekttyp, gegen den sie stoßen, systematisch bevorzugen oder diskriminieren" würden.

Infolgedessen leiden diejenigen in "den Zielfahrzeugen ohne eigenes Verschulden unter den negativen Folgen dieses Algorithmus".

Er bietet keine Lösung für dieses Problem an, aber es ist eine Warnung, dass wir darüber nachdenken müssen, wie wir damit umgehen werden:

"Wenn wir diese moralischen Wendungen jetzt erkennen, können wir den ungewohnten Weg der Technologieethik manövrieren und sicher und gewissenhaft in unsere schöne neue Zukunft eintauchen."

Dies wird wahrscheinlich eine noch größere Herausforderung für die Navigation darstellen als die Straßen, auf denen die autonomen Fahrzeuge fahren müssen.


Schau das Video: Dürfen selbstfahrende Autos töten? Harald Lesch (Kann 2022).