Diese Webseite verwendet Cookies. Mehr Infos

Suchmaschinenoptimierung
mit Content-Marketing - Ihre News
iCrossing GmbH |

Regeln für KI - Teil 2: Wer soll sterben?

Bewerten Sie hier diesen Artikel:
0 Bewertungen (Durchschnitt: 0)


Warum Gesetze für Künstliche Intelligenz sinnvoll sind


Link zu Teil 1 Zugegeben, der Titel klingt etwas martialisch, aber im Grunde genommen geht es hierbei um eine Entscheidung, die ständig getroffen werden muss. Natürlich geht es um Notfallsituationen und nicht um die Regel - doch sowohl im Straßenverkehr...

München, 28.03.2019 (PresseBox) - Link zu Teil 1

Zugegeben, der Titel klingt etwas martialisch, aber im Grunde genommen geht es hierbei um eine Entscheidung, die ständig getroffen werden muss. Natürlich geht es um Notfallsituationen und nicht um die Regel - doch sowohl im Straßenverkehr als auch in der Luftfahrt oder im medizinischen Sektor muss hierüber ab und an entschieden werden. Der zweite und somit vorletzte Teil unserer Reihe soll vorwiegend zum Nachdenken anregen und es ermöglichen, die eigene Haltung gegenüber Künstlicher Intelligenz leichter definieren zu können.

Wo treten ethisch-moralische Problemfälle auf? 

In vielen Bereichen finden wir schon heute zumindest den Übergang vom menschlichen Inputgeber zur KI. In der Kriegsführung kommen vermehrt Drohnen zum Einsatz. Diese sorgen zwar dafür, dass Piloten sich nicht mehr selbst in Gefahr bringen müssen, befreien sie aber nicht davon, Entscheidungen über Leben und Tod treffen zu müssen. Ws ist der nächste logische Schritt? Eine Roboter-Armee, die gegeneinander Krieg führen kann, bei dem keine menschlichen Opfer entstehen? Klingt erst einmal gut.

Aber: Würde das nicht auch die Hemmschwelle gegenüber kriegerischen Auseinandersetzungen deutlich senken?

Ein weiteres Beispiel: IBM Watson, einem Rechnerverbund des New Yorker IT-Unternehmens, gelang es, in Japan eine seltene Form der Leukämie bei einer Patientin zu diagnostizieren. Innerhalb von 10 Minuten durchsuchte Watson mehr als 20 Millionen Forschungsberichte, zog die richtigen Schlüsse und schlug sogar eine eigene Therapieform vor. Menschliche Ärzte hätten Wochen gebraucht, um überhaupt die entsprechende Genmutation zu finden, die mit der Krankheit in Verbindung stand. Klingt grandios.

Aber: Was, wenn Watson falsch gelegen hätte? Was, wenn Fehleinschätzungen von KI Menschenleben kosten? Wer trägt die Verantwortung?

Wer spricht Recht? 

Wenn eine Maschine für den Tod eines Menschen verantwortlich sein soll, schlägt das hohe Wellen. Wir kennen die Berichte von Unfällen mit Tesla-Modellen, die mit aktiviertem Autopiloten verunglückten. Hier gilt die gleiche Frage: Wer trägt die Verantwortung? Immernoch der Fahrer?

Nicht nur wirtschaftlich brisant, sondern auch unter moralischen Gesichtspunkten betrachtet bietet autonomes Fahren viel Gesprächsstoff. Eine häufige Fragestellung bezieht sich auf das Weichensteller-Dilemma. Bei diesem Dilemma geht es darum, ob ein Zug, der auf eine Gruppe von Menschen zufährt und nicht aufgehalten werden kann, per Weiche auf ein anderes Gleis gelotst werden soll, auf dem nur ein einzelner Mensch steht. Ferdinand von Schirach brachte dieses Dilemma ins Theater. Am Ende des Stückes "Terror" sollen die Zuschauer über einen fiktiven Kampfpiloten richten, der eine vollbesetzte Passagiermaschine abschoss. Hintergrund dafür war die Annahme, dass diese entführt worden sei und in ein Fußballstadion mit tausenden Menschen gelenkt werden sollte. Der Großteil der Menschen (>80% in den meisten Fällen) würde den Piloten frei- und damit dem Verfassungsgericht widersprechen.

Fakt am Rande: Im Jahr 2006 wurde Paragraph 14 Absatz 3 des Luftsicherheitsgesetzes von 2005 vom Verfassungsgericht kassiert, da es gegen die Menschenwürde verstößt. Dieser Paragraph sollte oben geschildertes Dilemma eindeutig regeln und in Extremsituationen den Abschuss von Passagierflugzeugen ermöglichen. Das Verfassungsgericht urteilte: Menschenleben sind nicht gegeneinander aufzuwiegen. 

Anwendungsgebiet autonomes Fahren 

Bei Automobilherstellern gibt es solche Rechtsprechung noch nicht – dabei ist das genau hier besonders wichtig. Wie soll ein Auto entscheiden, ob es in einer ausweglosen Situation einen Rentner oder eine Gruppe Jugendliche überfährt, wenn schon menschliche Gehirne diese Aufgabe kaum bewäligen können? Irgendwohin muss das Auto ja fahren, wenn Bremsen keine Option ist. Im Jahr 2016 warb Mercedes damit, im Ernstfall immer dem Insassen den Vorrang zu geben. Das klingt besorgniserregend. Was für Unterscheidungen werden getroffen? Und: Entscheiden dann Oberklasse-Fahrzeuge anders als Mittelklasse-Wagen? Wer behält die Entscheidungshoheit? Der Hersteller? Der Fahrer? Der Gesetzgeber?

Ein von Filmstudenten produzierter fiktiver Werbespot (von dem sich Mercedes Benz ausdrücklich distanziert) wird jetzt, obwohl schon Jahre her, wieder aktuell. Im Spot entscheidet das Fahrzeug, einen kleinen Jungen zu überfahren – und klärt den geschockten Zuschauer erst am Ende darüber auf, dass dieser kleine Junge Adolf Hitler sein soll. Geworben wird für ein intelligentes Bremssystem; der Slogan "Erkennt Gefahren, bevor sie entstehen" wird spielerisch aufgegriffen.

Genau darum geht es. Welche Daten werden mit einbezogen? Was ist, wenn das Dilemma mit Rentner und Jugendlichen durch Informationen wie Einkommen, Krankheitsgeschichte, soziale Stellung, polizeiliches Führungszeugnis o.Ä. ergänzt wird? Wie viele Daten sind nötig? Die Zeit, die ein Fahrzeug braucht, um all das auszurechnen, sollte dem Menschen genügen, das Steuer herumzureißen. Oder eben auch nicht herumzureißen.

Fakt ist: Es wird eine der größten Herausforderungen überhaupt, Maschinen Antworten auf Fragen beizubringen, die wir selbst kaum beantworten können.

Aber: Gleichzeitig wäre es fatal, eine Technologie nicht weiterzuentwickeln, die jährlich zigtausende Menschenleben retten könnte. Denn 90% aller tödlichen Unfälle passieren aufgrund menschlicher Fehler. 

Ein Ansatz zur Lösung könnte Deep Learning sein, doch dazu mehr im nächsten Teil: Chancen für die Wirtschaft

 


Für den Inhalt der Pressemitteilung ist der Einsteller, PresseBox.de, verantwortlich.

Pressemitteilungstext: 761 Wörter, 6554 Zeichen. Pressemitteilung reklamieren


Kommentare:

Es wurde noch kein Kommentar zu diesem Thema abgegeben.



Ihr Kommentar zum Thema





Weitere Pressemitteilungen von iCrossing GmbH lesen:

iCrossing GmbH | 18.04.2019

Werbeplattform für Gen Z: TikTok


München, 18.04.2019 (PresseBox) - Über wessen Kopf schweben nach dem Lesen der Überschrift ein paar Fragezeichen? Wir schaffen Abhilfe:Gen Z: So werden die Nachfolger der Gen Y bezeichnet (ach was, echt?). Diese Zielgruppenbezeichnung schließt alle Menschen ein, die von 1997 bis 2012 zur Welt gekommen sind. Um das mal ganz plump herunterzubrechen: Das sind Digital Natives, die mit Technologie ...
iCrossing GmbH | 04.04.2019

Regeln für KI - Teil 3: Anwendung in der Wirtschaft


München, 04.04.2019 (PresseBox) - Im dritten und (vorerst) letzten Teil unserer KI-Serie zeigen wir Anwendungsgebiete für KI-Anwendungen auf. Nachdem klar ist, wie viel Unfug man mit KI anstellen kann, und wie wichtig es ist, Regeln zu definieren, die über die Asimovschen Gesetze hinausgehen, sehen wir der Realität ins Auge – und halten uns selbst den Spiegel vor.Wat is´ne Dampfmaschin?"Da ...
iCrossing GmbH | 10.01.2019

Das SEO Handbuch - Facts, Fiction & Future


München, 10.01.2019 (PresseBox) - Willkommen in 2019! Na, wer ist noch fit in Sachen Suchmaschine? Hier gibt es ein passendes Quiz, wertvolle Infos und als Neujahrs-Präsent einen kostenlosen PDF-Download. Los geht´s! Was ist Suchmaschinenoptimierung? SEO-Projekte können je nach Ausgangslage ein erhebliches Volumen annehmen. Wie immer gilt auch hier in Planung und Projektmanagement "Teile un...