PortalDerWirtschaft.de



Suchmaschinenoptimierung mit PdW
mit Content-Marketing - Ihre News
English

Welche Gefahren lauern in künstlicher Intelligenz?


Von PortalDerWirtschaft.de UG (haftungsbeschränkt)

Spätestens mit dem allgemeinfreien Zugang auf die KI-Software ChatGPT ist die Diskussion über künstliche Intelligenz auch am Stammtisch angekommen. Ängste vor und Hoffnungen in die neue Technologie konkurrieren derzeit noch um die Aufmerksamkeit der Öffentlichkeit. Mit dem AI-Act der EU und dem ChatGPT-Verbot von Italien erlangt das Thema auch höchste politische Brisanz. Sind wir gerade dabei, unsere Zivilisation an Maschinenwesen zu verlieren? Oder arbeiten wir im Gegenteil daran, technische Innovationen, die dem Wohle der Menschheit dienen könnten, zu torpedieren und kriminellen Organisationen zu überlassen? Die Antwort auf diese Frage ist nicht einfach. Wir versuchen uns dennoch an einer Einordnung.

Thumb

Was ist künstliche Intelligenz?

Schon diese Frage ist nicht so einfach zu beantworten. Auf dem Weg vom Taschenrechner zum selbstbewussten Androiden gibt es so viele Zwischenschritte. Fragen Sie fünf Informatiker, bei welchem Zwischenschritt ein Programm beginnt intelligent zu sein, erhalten Sie mindestens sechs verschiedene Antworten. Dies trifft ja auch auf natürliche Intelligenz zu, die zwischen Amöbe und Einstein viele Abstufungen kennt.

Braucht KI ein Bewusstsein?

Die höchste Stufe künstlicher Intelligenz ist ein künstliches (Selbst-)Bewusstsein, welches einer der Entwickler angeblich hinter ChatGPT4 bereits vermutet. Ein Programm, welches über seine eigene Existenz philosophieren und Pläne für seine eigene Zukunft entwickeln kann, hat dem Entwickler zufolge die höchste Stufe der Intelligenz erreicht. Allerdings wurde ChatGPT dafür programmiert, Gespräche über alle möglichen Themen zu simulieren. Also auch Gespräche über existenzielle Überlegungen. Die meisten Entwickler sind sich daher einig, dass künstliche Intelligenz von Bewusstsein noch sehr weit entfernt ist.

Maschinelles Lernen oder gutes Training?

Ein wichtiges Unterscheidungsmerkmal zwischen den KI-Anwendungen und herkömmlichen Programmen ist das maschinelle Lernen. Mit dieser Fähigkeit kann ein Programm Datensätze zu verarbeiten und Muster zu erkennen. Anhand dieser Muster werden Prognosen und Simulationen möglich. Wettervorhersagen und Klimamodelle beruhen zum Beispiel auf solchen Prognosen. Als intelligent wird eine Software bezeichnet, wenn die Prognosen nicht anhand vorher festgelegter Entscheidungsbäume, sondern aufgrund selbst gesammelter Erfahrung getroffen werden.

Wie trainiert eine Maschine?

Sie kennen die Captchas, mit denen Webseiten prüfen, ob echte Menschen mit ihr interagieren. Oft werden Fotos von verschiedenen Verkehrssituationen gezeigt, auf denen bestimmte Aspekte erkannt werden müssen. Mithilfe solcher von Menschen gegebenen Antworten, kann die Software lernen, selbst die richtigen Antworten zu finden. Dies kann mitunter zu sehr lustigen Fehlinterpretationen führen. Eine frühe Software wurde beispielsweise mit Bildern von Pferden und anderen Tieren trainiert, Pferde zu erkennen. Was den Entwicklern nicht auffiel: Die Pferdebilder stammten alle von der gleichen Agentur und trugen ein Wasserzeichen am Rand des Bildes. Die Software lernte nun nicht das vierbeinige Tier, sondern dieses Wasserzeichen als Pferd zu erkennen.

Fehler verstärken Rassismus

Genau diese Art von Fehler ist es, die vorhandene Vorurteile gegenüber Menschen anderer Ethnien oder gegenüber Frauen verstärken können. Die Entwickler müssen diese Vorurteile nicht einmal selbst teilen und können sie dennoch der Maschine beibringen. Das ist eine der großen Gefahren bei künstlicher Intelligenz, hierfür ist nicht einmal die aktuell fortschrittlichste Stufe des maschinellen Lernens notwendig. Die Software lernt zum Beispiel die Nobelpreisträger der Vergangenheit mit Fotos, Biographie und wissenschaftlicher Vita. Nun soll sie eine Vorhersage über den nächsten Gewinner machen. Ungeachtet der wissenschaftlichen Qualität wird die Software wahrscheinlich keine Frau auswählen und auch keine Person mit schwarzer Hautfarbe. Einfach nur, weil die Software Geschlecht und Hautfarbe aufgrund der Fotos als wichtiges Kriterium gelernt hat.

Vorurteile der KI bekämpfen

Man kann diesen Fehler korrigieren, indem man zum Beispiel gezielt bestimmte Informationen aus dem Erfahrungshorizont der KI heraushält. Die Nobelpreisträger könnten zum Beispiel ohne Foto trainiert werden. Es könnte darauf geachtet werden, der KI „Nicht-Nobelpreisträger“ im gleichen Geschlechtsverhältnis und mit ähnlich häufig vertretenen Hautfarben gegenüberzustellen. Bei nicht selbstlernenden Programmen kann der Algorithmus auch gezielt so eingestellt werden, dass bestimmte Informationen nicht berücksichtigt werden, was die Software allerdings sehr stark einschränken würde. Bei allen Möglichkeiten müssen sich jedoch die Entwickler bewusst sein, dass diese Vorurteile existieren und das Engagement zeigen, dagegen vorzugehen.

Was hat das alles mit ChatGPT zu tun?

ChatGPT ist ein sogenanntes Sprachmodell, das anhand von Texten aus Zeitschriften, wissenschaftlichen Publikationen aber auch Gesprächen und Blogartikeln trainiert wurde, menschliche Sprache zu simulieren. Ob ChatGPT dabei gelernt hat, Verschwörungstheorien zu glauben oder bestimmte politische Richtungen vorgegeben bekommen hat, kann von außen nicht beantwortet werden. Auch besteht die Gefahr, dass im Laufe der Interaktion mit beliebigen Nutzern, falsche Informationen Eingang in die Datenbank finden. Da die Chats mit dem „Bot“ allerdings so natürlich und real wirken, könnte es sein, dass irgendwann Menschen auf die Idee kommen, ChatGPT wäre eine verlässliche Informationsquelle. Damit wäre ChatGPT allerdings in etwa so gefährlich wie Wikipedia.

Dieses freie Lexikon beruht auf der Annahme der „Schwarmintelligenz“. Wenn genug Menschen an einem Lexikon arbeiten, werden sie gemeinsam falsche von echten Informationen unterscheiden können und nur die echten Informationen durchlassen. Auch hier sind Informationen aber nicht mit Garantie verlässlich. Eine zusätzliche Prüfung der Daten muss immer in Betracht gezogen werden.

Warum haben dann so viele Angst vor KI?

Programme der gleichen Intelligenzstufe wie ChatGPT können nicht nur als Chat-Bot genutzt werden. Möglich wären zum Beispiel Anwendungen, welche der Polizei helfen, potenzielle Straftäter zu identifizieren. Gerade in diesem Bereich würden durch KI verstärkte Vorurteile großen Schaden anrichten. Die individuelle Freiheit von Menschen wäre massiv gefährdet, wenn eine KI auch ohne vorliegendes Verbrechen entscheiden dürfte, welche Personen als suspekt oder kriminell gelten. Auch bei Banken könnte eine KI dazu führen, dass bestimmte Personengruppen keine Chance mehr auf Kredite erhalten, ohne sich dagegen wehren zu können. Auch ohne KI besteht diese Gefahr zum Beispiel durch Datensammlungen wie die der Schufa. Hier kann aber nachvollzogen werden, aufgrund welcher Eigenschaft eine Person schlecht bewertet wurde. Eine KI-Entscheidung ist durch die Entwickler dagegen nicht mehr nachvollziehbar. Diese und ähnliche Gefahren sollen durch transparente und strenge Regelungen reduziert werden.

Der AI-Act der EU

Im AI-Act will die EU den Einsatz von künstlicher Intelligenz reglementieren. Hier ist vorgesehen, dass die Software anhand des Risikopotentials entweder verboten, erlaubt oder nur unter Auflagen gestattet ist. So ist zum Beispiel vorgesehen, dass KI nicht eingesetzt werden darf, um eine Rasterfahndung durchzuführen. Auch die Einführung eines staatlich kontrollierten Social Scorings ist nicht mit den Werten der EU zusammenzubringen. Letzteres darf allerdings von Privatunternehmen ohne weiteres durchgeführt werden. Der AI-Act ist daher manchen Menschen viel zu locker. Sie sehen die Gefahren, die trotz Regelung noch aufkommen. Zukünftigen autoritären Regierungen werden zum Beispiel sehr große Schlupflöcher geboten, um Überwachungsinstrumente dennoch zu implementieren. Anderen dagegen geht der AI-Act viel zu weit. Sie fürchten, dass KI-erforschende Unternehmen die EU verlassen und somit die Kontrolle über die Entwicklung ganz verloren geht.

Diese Diskussion wird wahrscheinlich niemals abschließend entschieden werden können. Die technische Entwicklung gibt so schnell neue Möglichkeiten, dass eine Gesetzgebung hier kaum hinterherkommen kann. Sowohl auf positiver als auch auf negativer Seite kann die Technik noch viele Überraschungen bereithalten. Daher wäre ein komplettes Verbot von KI, wie es gerade in Italien versucht wird, ebenso wie eine vollständige Ignoranz gegenüber den Gefahren keine gute Idee.

Der Geist ist aus der Flasche

Die Entwicklung der KI lässt sich selbst mit den schärfsten Verboten nicht mehr zurückdrehen. Wo die Programme Vorteile bieten, wird es Menschen geben, die sie nutzen und weiterentwickeln werden. Die Frage ist also: Wem wollen wir das Training dieser Programme überlassen?

Nur in der Legalität ist es möglich, regulierend auf die Entwicklung zuzugreifen. Italiener, die offiziell keinen Zugriff mehr auf ChatGPT haben, werden dennoch damit leben müssen, dass KI-generierte Texte auf ihren sozialen Netzwerken, in ihren Online-Shops und eventuell auch in Ihren Zeitungen erscheinen. Ihnen fehlt aber mehr als anderen Menschen die Möglichkeit, dies zu erkennen, weil es keine offiziell als KI-generiert gekennzeichneten Texte gibt, mit denen Muster maschineller Formulierungen gelernt werden können.

Eine ehrliche und transparente Nutzung künstlicher Intelligenz in Bereichen, in denen sie keinen Schaden anrichten kann, stellt daher eine wichtige Komponente in der Entwicklung der Technik dar. Ob KI in Zukunft eher dem Terminator* oder Ltd. Cmdr. Data* gleicht, haben wir durchaus in der Hand. Es sei denn, wir lassen los.



Kommentare

Bewerten Sie diesen Artikel
Noch nicht bewertet
Hinweis Für den Inhalt der Pressemitteilung ist der Einsteller, Gregor Ermtraud (Tel.: +49 (0) 2635 / 9224-11), verantwortlich.

Pressemitteilungstext: 1186 Wörter, 9460 Zeichen. Artikel reklamieren
Keywords
Diese Pressemitteilung wurde erstellt, um bei Google besser gefunden zu werden.

Tragen Sie jetzt Ihre kostenlose Pressemitteilung ein!