Künstliche Intelligenz ist längst kein Trend mehr, sondern für Millionen von Menschen in aller Welt zum täglichen Begleiter geworden. Plattformen wie ChatGPT helfen bei der Erstellung von geschriebenen Inhalten, selbstfahrende Autos haben den Straßenverkehr revolutioniert und auch in der Medizin avanciert KI mit schnellen Schritten zu einem integralen Player.
Wer den Blick aber von den schier unbegrenzten Möglichkeiten abwendet, wird schnell merken: Es gibt vieles, das in Sachen Künstlicher Intelligenz noch ungeklärt im Raum steht – vor allem, wenn es um Ethik und Verantwortung geht.
Das Sorgenkind KI
Künstliche Intelligenz hat in den unterschiedlichsten Branchen für spürbaren Aufwind gesorgt und viele tägliche Prozesse mit einer frischen und strahlenden Schicht Farbe versehen. Doch wo enormes Potenzial besteht, ziehen auch graue Wolken auf. Seien es Sorgen um mögliche Arbeitsplatzverluste, eine Verletzung der Privatsphäre oder Probleme beim Datenschutz – KI ist gleichermaßen Sorgenkind wie Hoffnungsträger.
Timnit Gebru, Gründer und Executive Director von The Distributed AI Research Institute, beschreibt die aktuelle Situation der Regulierung von KI als „wilder Westen“ und erklärt, dass die bestehenden Richtlinien mit dem großen Umfang, in dem Unternehmen KI-Technologien implementieren, nicht mithalten können.
Zwischen Dilemma und Jahrhundertchance
Künstliche Intelligenz ist „die größte Chance zu unseren Lebzeiten, aber auch die größte Herausforderung“ – so fasst es Gründer und Speaker Bilal Zafar zusammen. Und das aus gutem Grund.
Wie eine Aufstellung der UNESCO zeigt, weist KI noch immer deutliche, ethische Defizite auf. So neigen KI-Anwendungen dazu, Ergebnisse zu liefern, die voreingenommen und von altmodischen Geschlechter-Stereotypen geprägt sein können, beispielsweise wenn man eine Bilderstellungssoftware mit einem Schlagwort wie „Nerd“ füttert.
Generative KI kann qualitativ hochwertige Texte und Bilder produzieren – und das quasi auf Knopfdruck. 2016 hat ein Computer nach Analyse von mehr als 300 Gemälden ein „neues“ Rembrandt-Gemälde „gemalt“ und drei Jahre später ein Algorithmus des Technologieriesen Huawei Schuberts achte Symphonie vervollständigt. Auf dem Papier klingt das sehr beeindruckend. Unklar ist hier aber, wem das Urheberrecht solcher Werke obliegt und wer als Autor und Schöpfer zu betrachten ist.
Bei der Implementierung von Künstlicher Intelligenz im rechtlichen Kontext bestehen Hürden wie fehlende Transparenz, sowie ungenaue, unfaire und potenziell auch diskriminierende Entscheidungen. Ein autonomes Fahrzeug wirkt derweil zwar wie der wahr gewordene Traum eines jeden Science Fiction Fans, dürfte sich in ethischer Hinsicht aber als Pein erweisen. Wer übernimmt schließlich bei einem Unfall die Haftung? Und wer verantwortet die moralischen Entscheidungen des Fahrzeugs? Diese Thematiken lassen sich nicht ignorieren – egal wie groß das Potenzial auch sein mag.
Maschine oder Person?
Ein Lösungsvorschlag seitens des Europäischen Parlaments, wer für KI und ihre Fehltritte die Verantwortung tragen soll, ist die Einführung einer neuen, rechtlichen Kategorie, die autonome Technologien als „elektronische Person“ prüfen soll. Der Schaden soll dabei mit einem Haftungsfonds abgeglichen werden, in den die Hersteller, Eigentümer, Programmierer und Nutzer der Anwendung einzahlen.
Ob sich dieses Konzept einer E-Person auf lange Sicht durchsetzen und als ernstzunehmende Legislative durchsetzen kann, ist fraglich. Denn wie das Bayerische Forschungsinstitut für Digitale Transformation erklärt, geht Verantwortung mit Grundeigenschaften wie Vernunft, Freiheit und Autonomie einher – an denen es Künstlicher Intelligenz, egal wie fortgeschritten sie auch sein mag, derzeit noch mangelt.
Ein mächtiges Werkzeug
Künstliche Intelligenz ist ein Tool, das den beruflichen und privaten Alltag grundlegend umgestalten kann – allerdings nicht ohne strenge Regulierung. Der AI-Act, der am 13. März von der Europäischen Union verabschiedet worden ist, bildet die bislang wichtigste rechtliche Grundlage für den Einsatz von KI. Das Gesetz teilt die Anwendungen in verschiedene Risikogruppen ein und legt fest, ob sie entweder gänzlich verboten werden, ein strengeres Risikomanagement durchlaufen oder nur mit einem Hinweis für den Benutzer versehen werden sollen, dass sie auf Basis von KI fungieren.
Während das KI-Gesetz der EU anstrebt, ein rechtliches Fundament für Künstliche Intelligenz zu schaffen, hat die UNESCO-Empfehlung zur Ethik Künstlicher Intelligenz für den Einsatz von KI vier Grundpfeiler zum Wohl von Gesellschaft, Umwelt, Menschheit und des Individuums konzipiert. Mit diesen soll sichergestellt werden, dass Menschenwürde und Menschenrechte gewahrt werden, und Diversität, Inklusivität, das Gedeihen von Umwelt und Ökosystem sowie das Leben in gerechten und verbundenen Gesellschaften gewährleistet werden können.
Das Morgen
Künstliche Intelligenz kann viel und wird zweifellos dabei helfen, den Weg in ein besseres und fortschrittliches Morgen zu ebnen. Fest steht aber: Der Weg hin zu einer idyllischen Koexistenz zwischen Mensch und Maschine ist noch lang und von Unternehmen wird viel verlangt, bis sie die volle Bandbreite der Fähigkeiten ausschöpfen können, die KI-Anwendungen ihnen bieten.
Timnit Gebru erklärt: „Wir müssen uns für ein besseres System zum Testen von KI auf Voreingenommenheit und Fairness einsetzen und Unternehmen dabei helfen zu entscheiden, ob bestimmte Anwendungsfälle in Anbetracht des aktuellen Stands der Technologie überhaupt angemessen sind.“
Titelbild: mfz / Adobe Stock