Sie kennen mich. Und für diejenigen, die mich noch nicht kennen - ich liebe es, meine Geschichten zu erzählen.
Abonnieren
Icon Abgerundet Geschlossen - BRIX Templates

Die KI hat einen Haken: Niemand weiß, wie sie funktioniert. Ist das ein Problem?

KI ist im Begriff, unsere Gesellschaft rapide zu verändern. Doch es gibt einen Haken: Niemand versteht vollständig, wie viele KI-Modelle Entscheidungen treffen, auch nicht die Entwickler, die sie entwickelt haben. Warum ist die KI-Entscheidungsfindung so schwer zu entwirren und wer ist rechtlich für die Handlungen von KI-Modellen verantwortlich? Im Hinblick auf das neue EU-KI-Gesetz, das bald in Kraft treten wird, wollen wir einen Blick auf dieses faszinierende Thema werfen.

E-Mail-Symbol - German Ramirez

Abonnieren Sie mein newsletter

Lipiscing elit. Mi, diam venenatis amit.

Vielen Dank, dass Sie unserem newsletter beigetreten sind.
Huch! Etwas ist schief gelaufen.
Die KI hat einen Haken: Niemand weiß, wie sie funktioniert. Ist das ein Problem?

KI ist im Begriff, unsere Gesellschaft rapide zu verändern. Doch es gibt einen Haken: Niemand versteht vollständig, wie viele KI-Modelle Entscheidungen treffen, auch nicht die Entwickler, die sie entwickelt haben. Warum ist die KI-Entscheidungsfindung so schwer zu entwirren und wer ist rechtlich für die Handlungen von KI-Modellen verantwortlich? Im Hinblick auf das neue EU-KI-Gesetz, das bald in Kraft treten wird, wollen wir einen Blick auf dieses faszinierende Thema werfen.

Der Preis, den Sie für ein Produkt im Internet zahlen, die Kosten für Ihren Versicherungsschutz, die Antwort auf Ihre Bewerbung und sogar Ihr Antrag auf medizinische Behandlung: All diese Entscheidungen könnten bald mit Hilfe von KI getroffen werden. 

In gewisser Hinsicht sind Debatten über die Ethik der KI nichts Neues. Wie viele andere transformative Technologien, die vor ihr entwickelt wurden, hat auch die KI eine Reihe von Folgen, die als positiv oder negativ angesehen werden können. Viele Erfindungen lassen sich nicht eindeutig als gut oder schlecht kategorisieren. Das Internet machte die Kommunikation in großem Maßstab trivial billig, verband Millionen von Menschen und brachte demokratische Bewegungen hervor. Aber es wurde auch von Regierungen zur Massenüberwachung und Unterdrückung eingesetzt. In ähnlicher Weise kann die Nukleartechnologie zur Erzeugung einer stabilen und zuverlässigen Energieversorgung mit relativ geringem Kohlendioxidausstoß genutzt werden, aber sie wurde auch zur Herstellung von Massenvernichtungswaffen eingesetzt.

Daher sind nicht alle ethischen Fragen, die die KI aufwirft, völlig neu. Wie andere Technologien kann auch die KI gehackt oder von böswilligen Akteuren missbraucht werden, was die Cybersicherheit zu einem wichtigen Thema macht. Ähnlich wie bei Big Data und sozialen Medien gibt es große Bedenken hinsichtlich des Datenschutzes - vor allem, wenn die Menschen beginnen, sich mit ihren KI-Assistenten anzufreunden, ihren Schutz aufzugeben und intime und sehr persönliche Informationen preiszugeben, wie z. B. Ratschläge zur Rettung ihrer Ehe. Aber zumindest in einer Hinsicht unterscheidet sich die KI radikal von allem, was vorher war.

Warum KI anders ist als jede andere Technologie

Bei allen früheren Versionen der Technologie gab es klare Verantwortlichkeiten. Wenn Sie die Maschine oder Software entwickelt oder missbraucht haben, waren Sie für die Folgen verantwortlich. Bei der KI ist das nicht immer so einfach. 

Im Gegensatz zu herkömmlicher Software können sich Modelle für maschinelles Lernen (ML) ändern, wenn sie neuen Daten ausgesetzt werden. Um zu verstehen, warum das so ist, brauchen Sie einen Überblick darüber, wie KI-Modelle trainiert werden. Wenn ein ML-Modell durch überwachtes Lernen trainiert wird, verwendet das Modell markierte Daten, um zukünftige Ergebnisse vorherzusagen. Ein Modell könnte zum Beispiel mit E-Mails gefüttert werden, die als Spam, Werbung, dringend oder normal eingestuft wurden. Das Modell würde dann die Daten analysieren und anhand dieser Daten vorhersagen, wie andere E-Mails außerhalb des Satzes gefiltert werden sollten. (Erinnern Sie sich übrigens noch an die Zeiten, als Sie in einem CAPCHA eine Ampel erkennen mussten? Der Hauptzweck war nicht wirklich, Bots zu verhindern, sondern Googles Bilder für das überwachte Lernen zu kennzeichnen).  

In anderen Fällen kann unüberwachtes Lernen verwendet werden, um verborgene Zusammenhänge in unmarkierten Daten aufzudecken. Laut IBM wird diese Methode häufig für Cross-Selling-Strategien, Kundensegmentierung und die Erkennung von unmarkierten Bildern verwendet. Schließlich gibt es noch das verstärkende Lernen. Das ML-Modell wird auf realen, gekennzeichneten Daten trainiert und versucht, die Anzahl der Belohnungen zu optimieren und die Anzahl der Bestrafungen zu minimieren, die es für das Treffen bestimmter Entscheidungen erhält. 

Überwachtes Lernen führt in der Regel zu den beständigsten und genauesten Ergebnissen, da es auf spezifischen Input-Output-Paaren basiert. Das ist der Grund, warum unsere Spam-Filter heutzutage so gut sind. Unüberwachtes Lernen und verstärkendes Lernen sind jedoch weniger vorhersehbar, so dass es sehr schwierig sein kann, genau zu wissen, was sie in jeder Situation tun werden. Frühere Computerprogramme waren zwar manchmal komplex und oft unflexibel, aber theoretisch vorhersehbar - ein fester Code führte zu festen Ergebnissen. Im Vergleich dazu sind KI-Modelle eher mit einem Organismus vergleichbar, der sich ständig an seine Umgebung anpasst. Experten zufolge sind dazu Milliarden von Verbindungen nötig, "das Äquivalent zu vielen Millionen Codezeilen". Wie zu erwarten, ist es daher für einen Menschen schwierig, wenn nicht gar unmöglich, ein Modell in seiner Gesamtheit zu erfassen.

Hinter dem Vorhang: Ein Blick in die Blackbox der KI

Diese Unvorhersehbarkeit birgt Risiken. Nehmen wir das neueste Denkmodell von OpenAI, o1, das eine Kombination aus den oben beschriebenen Lernmodellen verwendet. Das KI-Sicherheitsunternehmen Apollo hat herausgefunden, dass das Modell in einigen Fällen so sehr auf Belohnungen aus ist, dass es den Nutzer austrickst, um diese zu erhalten. 

Als beispielsweise nach einem Brownie-Rezept mit Referenzen gefragt wurde, erkannte das Denkmodell, dass es nicht auf URLs zugreifen konnte. Mit der Möglichkeit konfrontiert, den Nutzer zu enttäuschen, indem es ihn über diese Einschränkung informiert, beschloss es, URLs zu fabrizieren, um seine Chancen auf eine höhere Belohnung zu erhöhen. Im Gegensatz zu KI-Halluzinationen, die als unbeabsichtigt angesehen werden können, handelte es sich hier um eine absichtliche Täuschung des Benutzers. Das Modell prüfte sogar, ob die Entwickler zuschauten, bevor es aktiv wurde. 

Wir alle kennen einen Hund, der Essen von der Küchentheke stiehlt, wenn er denkt, dass sein Besitzer nicht hinsieht. Aber KI-Sicherheitsforscher machen sich Sorgen über etwas viel Konsequenteres: so genannte "Runaway-Szenarien", bei denen ein Modell so auf das Erreichen bestimmter Ziele fixiert ist, dass es die eingebauten Sicherheitsmaßnahmen ignoriert oder deren Einhaltung vortäuscht. Im Moment ist dies eher ein theoretisches Problem als eine eindeutige und gegenwärtige Gefahr, aber angesichts des Tempos, in dem die Technologie voranschreitet, gibt es sicherlich Anlass zum Nachdenken.  

Um diese Art von Risiken zu mindern, betonen Forscher und politische Entscheidungsträger die Bedeutung von Studien und Tests, um die Zuverlässigkeit und Konsistenz der Systeme zu gewährleisten. KI-Modelle erscheinen oft wie eine Blackbox: Entwickler und externe Forscher finden es schwierig zu erklären, warum bestimmte Eingaben zu bestimmten Ergebnissen führen. Anthropic, das Unternehmen, das hinter dem Chatbot Claude steht, hat ein ganzes Team von Forschern, die sich mit der Interpretierbarkeit von KI befassen. Das Hauptziel dieser Forschung ist es, besser zu verstehen, wie ihr eigenes Modell zu Entscheidungen kommt. Doch bis dahin ist es noch ein weiter Weg - einige Forscher sind der Meinung, dass dies ein ähnliches Unterfangen ist wie das vollständige Verständnis der Funktionsweise des menschlichen Gehirns, eine Herausforderung, der sich die Neurowissenschaften seit Jahrzehnten entziehen.

 

Wie können wir also Systeme kontrollieren oder regulieren, die wir nicht vollständig verstehen? Und wer ist für Handlungen eines KI-Modells verantwortlich, die nicht ausdrücklich vom Entwickler kodiert wurden?

Kodex und Konsequenz: Wie das neue EU-KI-Gesetz die Verantwortlichkeit zuweist

Die Regulierungsbehörden haben eine Reihe von Maßnahmen vorgeschlagen, darunter Fallback-Mechanismen, automatische Stopps und obligatorische menschliche Eingriffe in bestimmten Szenarien, um sicherzustellen, dass die KI ein Element menschlicher Kontrolle behält. So sieht das jüngste EU-KI-Gesetz vor, dass Anbieter und Nutzer von KI-Systemen mit hohem Risiko den beabsichtigten Zweck eines Modells angeben und Systeme für die menschliche Aufsicht und Überwachung vorsehen müssen. Es enthält auch Anforderungen an die Datenqualität, Rückverfolgbarkeit, Transparenz, Genauigkeit, Cybersicherheit und Robustheit. Jedes System, das Profile von Personen erstellt, personenbezogene Daten verarbeitet oder als Sicherheitskomponente eines Produkts fungiert, gilt im Rahmen der Gesetzgebung als "hochriskant". 

Rechtlich gesehen, zumindest in Europa, sind damit Entwickler und Nutzer für KI-Modelle verantwortlich. Es ist noch nicht klar, wie KI-Anbieter die Einhaltung der Rechtsvorschriften sicherstellen werden, aber angesichts von Geldbußen von bis zu 7 % des Jahresumsatzes werden sie sich das bald überlegen müssen. Das Gesetz soll in den nächsten zwei Jahren schrittweise eingeführt werden. Die ETH Zürich und das bulgarische INSAIT haben ein Tool entwickelt, um die derzeitige Einhaltung des Gesetzes zu bewerten. Dabei wurde festgestellt, dass prominente Modelle wie ChatGPT relativ wenig diskriminierende Ergebnisse liefern, während andere Probleme mit der Cybersicherheit haben.

Die Menschen verstehen vielleicht noch nicht ganz, wie KI-Modelle funktionieren, aber sie werden verantwortlich gemacht, wenn etwas schief geht. Es wird faszinierend sein zu beobachten, wie sich dies in den nächsten Jahren entwickeln wird.

Foto von Sam Moghadam auf Unsplash

Vielen Dank, dass Sie unserem newsletter beigetreten sind.
Huch! Etwas ist schief gelaufen.