Risiko und Datenregulierung Fangen spielen mit der KI

Ein Gastbeitrag von Jakub Lewandowski 6 min Lesedauer

Anbieter zum Thema

In den letzten Jahren hat die künstliche Intelligenz (KI) beeindruckende Fortschritte gemacht, die die bisherige Vorstellungskraft von Verbrauchern übersteigen. Insbesondere die Entwicklung von Sprachmodellen wie ChatGPT, Google Bard oder Dolly hat zu einer neuen Ära des maschinellen Lernens (ML) geführt. Die Möglichkeiten die sich dadurch eröffnen sind vielfältig und revolutionär.

Die derzeitige Flut von Datenschutz- und KI-Vorschriften bedeutet, dass Unternehmen, die KI einsetzen wollen, sich in den kommenden Monaten in einer immer komplexeren Rechts- und Regulierungslandschaft zurechtfinden müssen.
Die derzeitige Flut von Datenschutz- und KI-Vorschriften bedeutet, dass Unternehmen, die KI einsetzen wollen, sich in den kommenden Monaten in einer immer komplexeren Rechts- und Regulierungslandschaft zurechtfinden müssen.
(Bild: alphaspirit - stock.adobe.com)

Die rasche Verbreitung dieser jungen Technologie hat erhebliche Auswirkungen auf nahezu alle Lebensbereiche: Sie führt zu Diskussionen darüber, ob KI menschliche Arbeitsplätze ersetzen wird, wann und wie der Einsatz von LLM-Werkzeugen ethisch vertretbar ist und wie am besten mit den potenziellen Risiken für die Privatsphäre und die Datensicherheit umzugehen ist, die mit dem Einsatz dieser Werkzeuge verbunden sind.

Jenseits ethischer und philosophischer Debatten müssen Unternehmen, die LLM-gestützte Lösungen zur Rationalisierung und Automatisierung von Prozessen oder zur Aggregation und Generierung von Erkenntnissen aus großen Datenmengen einsetzen wollen, die damit verbundenen Risiken angemessen berücksichtigen. Neben der Erstellung interner Richtlinien und Vorgaben, wie, wann und wofür Mitarbeiter solche Tools nutzen dürfen, ist auch das Bewusstsein für die aktuelle rechtliche und regulatorische Situation für den Einsatz dieser Technologie von entscheidender Bedeutung.

Large Language Models (LLM) – was sie sind und wie sie funktionieren

LLM ist eine Art KI-Algorithmus, der Deep-Learning-Techniken und große Datensätze nutzt, um neue Inhalte zu verstehen, zusammenzufassen, zu generieren und vorherzusagen.

LLM eröffnet damit neue Möglichkeiten in einer Reihe von Bereichen. Die potenziellen Anwendungen von LLM sind nahezu unbegrenzt und reichen von Chatbots für den Kundendienst bis hin zur Erkennung von Anomalien und Betrugsanalysen bei Finanzdienstleistungen. Sie werden auch eingesetzt, um die Softwareentwicklung zu beschleunigen, komplexe juristische Zusammenfassungen zu erstellen, Einblicke in Investitionsentscheidungen zu geben und Modelle zu entwickeln, die neue Erkenntnisse über Moleküle, Proteine und DNA für die pharmazeutische und biowissenschaftliche Forschung liefern.

LLM haben sich bereits in vielen Industriezweigen als bahnbrechend erwiesen und sind für jedes Unternehmen von großem Interesse, das seine Effizienz und Produktivität steigern will. Es gibt jedoch eine Reihe von gut dokumentierten Herausforderungen, die mit dem Einsatz dieser Technologie verbunden sind. Dazu gehören Probleme wie falsche oder ungenaue Antworten, Verzerrungen von Modellen und Ergebnissen, Verletzungen des geistigen Eigentums und des Urheberrechts sowie Datenschutzbedenken.

Abwägen von Risiken

Im Rahmen der Risikobewertung und der Due-Diligence-Prüfungen müssen einige zentrale Fragen zu den Quellen der Daten gestellt werden, die für das Training und den Betrieb von LLM-Modellen verwendet werden. Ebenfalls relevant sind Fragen zu den Lizenzvereinbarungen für diese Daten und zur Art und Weise, wie die Daten beschafft werden.

LLMs können alle Arten von Daten, einschließlich personenbezogener und anderer vertraulicher Daten, in einem noch nie dagewesenen Umfang sammeln, speichern und verarbeiten. Dies stellt Organisationen vor einige große Herausforderungen, die sich aus der Frage ergeben, wer für die Rechtmäßigkeit und Qualität der Daten verantwortlich ist, die für das Training generativer Produkte verwendet werden.

Ohne dies zu wissen, könnten Organisationen mit erheblichen rechtlichen oder behördlichen Sanktionen konfrontiert werden, wenn ihre Modelle personenbezogene Daten verwenden, die nicht mit den entsprechenden Genehmigungen eingeholt wurden. Beispielsweise könnten personenbezogene Daten, die an LLMs weitergegeben werden, später für zusätzliche Zwecke verwendet werden, die den Erwartungen oder Genehmigungen der Personen widersprechen, auf die sich diese Daten ausdrücklich beziehen.

Zweitens: Wie kann eine Organisation verhindern oder sich dagegen absichern, dass problematische Inhalte oder Verhaltensweisen erzeugt werden, beispielsweise Voreingenommenheit, tiefgreifende Fälschungen oder offene Diskriminierung? Die Verantwortlichkeiten von Lösungsanbietern und Organisationen für Prävention, Überwachung und Reaktion müssen klar verstanden und dokumentiert werden.

Wenn es um automatisierte Entscheidungsfindung oder andere Ergebnisse geht stellt sich die Frage, wer oder was Zugang zu den Daten oder Ergebnissen hat, die von maschinellen Lernverfahren erzeugt werden, und welche Auswirkungen diese Systeme auf Cybersicherheitsrisiken haben.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Schließlich müssen Organisationen, die den Einsatz von LLMs erwägen, sorgfältig prüfen, wie sie mit Datenschutzverpflichtungen umgehen, z. B. mit Anfragen von betroffenen Personen nach Zugang zu ihren Daten oder deren Löschung.

Die Einhaltung von Rechtsvorschriften

Für maschinelle Lernverfahren wie LLM gelten die gleichen rechtlichen Rahmenbedingungen und Compliance-Anforderungen wie für andere KI-Technologien. Die Geschwindigkeit, mit der sie allgegenwärtig werden, lässt neue Herausforderungen bei der Einhaltung bestehender Datenschutzvorschriften entstehen.

Es ist alternativlos für Unternehmen, einen Überblick über die Rechtsvorschriften zu haben, die sie beachten müssen, um unmittelbar reagieren zu können.

Datenschutz-Grundverordnung (DSGVO)

Die DSGVO fasst die wichtigsten Grundsätze der Datensouveränität zusammen – dass digitale Daten den Gesetzen und Vorschriften des Landes unterliegen, in dem sie sich physisch befinden, dass die Regierung für sie verantwortlich ist und ihre Datenschutzrichtlinien durchsetzen kann - und legt eine Reihe von Kernanforderungen und Grundsätzen für die Verarbeitung personenbezogener Daten fest. Dazu gehören:

  • Einwilligung – Betroffene haben eine Reihe von Rechten an ihren personenbezogenen Daten, einschließlich des Rechts auf Zugang, Änderung oder Löschung ihrer Daten. Wie die Nutzer diese Rechte in der Praxis wahrnehmen, ist eine schwierige Frage.
  • Das Recht natürlicher Personen, nicht Entscheidungen unterworfen zu werden, die für sie rechtliche Folgen nach sich ziehen oder sie erheblich beeinträchtigen und die auf einer automatisierten Verarbeitung beruhen. Dies bedeutet, dass bestimmte Entscheidungen zwar durch LLM unterstützt werden können, das letzte Wort jedoch in der Regel ein menschliches Urteilsvermögen erfordert.

Die Datenschutzbehörden in Italien, Frankreich, Deutschland und Irland haben bereits Bedenken zur Vereinbarkeit von LLM mit den Bestimmungen der Datenschutz-Grundverordnung geäußert. Anfang dieses Jahres hat die italienische Datenschutzbehörde Stellung bezogen und ChatGPT daran gehindert, die persönlichen Daten von Millionen Italienern für seine Trainingsdaten zu verwenden (obwohl der Zugang innerhalb eines Monats wiederhergestellt wurde, nachdem OpenAI die Probleme erfolgreich „angesprochen oder gelöst“ hatte).

Künftige Rechtsvorschriften und Trends bei der Anwendung

Die europäischen Datenschutzbehörden bereiten sich bereits darauf vor, Beschwerden über Verstöße gegen die DSGVO aufgrund des Einsatzes von LLM zu bearbeiten.

In Frankreich hat die Datenschutzbehörde CNIL einen Aktionsplan für den Einsatz generativer KI-Systeme erstellt. Ein Schritt, der den Umgang anderer europäischer Aufsichtsbehörden mit diesen Technologien beeinflussen könnte. In ähnlicher Weise hat der Europäische Datenschutzausschuss (European Data Protection Board – EDPB) eine Arbeitsgruppe ins Leben gerufen, die sich darauf konzentriert, das neue KI-Gesetz der EU mit der Datenschutz-Grundverordnung in Einklang zu bringen.

Das KI-Gesetz der EU, das vom Europäischen Parlament im Juni 2023 verabschiedet wurde, soll KI auf der Grundlage ihres Schadenspotenzials regulieren und wird wahrscheinlich strengere Anforderungen an die Grundmodelle stellen, auf denen LLM basieren. Die Verordnung hat bereits ein Verbot bestimmter KI-Anwendungen wie Social Scoring vorgeschlagen und skizziert die Schutzmaßnahmen, die für das sich schnell entwickelnde technologische Umfeld von heute erforderlich sind.

In der Zwischenzeit hat die britische Regierung kürzlich ein eigenes KI-Whitepaper veröffentlicht, das Leitlinien für den Einsatz von KI enthält, um verantwortungsvolle Innovationen zu fördern und gleichzeitig das Vertrauen der Öffentlichkeit in diese Technologie zu erhalten. Es ist wahrscheinlich, dass dies in den kommenden Jahren zu weiteren neuen Gesetzen und Vorschriften führen wird.

Die derzeitige Flut von Datenschutz- und KI-Vorschriften bedeutet, dass Unternehmen, die KI einsetzen wollen, sich in den kommenden Monaten in einer immer komplexeren Rechts- und Regulierungslandschaft zurechtfinden und sicherstellen müssen, dass sie mit den Entwicklungen Schritt halten. Zum jetzigen Zeitpunkt sollte der Schwerpunkt \ darauf liegen, sicherzustellen, dass Compliance-Maßnahmen vorhanden sind, um zu gewährleisten, dass Daten im Einklang mit den aktuellen rechtlichen und regulatorischen Anforderungen erhoben und verarbeitet werden.

Über den Autor: Jakub Lewandowski ist Global Data Governance Officer bei Commvault.

(ID:49739527)