organisatorische, vertragliche und technische Maßnahmen
Sprachmodelle können Juristinnen und Juristen bei der Arbeit mit und an rechtlichen Texten und Dokumenten unterstützen, ob in der Recherche, Analyse, Würdigung, Übersetzung oder Erstellung.
Dieser Beitrag soll Maßnahmen aufzeigen, mit denen die Arbeit mit Sprachmodellen so sicher wie möglich gestaltet werden kann.
Welche Risiken können abgemildert werden?
Schlechte Qualität der Unterstützungsleistung des Sprachmodells durch falsche Antworten oder das Fehlen von Quellenangaben reduziert den Nutzen für Rechtsanwender enorm. Allgemeine Tipps, um die Qualität der Ausgabe zu steigern, wie Fragen und Eingaben auf Englisch zu stellen oder explizit nach verlinkten Quellenangaben zu fragen, erscheinen bei Fragen zu deutschem Recht eher fernliegend und führen in der Praxis nicht zu dem gewünschten Ergebnis. Gibt man einer Rechtsfrage mehr oder genauen Kontext mit, stellt sich schnell die Frage nach dem Datenschutz und der Wahrung von Verschwiegenheit. Bei dem Schutz von Wissen und Informationen haben Berufsgeheimnisträger und juristische Content Hersteller das gleichgelagerte Interesse (schützenswerte Wissensbasis), dass weder Eingaben noch eigene Kontexte abwandern oder für das Training der Sprachmodelle genutzt werden sollen.
Wie sehen die Sicherungsmöglichkeiten aus?
Um die zuvor genannten Risiken abzumildern, können organisatorische, vertragliche und technische Maßnahmen getroffen werden.
KI-Kompetenz
Durch gezielte Schulungen, welche die Rolle des Mitarbeitenden und die Anwendungsfälle für den Sprachmodelleinsatz berücksichtigen, kann die vom Gesetzgeber geforderte KI-Kompetenz aufgebaut werden und ein verantwortungsvoller Einsatz des Sprachmodells erreicht werden. KI-Kompetenz bedeutet in diesem Zusammenhang auch das Verständnis, dass KI-generierte Antworten falsch oder unvollständig sein können und vom Anwender stets überprüft werden sollten. Zudem helfen ein technisches Grundverständnis und die Kenntnis der rechtlichen Rahmenbedingungen bei der Entscheidung, welche Informationen und Inhalte wann und in welchem Umfang die eigene Sphäre verlassen und wozu diese verarbeitet werden sollen.
Datenschutzvereinbarungen und Zusatzvereinbarungen für Berufsgeheimnisträger
Zusicherungen eines Dienstleisters über die Einhaltung europäischer Datenschutzbestimmungen sind bei Abschluss eines Nutzungsvertrages meist obligatorisch. Doch wie sieht es mit den Verschwiegenheitsverpflichtungen für Berufsgeheimnisträger aus, welche bei der Inanspruchnahme externer Dienstleistungen auch auf den jeweiligen Dienstleister erweitert werden müssen (§§ 43e III BRAO, 26a III BnotO, 62a III StBerG)? Azure OpenAI Service bietet REST-API-Zugriff auf die Sprachmodelle von OpenAI.[1] Von Microsoft ist mittlerweile auch eine „Berufsgeheimnisträger Zusatzvereinbarung“ zu haben, welche auf Anfrage in Verbindung mit den Microsoft Cloud Services ausgegeben wird.[2]
Integrierter Sprachmodellzugriff
Mit dem Compliance-Komfort der zuvor skizzierten Zusatzvereinbarung einher geht bei einem via API integrierten Sprachmodell-Zugriff die technische Zusage von Microsoft, dass Eingaben des Anwenders nicht zu Trainingszwecken des Sprachmodells verwendet werden und nach Ausgabe der Antwort umgehend gelöscht werden. Zudem werden jenseits der Eingabe des Anwenders keine Informationen über den Anwender an das Sprachmodell übermittelt. Ein Beispiel für eine solche Sprachmodellintegration in eine Legal Software bietet der Soldan-Partner Justin Legal. Hier hilft ChatGPT als Sandbox-Lösung zum Beispiel beim Entwerfen von Schreiben, Übersetzen oder beantwortet Fragen zu umfangreichen vorliegenden Sachverhaltstexten.
RAG-Modell (Retrieval-Augmented Generation)
Eine weitere beliebte Sicherheitsmaßnahme ist die Sprachmodellnutzung in einem sogenannten RAG-Modell. Dieses Modell eignet sich besonders, wenn Sprachmodelle in Verbindung mit größeren schützenswerten Datenbankinhalten (z.B. eigene Akteninhalte, eigene Dokumente, Verlagsinhalte) funktionieren sollen. Mit einer leistungsstarken Suche werden in sicherer Sphäre zunächst relevante Inhalte zu einer Eingabe identifiziert. An das Sprachmodell wird dann nur das Nötigste, nämlich die zuvor identifizierten relevanten Textstellen zusammen mit der Eingabe und nicht die vollständige Dokumenten- oder Datenbankinhalte gegeben. Das sorgt in Verbindung mit den unter „Integrierter Sprachmodellzugriff“ beschriebenen Vorteilen zum einen für mehr Datensicherheit, zum anderen halten sich dadurch die transaktionalen Kosten für die Sprachmodellnutzung im Rahmen.
Anonymisieren von Prompts und Dokumenten
Ein zusätzliches Plus an Sicherheit lässt sich schließlich mit der Anonymisierung von Eingaben und eigenen Inhalten erreichen. Die Soldan-Partner Glanos und NENNA bieten Dokumentenanonymisierung an, NENNA mit einem Browser Plugin sogar eine Livemaskierung von personenbezogenen Daten in Prompt-Eingabefeldern und der Anbieter Prime Legal vereint sämtliche zuvor beschriebenen Sicherungsmöglichkeiten inklusive Anonymisierung in einer Lösung.
[1] https://learn.microsoft.com/de-de/azure/ai-services/openai/overview abgerufen am 03.04.2025
[2] https://download.microsoft.com/download/f/5/2/f52703a0-e31a-447e-91ac-2d65d3a5bab2/MSFT_Cloud_Compendium.pdf abgerufen am 03.04.2025
Christian Rekop leitete von 2007 bis 2020 den Bereich Wissen und Recherche bei Soldan, seit 2021 ist er Leiter Business Development, Legal Tech und Services. Christian Rekop ist Dozent für Legal Tech und Legal Operations an der FOM Hochschule. Vor seiner Zeit bei Soldan hat er an der Ruhr-Universität Bochum das Studium Rechtswissenschaft belegt, mit dem ersten juristischen Staatsexamen 2006 abgeschlossen und nach dem weiterführenden Studiengang Wirtschafts- und Steuerrecht den Abschluss Magister Legem (LL.M.) erworben.