Wie in jeder Branche stehen auch Kanzleien dem demografischen Wandel bevor. Trotz einer nachrückenden Generation wächst die Zahl an „Digital Natives“ nicht schnell genug, um dem Wandel in Wirtschaft und Digitalisierung gerecht zu werden.
In vielen Unternehmen kann generative KI hier den Unterschied bedeuten. Die erfolgreiche Integration von KI-Systemen erleichtert das Arbeiten mit großen Datenmengen und kann helfen, den Mitarbeitermangel zu überbrücken. Doch bringt die Nutzung von KI-Lösungen, gerade in Kanzleien Probleme mit sich.
Der Standard in der Handhabung mit Mandantendaten ist sehr hoch – und das zu Recht. Fragen wie die Rechtslage, die Vermögenssituation oder die Liquidität eines Mandanten sind hoch sensible Informationen, die der Geheimhaltung unterliegen. Oft stehen Kanzleien vor dem Problem Risikopotenzial und Effizienzsteigerung zu balancieren. Was kann hier getan werden?
Wie in jedem Bereich kann generative KI auch für Kanzleien die Effizienz erheblich steigern und so einen erheblichen Wettbewerbsvorteil bedeuten. Dank der Möglichkeit, Informationen bzw. die Menge an Output mithilfe von KI-Tools in kurzer Zeit zusammenzufassen, kann die juristische Recherche und das Schreiben von Texten auf ein zeitliches Minimum reduziert werden.
Doch der Einsatz von KI-Tools wie ChatGPT birgt auch berufsrechtliche Risiken: Die Gefahr falscher Informationen („Halluzinationen“) und das unrechtmäßige Weitergeben von datenschutzrechtlich geschützten Informationen bzw. die Drittübermittlung dieser. Ersteres ist vor allem relevant bei neuen oder veränderten Gesetzgebungen und der Gefahr, dass Large Language Modells (LLMs) in Fachbereichen nicht auf dem neuesten Stand bleiben. Eine entsprechende Handhabung sowie die professionelle Aufarbeitung der generierten Inhalte sollten daher die erste Priorität bleiben.
Gerade in Branchen, die so wie Anwaltskanzleien primär mit personalisierten Daten arbeiten und sich auf einen reichen Wortschatz an eindeutigen Informationen beziehen, ist das Risikopotenzial von KI-Anwendungen bekannt. Aber unabhängig von KI, bleiben Anwälte persönlich für die Endkontrolle und Richtigkeit der generierten Inhalte verantwortlich (§ 43 BRAO). Die entsprechenden Gesetze der Bundesrechtsanwaltsordnung (BRAO) und Berufsordnung für Rechtsanwälte (BORA) sind technologieneutral gehalten, müssen also auf den Einsatz von generativer KI angewandt werden.
Die Verantwortung der Anwaltschaft, ihre Mandantinnen und Mandanten unabhängig zu beraten und deren rechtliche Interessen eigenverantwortlich zu vertreten, bleibt erhalten. Hier muss eine Human-in-the-Loop-Strategie angewandt werden: Keine generierten Informationen der KI-Anwendung dürfen ohne Kontrolle eines Anwalts oder anderen Kanzleimitarbeiters weitergegeben werden. Die Kanzlei bleibt in der Verantwortung.
Ebenfalls dürfen keine personalisierten Daten von Mandanten in die Modelle eingegeben werden. Kanzleien ist das zumeist bewusst, weswegen viele KI-Anwendungen bisher prinzipiell abgelehnt werden.
Anwälte sind zur Verschwiegenheit verpflichtet. Hier wird die strenge Geheimhaltungspflicht auf die Nutzung von KI erweitert. Sorgfalts- und Transparenzpflichten müssen gemäß der neuen EU-KI-Verordnung (KI-VO) auch auf KI-Systeme angewandt werden. Die Einschränkung durch den EU AI Act schreibt weiter vor, dass personalisierte Daten die EU nicht verlassen dürfen. Generell sollte das Hosting von personalbezogenen Daten so transparent wie möglich bleiben.
In Kanzleien ist das noch enger gefasst als in anderen Bereichen. Oftmals werden ausschließlich On-Premise-Lösungen genutzt, um die eigenen Datenbanken geschützt zu durchsuchen. Die anwaltliche Sorgfaltspflicht besteht erheblich darin, dass jedwede Kommunikation nach außen keine Mandantendaten beinhalten darf, einschließlich E-Mails. Gerade im Fall von Notariatskanzleien ist das von noch größerer Bedeutung, da Daten von Mandanten die Kanzlei nicht verlassen dürfen, also überhaupt keine Cloud-Lösungen für das Speichern von personalisierten Daten genutzt werden dürfen. Lediglich das Elektronische Urkundenarchiv oder der Elektronische Notariatsaktenspeicher der Bundesnotarkammer dürfen genutzt werden.
Es sollte schon beim Auswählen des Tools bzw. der verschiedenen Anwendungen darauf geachtet werden, was mit den Daten geschieht. Hier ist das Potenzial, durch Nachlässigkeit Schaden am Mandanten anzurichten, schlicht zu groß für Unklarheiten.
Wollen die zumeist im Ausland gehosteten KI-Anwendungen genutzt werden, müssen Daten anonymisiert werden, damit vollständige Mandatsinformationen nicht ohne besondere Maßnahmen an KI-Anbieter weitergegeben werden. Die beste Möglichkeit ist eine Maskierung vor der Eingabe bzw. die Informationen unkenntlich zu machen, damit Mandanten geschützt bleiben. So gelangen die Daten gar nicht erst in die KI-Modelle.
Ideal ist ein Tool, das sich im Browser auf alle Anwendungen anwenden lässt und dadurch die flexible Nutzung von vielen Tools erlaubt. Das Maskieren von personalisierten Daten wird ermöglicht, während LLMs weiter effektiv genutzt werden können.
NENNA.AI bringt einen sofortigen Mehrwert in jede Kanzlei und hilft, die Auflagen des EU AI Acts und der DSGVO zu erfüllen. Das passiert problemlos als Plug-in im Browser. Auch wenig technikaffine Mitarbeitende können sich einfach zurechtfinden. Die Zwischenlagerung der maskierten Daten geschieht auf deutschen Servern.
Beim Herauskopieren der Inhalte aus der Anwendung demaskiert NENNA.AI die Daten erneut und es kann mit dem entstandenen Text weitergearbeitet werden. Die personenbezogenen Daten müssen also nicht nochmals ersetzt werden. Das KI-Tool versteht jedoch, welche Entitäten (welche Art von Daten) hier maskiert wurden und hat kein Problem, Syntax und Kontext anzupassen.
Das Anonymisieren der Daten ist aber nur ein Aspekt. NENNA hilft dabei, AI-Tools zu blocken und geht damit über das Schützen von personalisierten Daten hinaus. Eine Blockierung via Admin verhindert die versehentliche oder mutwillige Nutzung von unrechtmäßigen AI-Anwendungen in der Kanzlei. Das Thema der Schattennutzung beinhaltet die unrechtmäßige Nutzung von AI-Modellen in privaten Accounts, ohne die Erlaubnis des Arbeitgebers. Diese wird inzwischen in den meisten Unternehmen betrieben und kann zu strafrechtlichen Folgen führen.
Diese Funktion kann auch auf den Schutz von weitergehenden Informationen und das Einhalten des Anwaltsgeheimnisses genutzt werden. Das betrifft Informationen wie Firmengeheimnisse, Patentrecht-Streitigkeit, Markenrecht oder die Verschmelzung von Unternehmen, kurzum Informationen, die auf die Finanzen des Mandanten oder den Wirtschaftsmarkt Einfluss nehmen könnten. Diese Art von Informationen ist nicht einfach zu strukturieren und wird möglicherweise nicht von jedem Mitarbeitenden als sensibel erkannt. Doch diese müssen trotzdem maskiert bleiben, bevor sie in LLMs eingegeben werden.
Gleichzeitig gibt NENNA.AI die Möglichkeit, Recherche von öffentlichen Personen oder Events in LLMs nicht zu stören: Die Anonymisierung von einzelnen Namen oder Adressen kann ausgesetzt und die Recherche durch AI-Tools erleichtert werden. Allerdings nur, wenn das auch vom jeweiligen Admin zugelassen wird. So kann weiter mit den Vorteilen der verbesserten Recherche von Tools wie Perplexity gearbeitet werden.
Generell gibt NENNA.AI durch Individualisierung die Kontrolle über KI-Nutzung in Kanzleien zurück und kann auf den jeweiligen Nutzen angepasst werden. Hier kann dem Admin auch anonymisiert aufgeschlüsselt werden, welche Anwendungen die Mitarbeitenden wie oft nutzen. So kann ein genereller Überblick über die KI-Nutzung im Unternehmen entstehen und die Strategie entsprechend angepasst werden.
Je größer die Kanzleien, desto größer ist auch der Handlungsdrang, den EU-Auflagen gerecht zu werden. Unternehmen mit dem Budget und entsprechend großen Datenbanken kommen oft zu dem Schluss, dass eine eigens gebaute KI-Lösung dem Druck der Gesetzeslage eher gerecht werden kann. Doch das ist oftmals aufwendig, und es wird zunächst unterschätzt, wie groß die Instandhaltungskosten werden können. Der Stand der Technik verändert sich so schnell, dass es sich langfristig nicht lohnt, in die Entwicklung zu investieren. Doch alternativ kann NENNA.AI auch in eigens gebaute Modelle integriert werden.
Mit der Möglichkeit, NENNA.AI entsprechend zu skalieren, ist die Nutzung und Organisation des Tools auch für eine große Anzahl an Mitarbeitern kein Problem. Hier können spontan und unabhängig Tools und die KI-Strategie gewechselt werden, denn die leichte Handhabe holt alle Mitarbeiter ab.
Die von vielen Kanzleien bevorzugte Lösung, schlicht keine KI-Modelle zu nutzen, um Risiken zu vermeiden, ist auf Dauer nicht wirtschaftlich und ist im Wettbewerb ein Nachteil. Mit dem demografischen Wandel werden nur solche Kanzleien bestehen bleiben, die auch den nächsten Schritt in der Digitalisierung gehen und das Potenzial von KI voll ausschöpfen. Datenschutz ist dabei nicht nur eine gesetzliche Maßgabe, sondern auch Image-Faktor. Wer technische Maßnahmen ergreift, kann Mandanten gegenüber Verlässlichkeit gewährleisten und sich gegenüber der Konkurrenz durchsetzen.
Eine Lösung wie NENNA.AI hilft, die bevorstehenden Auflagen des EU AI Gesetzes ab Februar 2025 zu erfüllen. Mit NENNA.AI können Unklarheiten umgangen und DSGVO-konforme Prozesse eingeführt werden. So können Kanzleien den wachsenden Mitarbeitermangel ausgleichen und die Daten ihrer Mandanten schützen. Versichern Sie Ihren Mandanten einen schnellen, effektiven und vor allem sicheren Service beim Arbeiten mit generativer KI.
Florian Spengler ist Co-Founder und Head of Business Development/Partnerships bei NENNA.AI, wo er sich seit 2023 für die sichere und verantwortungsvolle Nutzung von generativer KI in Unternehmen einsetzt. Schwerpunktmäßig ist er dort für die Go-to-Market Strategie verantwortlich. Zuvor war er bei der Retresco GmbH tätig und hat dort KI-Integrationsprojekte geleitet, zuletzt verantwortete er das Customer Success Management. Florian bringt seinen wirtschaftlich/technischen Background aus dem Informationsmanagement Studium an der Universität Koblenz-Landau mit.