Von 45 Minuten auf 2 Sekunden – Large Language Models im Wissensmanagement

9. November 2023
Uwe Horwath

Wenn man wie ich in einem Juristenhaushalt lebt, passiert es gelegentlich, dass beim Abendessen Rechtsprobleme diskutiert werden. Jüngst hat mich ein solches Gespräch zu einem Experiment veranlasst, von dem ich in diesem Blogbeitrag berichten will.

Meine Frau erzählte nicht ohne Stolz, dass sie ein Urteil des OLG Karlsruhe gefunden hat, das sie der Gegenseite ordentlich um die Ohren hauen kann. Und tatsächlich, das Urteil passte wie die Faust aufs Auge. Gefunden hat sie es – es handelte sich um eine ziemlich spezifische Fragestellung – nach einer Recherche in den üblichen juristischen Fachdatenbanken. Suchdauer: ca. 45 Minuten.

Wer gewissenhaft recherchiert, erzielt bessere Ergebnisse. Suchdauern von 45 Minuten oder mehr sind bei komplexeren Problemen eher die Regel als die Ausnahme.

Volltextsuche vs. Semantische Suche

Ich wollte wissen, ob sich die Recherchezeit in dem konkreten Fall reduzieren lässt. Also ließ ich mir die Textpassage geben, in welcher der gegnerische Kollege seine Rechtsmeinung kundtat. Mit diesem Text führte ich eine semantische Suche in einer Urteilsdatenbank durch, die wir in unserem Unternehmen zu Demozwecken eingerichtet haben. Das entscheidende Urteil wurde in der Trefferliste an erster Stelle präsentiert. Die Suchzeit reduzierte sich von 45 Minuten auf 2 Sekunden.

War das Zufall? Gewiss nicht. Die semantische Suche war in diesem Beispiel der Volltextsuche haushoch überlegen.

Volltextsuche

Bei der Volltextsuche werden die Wörter des Suchbegriffs direkt mit den in den Quellen verwendeten Wörtern abgeglichen. Die Suche findet Wörter oder Phrasen, die genau oder nahezu genau dem eingegebenen Suchbegriff entsprechen. Oft erfolgt ein einfaches Ranking der Ergebnisse, basierend auf der Häufigkeit des Auftretens des Suchbegriffs.

Die Recherche mit der Volltextsuche wird dann besonders aufwändig, wenn der Suchbegriff in der durchsuchten Datenbank sehr häufig und in unterschiedlichem Kontext auftaucht. Die Suche muss dann mit Kombinationen von Begriffen verfeinert werden, von denen man annimmt, dass sie in dem gesuchten Kontext gemeinsam auftreten. Liefert eine solche Suche immer noch keine relevanten Treffer, ist in Betracht zu ziehen, dass in der gesuchten Fundstelle Synonyme der Suchbegriffe oder andere Begriffe mit ähnlicher Bedeutung verwendet werden könnten. Die Recherche besteht im Ergebnis aus zahlreichen Suchzyklen, in der verschiedene Begrifflichkeiten immer wieder neu miteinander kombiniert werden. Das erklärt, warum Recherchezeiten von 45 Minuten oder mehr bei komplexeren Fragestellungen eher die Regel als die Ausnahme sind.

Semantische Suche

Die semantische Suche ist eine KI-basierte Suche, die in der neuesten Generation sog. Large Language Models (LLMs) nutzt, um die Bedeutung hinter einer Suchanfrage zu verstehen. Die Suchergebnisse werden nicht nur nach der Übereinstimmung der Suchbegriffe, sondern auch nach ihrer semantischen Relevanz gerankt. Die semantische Suche ist fähig, mit Synonymen, Abkürzungen und Fachjargon umzugehen. Weil sie die Bedeutung von Texten versteht, liefert sie inhaltlich relevante Ergebnisse auch dann, wenn diese die Suchbegriffe nicht enthalten.

Bis vor Kurzem scheiterte das maschinelle Sprachverständnis regelmäßig daran, dass sich der Sinn oder der Sinnzusammenhang eines Wortes oft erst erschließt, wenn man einen Satz zu Ende gelesen hat. LLMs heben diese Beschränkung auf und sind deutlich besser in der Lage, Mehrdeutigkeiten zu erkennen. Sie können bis zu einem gewissen Grad sogar mit rhetorischen Stilmitteln wie Ironie und Sarkasmus umgehen.

Bei komplexen oder mehrdeutigen Anfragen liefert die semantische Suche deswegen regelmäßig deutlich bessere Ergebnisse als die Volltextsuche.

Semantische Suche im Wissensmanagement

Wir sprechen hier von einer Technologie, die absehbar das Wissensmanagement in Kanzleien und die Recherchearbeit revolutionieren wird. Wir betreiben die Technologie, die ich in meinem oben dargestellten Experiment eingesetzt habe, bei unseren Kanzleikunden auf lokalen Instanzen. Diese Systeme analysieren über Schnittstellen die in den E-Akten enthaltenen Dokumente, segmentieren Klauseln und Textbausteine und stellen sie für die semantische Suche bereit, ohne dass ein Datentransfer nach außen stattfindet.

Mit einem solchen KI-basierten Wissensmanagement findet man im Aktenbestand der Kanzlei in Sekundenschnelle Klauseln oder Textbausteine, die genau für die Rechtsfragen oder den Sachverhalt relevant sind, der aktuell bearbeitet wird.

„Hatten wir das nicht schon mal…?“ Diese Frage geistert regelmäßig in Kanzleien und Rechtsabteilungen. Werden herkömmliche Suchtechnologien eingesetzt, bleibt der in den Fallakten verborgene Wissensschatz oft ungenutzt. LLMs eröffnen den Weg zu einem KI-basierten Wissensmanagement, das das entscheidende Kanzleiwissen genau dort präsentiert, wo es gebraucht wird.

Weitere interessante Blogbeiträge

Von 45 Minuten auf 2 Sekunden – Large Language Models im Wissensmanagement

Wenn man wie ich in einem Juristenhaushalt lebt, passiert es gelegentlich, dass beim Abendessen Rechtsprobleme diskutiert werden. Jüngst hat mich ein solches Gespräch zu einem Experiment veranlasst, von dem ich in diesem Blogbeitrag berichten will. Meine Frau erzählte nicht ohne Stolz, dass sie ein Urteil des OLG Karlsruhe gefunden hat, das sie der Gegenseite ordentlich […]
Weiterlesen
Melden Sie sich zum Newsletter an
Jetzt kostenlos anmelden
Besuchen Sie uns auf Social Media
usertagphone-handsetcalendar-fullmagnifiercrossmenuchevron-up