Die juristische Arbeit besteht zu einem großen Teil aus dem Durchsuchen von Normen, Urteilen und Gesetzen nach für den Einzelfall relevanten Informationen. Da dies ein sehr daten-, zeit- und wissensintensiver Prozess ist, gewinnen computergestütze Anwendungen in dieser Domäne immer mehr an Bedeutung. Infolgedessen entstand kürzlich auch die Data-Science Umgebung Lexia am Lehrstuhl Software Engineering betrieblicher Informationssysteme der Technischen Universität München (TUM). In Lexia ist die regelbasierte Text-Annotationssprache Ruta von Apache UIMA (Unstructured Information Management Architecture) integriert, um mit Mitteln der Sprachverarbeitung deutsche Gesetze zu annotieren.
In dieser Bachelorarbeit wird zunächst eine Einführung in einige Anwendungen der Textverarbeitung natürlicher Sprache gegeben. Anschließend wird in Zusammenarbeit mit Konrad Heßler der Versuch unternommen, die funktionale Klassifikation von Rechtsnormen zu automatisieren. Dazu werden syntaktische Regeln spezifiziert, die der Identifikation der Funktion von Normen dienen. Daraufhin werden diese Normen innerhalb von Lexia als Ruta-Skripte implementiert, ausgeführt und getestet. Die resultierenden Annotationen werden untersucht, um eine erneute Überarbeitung der syntaktischen Regeln vorzunehmen, womit der Arbeitszyklus von neuem beginnt. Während des Arbeitsprozesses sind Probleme aufgetreten, die nicht gelöst werden konnten und zu gewissen Einschränkungen führten. In einer abschließenden Evaluation wurden unter anderen die Auswirkungen dieser Einschränkungen festgestellt. Die evaluierten Kennzahlen der resultierten Klassifikation legen nahe, dass sie für die praktische Anwendung im juristischen Alltag noch ungeeignet ist. Es wurde jedoch eine Grundlage für zukünftige Arbeiten geschaffen.
Name | Type | Size | Last Modification | Last Editor |
---|---|---|---|---|
Bachelorarbeit_Ruoff.pdf | 758 KB | 20.10.2016 | ||
BA_final_presentation_Ruoff.pptx | 1,13 MB | 24.10.2016 | ||
Kickoff_Ruoff_BA.pdf | 984 KB | 27.06.2016 |