Legal Tech: die wichtigsten Begriffe

Im Bereich Legal Tech werden viele Buzzwords und Fachbegriffe verwendet, aber was hat es damit auf sich? Dieser Artikel gibt einen Überblick über die wichtigsten Begriffe und Konzepte, die Sie kennen sollten, um den Nutzen und den Gehalt von Legal-Tech-Anwendungen beurteilen zu können.

Zurzeit sprießen die „innovativen“ Lösungen von Tech-Anwendungen wie Pilze aus dem Boden. Was hat es aber mit all diesen Lösungen auf sich und wofür stehen die ganzen englischen Begriffe in den Anpreisungen eigentlich? Damit Sie einen Überblick haben und grob verstehen, worum es geht, haben wir die gängigen Begriffe für Sie zusammengetragen.

Künstliche Intelligenz

Künstliche Intelligenz (KI) oder auf Englisch artificial intelligence (AI) ist zunächst ein Teilgebiet der Informatik. Sie beschäftigt sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen. Der Begriff KI ist nicht eindeutig zu definieren, da sich bereits bei der Definition von „Intelligenz“ die Geister scheiden. Je nach Anwendungsbereich und Perspektive werden unterschiedliche Definitionsversuche unternommen.

„Künstliche Intelligenz ist die Eigenschaft eines IT-Systems, »menschenähnliche«, intelligente Verhaltensweisen zu zeigen.“ ( Bitkom e. V. und Deutsches Forschungszentrum für künstliche Intelligenz)

„Unter künstlicher Intelligenz (KI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“ ( Microsoft Corp.)

Der Begriff KI wird häufig als Oberbegriff für eine Reihe von Technologien verwendet, darunter maschinelles Lernen (Machine Learning), Deep Learning, Neuronale Netze und die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP).

Machine Learning

Maschinelles Lernen oder Machine Learning (ML) verwendet statistische Algorithmen, um Problemlösungen zu entwickeln. Es ermöglicht Computern, aus Daten zu lernen, um sich mit der Zeit zu verbessern, ohne explizit programmiert zu werden. Die Algorithmen (Modelle) erkennen Muster in den Daten und leiten daraus Vorhersagen und Entscheidungen ab.

Wie funktioniert Machine Learning?

Der Prozess beginnt mit dem Sammeln und Aufbereiten von Daten. Diese Daten werden als Trainingsdaten bezeichnet. Diese Daten können in verschiedenen Formen vorliegen, z. B. als Zahlen, Texte, Bilder oder Audiodaten.

Im nächsten Schritt wird das Modell (oder die Algorithmen) angewendet. Ein Modell im maschinellen Lernen ist eine mathematische Darstellung der Beziehungen zwischen den Daten. Modelle können verschiedene Formen haben, z. B. lineare Regression, Entscheidungsbäume, neuronale Netze usw.

Nun wird das Modell trainiert. Während des Trainingsprozesses wird das Modell auf die Trainingsdaten angewendet. Der Algorithmus passt die Parameter des Modells an, um die Fehler zwischen den vorhergesagten und den tatsächlichen Ergebnissen zu minimieren.

Der letzte Schritt ist die Evaluation. Nach dem Training wird das Modell auf neuen, noch ungesehenen Daten getestet, um seine Leistung zu bewerten. Dies hilft sicherzustellen, dass das Modell nicht nur die Trainingsdaten auswendig gelernt hat (sog. Overfitting), sondern auch in der Lage ist, gut auf neue Daten zu generalisieren.

Arten von maschinellem Lernen

Es gibt verschiedene Arten des maschinellen Lernens. Wir unterscheiden hier folgenden Arten:

  • Überwachtes Lernen (Supervised Learning): Bei dieser Methode werden dem Algorithmus Eingabedaten und die entsprechenden Ausgabedaten vorgegeben. Ziel ist es, eine Funktion zu erlernen, die die Eingaben auf die richtigen Ausgaben abbildet. Ein Beispiel ist die Klassifikation von Daten.
  • Unüberwachtes Lernen (Unsupervised Learning): Hierbei gibt es keine vorgegebenen Ausgabedaten. Der Algorithmus versucht, Muster und Strukturen in den Eingabedaten zu finden. Ein Beispiel ist die Clusteranalyse
  • Bestärkendes Lernen (Reinforcement Learning): Bei dieser Methode lernt das Modell durch Interaktion. Es erhält Belohnungen oder Bestrafungen für seine Aktionen. Beispielsweise erhält es für jede richtige Antwort Punkte, für jede falsche Antwort werden Punkte abgezogen. Ziel des Modells ist es, eine Strategie zu entwickeln, die langfristig die Punktzahl maximiert.

Deep Learning

Deep Learning ist ein spezieller Bereich des maschinellen Lernens, der auf künstlichen neuronalen Netzen basiert, die in der Lage sind, komplexe Muster in großen Datenmengen zu erkennen. Im Gegensatz zu herkömmlichen Algorithmen des maschinellen Lernens, die oft auf manuell ausgewählten Merkmalen basieren, lernt Deep Learning selbstständig repräsentative Merkmale aus den Daten.

Wie funktioniert Deep Learning?

Deep Learning funktioniert (stark vereinfacht) wie folgt:

  1. Zuerst werden wieder Daten gesammelt: Wir geben dem Computer viele Beispiele, z. B. tausende Bilder von Katzen und Hunden.
  2. Anschließend muss ein Modell gebaut werden: Man erstellt ein künstliches neuronales Netz, das aus Schichten von Neuronen (sog. Layern) besteht, ähnlich wie das menschliche Gehirn aufgebaut ist. Es gibt eine Eingabeschicht (Input Layer), mehrere verborgene Schichten (Hidden Layers) und eine Ausgabeschicht (Output Layer). Die Neuronen in den verschiedenen Layern sind durch Gewichte verbunden, die bestimmen, wie stark die Aktivierung eines Neurons die Aktivierung des nächsten beeinflusst.
  3. Jetzt kommt das Training: Der Computer schaut sich jedes Bild an und versucht zu erraten, ob es sich um eine Katze oder einen Hund handelt. Am Anfang macht er viele Fehler. Jedes Mal, wenn er einen Fehler macht, passt er seine Regeln (Gewichte) ein wenig an, um beim nächsten Mal besser zu raten. Dieser Prozess wird viele Male wiederholt, bis der Computer die Regeln zuverlässig gelernt hat und nur noch wenige Fehler macht.
  4. Am Ende steht der Test: Wenn das Modell gut trainiert ist, wird es mit neuen Bildern getestet, die es noch nie gesehen hat. Wenn es die neuen Bilder richtig erkennt, wissen wir, dass es zuverlässig gelernt hat.

Deep Learning hat mit seiner Fähigkeit, aus großen Datenmengen zu lernen und komplexe Muster zu erkennen, viele Bereiche der Technik revolutioniert. Insbesondere durch die große Verfügbarkeit von Daten, die gestiegene Rechenpower von Computern und methodischen Fortschritten, liegt in dieser Technologie erhebliches Potenzial für die Zukunft.

Chatbot 2

Große Sprachmodelle (Large Language Models, LLMs)

Large Language Models (LLMs) sind maschinelle Lernmodelle, die darauf trainiert sind, menschliche Sprache zu verstehen, zu erzeugen und zu verarbeiten. Diese Modelle basieren in der Regel auf neuronalen Netzen.

LLMs werden mit großen Mengen von Textdaten trainiert, die aus verschiedenen Quellen stammen können, darunter Bücher, Artikel, Websites und andere schriftliche Materialien. Dieses Training ermöglicht es dem Modell, Sprachmuster, Grammatik, Wissen über die Welt und sogar bestimmte Stile und Kontexte zu erlernen.

Viele LLMs basieren auf der sogenannten Transformer-Architektur, die sich durch die Verwendung von „Selbstaufmerksamkeit“ (Self-Attention) auszeichnet. Dies ermöglicht es dem Modell, Kontextinformationen über lange Textsequenzen hinweg zu erfassen und wichtige Beziehungen zwischen Wörtern und Sätzen zu verstehen. LLMs sind in der Lage, kohärenten Text zu generieren, der grammatikalisch korrekt ist und thematisch relevant erscheint.

Nach dem anfänglichen Training auf einem allgemeinen Datensatz können LLMs durch Feintuning an spezifischere Aufgaben oder Fachgebiete angepasst werden. Dies verbessert ihre Leistung in bestimmten Anwendungsbereichen wie z. B. medizinischen Texten, juristischen Dokumenten oder technischen Berichten.

Typische Anwendungsbereiche sind:

  • Textgenerierung
  • Übersetzungen
  • Beantwortung von Fragen
  • Chatbots und virtuelle Assistenten
  • Textanalyse

Herausforderungen bei LLMs:

Der Umgang mit LLMs stellt uns auch vor Herausforderungen. Zum einen können LLMs Vorurteile aus den Trainingsdaten übernehmen und verstärken. Dies erfordert eine sorgfältige Kontrolle und entsprechende Korrekturmaßnahmen. Daneben steht immer die Frage des Datenschutzes und des Urheberrechts. Der Umgang mit sensiblen Informationen und die Gewährleistung des Datenschutzes sind entscheidend, insbesondere bei der Verarbeitung personenbezogener Daten. Auch das Missbrauchspotenzial ist groß. LLMs können unter anderem für schädliche Zwecke wie die Erstellung von Fake News oder betrügerischen Inhalten verwendet werden. Daher ist es wichtig, Mechanismen zur Erkennung und Verhinderung von Missbrauch zu entwickeln.

Generative KI

Generative Künstliche Intelligenz (Generative KI) bezeichnet einen Teilbereich der Künstlichen Intelligenz (KI), der sich auf die Generierung neuer Inhalte konzentriert. Diese Inhalte können Bilder, Texte, Musik, Videos oder andere Datenformen sein. Zur Generierung dieser neuen Inhalte können z. B. Transformer-basierte Modelle wie die oben beschriebenen LLMs verwendet werden. Ein prominentes Beispiel für ein Transformer-basiertes Modell ist GPT-4 (Generative Pre-trained Transformer).

Retrieval-Augmented Generation (RAG)

Retrieval-Augmented Generation (RAG) ist eine Technik, die darauf abzielt, die Textgenerierung durch Modelle wie GPT-3 zu verbessern, indem gezielt auf externe Informationsquellen zugegriffen und diese in den Generierungsprozess integriert werden. Diese externen Informationsquellen sind i. d. R.  nicht Teil der Trainingsdaten und können daher auch Inhalte haben, die nach dem Trainingsende liegen.

Wie funktioniert RAG?

  1. Retrieval-Phase: In der Retrieval-Phase wird eine Datenbank oder ein externer Informationsspeicher durchsucht, um relevante Dokumente oder Textfragmente zu finden, die zur gestellten Frage oder zum generierten Text passen. Dies geschieht i. d. R. durch folgende Schritte:
    1. Query: Das Modell formuliert eine Abfrage auf der Grundlage der Benutzereingabe.
    2. Information Retrieval: Ein Retrieval-Modell, oft basierend auf Algorithmen oder neuronalen Netzwerken, durchsucht die Datenbank nach Dokumenten, die am besten zur Abfrage passen.
    3. Relevanzbewertung: Die gefundenen Dokumente werden nach ihrer Relevanz bewertet und die relevantesten werden ausgewählt.
  2. Generative-Phase: In der Generative Phase verwendet das Modell die in der Retrieval-Phase gefundenen Informationen, um einen kohärenten Text zu erzeugen. Dies geschieht durch:
    1. Contextual Integration: Die abgerufenen Dokumente oder Textfragmente werden in den Kontext der Benutzereingabe integriert. Dies kann durch explizite Einfügung in den Prompt oder durch versteckte Zustandsintegration im Modell geschehen.
    2. Text Generation: Das generative Modell (z. B. GPT-3) erstellt den Text, indem es die bereitgestellten Informationen nutzt, um präzisere und relevantere Antworten zu geben.

Die Vorteile von RAG sind unter anderem eine erhöhte Genauigkeit, da durch den Zugriff auf externe, aktuelle Informationen die generierten Texte präziser und faktenbasierter sein können. Auch die Antworten sind oft relevanter, da sie spezifische Informationen aus den abgerufenen Dokumenten einbeziehen.

Wo kann RAG eingesetzt werden?

Ein bekannter Anwendungsfall sind Chatbots oder virtuelle Assistenten. Hier können die bereits beschriebenen Transformer-Modelle in Kombination mit eigenen Datensätzen verwendet werden.

Natural Language Processing

Natural Language Processing (NLP) ist auch ein Teilgebiet der Informatik und der künstlichen Intelligenz. Es beschäftigt sich mit der Interaktion zwischen Computern und menschlicher Sprache. Das Hauptziel von NLP ist es, Computer in die Lage zu versetzen, menschliche Sprache in natürlicher Art und Weise zu verstehen, zu interpretieren und zu erzeugen.

Techniken und Modelle in NLP

Auch bei NLP gibt es verschiedene Modelle und Techniken, diese sind unter anderem Folgende:

  • Wortvektoren (Word Embeddings): Darstellung von Wörtern als Vektoren in einem kontinuierlichen Vektorraum, um semantische Ähnlichkeiten zu erfassen (z.B. Word2Vec, GloVe).
  • Sequenz-zu-Sequenz-Modelle (Seq2Seq): Modelle, die eine Sequenz von Eingabewörtern in eine Sequenz von Ausgabewörtern umwandeln (z.B. für Übersetzungen).
  • Transformer-Modelle: Eine neuere Architektur, die besonders gut für die Verarbeitung von Sequenzdaten geeignet ist und die Grundlage für fortgeschrittene Modelle wie BERT und GPT bildet (Siehe oben unter LLMs).

Insgesamt spielt NLP eine zentrale Rolle in der modernen Technologie und hat das Potenzial, die Interaktion zwischen Mensch und Maschine grundlegend zu verändern.

No- / Low-Code

No-Code und Low-Code sind 2 Ansätze zur Softwareentwicklung, die es ermöglichen, Anwendungen schneller und mit weniger technischem Fachwissen zu erstellen. Beide Ansätze zielen darauf ab, die Hürden für die Softwareentwicklung zu senken und die Produktivität zu steigern, indem der traditionelle Programmieraufwand minimiert oder eliminiert wird.

No-Code

No-Code-Plattformen ermöglichen es den Benutzern, Anwendungen zu erstellen, ohne eine einzige Zeile Code schreiben zu müssen. Diese Plattformen bieten eine visuelle Entwicklungsumgebung, in der Benutzer Anwendungen durch Drag-and-drop von Komponenten erstellen können. Zu diesen Komponenten können Formulare, Datenbanken, Benutzeroberflächen usw. gehören.

Vorteile

Nachteile

Einfach Bedienung

Eingeschränkte Anpassbarkeit

Schnelle Entwicklung

Leistungsprobleme (Anwendungen können ineffizienter sein als handgeschriebener Code.)

Kosteneffizienz

Abhängigkeit von Plattformen

Flexibilität

Low-Code

Low-Code-Plattformen bieten eine ähnliche visuelle Entwicklungsumgebung, ermöglichen es den Benutzern aber auch, bei Bedarf Code zu schreiben, um die Funktionalität anzupassen und zu erweitern. Dieser Ansatz ist besonders nützlich für Entwickler, die schnell arbeiten möchten, aber dennoch die Kontrolle und Flexibilität benötigen, die das Schreiben von Code bietet.

Vorteile

Nachteile

Beschleunigte Entwicklung

Lernkurve (Gewisse Kenntnisse sind erforderlich)

Flexibilität und Anpassbarkeit

Komplexität (Komplexer als No-Code)

Integration

Kosten (Falls erfahrene Entwickler benötigt werden)

Gemeinsamkeiten und Unterschiede

Gemeinsamkeiten

Unterschiede

Beide Ansätze bieten visuelle Entwicklungsumgebungen.

No-Code: Für Benutzer ohne Programmierkenntnisse; keine Möglichkeit, zusätzlichen Code zu schreiben.

Sie zielen darauf ab, die Entwicklungszeit zu verkürzen und die Produktivität zu steigern.

Low-Code: Für Benutzer mit grundlegenden Programmierkenntnissen; ermöglicht zusätzliches Coding für mehr Flexibilität.

Beide sind nützlich für Rapid Prototyping und MVPs (Minimum Viable Products).

Cloud Wolke Herz

Cloud Computing

Cloud Computing ist eine Form der Bereitstellung von IT-Ressourcen und -Diensten über das Internet ("die Cloud"). Anstatt Software lokal zu besitzen und zu verwalten, werden diese Ressourcen von Unternehmen und Privatpersonen nach Bedarf über das Internet genutzt.

Arten von Cloud-Diensten

Es gibt verschiedene Arten von Cloud-Diensten, die bekanntesten sind:

  1. Infrastructure as a Service (IaaS): Bereitstellung von grundlegenden IT-Ressourcen wie Rechenleistung, Speicher und Netzwerkkapazität. Beispiele: Amazon Web Services (AWS), Microsoft Azure.
  2. Platform as a Service (PaaS): Bereitstellung von Plattformen und Entwicklungswerkzeugen, die es Entwicklern ermöglichen, Anwendungen zu erstellen, ohne sich um die zugrunde liegende Infrastruktur kümmern zu müssen. Beispiele: Google App Engine, Heroku.
  3. Software as a Service (SaaS): Bereitstellung von Softwareanwendungen über das Internet, die von Benutzern über Webbrowser zugänglich sind. Beispiele: Google Workspace, Microsoft Office 365.

Design Thinking

Design Thinking ist eine nutzerzentrierte Methode zur Problemlösung und Innovationsentwicklung, die ursprünglich aus dem Designbereich stammt, mittlerweile aber in vielen Branchen und Disziplinen Anwendung findet. Der Prozess zielt darauf ab, komplexe Probleme kreativ und systematisch zu lösen, indem die Bedürfnisse und Perspektiven der Nutzer in den Mittelpunkt gestellt werden. Die Methode besteht aus mehreren Phasen, die iterativ durchlaufen werden.

Die wichtigsten Phasen des Design Thinking sind:

  1. Verstehen (Empathize): In dieser Phase geht es darum, die Zielgruppe und ihre Bedürfnisse tiefgehend zu verstehen. Dies geschieht durch Beobachtungen, Interviews und das Einfühlen in die Situation der Nutzer. Das Ziel ist es, ein umfassendes Verständnis für die Herausforderungen und Probleme der Nutzer zu erlangen.
  2. Definieren (Define): Hier werden die gewonnenen Erkenntnisse genutzt, um das Kernproblem klar zu definieren. Dies geschieht durch die Formulierung von Problemstellungen und die Identifizierung relevanter Themen und Bedürfnisse. Eine präzise Problemdefinition ist entscheidend, um zielgerichtete Lösungen entwickeln zu können.
  3. Ideen entwickeln (Ideate): In dieser kreativen Phase werden so viele Ideen und Lösungen wie möglich für das definierte Problem generiert. Techniken wie Brainstorming, Mindmapping oder Brainwriting können eingesetzt werden, um innovative und vielfältige Lösungsansätze zu finden. Wichtig ist, dass alle Ideen zunächst ohne Bewertung gesammelt werden.
  4. Prototyping (Prototype): Aus den gesammelten Ideen werden konkrete Prototypen entwickelt. Ein Prototyp kann ein einfaches Modell, ein Mock-up oder ein funktionaler Prototyp sein, der die wichtigsten Merkmale der Lösung veranschaulicht. Ziel ist es, die Ideen schnell und kostengünstig zu visualisieren und greifbar zu machen.
  5. Testen (Test): In dieser Phase werden die Prototypen mit realen Nutzern getestet, um Feedback zu erhalten und zu lernen, wie die Lösung in der Praxis funktioniert. Auf der Grundlage dieses Feedbacks werden die Prototypen iterativ verbessert und angepasst. Diese Phase kann mehrmals durchlaufen werden, bis eine zufriedenstellende Lösung gefunden ist.

Design Thinking zeichnet sich durch seinen iterativen Charakter und den ständigen Austausch mit den Nutzern aus. Der Prozess ermutigt dazu, früh und oft zu scheitern, um schnell zu lernen und die beste Lösung zu entwickeln. Durch die Fokussierung auf die Bedürfnisse der Nutzer und die Zusammenarbeit in interdisziplinären Teams können innovative und effektive Lösungen entstehen, die sowohl funktional als auch benutzerfreundlich sind.

Roboter serviert Kaffee

Robotics Process Automation

Robotic Process Automation (RPA) ist eine Technologie zur Automatisierung von Geschäftsprozessen durch den Einsatz von Software-Robotern oder „Bots“. Diese Bots sind in der Lage, menschliche Interaktionen mit digitalen Systemen nachzuahmen und Routineaufgaben zu übernehmen, die normalerweise manuell ausgeführt werden.

Wie funktionieren RPAs?

RPA-Bots können Daten eingeben, Informationen auslesen, Berechnungen durchführen, auf Anwendungen zugreifen und Transaktionen verarbeiten. Sie nutzen Benutzeroberflächen genau wie Menschen, ohne die zugrunde liegenden Systeme zu verändern.

Was sind die Bestandteile von RPAs?

  • Bots: Dies sind die eigentlichen Software-Roboter, die Aufgaben ausführen. Sie können entweder programmierte Skripte ausführen oder durch maschinelles Lernen verbessert werden.
  • Entwicklungsumgebung: Hier werden die Automatisierungen entwickelt und getestet. Tools wie UiPath, Automation Anywhere und Blue Prism bieten benutzerfreundliche Schnittstellen für die Erstellung von Bots.
  • Orchestrierung: Plattformen zur Verwaltung und Überwachung von Bots, um sicherzustellen, dass sie effizient arbeiten und Probleme schnell behoben werden.

Anwendungsbereiche:

  • Finanzen und Buchhaltung: Automatisierung von Aufgaben wie Rechnungsstellung, Buchführung und Compliance-Prüfungen.
  • Kundendienst: Bots können Anfragen bearbeiten, Informationen bereitstellen und einfache Kundenprobleme lösen.
  • Personalwesen: Automatisierung von Prozessen wie Onboarding neuer Mitarbeiter, Verwaltung von Gehaltsabrechnungen und Urlaubsanträgen.
  • Logistik und Beschaffung: Optimierung der Bestellprozesse, Lagerverwaltung und Lieferkettenoperationen.

Zukunft von RPAs

Die Kombination von RPA mit KI-Technologien wird die Fähigkeiten von Bots erweitern, um komplexere Aufgaben auszuführen und Entscheidungen zu treffen. Hyperautomation ist ein Trend, bei dem RPA mit anderen Technologien wie Process Mining und maschinellem Lernen kombiniert wird, um eine End-to-End Automatisierung zu erreichen.

Zusammenfassend lässt sich sagen, dass RPA eine leistungsstarke Technologie zur Automatisierung von Geschäftsprozessen ist, die Unternehmen dabei helfen kann, effizienter zu arbeiten und Kosten einzusparen. Durch die Nachahmung menschlicher Interaktionen mit digitalen Systemen können Bots eine Vielzahl von Aufgaben übernehmen, sodass sich die Mitarbeiter auf strategische Aufgaben konzentrieren können.

Prompt Engineering

Prompt Engineering ist der Prozess der Erstellung sorgfältig formulierter Eingabeaufforderungen (Prompts), um die Ausgabe von Sprachmodellen wie GPT-4 zu optimieren. Es geht darum, die Eingaben so zu gestalten, dass sie die gewünschte Reaktion des Modells hervorrufen. Dies erfordert ein gutes Verständnis der Funktionsweise von Sprachmodellen und ihrer Verhaltensweisen.

Gutes Prompt Engineering kann die Effizienz und Effektivität von KI-Modellen erheblich steigern, indem es die Wahrscheinlichkeit erhöht, dass die Ausgabe den Erwartungen und Anforderungen der Nutzer entspricht.

Hinter vielen „innovativen“ KI-Lösungen verbirgt sich meist ein gutes Prompt Engineering.

Smart Contracts

Ein Smart Contract ist ein selbstausführender Vertrag, bei dem die Vertragsbedingungen direkt in Code geschrieben werden. Dieser Code und die darin enthaltenen Vereinbarungen existieren in einer Blockchain, einem dezentralen und verteilten Ledger. Smart Contracts ermöglichen die automatische Ausführung und Verifizierung von Transaktionen und Vereinbarungen, ohne dass eine zentrale Autorität oder ein Intermediär erforderlich ist.

Smart Contracts bieten ein enormes Potenzial für die Transformation vieler Branchen durch die Einführung von Automatisierung, Sicherheit und Transparenz. Ihre breite Akzeptanz hängt jedoch von der weiteren technischen Entwicklung und der Anpassung der rechtlichen Rahmenbedingungen ab.