Müssen für Entscheidungen volatile Daten aus unterschiedlichen Quellen herangezogen werden, sind problemspezifische Data-Science Lösungen wie in Anschnitt 4 erforderlich. Dennoch gibt es Konstellationen, bei denen mit heute verfügbaren Algorithmen digitale Assistenten beim Entscheiden helfen können. In drei Beispielen werden Anwendungsfälle mit unterschiedlichen Assistenzmöglichkeiten skizziert.
3.1 Nutzung von Assistenten in Portalen
Bei Portalen ist die Datendomäne klar definiert und mit Abfragen werden Entscheidungen unter sicherem Wissen getroffen. Damit ist es beispielsweise möglich, in einem Tourismusportal über Sprachassistenten des Smartphones Plätze bei einem Italiener für den Abend reservieren zu lassen. Dazu ist lediglich eine Kombination von bereits heute existierenden Services notwendig. Bei Point of Interest der Plattform muss es sich um POI= "Restaurant" mit Spezifikation = "Italiener" handeln, die sich in der Nähe des Standorts befinden, der über Location-based services (LBS) ermittelt wird. "Siri" kann gegebenenfalls zur gewünschten Distanz nachfragen. Die POIs müssen außerdem zum gewünschten Zeitraum geöffnet haben, was über Time-based services (TBS) für das Portal ermittelt werden kann. Damit werden dem Anwender nur noch POIs vorgeschlagen, die exakt zur Fragestellung passen. Vergleicht man das mit Ergebnissen einer Google-Suche nach "Gaststätten im Vogtland", werden die ungefähr 98.900 Funde durch LBS, TBS und das Metadatum "Italiener" auf eine sinnvolle, beherrschbare Entscheidungsmenge eingeschränkt, sodass nach der Entscheidung "Siri" automatisch Plätze reservieren kann: "Mobile First" wird zu "AI First".
Für diese Funktionalität müssen Anwenderoberfläche und Entscheidungsunterstützung nur konsequent aus Sicht des Anwenders zu Ende gedacht werden. Ähnlich könnte man auch operative Informationen aus traditionellen Softwarelösungen und IT-Systemen mit definierter Struktur abfragen.
3.2 Automatisierte Erstellung von Analysen
Die eigene Software "VisualCockpit" arbeitet mit Analysestrukturen, für die Anwender Analysen erstellen und Grafik- und Tabellenobjekte festlegen kann, die alle interaktiv miteinander verknüpft sind. Die Entscheidung, was von den Daten in welcher Form in einer Analyse gemeinsam dargestellt und betrachtet werden soll, erforderte also die Übersetzung der Fragestellung(en) des Anwenders in die Analyseobjekte mit Daten. So komisch es klingen mag – aber nicht jedem Entscheider fällt es leicht, seine Fragestellungen als Zielgrößen und mögliche Einflussgrößen zu formulieren, um sie dann per Mausklick in Analysen umzusetzen.
Da der Software unmittelbar beim Zugriff auf Daten verfügbare Variablen, Datentypen und damit indirekt auch dafür geeignete Grafiken und Tabellentypen bereits "bekannt" sind, wurde im Rahmen einer Bachelorarbeit 2014 untersucht, ob sich mit Festlegung der Zielgröße Analysen automatisiert mit interaktiv miteinander verknüpften Tabellen und Grafiken generieren lassen, und zwar so, dass durch gewählte Daten und Grafik- und Tabellenobjekte ein maximaler Zuwachs an Information erreicht wird. Als Kriterien und Maße für den Informationsgewinn wurden Information Gain und Entropie verwendet, also Algorithmen, die auch bei Entscheidungsbäumen zur Entscheidungsfindung eingesetzt werden.
Die so generierten Analysen waren vielversprechend. Neben den für Zielgröße und Thema relevanten Tabellen- und Grafikobjekten tauchten in den automatisiert generierten Analysen aber vereinzelt Objekte auf, die vom Algorithmus als "interessant und beachtenswert" bewertet wurden, deren Auswahl vom Anwender oft nicht nachvollziehbar waren.
So wurde bei der Analyse der Ein- und Verkäufe eines Gebrauchtwagenhändlers neben zahlreichen relevanten Analysen (z. B. zur Standzeit in Abhängigkeit vom Typ und Alter des Fahrzeugs) immer wieder der an sich triviale Zusammenhang zwischen Kraftstoffverbrauch und Alter des Fahrzeugs als "interessant und beachtenswert" angezeigt. Die Pointe dabei war, dass mit steigendem Alter der Fahrzeuge der Verbrauch abnahm! Für den Algorithmus war das korrekt – da beim Import aus einem Excel-"Handtuch" bei den meisten alten Autos beim Verbrauch "0" eingetragen war, während bei neueren Autos richtige Angaben verfügbar waren. Der Algorithmus erkannte automatisch diese Inkonsistenz in diesen Daten und zeigte diese daher in einer Grafik als "interessant und beachtenswert" an. D. h., der Automatismus weist neben wirklich relevanten Mustern in den Daten auch auf fehlerhafte, unplausible und inkonsistente Daten hin, vermag aber zwischen "relevant für das Thema" und "vermutlich fehlerbehaftet" nicht zu unterscheiden.
Es ergibt wenig Sinn, einem weniger erfahrenen Anwender die Erstellung von Analysen für seine Daten abzunehmen, wenn er sich vielleicht nicht bewusst ist, dass die zugrunde liegenden Daten keine vernünftige Qualität haben. Mit algorithmischer Assistenz muss daher bereits bei der Datenqualität angesetzt werden – was zwangsläufig Auswirkungen auf die operativen Primärsysteme hat – und dort ein integriertes Stammdatenmanagement nötig wäre.