Entscheidungen: Mensch + Maschine

Wo können Algorithmen uns zur Hand gehen und welche Probleme können auftreten? Diese Frage wird in diesem Artikel diskutiert.
Zunächst wird darauf eingegangen, um welche Bereiche es dabei gehen soll und welche Kriterien dafür erfüllt sein müssen, weiterhin geht es um die Potenziale von Algorithmen bei Entscheidungs-findung sowie menschliche Probleme bei Entscheidungsfindung. Anschließend werden Probleme und Grenzen von Algorithmen im Vergleich zu Menschen diskutiert. Abschließend kommen Vorschläge zur Mensch-Maschine-Kooperation.

Um welche Bereiche geht es?

Wenn Entscheidungen auf Grund von zufallsverteilten Daten gefällt werden sollen, können Algorithmen (in Form von Machine Learning) eine große Hilfe sein. Am besten funktioniert das, wenn es klare Erfolgskriterien gibt. Ein gutes Beispiel ist das Finden einer medizinischen Diagnose. Auf Grund von Daten aus der Vergangenheit mit Patientendaten (Symptome, Alter, Vorerkrankungen, …) und zugehörigen Diagnosen, kann einem Programm beigebracht werden mögliche Diagnosen für einen konkreten Fall mit zugehörigen Wahrscheinlichkeiten auszugeben. Dies könnte einem Arzt direkt eine Palette von Entscheidungsmöglichkeiten geben. Ein anderes Beispiel wären Investmententscheidungen am Finanzmarkt auf Grund von statistischen Analysedaten. Viele Gebiete bieten Möglichkeiten für maschinelle Unterstützung.

Was können Algorithmen besser?

Zunächst einmal gibt es viele gute Beispiele, wie Menschen fehlerhafte Intuitionen bezüglich Statistik haben. Statistik ist oft kontraintuitiv und verführt schnell zu Trugschlüssen. Maschinen benötigen allerdings keine Intuition für das Einordnen von Informationen. Es werden lediglich trocken Korrelationen erkannt und verarbeitet. Insgesamt sind Algorithmen emotionslos und im wahrsten Sinne des Wortes berechenbar. Menschen sind allerdings leicht beeinflusst von äußeren Faktoren. Ein Beispiel dafür sind die Resultate von Shai Danziger, Jonathan Levav, and Liora Avnaim-Pesso in dem Artikel „Extraneous factors in judicial decisions“ (PNAS April 26, 2011 108 (17) 6889-6892 ), die zeigen, dass die Entscheidungen von Bewährungsrichtern stark davon abhängen, wann sie das letzte Mal etwas gegessen haben. Diese Art der Subjektivität lässt sich mit Algorithmen reduzieren. Selbst, wenn ein Algorithmus bestimmte Fehlentscheidungen häufig trifft, lässt sich das unter Umständen mit einem Patch beheben, während beispielsweise Fehldiagnosen durch Ärzte nicht direkt behoben werden können sondern lange systemische Veränderungen benötigen.
Ein weiterer großer Vorteil ist auch potenziell die schnelle Verfügbarkeit von automatisierten Analysen. In Gebieten, wo ein Arzt unter Umständen schwer zu finden ist, könnte eine Ferndiagnose via Algorithmus wichtige Zeit sparen und Leben retten.

Wo hat der Mensch die Nase vorn?

Der Vorteil bei menschlichen Entscheidungen ist genau, dass er nicht nur auf Grund von Zahlen entscheidet. Oft gehören zu einer Entscheidung viele Fakten, die sich nur schwer in Zahlen ausdrücken lassen. Maschinen haben allerdings Schwierigkeiten mit Dingen, die sich nicht quantifizieren lassen. Dafür ist die Intuition des Menschen ein wichtiger Faktor. Auch ist der Mensch in Gebieten mit wenig oder nur mit unzuverlässigen Daten entschieden im Vorteil; zumindest aktuell sind Menschen besser darin mit wenig Informationen Entscheidungen zu treffen. 
Aber gerade bei kritischen Entscheidungen, die Auswirkungen auf Leben oder Tod haben, wollen wir lieber Menschen als Entscheider sehen. Verliert beispielsweise ein Kind auf Grund einer Entscheidung das Leben, ist es uns doch lieber, wenn ein Mensch diese getroffen hat. In solchen Situationen kann bei Deep Learning das Problem auftreten, dass die zugrundeliegenden mathematischen Modelle so kompliziert sind, dass ein Mensch die Entscheidung nicht mehr nachvollziehen kann. Das wäre für Verbliebene eine große emotionale Last. 
Abgesehen von Extremfällen ist mangelnde Nachvollziehbarkeit ein Problem bei Deep Learning. Ein Mensch kann seine Entscheidungen erklären, bei einer Maschine ist das aber nicht so ohne weiteres möglich. Außerdem ist die Frage der Verantwortung für Fehlentscheidungen bei Algorithmen sehr schwer zu klären. Bei einem behandelnden Arzt ist dies unmittelbar klar, bei künstlicher Intelligenz hingegen ist das schwer zu klären.

Fazit

Es gibt viele Argumente, die für Algorithmen wie für Menschen sprechen. Modelle, die den Menschen als Entscheidungsträger mit Hilfe von Empfehlungen durch Algorithmen treffen, sind eine Möglichkeit, von Beiden zu profitieren. Wenn die Empfehlungen durch Algorithmen auch noch mit einem Zuverlässigkeitswert ausgestattet sind, könnten diese auch leichter in Entscheidungen miteinbezogen werden. Entscheidet sich der Mensch wider die Empfehlung, könnte er verpflichtet sein ab einem gewissen Zuverlässigkeitswert, Rechenschaft für seine Entscheidung ablegen zu müssen.
Die Frage die wir uns stellen sollten ist nicht nur, was in Zukunft möglich ist, sondern in was für einer Zukunft wir leben wollen.

About Author: Samuel Willingham, broker2clouds

Bildnachweise für diesen Beitrag:
© cookelma – elements.envato.com
© seventyfourimages – elements.envato.com
© AboutImages – elements.envato.com

Out of order but it works?

In der letzten Zeit mussten viele ungewohnte Anpassungen gemacht werden. Homeoffice hat einen noch nicht dagewesenen Stellenwert und Kooperation über das Internet musste her. Viele Prozesse wurden neu gedacht und umgesetzt. Hier waren schnelle Lösungen mit guter Funktionalität wichtig. Verschiedenste Kollaborationstools wurden heruntergeladen, eingerichtet und verwendet. Dabei war oft keine Zeit, um die Orchestrierung bis aufs Kleinste auszuarbeiten.

Nachdem eine solche Herausforderung gemeistert wurde, ist es an der Zeit zu reflektieren. Schnelle neue Lösungen, die nicht in eine IT-Strategie eingebettet sind, haben immer das Potenzial unnötigen Arbeitsaufwand aufzuwerfen, da hier selten für Einheitlichkeit gesorgt ist. Wildwuchs in der IT (https://www.gebhardt-ag.de/fruehjahrszeit-wildwuchs-im-anwendungsgarten-warum-anwendungskonsolidierung-so-wichtig-ist/ ) ist ein Problem, das anfangs nicht immer gleich als solches erkennbar ist, sondern Stück für Stück wächst bis Produktivität und Übersichtlichkeit merklich leiden. Es ist wichtig dafür zu sorgen, dass eine einheitliche Orchestrierung eingehalten wird damit Arbeitsabläufe im Laufe der Zeit nicht immer träger und fehleranfälliger werden. 

Jetzt ist der richtige Zeitpunkt, um zu überlegen ob die Handlungen der IT in den letzten Wochen angemessen waren und das Unternehmen auf Unerwartetes vorbereitet war. Die Zukunft bringt immer Unbekanntes mit sich und es ist wichtig, auf Unvorhergesehenes reagieren zu können.

Die Corona-Krise wird vermutlich nachhaltige Veränderungen für den (Arbeits-)Alltag hinterlassen. Auch weil gerade über einen gesetzlichen Anspruch auf Homeoffice diskutiert wird, ist es wichtig, dass die Prozesse sauber laufen und das Problem Schatten-IT (https://www.gebhardt-ag.de/es-werde-licht-it/ ) deswegen nicht unnötig wächst. Wer die eigenen Vorgehensweisen hinterfragt und verbessert, sorgt dafür, dass optimal auf Veränderungen reagiert werden kann.

Denkanstöße

  • Gibt es Übergangslösungen, die abgelöst oder vereinheitlicht werden sollten? 
  • Gibt es verschiedene Anwendungen für denselben Zweck?
  • Gibt es eine einheitliche Governance um klare und übersichtliche Strukturen durchzusetzen?
  • Wie ist das Feedback der Mitarbeiter? 
  • War das Krisenmanagement angemessen und effektiv? 
  • Was sollte im Falle zukünftiger Veränderungen/Krisen/Chancen anders gemacht werden? 
  • Gab es besondere strukturelle Herausforderungen? 

Bildnachweise für diesen Beitrag:
© nd3000 – elements.envato.com
© halfpoint – elements.envato.com