Entscheidungen: Mensch + Maschine

Wo können Algorithmen uns zur Hand gehen und welche Probleme können auftreten? Diese Frage wird in diesem Artikel diskutiert.
Zunächst wird darauf eingegangen, um welche Bereiche es dabei gehen soll und welche Kriterien dafür erfüllt sein müssen, weiterhin geht es um die Potenziale von Algorithmen bei Entscheidungs-findung sowie menschliche Probleme bei Entscheidungsfindung. Anschließend werden Probleme und Grenzen von Algorithmen im Vergleich zu Menschen diskutiert. Abschließend kommen Vorschläge zur Mensch-Maschine-Kooperation.

Um welche Bereiche geht es?

Wenn Entscheidungen auf Grund von zufallsverteilten Daten gefällt werden sollen, können Algorithmen (in Form von Machine Learning) eine große Hilfe sein. Am besten funktioniert das, wenn es klare Erfolgskriterien gibt. Ein gutes Beispiel ist das Finden einer medizinischen Diagnose. Auf Grund von Daten aus der Vergangenheit mit Patientendaten (Symptome, Alter, Vorerkrankungen, …) und zugehörigen Diagnosen, kann einem Programm beigebracht werden mögliche Diagnosen für einen konkreten Fall mit zugehörigen Wahrscheinlichkeiten auszugeben. Dies könnte einem Arzt direkt eine Palette von Entscheidungsmöglichkeiten geben. Ein anderes Beispiel wären Investmententscheidungen am Finanzmarkt auf Grund von statistischen Analysedaten. Viele Gebiete bieten Möglichkeiten für maschinelle Unterstützung.

Was können Algorithmen besser?

Zunächst einmal gibt es viele gute Beispiele, wie Menschen fehlerhafte Intuitionen bezüglich Statistik haben. Statistik ist oft kontraintuitiv und verführt schnell zu Trugschlüssen. Maschinen benötigen allerdings keine Intuition für das Einordnen von Informationen. Es werden lediglich trocken Korrelationen erkannt und verarbeitet. Insgesamt sind Algorithmen emotionslos und im wahrsten Sinne des Wortes berechenbar. Menschen sind allerdings leicht beeinflusst von äußeren Faktoren. Ein Beispiel dafür sind die Resultate von Shai Danziger, Jonathan Levav, and Liora Avnaim-Pesso in dem Artikel „Extraneous factors in judicial decisions“ (PNAS April 26, 2011 108 (17) 6889-6892 ), die zeigen, dass die Entscheidungen von Bewährungsrichtern stark davon abhängen, wann sie das letzte Mal etwas gegessen haben. Diese Art der Subjektivität lässt sich mit Algorithmen reduzieren. Selbst, wenn ein Algorithmus bestimmte Fehlentscheidungen häufig trifft, lässt sich das unter Umständen mit einem Patch beheben, während beispielsweise Fehldiagnosen durch Ärzte nicht direkt behoben werden können sondern lange systemische Veränderungen benötigen.
Ein weiterer großer Vorteil ist auch potenziell die schnelle Verfügbarkeit von automatisierten Analysen. In Gebieten, wo ein Arzt unter Umständen schwer zu finden ist, könnte eine Ferndiagnose via Algorithmus wichtige Zeit sparen und Leben retten.

Wo hat der Mensch die Nase vorn?

Der Vorteil bei menschlichen Entscheidungen ist genau, dass er nicht nur auf Grund von Zahlen entscheidet. Oft gehören zu einer Entscheidung viele Fakten, die sich nur schwer in Zahlen ausdrücken lassen. Maschinen haben allerdings Schwierigkeiten mit Dingen, die sich nicht quantifizieren lassen. Dafür ist die Intuition des Menschen ein wichtiger Faktor. Auch ist der Mensch in Gebieten mit wenig oder nur mit unzuverlässigen Daten entschieden im Vorteil; zumindest aktuell sind Menschen besser darin mit wenig Informationen Entscheidungen zu treffen. 
Aber gerade bei kritischen Entscheidungen, die Auswirkungen auf Leben oder Tod haben, wollen wir lieber Menschen als Entscheider sehen. Verliert beispielsweise ein Kind auf Grund einer Entscheidung das Leben, ist es uns doch lieber, wenn ein Mensch diese getroffen hat. In solchen Situationen kann bei Deep Learning das Problem auftreten, dass die zugrundeliegenden mathematischen Modelle so kompliziert sind, dass ein Mensch die Entscheidung nicht mehr nachvollziehen kann. Das wäre für Verbliebene eine große emotionale Last. 
Abgesehen von Extremfällen ist mangelnde Nachvollziehbarkeit ein Problem bei Deep Learning. Ein Mensch kann seine Entscheidungen erklären, bei einer Maschine ist das aber nicht so ohne weiteres möglich. Außerdem ist die Frage der Verantwortung für Fehlentscheidungen bei Algorithmen sehr schwer zu klären. Bei einem behandelnden Arzt ist dies unmittelbar klar, bei künstlicher Intelligenz hingegen ist das schwer zu klären.

Fazit

Es gibt viele Argumente, die für Algorithmen wie für Menschen sprechen. Modelle, die den Menschen als Entscheidungsträger mit Hilfe von Empfehlungen durch Algorithmen treffen, sind eine Möglichkeit, von Beiden zu profitieren. Wenn die Empfehlungen durch Algorithmen auch noch mit einem Zuverlässigkeitswert ausgestattet sind, könnten diese auch leichter in Entscheidungen miteinbezogen werden. Entscheidet sich der Mensch wider die Empfehlung, könnte er verpflichtet sein ab einem gewissen Zuverlässigkeitswert, Rechenschaft für seine Entscheidung ablegen zu müssen.
Die Frage die wir uns stellen sollten ist nicht nur, was in Zukunft möglich ist, sondern in was für einer Zukunft wir leben wollen.

About Author: Samuel Willingham, broker2clouds

Bildnachweise für diesen Beitrag:
© cookelma – elements.envato.com
© seventyfourimages – elements.envato.com
© AboutImages – elements.envato.com

Out of order but it works?

In der letzten Zeit mussten viele ungewohnte Anpassungen gemacht werden. Homeoffice hat einen noch nicht dagewesenen Stellenwert und Kooperation über das Internet musste her. Viele Prozesse wurden neu gedacht und umgesetzt. Hier waren schnelle Lösungen mit guter Funktionalität wichtig. Verschiedenste Kollaborationstools wurden heruntergeladen, eingerichtet und verwendet. Dabei war oft keine Zeit, um die Orchestrierung bis aufs Kleinste auszuarbeiten.

Nachdem eine solche Herausforderung gemeistert wurde, ist es an der Zeit zu reflektieren. Schnelle neue Lösungen, die nicht in eine IT-Strategie eingebettet sind, haben immer das Potenzial unnötigen Arbeitsaufwand aufzuwerfen, da hier selten für Einheitlichkeit gesorgt ist. Wildwuchs in der IT (https://www.gebhardt-ag.de/fruehjahrszeit-wildwuchs-im-anwendungsgarten-warum-anwendungskonsolidierung-so-wichtig-ist/ ) ist ein Problem, das anfangs nicht immer gleich als solches erkennbar ist, sondern Stück für Stück wächst bis Produktivität und Übersichtlichkeit merklich leiden. Es ist wichtig dafür zu sorgen, dass eine einheitliche Orchestrierung eingehalten wird damit Arbeitsabläufe im Laufe der Zeit nicht immer träger und fehleranfälliger werden. 

Jetzt ist der richtige Zeitpunkt, um zu überlegen ob die Handlungen der IT in den letzten Wochen angemessen waren und das Unternehmen auf Unerwartetes vorbereitet war. Die Zukunft bringt immer Unbekanntes mit sich und es ist wichtig, auf Unvorhergesehenes reagieren zu können.

Die Corona-Krise wird vermutlich nachhaltige Veränderungen für den (Arbeits-)Alltag hinterlassen. Auch weil gerade über einen gesetzlichen Anspruch auf Homeoffice diskutiert wird, ist es wichtig, dass die Prozesse sauber laufen und das Problem Schatten-IT (https://www.gebhardt-ag.de/es-werde-licht-it/ ) deswegen nicht unnötig wächst. Wer die eigenen Vorgehensweisen hinterfragt und verbessert, sorgt dafür, dass optimal auf Veränderungen reagiert werden kann.

Denkanstöße

  • Gibt es Übergangslösungen, die abgelöst oder vereinheitlicht werden sollten? 
  • Gibt es verschiedene Anwendungen für denselben Zweck?
  • Gibt es eine einheitliche Governance um klare und übersichtliche Strukturen durchzusetzen?
  • Wie ist das Feedback der Mitarbeiter? 
  • War das Krisenmanagement angemessen und effektiv? 
  • Was sollte im Falle zukünftiger Veränderungen/Krisen/Chancen anders gemacht werden? 
  • Gab es besondere strukturelle Herausforderungen? 

Bildnachweise für diesen Beitrag:
© nd3000 – elements.envato.com
© halfpoint – elements.envato.com

Bereits in der Krise die richtigen Weichen stellen – Digitalisierung, Kostenreduktion und Krisenmanagement (Teil 2)

Erfolgreiche Unternehmen sollten jetzt 3 Bereiche besonders unter die Lupe nehmen

In Teil 1 haben wir über die Vorbereitungen auf dem Weg aus der Corona Krise geschrieben, hier u.a.  über Handlungschancen oder z.B. über einen Digitalisierungsschub nach der Krise. In Teil 2 erhalten Sie einen Überblick über die zu untersuchenden Bereiche, mit dem Ziel u.a. Ihre Kosten zu optimieren, über eine krisenfeste und nachhaltige Digitalisierungs- und Sourcing Strategie… 

1. Check der IT-Betriebs- und Wartungskosten

Begegnen Sie der Krise bereits jetzt mit einer schonungslosen Analyse Ihrer IT-Betriebskosten und mannigfacher Optimierungspotenziale, z.B. durch

  • Benchmarking Ihrer IT-Systemlandschaft inkl. Marktvergleich der Lizenz- und Wartungsverträgen
  • Benchmarking Ihrer IT-Herstellkosten
  • IT-Vertragsanalyse
  • IT-Systemanalyse im Hinblick auf Konsolidierungs- und Optimierungspotential in Entwicklung und Betrieb
  • Überprüfung Sale & Lease-back Modelle

Gerne unterstützen wir Sie aktiv dabei mit unserem vielfach-marktbewährten Toolkit, z.B. mittels der GEBHARDT Benchmarkdatenbank mit über 30.000 Referenzwerten an IT-Kosten / -Preisen. Kein Datum innerhalb dieser Benchmarkdatenbank ist dabei älter als 9 Monate.

Profitieren Sie also von unserer umfangreichen Marktkenntnis und überprüfen Sie Kostensenkungs-potential durch aktives Nachverhandeln oder Neuvergabe von IT-Verträgen.

Daneben ermitteln wir mit Ihnen gemeinsam (remote!) auf Basis der GEBHARDT Framework-Rating MethodeR kurzfristig und transparent die wesentlichen Kenngrößen Ihrer Systemlandschaft: Kritikalität der Prozessunterstützung, Wiederherstellungsbedarf, Betriebskosten und Absicherung Ihrer Plattformen. Hieraus lässt sich Optimierungsbedarf schnell und transparent ableiten.

Mögliche Optimierungsmaßnahmen sind dabei:

  • Kostensenkung durch Anpassung von Verfügbarkeit und Service Level
  • Kostensenkung durch Bereinigung redundanter Systemlandschaften
  • Umstieg auf kostengünstige Standardplattformen
  • Verlagerung von einfachen und nicht-wertschöpfenden IT-Betriebsleistungen
  • Optimierung von Lizenzbeständen 

2. Digitalisierungs-Strategie

Haben Sie eine Digitalisierungsstrategie? Daraus abgeleitet eine IT-Sourcing / Cloud Strategie? Sind Sie sicher, dass die bei der Ausarbeitung dieser Strategie geltenden Einflussfaktoren in- und nach der Krise so, wie seinerzeit formuliert noch Bestand haben?

Nutzen Sie die Zeit des „Shutdowns“ für eine Überprüfung und ggf. Anpassung dieser Strategie und entsprechender Projekte. Überprüfen Sie bestehende Projekte / Programme auf den Wertbeitrag für Ihr Unternehmen und fokussieren Sie die Aktivitäten Ihrer IT-Projekte auf Projekte mit einem unmittelbaren Wertbeitrag für Ihr Unternehmen und eliminieren Sie Engpässe in Ihrer IT-Infrastruktur.

  • Entwicklung Digitalisierungsstrategie auf Basis sich verändernder Umwelteinflüsse und strategischer Unternehmensziele
  • Welche konkreten Projekte im Bereich Digitalisierung von Prozessen / Prozessautomation erwirtschaften einen hohen ROI bzw. verschaffen einen nachhaltigen Wettbewerbsvorteil?
  • Für welche Funktions- und IT-Bereiche nutze ich welche Cloud?
  • Direktnutzung von Hyperscaler-Services im Mittelstand? Welche Chancen und Risiken birgt das für mein Unternehmen und welche Alternativen und Partner eignen sich für welche Services?
  • Einbettung moderner O365/WIN10 Endnutzer & Kollaborations-IT Produkte und Prozesse in den laufenden IT-Betrieb
  • Ableitung einer SAP/ERP-Transformationsstrategie für Ihr Unternehmen
  • Aufsetzen erfolgreicher IT-ERP-/Non-ERP Transformationsprojekte

Formulieren Sie gemeinsam mit uns und der langjährigen Unternehmenspraxis aus 15 Jahren Beratung für den deutschen Mittelstand eine krisenfeste und nachhaltige Digitalisierungs- und Sourcing Strategie und definieren Sie konkrete IT-Umsetzungsprojekte, die für Ihr Unternehmen einen kurzfristigen hohen ROI erwirtschaften und dabei dennoch nachhaltig wirken – bevor es andere tun.

3. Krisenmanagement

Hat Ihr Krisenmanagement bei Covid-19 funktioniert? Dabei war und ist diese Krise und dem amtlich verordneten „Shutdown“ in ihrer Bewältigung bislang weitgehend digital – ein weitgehendes Herunterfahren von Produktion und Management auf ein Minimum.

Andere Krisen und neue Herausforderungen werden kommen, starten Sie mit uns mit der Durchführung oder Aktualisierung einer Business-Impact Analyse nach etablierten Methoden und Standards und entwickeln dabei konkret und ad hoc umsetzbare Krisenpläne inkl. einer zeitgemäßen Toolunterstützung für Alarmierung und Krisenmanagement.

Schnelles und effektives Krisenmanagement und die Vorbereitung darauf ist eine Kernaufgabe im Hinblick auf zukünftige disruptive Ereignisse.

Wir als GEBHARDT begleiten Sie als Unternehmen vertrauensvoll – auch durch diese Krise. Aus unserer Sicht ist es wesentlich, jetzt zu handeln – ein Abwarten verbessert weder Ihre Kosten- noch Wettbewerbsposition.

Übrigens:
Gerne besprechen wir mit Ihnen mögliche Kostenoptimierungsprojekte auf einer pro-rata Basis – wir  scheuen uns nicht, Verantwortung für ein erfolgreiches Kostenmanagement zu übernehmen. 

Sprechen Sie uns an.

Bildnachweise für diesen Beitrag:© Pressmaster – elements.envato.com
82726246 © Gina Sanders – stock.adobe.com
64439754 © everythingpossible – stock.adobe.com
© BrianAJackson – elements.envato.com

Bereits in der Krise die richtigen Weichen stellen – Digitalisierung, Kostenreduktion und Krisenmanagement (Teil 1)

Vorbereitungen auf dem Weg aus der Corona Krise

Die Stimmung in den Führungsetagen von Unternehmen weltweit hat sich mit der Corona-Krise stark eingetrübt, entsprechende wöchentliche Umfragen globaler Industriemanager zeigen das überdeutlich[1]. Das gilt für den deutschen Mittelstand analog zu global agierenden Konzernen, jedoch sind hier die zusätzlich knappen Liquiditätsreserven in mittelständischen Unternehmen ein erhebliches zusätzliches Problem. Mit einer raschen Rückkehr zum Normalzustand ist nicht zu rechnen, eine kurzfristige Lockerung der Kontaktsperren und eine schrittweise Aufhebung der Beeinträchtigungen auf der Produktions- wie auf der Absatzseite deuten sich nicht wirklich an.Und doch gibt es eine Reihe von Maßnahmen und Initiativen, die insbesondere mittelständische Unternehmen jetzt bereits forcieren sollten, um die Zeit während des sog. „Shutdowns“ zu nutzen.

[1] DPA-AFX, 07.04.2020

Digitalisierungsschub nach der Krise

Wenn die Krise speziell in Deutschland eines offenbart hat, dann das: Deutschland hinkt in digitalen Bereichen um Längen hinterher. Schon in den ersten Tagen der Beeinträchtigungen brachen Unternehmens-Netzwerke unter dem Ansturm der ungewohnten Home-Office Nutzer zusammen oder Mitarbeiter hatten schlichtweg überhaupt keinen Zugang zu einer Home-Office-fähigen Arbeitsplatz Infrastruktur samt zugehöriger Kollaborations-Tools und Supportprozessen. Daneben ist das verteilte Arbeiten in „nicht-kontrollierter“ Arbeitsumgebung nicht nur für Mitarbeiter ungewohnt, sondern in noch höherem Maße war und ist das Management überwiegend gar nicht darauf vorbereitet.

Unternehmen behelfen sich kurzfristig so gut es eben geht, z.T. mit einschlägiger Freeware um der Softwarethematik zu begegnen, mittels Nutzung privater Arbeitsplatz- und Telefon-Infrastruktur der Mitarbeiter und sonstiger ad-hoc Maßnahmen, um überhaupt beschränkt handlungsfähig zu bleiben. Zeitweise waren auch Dienste der globalen Hyperscaler wie Microsoft dem Ansturm nicht gewachsen, das Internet bzw. datenintensive Streamingdienste wie Netflix mussten zugunsten prioritären Datenströmen gedrosselt werden. IT-Infrastruktur am Limit!

Nicht nur unter IT-Sicherheitsaspekten muss man dies als „abenteuerlich“ bezeichnen. Auch im Falle eines mit Sicherheit nur schrittweise vollzogenen, kommenden Wiederanlaufens der Wirtschaft (derzeitiges Beispiel Österreich), werden Unternehmen aufgrund der geschilderten Arbeitsweise massive Zeit- und Effizienzverluste verzeichnen, die gesamte Volkswirtschaft wird aufgrund fehlender Digitalisierung und IT-Infrastruktur einen finanziellen Schaden, der nicht beziffert werden kann erfahren.

Es zeigt sich, dass der überwiegende Teil der Unternehmen aber auch öffentliche Institutionen wie Schulen, Behörden und die gesamte Verwaltung nur bedingt auf eine solche exogene Krise vorbereitet ist – allen bekannten Initiativen wie z.B. Unternehmens-Risiko- und Business Continuity Programmen zum Trotz, die in den vergangenen Boomjahren nur allzu oft halbherzig oder – im Bereich realistischer Krisenplanung – mutmaßlich gar nicht durchgeführt wurden.

Es ist davon auszugehen, dass mit der Überwindung der psychologischen und materiellen „Schockstarre“ der Corona-Krise eine drastische Bewusstseinsänderung sämtlicher öffentlicher und privater Institutionen stattfindet – welche zu ebenso drastischen Verhaltensänderungen – und mit Blick auf IT- und Infrastrukturen zu einem massiven Anstieg der Digitalisierungsbemühungen führen wird. 

Hier ist nun im Vorteil, wer Handlungschancen bereits jetzt erkennt und angeht, bevor ungeprüfte IT-Kosten das Unternehmen zusätzlich zur Krisenbewältigung belasten und der Verteilungskampf um knappe Ressourcen zur Behebung von Engpässen – innerhalb der Unternehmens-IT sowie im Bereich innovativer und kostensenkender Digitalisierungsprojekte – beginnt.

Bereits jetzt werden die Weichen für den Wiederanlauf gestellt, die Analysen gefahren und die Programme geschnürt, die mit dem Wiederanlauf bereits in die Realisierungsphase gehen müssen, um mit vorne dabei zu sein.

Erfahren Sie in Kürze – in Teil 2 dieses Beitrags – welche Bereiche erfolgreiche Unternehmen besonders unter die Lupe nehmen sollten.

Bildnachweise für diesen Beitrag:
© Alex_star – elements.envato.com
© gpointstudio – elements.envato.com
© BrianAJackson – elements.envato.com

Hilfe durch KI? Pandemien und Epidemien

Wie kann künstliche Intelligenz dabei helfen mit Pandemien und Epidemien umzugehen und welche Gefahren gibt es dabei?

Grundsätzlich geht es bei maschinellem Lernen (ML) und KI darum, aus bestehenden Daten Verallgemeinerungen zu finden.  Ein gutes Beispiel dafür wäre ein Diagnoseprogramm, das aus Symptomen als Input, die Wahrscheinlichkeit einer bestehenden Infektion erwägt. Dafür müsste das Programm zunächst mit bestehenden Patientendaten trainiert (kalibriert) werden, um gute Diagnosen stellen zu können. Dies ließe sich praktisch auch als Chatbot umsetzen, um für besorgte Menschen eine Empfehlung aussprechen zu können ob ein Arztbesuch sinnvoll wäre. 

Ein weiterer Anwendungsfall wäre, ein globales Bild von Ausbreitungsprognosen und Risikofaktoren zu erstellen, und zwar mit Hilfe aktueller Ausbreitungsdaten und mit Informationen vorheriger Pandemien/Epidemien. Maschinelles Lernen sieht bei solchen Vorgehensweisen häufig Zusammenhänge wo Menschen keine sehen. Aufgrund dieser Informationen können Menschen dann ermitteln, welche Ergebnisse tatsächlich hilfreich sind und neue Maßnahmen einleiten.

Allerdings ist es wichtig dabei nicht zu vergessen, dass ML immer nur statistische Analysen durchführt und die Gefahr diskriminierender Strukturen beherbergt. Vor Allem wenn bestimmte Bevölkerungsgruppen schwerer oder häufiger erkranken. Dann könnte KI beispielsweise Ausgangssperren für gewisse Bevölkerungsgruppen nahelegen. Diese Ergebnisse sollten immer mit Vorsicht genossen werden.

Allein die Datenerfassung wirft Fragen der Privatsphäre auf. Auch wenn Pandemien wohl in Zukunft häufiger werden, ist es wichtig, die Autonomie und Privatsphäre der Person nicht aus den Augen zu verlieren. Gerade, wenn ML viele Chancen für Prävention und Bekämpfung von Pandemien bietet. Hier gilt es, die Gratwanderung mit gesundem Menschenverstand zu navigieren.

Hype und Fortschritt

Hype und Fortschritt

Fortschritt und Hype gehen Hand in Hand. Jedoch ist der Medienrummel um neue Technologien nicht immer im Verhältnis zum Nutzen der Technologien selbst.

Hypewörter wie Blockchain, Kryptowährungen, Cloud etc. schaffen schnell ein verzerrtes Bild der Wirklichkeit. Dies macht es schwer herauszufinden, welche Technologien für einen selbst relevant und nützlich sind.

Zunächst einmal sind Hypethemen nicht immer etwas ganz Neues. Cloud haben wir schon lange benutzt (Web-Services) bevor das Wort „Cloud“ selbst zur Mode wurde.

Auf der anderen Seite sind neue Technologien natürlich eine Chance, dem eigenen Unternehmen einen Vorsprung zu verschaffen. Sei dies in puncto Innovation, Wissen oder frühzeitiger Kundenbindung. Gerade hier gilt es Hypethemen zu betrachten und den tatsächlichen Nutzen zu ermitteln.
Bei der Blockchain war beispielsweise die Integrität der Daten ohne Notwendigkeit für Vertrauen im Netzwerk ein wichtiger Punkt. Allerdings ist beim Eintragen von Informationen wieder Vertrauen notwendig. Egal, wie integer und konsistent die Daten sind – wenn die Daten von vornherein falsch sind nützt das nichts. Hier verlagert die Lösung das Problem für viele nur an eine andere Stelle. (Das soll nicht bedeuten, dass Blockchain keine sinnvollen Anwendungen hat).

Modernisierung um der Modernisierung willen ist nicht der beste Weg. Hinter jeder Erneuerung sollten Grund und Nutzen stehen.

Nüchternes analysieren und kritisches Denken sind der Schlüssel.

Backup: Wie geht’s richtig

Backup: Wie geht’s richtig

Quasi jedes Unternehmen macht regelmäßig Backups der eigenen Daten. Die Frage ist, worauf muss man achten und habe ich die richtige Backup-Strategie?

Was ist die 3 2 1 Regel?

Die Zahlen stehen für mindestens 3 Kopien 2 verschiedene Speichermedien und 1 Kopie an einem anderen Standort. Bei den beiden verschiedenen Speichermedien geht es darum dafür zu sorgen, dass im Notfall durch die Kopien des Backups – auf verschiedene Speichermedien – auch verschiedene IT-Ausfallrisiken abgesichert werden. Sollte das eigene Unternehmen von einem Brand oder ähnlichen desaströsen Notfällen betroffen sein, so ist eine Kopie an einem anderen Ort der Garant für die Wiederherstellung der Daten.

Datensicherung und Versionierung

Neben der Strategie Vollsicherung, inkrementelle und differenzielle Datensicherung, müssen immer auch mehrere Versionen der Daten aufbewahrt werden. Dadurch können die Datenbestände zu einem gewünschten Zeitpunkt wieder verfügbar gemacht werden. Dies ist z.B. bei einem Virenbefall besonders wichtig, um eine virenfreie Version wiederherstellen zu können. Des Weiteren wird durch die Versionierung gewährleistet, dass Daten oder Systeme, die durch menschliche Fehler ungewollt gelöscht oder verändert wurden wiederhergestellt werden können.

Wiederherstellung

Neben den Backup-Redundanzen und der Versionierung ist es sehr wichtig, die Wiederherstellung und das Recovery zu üben, im Unternehmen abzustimmen und zu testen. Im Ernstfall sollten der Wiederanlauf und die unterschiedlichen Wiederherstellungs-Szenarien beschrieben und erprobt sein. Es kommt häufiger vor, dass sich die Backups im Ernstfall als nahezu nutzlos herausstellen, weil nie überprüft wurde ob auch die Wiederherstellung richtig funktioniert. Ferner fehlt es häufig an abgestimmten Abläufen, Verantwortlichkeiten und Prozessen im Unternehmen. (Notfallhandbuch)

Wiederherstellungslevels / Ausfallzeiten

Bei den Daten ist es auch wichtig zu erheben, welches Schadenspotential bei einer Nichtverfügbarkeit der Daten oder Systemen im Unternehmen entstehen. Hohe Verfügbarkeit und damit einhergehend schnelle Wiederherstellung, sind mit höheren Kosten verbunden. Diese Anforderungen sind elementar für die Backuptechnologie und die Backupstrategie.
Backup as a Service

Cloud-Services können Unternehmen unterstützen, die notwendige Backup-Strategie kostengünstig umzusetzen und einige der Prämissen automatisiert vornehmen. Die 3-2-1 Regel ist dabei meistens ohnehin gewährleistet. Es gibt verschiedene Backupmodelle und diese lassen sich in der Regel je nach Bedarf anpassen und ergänzen.

Unabhängigkeit durch Standard Software as a Service

Unabhängigkeit durch Standard Software as a Service

Erfahrungsgemäß leben viele Kleinunternehmen in starker Abhängigkeit von internen oder externen IT-Dienstleistern, wenn Sie individual Software entwickelt haben und diese Lösungen intern betreiben.

Die Software muss, hinsichtlich Compliance, ggf. Gesetzgebung sowie Security- und Datenschutz-Aspekten stets weiterentwickelt werden. Diese Abhängigkeit von einzelnen Personen kann sehr schnell – nicht nur für die Kosten – zu einem hohen Risiko werden.
Die Software ist meistens nicht gut dokumentiert und der Knowhow Aufbau intern oder der Wechsel zu einem anderen IT-Dienstleister ist häufig schwierig und mit hohen Kosten verbunden.

Vorteile bietet hier Standardsoftware oder auch Software as a Service (SaaS) aus der Cloud. Mittlerweile gibt es für sämtliche Abläufe eines Unternehmens eine hohe Auswahl von Anbietern. Die Lösungen erlauben kurze Implementierungszeiten, reduzieren die Komplexität, entbinden die Unternehmen von Aufwänden für die Pflege und den Betrieb der eingesetzten Software. Die Lösungen basieren häufig auf einem verbrauchsorientierten Abrechnungsmodell (pay as you use) und machen dadurch die Kosten berechenbar und skalierbar.

Jedoch müssen auch bei der Auswahl einer solchen SaaS-Lösung einige Dinge beachtet werden. Die Bewertung des Anbieters hinsichtlich Seriosität und Verlässlichkeit sowie eine umfassende vertragliche Regelung aller Aspekte der Leistungsbereitstellung, Inhalte und Services müssen sorgfältig durchgeführt werden. Auch eine sichere vertragliche Regelung der Datenübernahme bei Projektstart sowie der Datenrückgabe bei Vertragsende ist unablässig.

Grundsätzlich gilt, dass die Vorteile für Kleinunternehmen bei sorgfältiger Evaluierung der Software, im SaaS-Modell gegenüber Eigenbetrieb deutlich überwiegen.

KI oder nicht KI – das ist hier nicht die Frage…

KI oder nicht KI – das ist hier nicht die Frage…

Viele Menschen verstehen unter künstlicher Intelligenz (KI) eine Software, die menschenähnliche Charakteristiken aufweist. Das ist aber lediglich ein (noch weit entfernter) Teil von KI.

Die Arten von KI die eingesetzt werden – sind bisher lediglich Programme – die für ganz bestimmte vorgegebene Szenarien gedacht sind.
Hierbei denke man beispielsweise an einen Schachcomputer. Verlangt man von einem Schachcomputer Mühle zu spielen, wird dieser vermutlich nicht einmal einen Zug ausführen können.

Bisherigen künstlichen Intelligenzen fehlt es an Transferfähigkeit. Dies liegt daran, dass maschinelles Lernen ganz klare Kriterien braucht um zielführend agieren zu können. Aufgrund dieser Kriterien kann ein Programm dann „Fähigkeiten“ entwickeln, die zu gewünschten Resultaten führen. Dazu müssen allerdings die gewünschten Resultate, wie z.B. „gewinne im Schach“ klar definiert werden; setze den gegnerischen König matt oder bringe den Gegner zur Aufgabe. Der Computer muss also wissen, was „erfolgreiches Schachspiel“ auszeichnet. Wenn ich einer Maschine beibringe Schach zu spielen, versteht sie noch nicht einmal was es bedeutet, ein anderes Spiel wie zum Beispiel Mühle zu gewinnen. Wichtig hier ist auch, dass selbst zwei identisch programmierte künstliche Intelligenzen massiv von den eingespielten Daten abhängen.

Man sieht also, dass KI noch lange nicht gleich KI ist.

Hier finden Sie mehr zu KI und maschinellem Lernen!

Achtung! Phishing-Mails wieder vermehrt im Umlauf!

Achtung! Phishing-Mails wieder vermehrt im Umlauf!

Achten Sie bei erhaltenen Mails immer genau auf den Absender. Die angezeigte E-Mail-Adresse kann von der tatsächlichen Absenderadresse abweichen. Was passiert ist, dass der Absender die angezeigte Adresse als „Absender“ also als Name eingetragen hat.

Gleichzeitig ist bei E-Mails immer wichtig: Dateien und Dokumente zu überprüfen. Nur weil etwas aussieht wie ein PDF – heißt das nicht, dass es auch eines ist.

Rechtsklick -> Eigenschaften verrät den tatsächlichen Dateityp.

Wenn also eine Mail von einem bekannten Absender kommt, die nicht erwartet wird sollte der
Absender immer genau überprüft werden