file1-4

AI, Big Data, Blockchain: Am 10. und 11. April fand in der Station Berlin, in direkter Nachbarschaft des HRpepper-Büros, die diesjährige hub.berlin statt: „Europe’s interactive business festival for digital movers and makers”. 8000 Besucher kamen zu dem Digitalfestival des Branchenverbands Bitkom – darunter auch neugierige Peppers wie Luisa, Sara und Franziska. Sie interessierten sich insbesondere für Artificial Intelligence (AI), eines der Leitthemen der Konferenz. Hier schildern sie ihre Beobachtungen und Learnings.

Franziska: Coding is politics

Besonders beeindruckt hat mich der Vortrag von Jörg Dräger, Vorstand der Bertelsmann Stiftung. Er schilderte, welche Macht Algorithmen schon heute haben. Sie helfen uns zum Beispiel, bessere und fairere Entscheidungen zu treffen, können aber auch bestehende Vorurteile verstärken und soziale Ungleichheit fördern.

Die Zukunft ist heute schon da. Wenn die Polizei zum Beispiel eine Software zur Vorhersage von Verbrechen heranzieht, wird das als „Predictive Policing“ bezeichnet. Auf Basis eines Algorithmus fährt sie präventiv zu Orten, an denen ein Verbrechen wahrscheinlich passiert. So können tatsächlich Straftaten verhindert werden. Gleichzeitig steigt durch die erhöhte Präsenz in bestimmten Stadtteilen auch die Wahrscheinlichkeit, dass die Polizei dort Verbrechen entdeckt. Der Algorithmus verstärkt sich also gewissermaßen selbst.

Auch im Bereich der Personalauswahl werden Algorithmen wichtiger. Wenn ein Algorithmus die Auswahl von BewerberInnen für ein Vorstellungsgespräch übernimmt, wird der Einfluss von Vitamin B dadurch ausgeschaltet. Versuche zeigen aber auch, dass Algorithmen psychische Instabilität schnell identifizieren und dadurch ganze Gruppen von BewerberInnen vom Verfahren ausschließen.

Drägers Fazit und auch meine Einsicht: Coding is politics! Um die Chancen von Algorithmen zu nutzen, brauchen wir Transparenz und Zugang zu Daten, müssen Algorithmen verstehen können (Stichwort algorithmic literacy) und uns mit ethischen Fragen auseinandersetzen.

Luisa: Ethik ist von großer Bedeutung

Mit ethischen Fragen auseinandersetzen – das war auch das Thema des Vortrags von Ralph Kemperdick, Digital Business Architect Data bei Microsoft Deutschland. Hier hat es mich zunächst begeistert, zu sehen, wie es durch AI gelingt, blinden Menschen den Alltag enorm zu erleichtern und aufzuwerten. So ist es durch eine Microsoft-App möglich, dass blinde Menschen ihre Umgebung „sehen“. Über die Kamera wird die Umgebung erfasst und dann über die Sprachausgabe berichtet, was sich in der unmittelbaren Umgebung befindet. Nutzer können so zum Beispiel erfahren, dass vor ihnen eine Katze eine Mauer hochklettert, eine Person gegenüber gerade lächelt und sogar, wie alt diese Person ungefähr ist.

Dieses Positiv-Beispiel für die Anwendung von AI stimmt schnell euphorisch. Ralph Kemperdick wies jedoch im gleichen Atemzug auf die Herausforderungen hin, die mit der Nutzung künstlicher Intelligenz einhergehen. Um zu erreichen, dass AI uns lediglich Gutes bringt, müssten wir ethische Diskussionen führen. Microsoft hat hierzu Ethik-Prinzipien entwickelt, die auf wichtigen und zeitlosen Werten basieren:

  • Fairness – AI systems should treat all people fairly
  • Inclusiveness – AI systems should empower everyone and engage people
  • Reliability & Safety – AI systems should perform reliably and safely
  • Transparency – AI systems should be understandable
  • Privacy & Security – AI systems should be secure and respect privacy
  • Accountability – AI systems should have algorithmic accountability

Es geht also nicht (nur) darum, zu beantworten, was AI tun kann, sondern vor allem, was es tun soll.

Sara: AI wird weiter entwickelt und entwickelt sich selbst weiter

Dass AI immer mehr kann, habe ich bei dem Vortrag von Ruchi Puri, dem CTO von IBM Watson gelernt, in dem er von der strategischen Neuausrichtung der Entwicklung der weltweit bekannten Watson-Algorithmen berichtete: Aktuell wird mit Hochdruck daran gearbeitet, dass Algorithmen der Zukunft nicht mehr auf riesige Datenmengen angewiesen sind, um zu lernen, sondern dass sie auch aus sehr wenigen Daten akkurate Schlüsse ziehen können.

Beispielsweise müssen Algorithmen noch ca. 80 verschiedene Bilder von Katzen analysieren, um im Nachgang echte oder andere auf Bildern dargestellte Katzen erkennen und identifizieren zu können. IBM Watsons Ziel ist es nun, dass Algorithmen weniger Daten bzw. weniger Katzenbilder benötigen, um ihre Schlüsse zu ziehen.

Intelligente Algorithmen sind besonders im Bereich Learning oder Recruiting relevant. So kann z.B. das Lernverhalten von Talenten viel leichter und treffsicherer ausgewertet werden als durch bisher gängige KPIs. Im Recruiting könnte es laut mancher Experten bald möglich sein, zum Beispiel aus nur einem Textstück, möglicherweise einem Motivationsschreiben, mit hoher Treffsicherheit bestimmte Eigenschaften über Bewerberinnen und Bewerber vorherzusagen.

Was mir gut gefallen hat, ist, dass Herr Puri mehrfach betonte, dass mit das Wichtigste an der Entwicklung dieser neuen Algorithmen ist, dass jeder Algorithmus in der Lage sein muss, dem Menschen, der ihn verwendet, zu erklären, wie er zu seinen Schlüssen gekommen ist. Denn ohne diese Funktion könnten Unternehmen nur schwer Entscheidungen rechtfertigen.

Abschließend erwähnte er wie im Nebensatz, dass die Watson-Algorithmen der Zukunft in der Lage sein werden, sich selbst zu bauen, sodass man für viele Anwendungen nicht mehr auf teure Data-Scientists angewiesen sein wird. Das wiederum stimmte mich eher nachdenklich: Werden also beispielsweise Recruiter und Trainer in ferner Zukunft auch irrelevant? Kann AI wirklich so menschlich werden wie wir? Vielleicht erfahren bzw. realisieren wir das erst, wenn es so weit ist.

Der Mensch und AI

Natürlich klingt das alles noch sehr, sehr futuristisch, aber auf der Hub und vor allem im Austausch mit Leuten aus der AI-Szene, merkte man schnell, wie rasant sich die AI-Welt wandelt und wie vieles schon heute möglich ist und erstaunlicherweise verlässlich(er als wir Menschen) funktioniert.

Zu einer doch irgendwie beruhigenden Erkenntnis kam ich schließlich im Panel Human & Machine:  Die besten Entscheidungen werden getroffen, wenn Menschen und AI zusammenarbeiten. Damit wir in Zukunft nicht irrelevant werden, hilft es, sich auf unseren Wertbeitrag als Mensch zu besinnen. Der liegt vor allem im Bereich der kreativen und sozio-emotionalen Fähigkeiten. Diese spielen für uns in der Beratung doch schon jetzt eine zentrale Rolle und sind Teil unseres Beitrags zur Gestaltung der Arbeitswelt, oder?


Übrigens: Am 24.5. diskutieren wir auf unserem Hoffest zu dem Thema: MenschSein in der Digitalisierung

Teilen