Kommentar von Peter Küssner, Ginkgo Analytics Wie gewinnt man Data Scientists im heiß umkämpften Arbeitsmarkt?
Anbieter zum Thema
Welches Unternehmen kennt ihn nicht, den „War for Talents“?! Die Rekrutierung und Bindung gut ausgebildeter, erfahrener Kollegen in einem verschärften globalen Wettbewerb, in dem die Nachfrage das Angebot bei weitem übersteigt? Employer Branding, Personal- und Ausbildungsmarketing werden in diesem Kontext eine immer wichtiger werdende Arbeitgeberaufgabe.

Im Board of Directors Survey 2021 schreibt Gartner, dass knapp 50 Prozent der Vorstände erwarten, dass sich die Digitalisierung beschleunigt und einen Nachholbedarf an technischen Fähigkeiten generiert. Interessant daran ist, dass sich das nicht wie in der Vergangenheit nur auf IT-Abteilungen bezieht, sondern sich auch zunehmend auf alle anderen Geschäftsbereiche ausdehnt. Für den Bereich Data Science/ Data Analytics wurden im Jahr 2020 bereits mehr als doppelt so viele Stellenausschreibungen in den Geschäftsbereichen veröffentlich als in den IT-Abteilungen.
Gibt es in der Konsequenz neben dem globalen also auch einen internen Wettbewerb? Meiner Ansicht nach ist es zwingend erforderlich einen gesamtheitlichen Ansatz zur Gewinnung und Bindung von Data Scientists zu wählen. Hierzu zähle ich drei wesentliche Schritte, die als Analyse und Vorgehensmodell im Unternehmen dokumentiert vorliegen und verankert sein müssen. Nur das versetzt HR in der Lage, das Employer Branding und den Recruitment-Prozess erfolgreich durchzuführen. So wird die Aufmerksamkeit innerhalb der Community gesteigert und das Interesse der potenziellen Kandidaten geweckt.
1. Die eigene Positionsbestimmung
Alles dreht sich um Daten – von daher ist es sinnvoll als erstes die Datenreife Ihres Unternehmens zu definieren, um von dem jeweiligen Status ableitend die richtigen Skills zu erarbeiten und dafür Mitarbeiter und Mitarbeiterinnen zu suchen und einzustellen. Je nach Reifegrad bedarf es unterschiedliches Personal mit unterschiedlicher Ausbildung und Erfahrung. Nachfolgende Anhaltspunkte lassen den Reifegrad beschreiben:
1) Reaktive Datenverwaltung
- Vergangenheitsdaten werden für Berichte verwendet
- Das wesentliche Arbeitsmittel sind Tabellenkalkulationen
- Uneinheitliches, teilweise offline und vorwiegend manuelles Datenmanagement
- Es existiert ein generelles geringes Datenbewusstsein
2) Dashboard-Ära
- Daten werden als Grundlage für Geschäftsentscheidungen verwendet
- Der Einsatz von Data Warehouse zur Konsolidierung liefert einen umfassenden Überblick
- Datenmanagement ist standardisiert und wiederverwendbar
- Grundlegende Datenkompetenzen und Datenfähigkeiten sind aufgebaut
3) Daten-Zentrierung
- Daten bilden die Basis der Unternehmensstrategie
- Einsatz von modernen BI-/ Big-Data-Tools sowie erste Analytics-Verfahren
- Analysen sind ad hoc und in Echtzeit möglich und in den Entscheidungsprozessen involviert
- Intelligenz im Umgang mit Daten und flexibler und prozessübergreifender Einsatz
4) Transformierte Organisation:
- Daten sind der Wert und die Kultur der Unternehmung
- Datenwissenschaftliche Verfahren und Methoden der Künstlichen Intelligenz (KI) werden eigesetzt
- Alle Prozesse sind datenoptimiert und die Daten befinden sich in Data Lakes
- Sehr hohe Kompetenz im Umgang mit Daten und effektivem Dateneinsatz
Benötigt man anfangs noch einen erfahrenen Data-Science-Generalisten, um die Vielfältigkeit der Anforderung abzudecken, werden mit zunehmenden Reifegrad Spezialisten (Data- und/ oder Machine Learning Engineers) notwendig, um Lösungen erfolgreich zu erarbeiten. Ebenfalls wandelt sich das Aufgabengebiet mit einem höheren Reifegrad vom PoC (Proof of Concept) hin zur Umsetzung, Implementierung und Betreuung in die bestehende IT-Landschaft.
2. Anwendungsfälle/ Use Cases finden und auswählen
Zu Beginn stehen immer die Ideenfindung, Bewertung der Use Cases sowie deren Priorisierung. Als Beispiel hierfür gibt es Ideation Workshops, Scoping Workshops und deren Kombination. Die Design-Sprint-Methode scheint sich hierfür aber besonders zu eigenen. Im Folgenden gehe ich auf die 33A-KI-Design-Sprint-Methode ein. Das Kernkonzept dieses KI-Programms ist eine auf KI fokussierte Version des Google-Design-Sprints. Die Vorteile sind
- kurzer ein- bis zweitägiger Prozess,
- beantwortet kritische Geschäftsfragen,
- konzentriert sich speziell auf KI,
- ein auf den Kunden zugeschnittener Ansatz sowie
- Einbeziehung der wichtigsten Stakeholder.
Um die Irritationen zu beseitigen, was KI heute schon kann und was nicht, wurde ein KI-Karten-Set entwickelt, das die Fähigkeiten von KI verständlich beschreibt und dazu zeitgleich Praxisbeispiele liefert. Als Vorlage dienen 9 KI-Kategorien mit mehr als 60 KI-Anwendungsfällen, die zur Ideenfindung und Konzepterstellung verwendet werden. Die KI-Kategorien sind von einfach bis kompliziert (1 bis 99) hinsichtlich deren Komplexität und der Wertschöpfung gestaltet.
Dieser innovative Ansatz entwickelt Ideen zu einer vollständigen KI-Opportunity-Landschaft und ist in 4 Phasen untergliedert:
1) KI-Einführung und -Bewusstsein: Was ist die strategische Bedeutung von KI und was kann KI bereits heute leisten! Dazu werden Beispiele aus der Praxis verständlich vorgestellt und diskutiert, wie disruptiv KI für das Unternehmen oder die Branche sein kann.
2) KI-Opportunity-Mapping: Das Führungsteam diskutiert die Stärken und Schwächen innerhalb der Organisation und gleicht dies mit den KI-Potenzial ab, das auf dem Kartenset beschrieben ist. Zu jeder ermittelten Stärke oder Schwäche wird dann die passende KI-Karte als Verbesserung gemappt. Das ermittelte KI-Potenzial dient sowohl zur Verbesserung bestehender Produkte oder Dienstleistungen als auch zur Generierung neuer Angebote.
3) KI-Prozessautomatisierung: Identifikation von Prozessen, die mit KI automatisiert werden sollen und deren Priorisierung nach dem größten KI-Automatisierungspotenzial. Die gemeinsame funktionsübergreifende Entwicklung von KI-Lösungskonzepten steht im Vordergrund.
4) KI-Produkte und -Dienstleistungen: In diesem Schritt werden kundenzentrierte KI-Lösungskonzepten für bestehende und/oder neue Produkte und Dienstleistungen entwickelt.
Diese Vorgehensweise und deren Ergebnisse fließen dann in eine Gesamtplanung aller KI-Aktivitäten für einen Zeitraum ein. Falls das Unternehmen diese Aufgaben einem Bereich zuordnen will und dazu einen Namen benötigt, bietet sich das KI-House, KI Factory oder auch das KI CoE (Center of Excellence) an. Für jeden Data Scientist ein Unternehmensbereich, in dem er mit Sicherheit gerne arbeitet.
3. Umsetzten und produktiv gehen
Viele schwungvoll und mit hohen Erwartungen verbundene Data-Science- oder KI-Projekte scheitern, weil sie nie in die Umsetzung kommen bzw. nicht in den produktiven Betrieb des gesamten Unternehmens implementiert werden. Es gilt die Voraussetzungen hierfür bereits zu Beginn des PoC mit in die Planung aufzunehmen und als Erfolgsfaktor zu definieren.
KI-Initiativen können in vielen unterschiedlichen Unternehmensbereichen entstehen. Umso wichtiger ist die frühzeitige Einbindung aller beteiligten Bereiche, vor allem der IT. Denn die Anforderungen und die Komplexität einer bestehenden Anwendungslandschaft sind anders als die des KI-Projektes. Der PoC wird z. B. fast immer mit einem reduzierten Set an Daten durchgeführt. Er ist nie in die spezifischen sicherheitsrelevanten Vorgaben des Unternehmens gebunden.
Die Kombination aus Software Development und Operations ist die schon lange bekannte Rolle als „DevOps“. Eine vergleichbare Rolle, ist nun im Zusammenhang mit Data Science Projekten als Machine Learning Operations (MLOps) entstanden. Zu den sich unterscheidenden und speziellen Anforderungen von MLOps gehören:
- Reproduzierbarkeit und Nachverfolgbarkeit der Modelle
- Skalierung der Machine-Learning-Modelle
- Monitoring der Machine Learning Services
- Wiederverwendbarkeit und Standardisierung
Die Kollegen der bestehenden IT-Abteilung werden den PoC eines KI-Projektes nicht ohne weiteres in die Anwendungslandschaft implementieren können. Dazu bedarf es übereinstimmende Ziele, abgestimmter Kapazitäten und neuen technischen Know-hows. All diese Unterschiede machen die Einbeziehung der IT-Abteilung notwendig und sichern den Erfolg des Business Cases.
In der Summe liegt der Erfolg!
Ein Unternehmen, das die drei skizzierten Vorgehen umsetzt und dokumentiert, kann der Personalabteilung alle Werkzeuge an die Hand geben, um das Recruitment für Data Scientists, -Analysten, -Engineers und Machine-Learning-Spezialisten erfolgreich zu gestalten. Nur so kann die höchstmögliche Übereinstimmung von angebotenen Skills und nachgefragtem Bedarf erzielt werden. Für Bewerber und potenzielle Kollegen ist dadurch ebenfalls ersichtlich, dass sich das Unternehmen ernsthaft und nachhaltig die Arbeit mit Daten als Grundlage ihres Geschäfts gemacht hat. Je nach Skillset der Bewerber und Bewerberinnen können diese nicht nur ihre Positionen darin exakt wiederfinden, sondern zudem ihre zukünftige Entwicklung innerhalb der Organisation. Das gibt Sicherheit und einen positiven Blick in die Zukunft. Beides sind die elementaren Grundsteine für ein erfolgreiches Recruitment, zufriedene und langfristig gebundene Mitarbeiterinnen und Mitarbeiter.
Artikelfiles und Artikellinks
Link: Ginkgo Analytics im Web
(ID:48283617)