Künstliche Intelligenz verändert das Verhältnis zwischen Vorgesetzen und Teams. Sie greift in Abläufe und Routinen ein und erhöht die Dynamik von Organisationen. Im vergangenen Jahr befragte die Strategieberatung McKinsey 1.363 Mitarbeitende über alle Hierarchiestufen hinweg. 65 Prozent der Befragten gaben an, dass ihr Unternehmen generative KI regelmäßig einsetzt – nahezu doppelt so viele wie zehn Monate zuvor.1 Gleichzeitig ruft der Umbruch Widerständler auf den Plan: Vor allem langjährige Mitarbeitende erleben die neue Transparenz als ein weiteres Kontrollinstrument.
Die OECD stellte 2023 fest, dass Angestellte KI zwar mehrheitlich mit Produktivitätsgewinn und besseren Arbeitsbedingungen verknüpfen, Sorgen über einen möglichen Jobverlust und Verzerrungen jedoch bestehen bleiben.2 Vorausschauende Chefs definieren Kontrolle, Verantwortung und Vertrauen neu. Sie entwickeln Verständnis für die Technologie, geben ihr Wissen weiter, fördern Akzeptanz und wahren den Datenschutz. Dieser Beitrag erläutert, wie Führungspersönlichkeiten ihre Mannschaft in eine von KI geprägte Arbeitsrealität begleiten und dabei als Architekten des Wandels auftreten.
Skepsis den Nährboden entziehen
Mitarbeitende öffnen sich disruptiven Technologien gegenüber, sobald sie den konkreten Nutzen für ihre tägliche Arbeit erkennen. Managerinnen und Manager verdeutlichen jeder und jedem die Vorteile von KI und verkörpern diese Haltung durch eigene Aufgeschlossenheit. Die Kernaussage: „KI übernimmt Routineaufgaben, während wir uns spannenden Tätigkeiten widmen.“ Spürt das Team, dass seine Werte Beachtung finden und die Unternehmensleitung Rückhalt gibt, verwandelt sich seine anfängliche Skepsis in Aufbruchstimmung. Immer wieder betonen Leader die rein unterstützende Rolle der KI und verweisen auf die Unersetzbarkeit menschlicher Fähigkeiten.
Weitsichtige Führungskräfte führen KI im Dialog mit ihren Teams ein: Sie erbeten aktiv Rückmeldungen, erkunden Einsatzfelder und schenken Sorgen Gehör. Techbegeisterte und kommunikativ starke Kolleginnen und Kollegen er nennen sie zu KI-Botschaftern. Diese probieren Tools aus, sammeln Erfahrungen, teilen sie paritätisch innerhalb ihrer Teams und geben Bedenken Raum. Workshops, praxisnahe Trainings und informelle Show- and-tell-Formate lassen Akzeptanz wachsen und mindern Berührungsängste. Transparenz bezüglich Sinn und Zweck der KI-Einführung entkräftet Gerüchte. Wer Kapazitäten frei hat, startet Pilotprojekte. Quick Wins wie sinkende Fehlerquoten oder halbierte Bearbeitungszeiten wecken Enthusiasmus und nähren Neugierde. Präzise Rollendefinitionen verteilen Verantwortlichkeiten und stecken zugleich den Handlungsrahmen ab: „KI schlägt Kandidaten vor, das Recruiting entscheidet“ oder „KI entwirft einen Projektplan, die Leitungsebene prüft und genehmigt“.
Leitplanken reduzieren die Angst vor Kontrollverlust. Im Idealfall begreift das Team die KI als unterstützende Kollegin. Schnitzer in der Anfangsphase sanktionieren Leader nicht, sondern erkennen sie als Lerngelegenheiten an. So wächst ein Safe Space, in dessen Rahmen Teams und ihre Führungskräfte gemeinsam das Zusammenspiel mit KI austesten und sich der Technologie Schritt für Schritt annähern. Eine solche Fehlerkultur fördert Zuversicht und erhöht die Lernbereitschaft.
Recht setzt Grenzen
Mit dem EU AI Act treten Compliance-Pflichten in Kraft, die unternehmerische Fachkenntnis im Umgang mit KI voraussetzen. Managerinnen und Manager machen sich mittels Workshops, Dokumentationen und nach Möglichkeit einer zusätzlichen Person, die als Sparringspartner und Korrektiv wirkt, fit für die neuen Vorschriften. Datenschutz steht ausnahmslos an erster Stelle. Prüfende unterscheiden nicht, ob eventuelle Rechtsbrüche auf Nachlässigkeit oder Absicht fußen. Deshalb bildet ein Expertenrat in Sachen Datenschutz die Grundlage für regelkonforme KI-Nutzung. Klare Richtschnur: Entscheidungen mit Rechtswirkung oder merklichem Einfluss auf Einzelpersonen obliegen in letzter Instanz dem Menschen. Halten sich Unternehmen nicht daran, verletzen sie das Verbot rein automatisierter Entscheidungen nach Art. 22 DSGVO. Schriftliche Vereinbarungen über eingesetzte KI-Tools, Nutzungszweck und Datenhandhabung liefern nachvollziehbare Richtlinien beispielsweise zu Löschfristen, Zugriffsbeschränkungen oder Zweckbindung der Daten.
Bias vorbeugen
Wollen Führungskräfte KI in der Mitarbeiterführung einsetzen, erfordert das die Fähigkeit, Ergebnisse der KI zu hinterfragen, datenbasierte Empfehlungen mit gesundem Urteilsvermögen zu bewerten und nachvollziehbar zu erklären. Ignoranz in diesen Punkten verletzt gesetzliche Vorgaben und bricht die Fürsorgepflicht gegenüber Beschäftigten. Ein klares KI-Regelwerk, faire Datenverarbeitung und Bias-Kontrolle sind essenziell, um Diskriminierung vorzubeugen und der Gesetzeslage zu entsprechen. Missachten Unternehmen diese Grundlagen, riskieren sie folgenschwere Regelverstöße und begehen einen Vertrauensbruch.
In der Personalabteilung rückt bei Einsatz von KI das Allgemeine Gleichbehandlungsgesetz, kurz AGG, in den Vordergrund. KI-Systeme dürfen niemanden aufgrund von Alter, Geschlecht oder Herkunft benachteiligen. Da KI lediglich Gedachtes reproduziert, achten Entscheidungstragende darauf, dass Datensätze und Algorithmen bar jeder Diskriminierung bleiben. Der Fachbegriff dafür lautet Bias. Systematische Checks von KI auf solche sowie das gezielte Gegensteuern werden als „algorithmic bias audit“ bezeichnet.
Bias entstehen durch fehlerhafte Modelle und defizitäre Trainingsdaten. Auch firmenintern entwickelte KI-Systeme sind kein Garant für Fairness. Hoher Aufwand ohne verlässliche Bias-Freiheit spricht in vielen Fällen sogar gegen Inhouse KIs. Von ihnen profitieren lediglich Unternehmen mit großen historischen Datenmengen und Data-Science-Expertise. Trifft das nicht zu, investiert die Leitungsebene besser in den Check von Fremd-KIs. Der umfasst algorithmische Adjustierungen, Fairness-Tests, Trainingsdatenauswahl, die Etablierung menschlicher Überwachungsinstanzen sowie vertragliche Sicherung ethischer Standards. Viele HR-Softwareanbieter arbeiten aktiv an Bias-Minimierung, lassen Algorithmen durch unabhängige Stellen validieren oder veröffentlichen Fairness-Reports.
Empathie führt weiterhin
Da KI Routine- und Analyseaufgaben übernimmt, konzentrieren sich Leitende auf menschliche Stärken. Sie fördern und motivieren Mitarbeitende individuell und wertschätzend, denken strategisch nach vorn, leben Souveränität vor und kreieren Innovationen. Eng bleiben sie an jedem Teammitglied dran und entfalten Maßnahmen zur Festigung der Teamkultur. Empathie, Achtsamkeit, Urteilsvermögen und Kreativität genießen Vorrang gegenüber Organisationstalent oder Zahlenzentriertheit.
Agilität und Anpassungsfähigkeit verfeinern das Profil – Technologien ändern sich, und nur wer Lernfreude und Wissbegierde mitbringt, hält Schritt und verdient sich das Vertrauen des Teams. Wer im Austausch mit seinem Team demonstriert, wie Algorithmen funktionieren, Halluzinationen entstehen und wo KI an ihre Grenzen stößt, erlangt Glaubwürdigkeit. Strategisches Denkvermögen und Verantwortungsbewusstsein in puncto Daten- und Persönlichkeitsschutz gestatten die sinnvolle Integration von KI in den Arbeitsalltag. Und wer erkennt, dass er oder sie Fortbildung benötigt, wird auch bei seiner Crew proaktiv für den Aufbau von KI-Kompetenzen durch Schulungen sorgen. Weiterhin etabliert sich Ethik-Orientierung zum festen Bestandteil von Leadership-Qualifikationen.
Leadership im Wandel
Implementierung von KI in die Arbeitswelt verändert auf Langstrecke die Führungsrolle: Der Entscheider wird vom Gestalter abgelöst. Letzterer koordiniert, vermittelt Werte und richtet den Blick auf fruchtbare Kommunikation. Chefs gebrauchen KI als nützliches Tool und stärken die Eigenverantwortung innerhalb ihrer Mannschaft. Dieser Wandel formt neuartige Leadership-Profile und bestimmt künftig das Miteinander von Managementebene und Mitarbeitenden.
Quellen:
1 Singla, A., Sukharevsky, A., Yee, L., Chui, M., & Hall, B. (2024). The state of AI in early 2024: Gen AI adoption spikes and starts to generate value. McKinsey & Company. https://www.mckinsey. com/capabilities/quantumblack/our-insights/the state-of-ai-2024 OECD. (2023).
2 OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market. OECD Publishing. https://www.oecd.org/en/publications/ oecd-employment-outlook-2023_08785bba-en. html




