
Lesezeit: ca. 10 Minuten | Kategorie: KI-Transformation, Psychische Gesundheit, HR-Strategie
Noch nie wurden in Deutschland so viele KI-Projekte gestartet wie heute. Und noch nie wurde gleichzeitig so viel Kapital still und geräuschlos vernichtet. Die globalen KI-Ausgaben lagen 2024 laut BCG bei über 252 Milliarden US-Dollar. Der Anteil der Unternehmen, die daraus greifbaren wirtschaftlichen Wert gezogen haben: 26 Prozent. Der Rest hat kein messbares Ergebnis erzielt – trotz Rollout, trotz Tool-Lizenzen, trotz Projektteam.
Das Problem liegt nicht in der Technologie. Es sitzt in den Köpfen der Belegschaft. Genauer: in zwei psychologischen Phänomenen, die in vielen Führungsetagen noch kaum bekannt sind, aber bereits heute entscheiden, ob KI-Initiativen Rendite bringen oder zur teuersten Schublade im Unternehmen werden. Fear of AI. Und FOBO.
Als HR-Verantwortliche bist Du in einer einzigartigen Position: Du siehst die Fluktuation, die Fehlzeiten, die Führungskräfte, die leise überlegen zu gehen. Du weißt, dass Zahlen auf dem Dashboard selten das vollständige Bild zeigen. Dieser Artikel gibt Dir den wissenschaftlichen Rahmen, die wirtschaftliche Einordnung und die konkreten nächsten Schritte – damit Du in der nächsten Budgetdiskussion nicht über Befindlichkeiten redest, sondern über steuerbare Risiken.
Fear of AI ist keine diffuse Technologieskepsis. Es ist ein messbares psychologisches Konstrukt mit vier klar definierten Dimensionen, das sich in Unternehmen unterschiedlich verteilt – nach Abteilung, Führungsebene, Demografie und Branche. Was die Forschung dabei besonders deutlich zeigt, überrascht: Die Angst nimmt nicht ab, wenn Menschen mehr Erfahrung mit KI sammeln. Sie nimmt zu.
Die KPMG-Studie "Trust, Attitudes and Use of AI" (2025, n=48.340 in 47 Ländern) dokumentiert genau das: Menschen werden misstrauischer gegenüber KI, je mehr sie damit in Berührung kommen. Wer täglich mit KI-Tools arbeitet, erlebt deren Grenzen, deren Fehler und deren Black-Box-Logik aus nächster Nähe. Die Angst wird nicht kleiner. Sie wird konkreter und greifbarer.
In Deutschland zeigt sich dieses Muster besonders deutlich. 44 Prozent der Deutschen haben laut Bitkom (2024) Angst vor KI. 64 Prozent der deutschen Unternehmen berichten, dass Beschäftigte dem KI-Einsatz skeptisch gegenüberstehen – in erster Linie aus Angst vor Jobverlust. Und 34 Prozent geben in einer YouGov-Befragung (2024) direkt an, Angst zu haben, den eigenen Arbeitsplatz durch KI zu verlieren. Das ist keine Randgruppe. Das sind Mitarbeitende in Deinen Teams.
Die Forschung – insbesondere Giermindl et al. (2024, Journal of Business Research) – unterscheidet vier psychologische Kerndimensionen von Fear of AI at Work, die für HR-Teams wichtig sind, weil sie unterschiedliche Interventionen erfordern.
Die erste Dimension ist Identität und Jobsicherheit. Mitarbeitende fürchten, ihre Rolle werde obsolet, ihre langjährige Erfahrung entwertet, und KI-Entscheidungen träfen über ihre Karriere, ohne dass sie diese verstehen oder anfechten können. BCG (2024, n=13.000) zeigt: Sogar 49 Prozent der regelmäßigen KI-Nutzer fürchten, ihr Job könnte innerhalb von zehn Jahren verschwinden – mehr als doppelt so viele wie unter Nicht-Nutzern.
Die zweite Dimension ist Misstrauen, Kontrolle und Datenschutz. 43 Prozent der deutschen Beschäftigten nennen fehlendes Vertrauen als Hauptgrund für KI-Nichtakzeptanz (otris/SKOPOS 2024). Das Gefühl, durch KI überwacht oder bewertet zu werden, löst starke Abwehrreaktionen aus – und diese Reaktionen sind für HR-Teams auf der Oberfläche oft schlicht unsichtbar.
Die dritte Dimension ist Inkompetenz und Überforderung. 44 Prozent der Deutschen sorgen sich laut Bitkom (2024), der technischen Entwicklung nicht mehr folgen zu können. Im Unternehmenskontext hat nur 39 Prozent der KI-Nutzer ein vom Unternehmen organisiertes Training erhalten (Microsoft Work Trend Index 2024, n=31.000). 47 Prozent der KI-Nutzer wissen nicht, wie sie die erwarteten Produktivitätsgewinne überhaupt erzielen sollen.
Die vierte und gefährlichste Dimension ist Ablehnung und Vermeidung – weil sie am schwersten zu messen ist. 31 Prozent der Beschäftigten untergraben KI-Initiativen ihres Unternehmens aktiv: durch Tool-Verweigerung, absichtlich schlechte Inputs oder bewusste Verzögerung (Writer/Workplace Intelligence 2025). Kein Projekt-Tracking der Welt fängt das ein.
FOBO – Fear of Becoming Obsolete – ist die längerfristige, existenziellere Schwester von Fear of AI. Während Fear of AI die konkrete Ablehnung eines Tools beschreibt, geht FOBO tiefer: Es ist die Angst, dass die eigene Expertise, die eigene Karriere, die eigene berufliche Identität in einer KI-transformierten Arbeitswelt keinen Platz mehr hat. Nicht morgen. Aber übermorgen.
FOBO ist nicht irrational. Es ist eine rationale Reaktion auf eine irrationale Kommunikationslage in vielen Unternehmen. Wenn Führungsteams Effizienzgewinne durch KI ankündigen, ohne gleichzeitig transparent zu machen, was das für Rollen und Karrierewege konkret bedeutet, entsteht ein Wahrnehmungs-Gap – und den füllen Mitarbeitende selbst, mit dem Schlimmsten, was sie sich vorstellen können.
BCG (2025) belegt: Beschäftigte in Organisationen mit fortgeschrittenem KI-Redesign sind mit 46 Prozent signifikant häufiger um ihre Jobsicherheit besorgt als jene in weniger fortgeschrittenen Unternehmen (34 Prozent). Wer am schnellsten transformiert, produziert am meisten FOBO. Das ist das Paradox, das die meisten KI-Roadmaps nicht einplanen.
Und dann ist da noch ein Befund, der besonders aufhorchen lässt: Upwork (2025, n=2.500) zeigt, dass unter KI-Power-Usern – also denjenigen, die KI am intensivsten nutzen und dabei 40 Prozent Produktivitätszuwachs verzeichnen – 88 Prozent von Burnout berichten. Sie sind doppelt so häufig kündigungsbereit wie Nicht-Nutzer. Die produktivsten Mitarbeitenden sind gleichzeitig die am stärksten gefährdeten. Das ist kein Zufall. Es ist das direkte Ergebnis fehlender psychologischer Begleitung bei der KI-Einführung.
Lass uns konkret werden. Die RAND Corporation (2024) hat 65 strukturierte Interviews ausgewertet und kommt zu einem klaren Befund: Mehr als 80 Prozent aller KI-Projekte scheitern – doppelt so viele wie klassische IT-Projekte. Prosci hat in einer der größten Studien zu KI-Change-Management (n=1.107 Professionals, 2024) gemessen, woher das Scheitern kommt: 63 Prozent aller Implementierungsherausforderungen gehen auf menschliche Faktoren zurück. Nur 16 Prozent auf technische Probleme.
EY (2025) quantifiziert den wirtschaftlichen Verlust: Bis zu 40 Prozent an Produktivitätsgewinnen gehen durch Defizite in der Begleitung der Menschen verloren – nicht durch technisches Versagen. Für ein Unternehmen, das eine KI-Lösung für 500.000 Euro einführt und keine Adoption-Strategie verfolgt, bedeutet das konservativ: 350.000 bis 400.000 Euro verbrannte Investition. Nicht durch schlechte Software. Durch Fear of AI und FOBO, die niemand gemessen und niemand adressiert hat.
Als HR-Verantwortliche bist Du meistens diejenige, die diese Rechnung nicht aufstellt – obwohl Du die Daten dazu hast. Fluktuation, Fehlzeiten, Führungskräftewechsel. Was fehlt, ist das System, das den Zusammenhang sichtbar macht.
Unter allen Faktoren, die erfolgreiche KI-Adoption beeinflussen, sticht einer in der aktuellen Forschung so konsistent hervor, dass man ihn nicht mehr ignorieren kann: psychologische Sicherheit. Das Konzept, das Amy Edmondson von der Harvard Business School bekannt gemacht hat, beschreibt den Zustand, in dem Mitarbeitende glauben, sich ohne Angst vor negativen Konsequenzen äußern, Fehler eingestehen und Neues ausprobieren zu dürfen.
Reich et al. (arXiv 2026, n=2.257 Mitarbeitende in einem globalen Beratungsunternehmen) beweisen empirisch: Psychologische Sicherheit ist ein zuverlässiger Prädiktor dafür, ob Mitarbeitende KI-Tools überhaupt adoptieren – konsistent über Erfahrungslevel, Rollen und Regionen hinweg. Das MIT Technology Review (2025) befragte Führungskräfte direkt dazu: 83 Prozent sehen psychologische Sicherheit als messbaren Erfolgsfaktor für KI-Initiativen. 84 Prozent haben bereits konkrete Zusammenhänge zwischen psychologischer Sicherheit und KI-Outcomes in ihren Organisationen beobachtet.
Was das für Dich bedeutet: Psychologische Sicherheit ist kein HR-Wohlfühlthema. Sie ist eine messbare Variable, die direkt in die Adoption-Rate Deiner KI-Tools einzahlt. Und sie ist steuerbar – wenn Du weißt, wo sie fehlt.
Hier liegt einer der wichtigsten Denkfehler in der Praxis: Es gibt keine universelle Maßnahme gegen Fear of AI und FOBO. Ein Townhall über KI-Chancen hilft nicht gegen das Gefühl, die eigenen Skills nicht mehr zu haben. Eine Datenschutz-Erklärung hilft nicht gegen Identitätsverlust-Angst. Wer nicht weiß, wo die Angst sitzt, handelt mit der Gießkanne – und verbrennt Budget ohne messbaren Effekt.
Die folgende Übersicht zeigt, welche Interventionen zu welcher Dimension passen:
Microsoft (Work Trend Index 2024) macht den Unterschied in Zahlen greifbar: Trainierte Nutzer berichten 19-fach häufiger, KI verbessere ihre Produktivität. Nicht doppelt so häufig. Neunzehnfach. Der Multiplikator liegt nicht im Modell – er liegt in Training, Begleitung und dem Gefühl, dass man das hier gemeinsam macht und nicht allein gelassen wird.
Dieser Punkt wird in vielen HR-Teams noch unterschätzt. Mit Artikel 4 des EU AI Acts, der seit dem 2. Februar 2025 gilt und ab dem 2. August 2026 von nationalen Aufsichtsbehörden durchgesetzt wird, wird AI Literacy zur Pflicht. Alle Unternehmen, die KI-Systeme einsetzen, müssen sicherstellen, dass ihr Personal ein ausreichendes Niveau an KI-Kompetenz aufweist – rollenspezifisch, dokumentiert und als kontinuierlicher Prozess, nicht als einmaliges Webinar.
Wer das ignoriert, riskiert Sanktionen von bis zu 15 Millionen Euro oder 3 Prozent des globalen Vorjahresumsatzes. Zum Vergleich: Mitte 2024 hatten sich erst 24 Prozent der deutschen Unternehmen überhaupt mit dem EU AI Act auseinandergesetzt (Bitkom 2024). Das Enforcement-Datum rückt näher.
Gleichzeitig verlangt Paragraph 90 Absatz 1 Nummer 3 Betriebsverfassungsgesetz, den Betriebsrat bereits in der Planungsphase neuer technischer Systeme zu informieren – nicht nach dem Rollout, nicht nach dem Piloten. Vorher. Organisationen, die das übergehen, riskieren nicht nur rechtliche Konsequenzen. Sie untergraben das Vertrauen genau jener Gremien, deren aktive Unterstützung am Ende über die Adoption entscheidet. Eine Rahmen-Betriebsvereinbarung KI ist in diesem Kontext keine bürokratische Pflichtübung. Sie ist Vertrauensarchitektur.
McKinsey (2025) destilliert den Unterschied zwischen den 6 Prozent der Unternehmen mit signifikantem EBIT-Effekt durch KI auf einen Satz: KI High Performers sind 2,8-mal wahrscheinlicher, Workflows fundamental neu zu gestalten – statt nur Tools auf bestehende Prozesse zu legen. Und dieser Unterschied schlägt sich in 3-fach höheren EBIT-Beiträgen aus KI nieder.
Was diese Unternehmen verbindet: Sie behandeln KI-Einführung nicht als IT-Projekt, sondern als Business Transformation. Sie investieren in Change Management. Prosci (2024) rechnet das vor: Strukturierte Change-Management-Prozesse führen zu einer 2,9-fach höheren Erfolgsrate. Projekte mit kontinuierlichem C-Suite-Sponsorship kommen auf 68 Prozent Erfolgsrate – ohne dieses Sponsorship auf 11 Prozent. Die Lücke zwischen Wertschöpfung und Kapitalvernichtung ist keine Technologiefrage. Sie ist eine Begleitungsfrage.
Für Dich als HR-Verantwortliche bedeutet das konkret: Du hast hier nicht nur eine unterstützende Funktion. Du bist die Person im Unternehmen, die den Unterschied zwischen 11 und 68 Prozent Erfolgsrate maßgeblich mitbestimmt. Und um diesen Unterschied zu gestalten, brauchst Du Daten über den Zustand Deiner Belegschaft – nicht Bauchgefühl.
Aus der Forschungslage lassen sich fünf Handlungsfelder ableiten, die konkret und sofort umsetzbar sind – ohne monatelange Vorbereitungszeit.
Das erste und wichtigste ist messen, bevor Du handelst. Wer nicht weiß, wo Fear of AI und FOBO im eigenen Unternehmen sitzen – nach Abteilung, Führungsebene, Demografie – handelt blind. Die richtige Maßnahme für das falsche Problem kostet genauso viel wie gar keine Maßnahme.
Das zweite ist Change Management mit echtem Budget ausstatten. 61 Prozent der gescheiterten KI-Initiativen haben weniger als 15 Prozent des Projektbudgets für Change Management verwendet (Prosci 2024). Die Empfehlung liegt bei 20 bis 30 Prozent. Was nach viel klingt, ist günstig im Vergleich zu 70 bis 80 Prozent verbrannter Gesamtinvestition.
Das dritte ist psychologische Sicherheit als steuerbare Größe begreifen – nicht als Zustand, der einfach da ist oder nicht. Pulse Checks auf Basis wissenschaftlich validierter Dimensionen ermöglichen, Baseline, Verlauf und Wirkung von Maßnahmen sichtbar zu machen. Das ist das, was Du brauchst, um gegenüber Geschäftsführung und Betriebsrat nicht über Stimmungen zu reden, sondern über Kennzahlen.
Das vierte ist den Betriebsrat früh einbinden. Nicht weil das Gesetz es vorschreibt – obwohl es das tut –, sondern weil ein Betriebsrat, der von Anfang an eingebunden ist, zum Vertrauensanker für die gesamte Belegschaft wird.
Das fünfte ist das Burnout-Risiko bei Power-Usern im Blick behalten. 88 Prozent der produktivsten KI-Nutzer berichten Burnout (Upwork 2025). Wer KI-Champions aufbaut, muss deren psychische Belastung systematisch verfolgen – sonst verliert man genau die Menschen zuerst, auf die die Transformation angewiesen ist. Das ist kein Wellness-Thema. Das ist ein strategisches Fluktuationsrisiko.
Die Forschungslage ist eindeutig: KI-Transformation scheitert am Menschen, nicht an der Technologie. Psychologische Sicherheit ist der entscheidende Hebel. Und dieser Hebel braucht ein Instrument – ein System, das psychische Belastung und Angst sichtbar macht, steuerbar macht und konkrete Maßnahmen ableitet.
Das mentalport Fear of AI Assessment basiert auf dem wissenschaftlich validierten FAIW-10-Instrument (Giermindl et al. 2024, Journal of Business Research) und misst alle vier Dimensionen – anonym, in unter zehn Minuten pro Person. Das Ergebnis: individuelle Entwicklungsempfehlungen für Mitarbeitende und aggregierte Heatmaps für HR und Führungsteams, die zeigen, wo die KI-Angstzonen im Unternehmen liegen. Nach Abteilung, Führungsebene und Demografie.
Der entscheidende Unterschied zu einer klassischen Mitarbeiterbefragung: Das Assessment ist der Einstieg in einen Steuerungskreislauf. Aus den Ergebnissen leiten sich automatisch Maßnahmen ab – für Führungskräfte, für Teams und für einzelne Mitarbeitende. Und es wird sichtbar, ob diese Maßnahmen wirken. Damit bekommst Du als HR-Verantwortliche das, was Du für Budgetgespräche, Betriebsratsgespräche und Transformations-Reviews brauchst: Daten, die eine Geschichte erzählen.
Wer jetzt startet, hat vor dem Enforcement-Datum des EU AI Act im August 2026 noch Zeit, ein systematisches Fundament zu legen – und den KI-Investitionen im Unternehmen eine realistische Chance auf Rendite zu geben.
Das mentalport Fear of AI Assessment ist kostenlos, anonym und in unter zehn Minuten pro Person abgeschlossen.
Du erhältst sofort eine Auswertung mit konkreten Maßnahmen und einer monetären Impact-Bewertung – individuell und auf Organisationsebene.
Jetzt zum Fear of AI Research Report 2026
Oder direkt einen Termin buchen: mentalport.health/beratung-buchen
Fear of AI at Work ist ein wissenschaftlich messbares psychologisches Konstrukt, das über allgemeine Technologieskepsis hinausgeht. Es beschreibt konkrete Ängste, die Mitarbeitende im beruflichen Kontext gegenüber KI-Systemen entwickeln – unterteilt in vier Dimensionen: Angst um Identität und Jobsicherheit, Misstrauen gegenüber Kontrolle und Datenschutz, das Gefühl von Inkompetenz und Überforderung sowie aktive Ablehnung und Vermeidung. Das Konstrukt wurde von Giermindl et al. (2024, Journal of Business Research) validiert und im FAIW-10-Instrument operationalisiert. Der entscheidende Unterschied zur allgemeinen KI-Skepsis: Fear of AI at Work ist rollenspezifisch, lässt sich abteilungsgenau messen und erfordert differenzierte Interventionen je nach dominierender Dimension.
FOBO steht für "Fear of Becoming Obsolete" – die Angst, dass die eigene Expertise, Berufsidentität und Karriere durch KI langfristig keinen Platz mehr hat. Im Unterschied zu Fear of AI, das sich auf konkrete Tools und Prozesse bezieht, ist FOBO eine existenziellere, tiefer sitzende Angst. Für Unternehmen ist FOBO besonders relevant, weil es schwer sichtbar ist: Mitarbeitende sprechen es selten direkt an, es äußert sich stattdessen in stiller Demotivation, Rückzug aus Veränderungsprozessen oder erhöhter Fluktuationsbereitschaft. BCG (2025) zeigt, dass Beschäftigte in Organisationen mit fortgeschrittenem KI-Redesign signifikant häufiger um ihre Jobsicherheit besorgt sind als in weniger transformierten Unternehmen – ein klarer Hinweis, dass FOBO mit zunehmender KI-Reife wächst, nicht abnimmt.
Weil die Technologie in den meisten Fällen nicht das Problem ist. Die RAND Corporation (2024) hat analysiert, dass mehr als 80 Prozent aller KI-Projekte scheitern – doppelt so viele wie klassische IT-Projekte. Prosci (2024, n=1.107) hat spezifisch gemessen, woher das Scheitern kommt: 63 Prozent aller Implementierungsherausforderungen sind menschliche Faktoren, nur 16 Prozent technische. Die häufigsten Ursachen sind fehlendes Change Management, mangelnde Einbindung der Mitarbeitenden, unzureichendes Training und der Verlust von C-Suite-Sponsorship nach dem Launch. EY (2025) beziffert den Verlust: Bis zu 40 Prozent der möglichen Produktivitätsgewinne gehen durch Defizite in der menschlichen Begleitung verloren – nicht durch schlechte Modelle.
Mehr als die meisten KI-Strategien einplanen. Reich et al. (arXiv 2026, n=2.257) beweisen empirisch, dass psychologische Sicherheit ein zuverlässiger Prädiktor dafür ist, ob Mitarbeitende KI-Tools überhaupt adoptieren – konsistent über Erfahrungslevel, Rollen und Regionen hinweg. Teams, in denen Mitarbeitende Fehler eingestehen, Fragen stellen und Neues ausprobieren können, ohne negative Konsequenzen zu fürchten, experimentieren schneller mit KI, lernen effizienter und nutzen Tools dauerhafter. Umgekehrt zeigen Kim, Kim & Lee (2025, Nature Humanities and Social Sciences Communications) den Negativeffekt: KI-Einführung ohne Begleitung kann psychologische Sicherheit aktiv abbauen und damit Depression bei Beschäftigten erhöhen. 83 Prozent der befragten Führungskräfte sehen psychologische Sicherheit als messbaren Erfolgsfaktor für KI-Initiativen (MIT Technology Review 2025).
Artikel 4 des EU AI Acts, der seit dem 2. Februar 2025 gilt und ab dem 2. August 2026 von nationalen Aufsichtsbehörden durchgesetzt wird, verpflichtet alle Anbieter und Betreiber von KI-Systemen, sicherzustellen, dass ihr Personal ein ausreichendes Niveau an KI-Kompetenz aufweist. Das bedeutet konkret: Unternehmen müssen rollenspezifisch dokumentieren, welche KI-Kompetenzen vorhanden sind, wie sie entwickelt werden und wie die Einhaltung nachgewiesen wird. Ein einmaliges Webinar genügt nicht – es braucht ein kontinuierliches, dokumentiertes System. Bei Verstößen gegen Hauptpflichten drohen Sanktionen von bis zu 15 Millionen Euro oder 3 Prozent des globalen Vorjahresumsatzes. Zum Vergleich: Mitte 2024 hatten sich laut Bitkom erst 24 Prozent der deutschen Unternehmen überhaupt mit dem EU AI Act auseinandergesetzt.
Wie kann HR Fear of AI im eigenen Unternehmen messen?
Mit einem strukturierten, wissenschaftlich validierten Assessment, das die vier Dimensionen von Fear of AI differenziert erfasst – nicht mit einer allgemeinen Mitarbeiterbefragung. Das FAIW-10-Instrument (Giermindl et al. 2024) misst Identitäts- und Jobsicherheitsängste, Misstrauen gegenüber Datenschutz und Kontrolle, Inkompetenz-Erleben sowie Ablehnung und Vermeidung auf einer standardisierten Skala. Auf Organisationsebene liefert das daraus aggregierte Ergebnis Heatmaps nach Abteilung, Führungsebene und Demografie – und damit die Grundlage für gezielte Maßnahmen statt universeller Gießkannenprogramme. Der entscheidende Vorteil gegenüber qualitativen Formaten wie Townhalls oder Feedbackrunden: Das Assessment läuft anonym, erzeugt keine sozialen Erwünschtheitseffekte und liefert Daten, die gegenüber Geschäftsführung und Betriebsrat berichtbar sind. Das mentalport Fear of AI Assessment ist kostenlos und in unter zehn Minuten pro Person abgeschlossen.
Weitere Fragen? Direkt einen Austausch buchen: mentalport.health/beratung-buchen
Datengrundlage: BCG (2024/2025), Bitkom (2024), EY (2025), KPMG/University of Melbourne (2025), McKinsey (2024/2025), Microsoft/LinkedIn Work Trend Index (2024), MIT Technology Review (2025), otris/SKOPOS (2024), Prosci AI Adoption Research (2024), RAND Corporation (2024), Reich et al. arXiv (2026), Slack Workforce Index (2025), Upwork Research Institute (2024/2025), Writer/Workplace Intelligence (2025), YouGov/dpa (2024). Vollständiges Quellenverzeichnis im mentalport Research Report 2026: Fear of AI at Work.