Skip to main content

Was hat Responsible AI mit Psychologie zu tun? Mehr, als Sie denken.

Künstliche Intelligenz verändert die HR-Welt – von automatisiertem Recruiting bis hin zu Performance-Prognosen. Dabei stellt sich eine zentrale Frage: Wie gelingt der Einsatz von KI verantwortungsvoll – also im Sinne von Responsible AI? Wer dabei nur an Technik, Regeln oder Richtlinien denkt, übersieht einen entscheidenden Faktor: Psychologie.

Vertrauen ist keine Nebensache
KI-Systeme funktionieren oft wie eine Black Box – ihre Entscheidungen wirken objektiv, sind aber schwer nachvollziehbar. Genau hier entsteht Unsicherheit. Menschen brauchen Erklärbarkeit, um Vertrauen zu fassen. Transparenz ist deshalb kein «nice to have», sondern ein psychologisch essenzieller Faktor – gerade im HR, wo Entscheidungen über Menschen getroffen werden. 

Bias ist ein menschliches und maschinelles Problem
Wenn die zugrundeliegenden Datensätze unbeabsichtigt diskriminierend waren, übernimmt und lernt das auch die KI – ob bei der Auswahl von Lebensläufen oder bei internen Analysen. Das zeigt: Verzerrungen (Bias) sind nicht nur ein technisches Problem, sondern ein psychologisches. Wer das Responsible-AI-Prinzip der Nichtdiskriminierung und Fairness ernst nimmt, muss verstehen, wie Bias entsteht – und wie man ihn erkennt und korrigiert. 

Kontrolle stärkt Akzeptanz
Mitarbeitende akzeptieren neue Technologien nur, wenn sie das Gefühl haben, mitreden und eingreifen zu können. Die Forschenden Papagiannidis et al. (2025) sprechen deshalb von human agency and oversight. Gemeint ist: Menschen müssen verstehen, wann und wie KI Entscheidungen trifft – und sie müssen eingreifen können, wenn nötig. Ohne dieses Gefühl von Kontrolle leidet nicht nur die Akzeptanz, sondern auch das psychologische Wohlbefinden.

AI Literacy ist People Work
Ein zentrales Element verantwortungsvoller KI ist Bildung – und zwar nicht nur technisch. Gefragt sind auch Kompetenzen in Kommunikation, Ethik und emotionaler Intelligenz – alles psychologische Themen.

Die Responsible-AI-Prinzipien nach Papagiannidis et al. (2025) etwa Verantwortlichkeit, Transparenz, Fairness, menschliche Aufsicht, Datenschutz und Privatsphäre, Robustheit und Sicherheit technischer Systeme sowie soziales Wohlbefinden – sind keine Checkliste, die man einmal abhakt. Sie leiten die Gestaltung von Strukturen und Prozessen in der Organisation. Sie zeigen auf, welche strukturellen, prozeduralen und relationalen Praktiken Organisationen entwickeln sollten – etwa durch KI-Entscheidungsgremien (strukturell), klare Prüfprozesse (prozedural) und Schulungen (relational).

Fazit: Wer KI einführt, führt auch neue Denk- und Gefühlsmuster ein
Responsible AI ist nicht nur ein Prinzipienkatalog oder regulatorischer Rahmen – es ist auch eine Frage des menschlichen Verstehens, Verhaltens und Vertrauens. Kurz: ein psychologisches Thema. 

Sie möchten KI im HR nicht nur einführen, sondern verantwortungsvoll gestalten? 
Lassen Sie uns darüber sprechen, wie Psychologie, Ethik und Technik dabei zusammenspielen – und wie Sie dafür die richtigen Strukturen schaffen. 

Quelle: Papagiannidis, E., Mikalef, P., & Conboy, K. (2025). Responsible artificial intelligence governance: A review and research framework. The Journal of Strategic Information Systems, 34(2), 101885. https://doi.org/10.1016/j.jsis.2024.101885 

Wir freuen uns von Ihnen zu hören!