Bias in KI erkennen: Ein Interview mit Christoph Hassler
Warum KI-Systeme Vorurteile reproduzieren können und worauf Social Entrepreneurs beim Einsatz von KI achten sollten.
Künstliche Intelligenz verändert unsere Arbeitswelt rasant und eröffnet auch für Sozialunternehmen neue Möglichkeiten. Gleichzeitig stellt sie Organisationen vor wichtige Fragen: Wie kann KI verantwortungsvoll eingesetzt werden? Und wie lassen sich Diskriminierung und Verzerrungen in KI-Systemen erkennen und vermeiden?
Um Sozialunternehmen dabei zu unterstützen, die Potenziale von KI reflektiert zu nutzen, haben wir im vergangenen Jahr eine KI-Schulung für Social Entrepreneurs angeboten. Das praxisorientierte Programm vermittelte Grundlagen von Prompt Engineering über ethische Fragestellungen bis hin zu KI-gestützten Finanzierungsstrategien. Die Schulung fand von Mai bis Juli 2025 mit fachlicher Unterstützung unseres Mitglieds N3XTCODER statt. Auch Hassler:DEI, Reflecta sowie Civic Coding brachten ihre Expertise inhaltlich ein.
Mit Christoph Hassler, Gründer von Hassler:DEI haben wir über das Thema Bias in KI-Systemen gesprochen. Also Verzerrungen und Vorurteile, die durch Daten, Strukturen oder Trainingsprozesse entstehen können.
Interview mit Christoph Hassler
Stell dich kurz vor und erzähl uns was du mit Hassler:DEI machst
Hi, ich bin Christoph, ein afro-deutscher Aktivist aus Hamburg, der sich sehr für die Schnittstelle von Technologie, Design und sozialer Gerechtigkeit interessiert. Hassler ist mein Name und die Buchstaben stehen für Design for Equity and Inclusion. Als Diversity-Berater und Designer versuche ich, zu einer möglichst diskriminierungsfreien Gesellschaft beizutragen. Sei es durch Workshops in Unternehmen oder durch praktische Arbeit an digitalen Produkten.
Warum ist es so wichtig, verantwortungsbewusst mit dem Thema Biases umzugehen? Welche Risiken bergen unentdeckte Biases?
Generell hat jeder Mensch Biases, also kognitive Abkürzungen, die unser Gehirn nutzt, um Energie zu sparen. Leider werden wir durch unser Umfeld oft auch sexistisch, rassistisch oder klassistisch geprägt. Diese Prägungen können unser Handeln beeinflussen und anderen Menschen schaden, wenn wir uns dessen nicht bewusst sind. Stellen wir uns das Ganze einmal auf organisatorischer oder sogar nationaler Ebene vor: Dieselben negativen Klischees und Stereotype finden sich auch in KI-Systemen wieder.
Im Jahr 2019 wurde bekannt, dass die niederländische Steuerbehörde einen selbstlernenden Algorithmus zur Erstellung von Risikoprofilen eingesetzt hat, um Betrug bei Kinderbetreuungsleistungen aufzudecken. Dieser Algorithmus führte dazu, dass Familien Leistungen vorenthalten wurden, vor allem migrantischen Anspruchsteller:innen und alleinerziehenden Müttern. Das geschah in einem Ausmaß, das schließlich zu einer Regierungskrise führte. Das ist kein Einzelfall.
Immer wieder zeigt sich, dass Behörden oder, noch problematischer, die Polizei KI einsetzen, deren Biases Menschenleben in Gefahr bringen können.
Wir Menschen können unsere Vorurteile reflektieren und lernen, nicht auf sie zu reagieren. Bei KI ist das deutlich schwieriger.
Was sind aus deiner Sicht die größten Herausforderungen beim Erkennen von Biases in KI-Systemen? Und wo beginnen Organisationen idealerweise mit dem Bias Management?
Ich habe kürzlich ChatGPT gebeten, sich selbst ein Gesicht zu geben. Wie erwartet war es ein junger, blonder, weißer Mann. Als Erklärung hieß es, das sei ein neutrales Durchschnittsbild.
Aufgrund der westlichen männlichen Dominanz bei der Datenproduktion im Internet (akademisch, journalistisch, auf Wikipedia oder Reddit, alles eher Männerdomänen) wird sich daran in absehbarer Zeit vermutlich wenig ändern.
Das ist eine grundlegende Voraussetzung, die man verstehen muss. Wann immer ein Chatbot handelt, tut er das gewissermaßen aus der Perspektive eines „Liam“, aktuell einer der beliebtesten Jungennamen unter weißen Amerikanern. Das muss man nicht unbedingt erkennen, sondern sollte es als Grundwissen verankern, wenn man mit Large Language Models (LLMs) arbeitet.
Organisationen können sich dann fragen: Wann ist es tolerierbar, dass „Liam“ den Ton angibt und wann nicht? Die Modelle selbst können nämlich nur von den großen Herstellern verändert werden. Die meisten KI-Tool-Anbieter greifen auf vortrainierte Modelle dieser Hersteller zurück.
Aus Erfahrung kann ich sagen: Es ist nicht einfach, gegen Bias anzukommen, selbst dann nicht, wenn man Einfluss auf Trainingsdaten oder Wissensdatenbanken im eigenen Projekt hat.
Gibt es Standards, Tools oder Prozesse, die Social Entrepreneurs nutzen können, um Bias systematisch zu identifizieren und zu minimieren?
Zu wissen, dass Bias existiert, ist bereits der erste Schritt. Danach geht es darum, achtsam mit den Ergebnissen umzugehen und sie gegebenenfalls auszugleichen. Wenn man zum Beispiel weiß, dass ein Bildgenerator wie Midjourney bei bestimmten Berufen hauptsächlich weiße Gesichter erzeugt, kann man bewusst mehr Diversität einfordern.
Wenn Organisationen eigene Datenbanken für eine KI bereitstellen können, haben sie das Privileg, zu prüfen, wie biased ihre Daten sind. Ein klassisches Beispiel: Unternehmen, die Recruiting-KIs auf Basis ihrer historischen Personaldaten trainieren. Wenn diese Daten wenig Diversität enthalten, sollte man sich nicht wundern, wenn Bewerberinnen von der KI benachteiligt werden.
Das Bewusstsein für mangelnde Diversität in Daten, für den generellen westlichen Bias vieler KI-Systeme und ein aufmerksamer Blick auf die Ergebnisse sind Dinge, die Organisationen unbedingt in ihre Prozesse integrieren sollten, wenn sie KI-gestützte Tools verwenden.
Und wenn es trotzdem passiert: Wie können Sozialunternehmen die Auswirkungen von Bias auf ihre Zielgruppen erkennen und gegensteuern?
Bias ist garantiert. Das sollte die Grundannahme sein.
Das bedeutet, dass Ergebnisse immer gegengeprüft werden müssen. Das ist natürlich die Krux: Viele hoffen, durch Automatisierung Arbeit zu sparen, führen durch das Gegenprüfen aber wieder einen zusätzlichen Arbeitsschritt ein.
Gerade Sozialunternehmen möchte ich das besonders ans Herz legen, weil sie sich häufig an vulnerable Zielgruppen richten. Dazu gehören Gruppen, bei denen schon kleine Fehleinschätzungen oder Halluzinationen schwerwiegende Folgen haben können, wie das Beispiel aus den Niederlanden zeigt. Außerdem sind viele dieser Gruppen in Datensätzen unterrepräsentiert. Frauen kennen dieses Problem beispielsweise schon aus der Medizin.
Zum Abschluss: Welche Quellen kannst du Leser:innen empfehlen, die sich nach dem Interview weiter informieren möchten?
Es ist wirklich nicht leicht, in einem Feld wie KI auf dem Laufenden zu bleiben, weil sich alles so schnell entwickelt. Gleichzeitig gibt es viele Hype-Narrative sowie finanzielle, politische und ideologische Interessen der großen Tech-Unternehmen, die das Thema zusätzlich vernebeln. Empfehlen kann ich zum Beispiel die News-Seite 404 Media sowie den Podcast „Tech Won’t Save Us“ von Paris Marx.
Werde Mitglied bei SEND
Werde Teil eines starken Netzwerks, das für Social Entrepreneurship nachhaltige politische Unterstützung und Begeisterung in der Gesellschaft schafft. Lass uns #GemeinsamWirken!
√ Politische und finanzielle Rahmenbedingungen für Social Entrepreneurship weiterentwickeln
√ Sichtbarkeit im und mit dem Netzwerk für deine Wirkung erzeugen
√ Dich mit Gleichgesinnten austauschen und zusammenschließen
Patrick Mijnals