KI verantwortungsvoll einsetzen: Ein Interview mit Aleksandra Zinoveva

17.03.2026

Was der EU AI Act für Sozialunternehmen bedeutet und wie Organisationen erste Schritte zu einem verantwortungsvollen KI-Einsatz gehen können.

Künstliche Intelligenz eröffnet auch für Sozialunternehmen neue Möglichkeitenetwa bei der Analyse von Daten, der Automatisierung von Prozessen oder der Entwicklung neuer Lösungen für gesellschaftliche Herausforderungen. Gleichzeitig stellen sich wichtige Fragen: Wie kann KI verantwortungsvoll eingesetzt werden? Und welche regulatorischen Anforderungen müssen Organisationen dabei beachten? 

Um Sozialunternehmen dabei zu unterstützen, die Potenziale von KI reflektiert zu nutzen, haben wir im vergangenen Jahr eine KI-Schulung für Social Entrepreneurs angeboten. Das praxisorientierte Programm vermittelte Grundlagen von Prompt Engineering über ethische Fragestellungen bis hin zu KI-gestützten Finanzierungsstrategien. Die Schulung fand von Mai bis Juli 2025 mit fachlicher Unterstützung unseres Mitglieds N3XTCODER statt. Auch Hassler:DEIReflecta sowie Civic Coding brachten ihre Expertise inhaltlich ein. 

Nachdem wir im ersten Interview mit Christoph Hassler über Bias und Diskriminierungspotenziale in KI-Systemen gesprochen haben, richtet sich der Blick nun auf die regulatorische Perspektive. Im Gespräch mit Aleksandra Zinoveva von N3XTCODER geht es um den EU AI Act und darum, was Sozialunternehmen konkret beachten sollten, wenn sie KI verantwortungsvoll einsetzen wollen. 

Interview mit Aleksandra Zinovera
Wer bist Du und was machst Du bei N3XTCODER?

Ich bringe einen mathematischen Hintergrund mit Schwerpunkt auf Machine Learning und Optimierung mit. Besonders spannend finde ich die Schnittstelle zwischen menschlicher und künstlicher Intelligenz. Das habe ich auch in der Forschung im kognitiven Labor erlebt, wo wir unter anderem versucht haben, menschliche Kognition durch ML-Modelle besser zu verstehen. 

Bei N3XTCODER entwickle ich KI-Lösungen für gemeinwohlorientierte Organisationen und Projekte. Mir ist wichtig, dass KI nicht nur technisch funktioniert, sondern auch ethisch verantwortungsvoll eingesetzt wird. Zusätzlich helfe ich Organisationen dabei, ihre Daten sinnvoll zu nutzen und eine durchdachte Datenstrategie zu entwickeln. 

In unserem Gespräch mit Christoph von Hassler:DEI ging es um Bias und Diskriminierungspotenzial in KI-Systemen. Welche Rolle spielt der EU AI Act konkret beim Schutz vor solchen Risiken?

Der EU AI Act ist wirklich ein weltweiter Wendepunkt, wenn es um Schutz vor Bias und Diskriminierung geht. Endlich haben wir einen rechtlichen Rahmen, der anerkennt, dass nicht alle KI-Anwendungen gleich sind. Konkret bedeutet das: Systeme, die Zugang zu gesellschaftlich relevanten Ressourcen steuern, unterliegen strengen Auflagen. Die Anbieter müssen nachweisen, dass ihre Trainingsdaten repräsentativ sind, ihre Systeme kontinuierlich auf Bias testen und transparent dokumentieren, wie Entscheidungen zustande kommen. 

Dabei entsteht Bias oft schon in der Art, wie wir Probleme modellieren oder Daten sammeln. Der EU AI Act bringt uns dazu, diese blinden Flecken systematisch anzugehen. Deshalb schreibt der EU AI Act auch vor, dass Menschen immer die Möglichkeit haben müssen, Entscheidungen zu hinterfragen und zu korrigieren. 

Für viele Sozialunternehmen ist es eine Herausforderung, regulatorische Anforderungen wie den EU AI Act umzusetzen. Welche ersten Schritte empfiehlst Du Organisationen, die noch ganz am Anfang stehen?

Das ist eine sehr berechtigte Sorge, die ich häufig höre. Vor allem Sozialunternehmen haben oft begrenzte Ressourcen und fühlen sich von der Komplexität des EU AI Acts überwältigt. Aber die gute Nachricht ist: Man muss nicht alles auf einmal machen. 

Mein erster Tipp ist immer: Macht eine ehrliche Bestandsaufnahme. Welche KI-Systeme setzt ihr bereits ein? Das können auch komplett harmlose Tools sein wie E-Mail-Filter – nicht alles fällt unter die Hochrisiko-Kategorie, aber ihr müsst wissen, was ihr habt. Schreibt auf, welche Daten woher kommen und wie die Systeme Entscheidungen treffen. Das ist nicht nur EU AI Act-konform, sondern hilft auch dabei, eure eigenen Prozesse zu verstehen. 

Der zweite Schritt ist die Risikobewertung. Fragt euch: Treffen diese Systeme Entscheidungen, die Menschen direkt betreffen? Findet direkte Mittelvergabe oder Zielgruppenauswahl statt? Dann könnt ihr in der Hochrisiko-Klasse landen. 

Du hast gerade die Risikoklassen genannt: Welche Risikoklassen gibt es und kann es für Sozialunternehmen Ausnahmen geben?

Genau, der EU AI Act definiert vier Risikoklassen: 

Geringes Risiko: Der zweite Schritt ist die Risikobewertung. Fragt euch: Treffen diese Systeme Entscheidungen, die Menschen direkt betreffen? Findet direkte Mittelvergabe oder Zielgruppenauswahl statt? Dann könnt ihr in der Hochrisiko-Klasse landen. 

Begrenztes Risiko: Der zweite Schritt ist die Risikobewertung. Fragt euch: Treffen diese Systeme Entscheidungen, die Menschen direkt betreffen? Findet direkte Mittelvergabe oder Zielgruppenauswahl statt? Dann könnt ihr in der Hochrisiko-Klasse landen. 

Hohes Risiko: Der zweite Schritt ist die Risikobewertung. Fragt euch: Treffen diese Systeme Entscheidungen, die Menschen direkt betreffen? Findet direkte Mittelvergabe oder Zielgruppenauswahl statt? Dann könnt ihr in der Hochrisiko-Klasse landen. 

Unannehmbares Risiko: Der zweite Schritt ist die Risikobewertung. Fragt euch: Treffen diese Systeme Entscheidungen, die Menschen direkt betreffen? Findet direkte Mittelvergabe oder Zielgruppenauswahl statt? Dann könnt ihr in der Hochrisiko-Klasse landen. 

Was Ausnahmen angeht: Der AI Act ist grundsätzlich größenblind, auch kleine Sozialunternehmen müssen sich daran halten, wenn sie Hochrisiko-Systeme einsetzen. 

Aber es gibt Erleichterungen: Gebühren und Auflagen, die im Zusammenhang mit dem EU AI Act entstehen, werden je nach Unternehmensgröße für KMU reduziert. Kleinstunternehmen können bei bestimmten Elementen des Qualitätsmanagements teilweise ausgenommen werden. Auch die Dokumentationsanforderungen sind vereinfacht: ihr bekommt spezielle, auf kleinere Unternehmen zugeschnittene Formate und Schulungen. 

Besonders interessant sind die „regulatorischen Sandkästen“. Dort können kleine Unternehmen KI-Anwendungen kostenlos entwickeln und testen, mit vereinfachten Konformitätsbewertungen. 

Auch wichtig zu verstehen ist: Wenn ihr KI-Systeme nur nutzt, aber nicht selbst entwickelt oder wesentlich modifiziert, seid ihr „Deployer“. Dann habt ihr weniger Pflichten als die eigentlichen Anbieter. Das ist für viele Sozialunternehmen, die bestehende Tools verwenden, eine wichtige Entlastung. 

Wie kann menschliche Aufsicht (human-in-the-loop), die im EU AI Act gefordert wird, im Alltag sozialer Organisationen sinnvoll umgesetzt werden. Gerade dort, wo Ressourcen knapp sind? 

„Human-in-the-loop“ klingt erst einmal nach zusätzlichem Aufwand, aber aus meiner Erfahrung kann es Prozesse auch effizienter machen, wenn man es klug angeht. Zunächst: Menschliche Aufsicht bedeutet nicht, dass jemand rund um die Uhr vor dem Computer sitzt. Es geht darum, dass Menschen die Kontrolle behalten und KI-Entscheidungen überprüfen können. 

Ein praktisches Beispiel aus unserem Bereich: Statt, dass KI automatisch Förderanträge bewilligt, kann sie diese vorsortieren und Vorschläge machen, aber die finale Entscheidung trifft immer noch ein Mensch. Das spart Zeit bei der ersten Sichtung, aber kritische Entscheidungen bleiben in menschlicher Hand. 

Der Schlüssel ist, dass menschliche Aufsicht in bestehende Prozesse integriert werden muss. Es sollte sich nicht wie zusätzliche Arbeit anfühlen, sondern wie eine Unterstützung. Wichtig ist auch: Die Menschen, die diese Aufsicht übernehmen, müssen verstehen, wie das KI-System funktioniert, auch das gehört zu den Anforderungen des EU AI Acts. 

Was gibst du Sozialunternehmen mit, die KI verantwortungsvoll einsetzen wollen, aber aktuell noch Bedenken haben? 

Rechtliches: Die offizielle EU-Seite zum AI Act ist natürlich Pflicht, aber ehrlich gesagt ziemlich überfordernd und trocken. Praxisnäher ist der KI-Kompass für KMU vom Bundeswirtschaftsministerium. Dort findet ihr konkrete Leitfäden speziell für kleinere Unternehmen. 

Podcasts:KI verstehen“ beim Deutschlandfunk beleuchtet regelmäßig verschiedene Aspekte von KI. Für den internationalen Blick ist „AI Daily Brief“ sehr knapp und verständlich aufbereitet. 

YouTube: Mein Lieblingskanal „3Blue1Brownerklärt ML-Grundlagen sehr visuell und intuitiv, wenn ihr das technische Verständnis vertiefen wollt. Für Ethik-Aspekte sind außerdem die TED Talks von Cathy O’Neil oder Timnit Gebru sehr empfehlenswert. 

Newsletter & Aktuelles: AINews von smol.ai ist in meinem Alltag unfassbar hilfreich. Dort werden täglich hunderte von AI-Discords, Reddit-Communities und Twitter-Accounts durchforstet und die wichtigsten Trends und Entwicklungen zusammengefasst. AlgorithmWatch macht außerdem solide investigative Arbeit zu KI-Systemen in Europa. Deren Newsletter ist Gold wert für regulatorische Entwicklungen. 

Vergesst aber nicht: Der beste Weg zu lernen ist, es auszuprobieren, natürlich verantwortungsvoll und im Rahmen eurer Möglichkeiten. 

Ansprechpartner

Patrick Mijnals

Dieses Interview ist Teil unserer Reihe zur KI-Schulung für Social Entrepreneurs. Während Christoph Hassler im ersten Gespräch den Fokus auf Bias und Diskriminierungspotenziale in KI-Systemen legt, geht es in diesem Interview mit Aleksandra Zinoveva von N3XTCODER um die regulatorische Perspektive: Welche Rolle spielt der EU AI Act und was bedeutet er konkret für Sozialunternehmen, die KI einsetzen oder entwickeln?

Werde Mitglied bei SEND

Werde Teil eines starken Netzwerks, das für Social Entrepreneurship nachhaltige politische Unterstützung und Begeisterung in der Gesellschaft schafft. Lass uns #GemeinsamWirken!

√ Politische und finanzielle Rahmenbedingungen für Social Entrepreneurship weiterentwickeln
√ Sichtbarkeit im und mit dem Netzwerk für deine Wirkung erzeugen
√ Dich mit Gleichgesinnten austauschen und zusammenschließen

Jetzt Mitglied werden