Sie kann die Steuererklärung erledigen, auf Anweisung einen hübschen Werbefilm kreieren oder sogar Leben retten, wenn sie in der Notaufnahme bei einer schnellen, genaueren Diagnose hilft: Künstliche Intelligenz(KI) bietet der Menschheit viele Chancen. Etwa indem sie uns ungeliebte oder monotone Aufgaben abnimmt oder in wenigen Sekunden einen Text ins Englische übersetzt. Allerdings drohen auch Nachteile. Immer wieder berichten die Medien über geplante Entlassungen, vom Steuergehilfen bis zu Ingenieurin – alle kann es treffen. Die Tech-Expertin Mina Saidze berät mit ihrer Firma Inclusive Tech Organisationen und Unternehmen zu KI-Ethik und Diversität. Die 31-Jährige möchte, dass der Wandel menschenfreundlich und gerecht gestaltet wird, vor allem Frauenrechte sind ihr dabei ein Anliegen.

Ist Künstliche Intelligenz ungerecht?

KI ist per se weder gerecht noch ungerecht, sie ist ein Spiegel der Gesellschaft. Technologie ist niemals neutral, da sie von Menschen geschaffen wird. Wir sind dafür verantwortlich, welche Werte sie hat. Und wir müssen bei uns selbst anfangen, uns mit unseren Vorurteilen und unserer Voreingenommenheit auseinandersetzen. Sonst kann KI diskriminierende Auswirkungen haben.

Große Firmen nutzen in ihren Personalabteilungen zum Beispiel KI-Tools, die weltweit im Unternehmen nach passenden Kandidaten für eine Stelle suchen. Der Vorteil sei, heißt es, dass der Algorithmus eine diversere Auswahl treffe und Jobs – auch mit mehr Frauen – gerechter besetzt würden. Stimmen Sie dem zu?


Ich sehe das differenzierter. Am Ende ist es ein zweischneidiges Schwert. Wir haben weit mehr als einen Fall gesehen, bei dem ein großes Tech-Unternehmen intern eine KI-assistierte Recruiting-Software eingeführt hatte, die dann männliche Bewerber gegenüber weiblichen eindeutig bevorzugte. Das System war mit historischen Trainingsdaten angelernt worden, und in der Vergangenheit waren eben überproportional häufig Männer für diese Positionen eingestellt worden.

Also zementiert der Algorithmus Benachteiligung?

Wenn Recruiting-Software so programmiert ist, dass sie inklusiv, ethisch, verantwortungsbewusst und transparent ist, kann sie helfen, bessere Personalentscheidungen zu treffen. Aber in der Praxis trifft das selten zu, und das hat damit zu tun, dass KI-Ethik als Luxusthema betrachtet wird. Es gibt gerade so etwas wie ein Wettrüsten rund um generative KI. Dabei geht es primär darum, Profit zu maximieren, also etwa als erster mit der Innovation auf dem Markt zu sein oder Prozesse zu automatisieren.

Gibt es Beispiele, die zeigen, dass es besser geht?

Die gibt es, so hat der Schweizer Verlag Ringier im Rahmen seiner „EqualVoice“-Initiative ein Feature in sein Content-Management-System integriert: Die Redakteurinnen und Redakteure bekommen damit zum Beispiel schon beim Verfassen eines Artikels angezeigt, wie viel Prozent der zitierten Experten Frauen sind. Weibliche Stimmen sind immer noch viel zu wenig in der Öffentlichkeit repräsentiert. KI kann hier für mehr Gerechtigkeit sorgen, wenn sie einfach mitzählt und bewusst macht, wie die Verteilung aussieht. Journalisten können dann benachteiligte Menschengruppen besser berücksichtigen. Es gibt einige solcher positiver Beispiele.