„Nicht für Schwarze geeignet“: Der virale LinkedIn-Headshot-Generator zeigt erneut die extremen Bias-Probleme der KI

  Die Figuren sind verschwommen, als sie durch einen Büroraum gehen.

Benutzer, die mit Remini, einem Foto-Enhancer mit künstlicher Intelligenz (KI), arbeiteten, um professionelle Porträtaufnahmen für ihre LinkedIn-Profile zu erstellen, wurden erneut an die extreme Voreingenommenheit erinnert andere Themen rund um KI-Kunst und Fotogenerierung. Die Neigung der KI, Fotos zu erzeugen, die die Sexualisierung von Frauen, Rassenstereotypen und Körperdysmorphien aufrechterhalten, ist kein neues Problem, aber es scheint wenig getan worden zu sein, um das Problem zu beheben.

Fortschritte in der KI haben dazu geführt, dass Benutzer immer mehr Zugang zu Systemen haben, mit denen sie auf einfache Weise KI-Kunstwerke und -Fotos erstellen können. Benutzer können Text oder eine Fotoaufforderung in das System einfügen und sehen, wie ihre Ideen zum Leben erweckt werden, da diesen KI-Kunstgeneratoren Hunderte Millionen Bilder und entsprechende Bildunterschriften zugeführt wurden, um Text in Bilder übersetzen und Objekte, Stile und Muster erkennen zu können im Datensatz. Sie nutzen das, was sie aus bereits vorhandenen Datensätzen lernen, um neue Fotos zu erstellen und zu verbessern.

Das Problem (eher eines von vielen Problemen) ist das Diese Datensätze sind nicht frei von Verzerrungen -weit davon entfernt. Einige dieser Modelle werden möglicherweise speziell auf Datensätze trainiert, denen es an Diversität und Repräsentation mangelt, oder sie verwenden möglicherweise öffentliche Bilder aus dem Internet, ohne die Möglichkeit zu haben, den Rassismus und Sexismus herauszufiltern, der oft das globale Netzwerk durchdringt. Trotz dieses Wissens sind viele Benutzer immer noch schockiert darüber, wie sexistisch, rassistisch und allgemein voreingenommen diese Systeme sein können.

Benutzer sind entsetzt über voreingenommene KI-Headshot-Generatoren

Der KI-Fotoverbesserer Remini ging viral, nachdem Benutzer kürzlich behaupteten, einen professionellen LinkedIn-Headshot-Hack gefunden zu haben. Benutzer haben einfache Selfies oder Porträtaufnahmen hochgeladen, kombiniert mit einem Modelfoto von etwa einer Person in einem Business-Anzug, um verbesserte Fotos für ihre LinkedIn-Konten zu erstellen. Einige Benutzer sehen darin eine günstigere und einfachere Alternative zu Photoshop oder der Beauftragung eines professionellen Fotografen. Allerdings funktioniert der Hack nicht bei jedem.

Der TikToker-Benutzer @mikefromdc hat das Video oben erstellt und zeigt die bizarren, eindeutig „nicht für Schwarzen freundlichen“ Ergebnisse, die er von Remini erhalten hat, die seine Haut merklich aufhellten und ihm aus irgendeinem Grund einen Durag verschafften, obwohl er ihn nicht trug eines auf einem der Fotos, die er als Referenz eingereicht hat.

Für POC-Frauen, die versuchen, den Generator zu verwenden, sind die Ergebnisse möglicherweise noch erschreckender. Die Künstlerin Lana Denina teilte ihre Ergebnisse auf Twitter und stellte fest, dass Remini, obwohl sie einfache Gesichts-Selfies als Referenz verwendete, hypersexualisierte, von der KI generierte Ganzkörperbilder produzierte. Die Bilder zeigten ein deutliches Dekolleté, und auf einem Foto war eine Frau zu sehen, die einen offenen Blazer ohne Hemd darunter trug. Denina erklärte, sie sei „entsetzt“ darüber, dass der KI-Generator lediglich ihre Gesichtszüge brauchte, um seine Voreingenommenheit zu zeigen.

In den Antworten auf Deninas Tweet verriet eine andere Frau, dass sie ähnliche Ergebnisse erzielt habe. Sie teilte auch die von ihr eingereichten Fotos mit, darunter ein Foto von ihr, das von den Schultern aufwärts vollständig bekleidet ist, und ein Modelfoto einer Frau in Geschäftskleidung. Allerdings generierte das System erneut ein Foto einer Frau in einem Blazer ohne Unterhemd, was den Benutzer verwirrte, wie das System das aus zwei professionellen Fotos von Frauen generierte.

Auch hier sind Probleme mit der Hypersexualisierung von Frauen und insbesondere farbigen Frauen durch KI nicht neu, aber diese Beispiele waren besonders schockierend. Diese Benutzer geben mit ihren Modell- und Referenzbildern einen professionellen Ton für das Foto an und legen geeignete Parameter fest, die die KI effektiv hätte nutzen können. Man kann sich vorstellen, wie erschütternd es ist, ein einfaches Foto des eigenen Gesichts einzusenden und im Gegenzug ein professionelles Porträtfoto zu verlangen, nur um stattdessen hypersexualisierte Ganzkörperbilder ohne Hemd zu erhalten. Dies scheint die Ergebnisse einer Studie aus dem Jahr 2021 zu widerspiegeln, die das herausgefunden hat sexistische KI ist sogar mehr Sexist als manche vielleicht gedacht haben. Selbst wenn diese Systeme „Unternehmensvorlagen“ und nicht-sexuelle Fotos empfangen, führt die bloße Anwesenheit schwarzer weiblicher Gesichtszüge zu einem sexualisierten Foto.

Remini hebt eine Vielzahl von Problemen hervor, die im Zusammenhang mit KI-generierten Fotos bestehen. Selbst wenn sich das Bewusstsein für die Voreingenommenheit in diesen Systemen verbreitet, kann sie immer noch schädlich sein. In den meisten Fällen werden diese Generatoren als „Verbesserung“ von Fotos und zur Verbesserung ihres Aussehens vermarktet. Es ist leicht zu erkennen, wo der Schaden liegt, wenn Benutzer Fotos mit kaukasischen Gesichtszügen, größerem Dekolleté und schlankeren Körpern zurückerhalten und ihnen gesagt wird, dass diese als besser und vorzuziehen gelten. Einige Benutzer haben bereits bemerkt, dass sie ihre verwenden KI-generierte Fotos als Motivation zum Abnehmen .

Benutzer müssen verstehen, dass KI-Fotogeneratoren wie Remini keine neutralen Einheiten sind. Sie sind extrem voreingenommen und die Bilder, die sie anbieten, sollten auf keinen Fall als realistisch, geschweige denn als erstrebenswert angesehen werden.

(Ausgewähltes Bild: piranka/Getty Images)