KI-generierte Früchte-Videos: Experten warnen vor frauenfeindlichen und rassistischen Inhalten
KI-Früchte-Videos: Experten warnen vor frauenfeindlichen Inhalten

KI-generierte Früchte-Videos: Experten warnen vor frauenfeindlichen und rassistischen Inhalten

Ein neuer Trend erobert derzeit TikTok und Instagram: KI-generierte Videos, in denen sprechende Früchte mit menschlichen Körpern Liebe, Betrug, Eifersucht und Hass darstellen. Doch hinter den scheinbar absurden Clips verbirgt sich ein ernstes Problem. Experten und Jugendschützer schlagen Alarm, da die Inhalte oft frauenfeindlich, rassistisch und brutal sind.

Absurde Szenen mit tiefgreifenden Botschaften

In den viralen Videos agieren Früchte wie Gurken, Aprikosen und Auberginen in alltäglichen Situationen, die jedoch schnell in Dramen münden. Typisch ist eine Szene, in der eine muskulöse Gurke mit tiefer Stimme eine Aprikose in Frauenkleidung anschreit: „Hey, haben wir kein Salz mehr oder was?“ Die Aprikose wird zum Nachbarn geschickt, einer Aubergine mit ausgestreckter Zunge, und es kommt zu einem Seitensprung. Kurz darauf ist die Aprikose schwanger, und bei der Geburt im Krankenhaus stellt sich heraus: Die Zwillinge sind Auberginen, keine Gurken. Der Gurken-Mann rastet aus.

Diese Dramaturgie wiederholt sich in tausenden Clips. Immer geht es um Betrug, oft mit dem Chef oder Nachbarn, der bei einer Geburt im Krankenhaus aufgedeckt wird. Die weiblichen Figuren werden dabei systematisch als herzlose Betrügerinnen und Lügnerinnen dargestellt, während die männlichen Figuren als gedemütigte Opfer erscheinen.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Von harmlosem Unsinn zu gefährlichen Inhalten

Doch die Probleme gehen weit über Beziehungsdramen hinaus. Medienberichte zeigen, dass viele dieser KI-Clips auf Social Media brutale und diskriminierende Inhalte enthalten. So gibt es Szenen, in denen Bananen-Figuren eine Erdbeer-Frau bedrängen und ihr Geld für Sex anbieten. Andere Clips zeigen weibliche Figuren in grenzüberschreitenden Situationen, die mit Macht, Druck und Demütigung verbunden sind.

Rassistische Klischees und Bodyshaming sind ebenfalls verbreitet. Figuren werden gezielt aufgrund ihrer Herkunft, ihres Aussehens oder ihrer Religion verspottet. Dazu kommen Gewaltdarstellungen und die Verharmlosung von Diskriminierung. Jugendschutz.net warnt zudem vor medizinischen Falschinformationen, bei denen Figuren behaupten, Obst könne Krankheiten heilen oder Medikamente ersetzen.

Studie belegt negative Auswirkungen

Eine internationale Studie unter Leitung der Universität Bern hat die Auswirkungen solcher Inhalte untersucht. Die Auswertung von mehr als 250 Studien mit über 130.000 Teilnehmenden zeigt: Wer regelmäßig frauenfeindliche Medieninhalte konsumiert, entwickelt eher negative Einstellungen gegenüber Frauen. Die Inhalte reichen von stereotypen Darstellungen bis hin zu offener Gewalt und können die Wahrnehmung nachhaltig prägen.

Vor allem junge Menschen reagieren sensibel darauf. Bei Jugendlichen verstärken solche Clips feindselige Einstellungen besonders stark. Die Folge ist, dass Frauen häufiger abgewertet, entmenschlicht und auf ihren Körper reduziert werden. In manchen Fällen werden sie sogar mitverantwortlich gemacht, wenn sie Opfer von Gewalt werden.

Jugendschützer fordern Maßnahmen

Jugendschützer betonen, dass es sich bei diesen KI-generierten Videos nicht um harmlosen Unsinn handelt. Sie fordern verstärkte Aufklärung und Regulierung, um die Verbreitung frauenfeindlicher und rassistischer Inhalte einzudämmen. Eltern und Erziehende sollten aufmerksam sein und mit Jugendlichen über die problematischen Botschaften in solchen Clips sprechen.

Der Trend zeigt, wie KI-Technologie missbraucht werden kann, um schädliche Stereotype zu verbreiten. Es bleibt abzuwarten, ob Plattformen wie TikTok und Instagram angemessen reagieren, um ihre jungen Nutzer vor diesen Inhalten zu schützen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration