banner
Nachrichtenzentrum
Unsere Waren werden sowohl auf lokalen als auch auf ausländischen Märkten geschätzt.

KI-Videos in den sozialen Medien zeigen vermisste, tote Kinder, die ihre Geschichten erzählen

Jun 22, 2024

Dabei handelt es sich um einige der weltweit aufsehenerregendsten Kriminalfälle mit Beteiligung von Kindern. Dabei handelt es sich um Geschichten über Missbrauch, Entführung, Folter und Mord, die die Länder, in denen die Verbrechen begangen wurden, seit langem heimsuchen.

Nun nutzen einige Content-Ersteller künstliche Intelligenz, um das Abbild dieser verstorbenen oder vermissten Kinder nachzubilden und ihnen „Stimmen“ zu geben, um die beunruhigenden Details dessen zu erzählen, was mit ihnen passiert ist. Experten sagen, dass technologische Fortschritte in der KI zwar kreative Möglichkeiten bieten, aber auch das Risiko bergen, Fehlinformationen zu verbreiten und die Angehörigen der Opfer zu beleidigen. Einige YouTuber haben ihre Beiträge als eine neue Möglichkeit zur Sensibilisierung verteidigt.

„Hallo, mein Name ist James Bulger“, heißt es auf dem Bild in einem TikTok-Video, das das Konterfei des britischen Zweijährigen darstellt, der 1993 entführt wurde, als seine Mutter Lebensmittel bezahlte.

„Wenn meine Mutter sich nach rechts gedreht hätte, hätte ich heute noch am Leben sein können. Leider ist sie nach links abgebogen“, sagt die kindliche Stimme und zitiert damit, was James‘ Mutter einmal als eines ihrer größten Bedauern bezeichnete: Wenn sie nach rechts abgebogen wäre, hätte sie gesehen, wie ihr Sohn von den beiden 10-Jährigen weggeführt wurde, die später zusammenkamen folterte und tötete ihn.

Während TikTok mehrere Videos entfernt hat, in denen James von seiner Entführung und seinem Tod in Kirkby, England, erzählt, sind viele weiterhin auf YouTube verfügbar.

James‘ Mutter, Denise Fergus, sagte dem Daily Mirror, dass die Beiträge „ekelhaft“ seien.

„Das Gesicht und den sich bewegenden Mund eines Kindes zu benutzen, das nicht mehr hier ist, das uns brutal weggenommen wurde, dafür gibt es keine Worte“, sagte sie der Zeitung.

Neuer Verdächtiger im Fall Madeleine McCann, deren Verschwinden Großbritannien heimsucht

Ein TikTok-Sprecher beschrieb den Inhalt über James als „beunruhigend“ und sagte, dass es auf der Plattform „keinen Platz“ für solche Beiträge gebe. „Unsere Community-Richtlinien besagen eindeutig, dass wir synthetische Medien nicht zulassen, die das Konterfei eines jungen Menschen enthalten“, sagte Barney Hooper in einer E-Mail an die Washington Post. „Wir entfernen weiterhin Inhalte dieser Art, sobald wir sie finden.“

In den Richtlinien von TikTok heißt es, dass die Weiterentwicklung der KI „die Unterscheidung zwischen Fakten und Fiktionen erschweren kann, was sowohl gesellschaftliche als auch individuelle Risiken birgt“, und fordert, dass Benutzer, die synthetische oder manipulierte Medien mit realistischen Szenen teilen, einen Haftungsausschluss mit dem Hinweis hinzufügen, dass der Inhalt dies nicht ist real. YouTube antwortete am Montag nicht sofort auf eine Bitte um Stellungnahme zu seinen Richtlinien.

Felix M. Simon, Kommunikationsforscher am Oxford Internet Institute, sagte, er sei zuversichtlich, dass die in diesem Artikel erwähnten Videos mit „einem oder mehreren KI-Tools“ erstellt wurden, könne aber nicht genau sagen, um welche Software es sich handelte.

„Sie scheinen mit irgendeiner Form von KI-Tools erstellt worden zu sein und weisen einige der typischen Merkmale billigerer KI-generierter Videos auf“, wie etwa eine Anime- oder Comic-ähnliche Ästhetik und eine gepflegte Haut, sagte er in einer E-Mail.

Den Patienten wurde gesagt, dass ihre Stimmen verschwinden könnten. Um sie zu retten, wandten sie sich an die KI.

Laut Mirror sagte Stuart Fergus, der Ehemann von James Bulgers Mutter, dass er, nachdem er sich an einen YouTuber gewandt und ihn gebeten hatte, sein Video zu entfernen, eine Antwort erhalten habe: „Wir haben nicht die Absicht, jemanden zu beleidigen.“ Wir machen diese Videos nur, um sicherzustellen, dass niemandem noch einmal ein Vorfall passiert. Bitte unterstützen Sie meine Seite weiterhin und teilen Sie sie, um das Bewusstsein dafür zu schärfen.“

Trotz der Versuche von TikTok, solche Videos zu entfernen, sind immer noch viele auf der Plattform zu finden, von denen einige Millionen von Aufrufen generiert haben.

„Mein Name ist Madeleine Beth McCann“, sagt eine kindliche Stimme in einem anderen Video, das ein Bild der britischen Dreijährigen zeigt, die 2007 aus einem portugiesischen Resort verschwand. „Ich werde immer noch vermisst.“ Das von The Post rezensierte TikTok-Video wurde Zehntausende Male angesehen, bevor TikTok es entfernte. Der Inhaber des Accounts hatte neben dem Video geschrieben, dass es sich um einen Versuch des „immersiven Geschichtenerzählens“ handele.

Ein anderes Video zeigt das Konterfei von Anne Frank, die Babykleidung bewirbt, bevor sie über die Schrecken des Holocaust spricht. „Sind Sie noch auf der Suche nach schöner und selbst gestalteter Babykleidung? Dann klicke auf den Link in meiner Bio und lass dich überraschen“, sagt das junge Mädchen mit braunen schulterlangen Haaren auf Deutsch. „Und jetzt erzähle ich Ihnen die Geschichte von Anne Frank.“

In einem weiteren Video desselben Kontos, ebenfalls auf Deutsch, taucht ein Junge mit blonden Haaren und einem vernarbten Gesicht auf, um die Geschichte von Peter Connelly zu erzählen, in Großbritannien auch als „Baby P“ bekannt. Der 17 Monate alte Sohn starb 2007 nach monatelangen körperlichen Misshandlungen durch seine Mutter und deren Freund.

Das Video über Peters kurzes Leben enthält eine auslösende Warnung, dass es Ärger verursachen könnte, enthält jedoch keinen Haftungsausschluss, dass das Video verändert oder KI-generiert wurde, wie von der Plattform gefordert. Der Inhaber des Kontos lehnte eine Stellungnahme ab, als The Post ihn ansprach.

Ein weiteres Video auf der Plattform von einem anderen Account erzählt die Geschichte von Gabriel Fernández, dem 8-jährigen Jungen aus Kalifornien, der von seiner Mutter und ihrem Freund tödlich gefoltert wurde. Er starb im Jahr 2013. „Als ich anfing, eine neue Schule zu besuchen, meldete der Lehrer dem Sozialamt, dass ich blaue Flecken am Körper hatte. Ich fragte sie, ob es normal sei, zu bluten, wenn meine Mutter mich mit einem Gürtel schlug“, heißt es in dem Video, das mehr als 25 Millionen Mal auf TikTok angesehen wurde, auf dem Bild eines Jungen, der angeblich Gabriel ist.

Simon, der Forscher, sagte, die Produktion solcher Videos werde einfacher, da die Funktionalitäten der KI zunehmen und Anwendungen billiger und für die Menschen einfacher zu nutzen seien.

Fortschritte in der KI haben zwar Software ermöglicht, die die Stimmen von Menschen präzise imitieren oder sogar klonen kann, doch die kindlichen Stimmen in diesen Videos scheinen computergeneriert zu sein und basieren nicht auf den echten Stimmen der Opfer. Die Stimme in einem der von The Post angesehenen Videos von Madeleine hat beispielsweise einen amerikanischen Akzent.

Simon warnte davor, dass die Videos – die oft von dramatischer oder trauriger Musik begleitet werden oder Kinder mit Narben und blutigen Gesichtern zeigen – „das Potenzial haben, die Hinterbliebenen erneut zu traumatisieren“.

„In vielen Gesellschaften und Kulturen ist die Überzeugung weit verbreitet, dass Verstorbene mit Würde behandelt werden und bestimmte Rechte haben sollten“, sagte er. „Solche Videos scheinen mir in zweierlei Hinsicht ein möglicher Verstoß gegen diesen Grundsatz zu sein. Erstens machen sie sich die Persönlichkeit des Verstorbenen zu eigen und missachten oder widersetzen sich dessen wahrscheinlichen Wünschen. Zweitens können sie das verletzen, was die Angehörigen des Verstorbenen als ihre Würde empfinden.“

Untersuchungen haben ergeben, dass emotionale Inhalte in sozialen Medien tendenziell zu einem höheren Engagement führen, was die Wahrscheinlichkeit erhöhen kann, dass Inhalte geteilt werden. Im Kommentarbereich dieser Videos hinterlassen viele Zuschauer eine Hommage an die jungen Opfer, während andere die Urheber dafür kritisieren, dass sie diese Opfer als Einflussmittel nutzen.

Cory Bradford, ein TikToker, der durch das Produzieren von Geschichtsvideos fast eine Million Follower gewonnen hat, sagte, dass er in seinen eigenen Posts zwar generell den Einsatz von KI vermeidet, diejenigen, die dies tun, jedoch wahrscheinlich versuchen, das Engagement zu steigern, insbesondere auf einer Plattform, auf der das Publikum tendenziell jünger ist. „Ich vermute, dass diejenigen, die KI verwenden, um diese Nachbildungen zu erstellen, dies aus Schock und Ehrfurcht tun, um hohe Aufrufzahlen zu generieren“, sagte er.

Hany Farid, Professor für digitale Forensik an der University of California in Berkeley, stellte außerdem fest, dass manipulierte Medien das Nutzerengagement wahrscheinlich deshalb fördern, weil sie „morbide und sensationell“ sind. Farid sagte, die Bilder der Kinder fallen in „die allgemeine Kategorie der Deepfakes, die heute häufiger als generative KI bezeichnet werden“.

Es gebe „definitiv“ einen Appetit auf historische Videos auf TikTok und sicherlich einen Ort für KI, um diese Geschichten zu erzählen, sagte Bradford.

Er sagte, die Technologie zur Wiederherstellung realistischer historischer Bilder sei noch nicht „ganz ausgereift“ und fügte hinzu: „Ich denke, solange die KI so unrealistisch ist, wird es Leute geben, die sagen, das sei einfach viel zu gruselig.“

Aber „es kommt dorthin“, sagte Bradford. „Und es wird bald da sein. Und wir müssen uns alle mit den Konsequenzen auseinandersetzen, die das nach sich ziehen wird.“