Facebook Parent Meta entfernt Deepfake-Video des ukrainischen Präsidenten Selenskyj

[ad_1]

Metas Facebook
<span class="caption"></p> <p>Facebook hat sich im Oktober in Meta umbenannt. </p> <p></span><span class="credit"></p> <p> James Martin/CNET<br /> </span>

Die Muttergesellschaft von Facebook, Meta, sagte am Mittwoch, dass sie ein Deepfake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj wegen Verstoßes gegen die Regeln des sozialen Netzwerks gegen manipulierte Medien entfernt habe.

„Es erschien auf einer angeblich kompromittierten Website und wurde dann im Internet angezeigt“, sagte Nathaniel Gleicher, der die Sicherheitspolitik bei Meta leitet, in a twittern über das Video. „Wir haben dieses Video schnell überprüft und entfernt, weil es gegen unsere Richtlinie gegen irreführende manipulierte Medien verstößt, und unsere Kollegen auf anderen Plattformen benachrichtigt.“

Videos bekannt als Deepfakes Verwenden Sie künstliche Intelligenz, um Videos von Menschen zu erstellen, die etwas tun oder sagen, was sie nicht getan haben. Gleicher sagte, das Video von Selenskyj habe den Anschein erweckt, der Politiker habe eine Aussage gemacht, die er eigentlich nicht gemacht habe. Meta hat das Video nicht identifiziert oder gesagt, was die Aussage war. CNET hat das Video nicht gesehen.

Die Entfernung des Videos unterstreicht die anhaltenden Herausforderungen, vor denen soziale Netzwerke stehen, wenn sie versuchen, die Verbreitung von Fehlinformationen nach der russischen Invasion in der Ukraine einzudämmen. Einige Social-Media-Nutzer haben gepostet alte Videoaufnahmen auf Twitter und Facebook, um den Anschein zu erwecken, als würden sie Ereignisse in Echtzeit aufzeichnen. An Tick ​​Tackhaben einige Leute altes oder kontextfremdes Audio verwendet, um gefälschte Videos zu erstellen.

Meta entfernt nicht immer falsche Inhalte und stützt sich stattdessen darauf, Benutzer auf maßgebliche Quellen zu verweisen oder Fehlinformationen zu kennzeichnen. Das soziale Netzwerk arbeitet mit Faktenprüfern von Drittanbietern zusammen, um Fehlinformationen über seine Dienste zu kennzeichnen, zu denen auch die Foto- und Video-App Instagram gehört. Meta sagt, dass es Fehlinformationen entfernen wird, wenn die Gefahr von körperlichen Schäden besteht oder wenn die Medien sehr irreführend sind.

„Wir entfernen diese Inhalte, weil sie schnell viral werden können und Experten darauf hinweisen, dass falsche Überzeugungen in Bezug auf manipulierte Medien oft nicht durch weiteren Diskurs korrigiert werden können“, heißt es in Metas Regeln gegen manipulierte Medien.



[ad_2]

Kommentar verfassen

%d Bloggern gefällt das: