top of page
AutorenbildIQONIC.AI

Deepfakes entlarven: KI, Ethik und der Kampf gegen Desinformation

Deepfakes sind täuschend echt aussehende, manipulierte Bilder, Audio- oder Videoaufnahmen, die mit Hilfe künstlicher Intelligenz erstellt wurden. Sie werden oft aus Spaß, Unterhaltung – oder Aktivismus – veröffentlicht, indem Gesichter oder Stimmen täuschend echt imitiert werden. Mit Hilfe von Programmen, Apps oder anderer geeigneter Software kann fast jeder superrealistisch aussehende Videos erstellen. Gesichter und Stimmen können in Echtzeit ausgetauscht und Personen in einem anderen Kontext dargestellt werden. Menschen sagen Dinge, die sie nie gesagt oder getan haben. Das kann Spaß machen, birgt aber auch Gefahren wie Manipulation und Desinformation.


"Altered photo/video" warning message on an Instagram post, which Instagram uses to flag digitally altered images and prevent the spread of deep fakes and false information.
Instagram hat damit begonnen, digital veränderte Bilder als Falschinformationen zu kennzeichnen.

Gesellschaftliches Missbrauchspotenzial von Deepfakes

Deepfakes können eine große Bedrohung für Gesellschaft und Politik darstellen. Vor allem dann, wenn sie zur Manipulation der öffentlichen Meinung und zur gezielten Beeinflussung politischer Prozesse eingesetzt werden. Desinformationskampagnen könnten in Zukunft immer häufiger von Deepfakes begleitet werden und so ihre Wirkung verstärken. Die Qualität der Deepfakes wird immer besser, weil die Rechenleistung steigt und sich die Leistungsfähigkeit künstlicher Intelligenz rasant entwickelt. Es wird immer schwieriger, authentisches von künstlich erzeugtem oder verändertem Material zu unterscheiden. Die schnelle Verbreitung über soziale Medien erhöht das Gefahrenpotenzial.


Wie können die negativen Folgen von Deepfakes minimiert und gleichzeitig die Vorteile für die Gesellschaft genutzt werden?

Es gibt nur wenige internationale und nationale Regelungen bezüglich Deepfakes. In Deutschland dient bislang das Netzwerkdurchsetzungsgesetz (NetzDG), das auch den Umgang mit KI-Manipulationen oder Desinformation abdeckt, als Orientierung. Die Plattformen selbst sind in der Regel strenger reguliert als die gesetzlichen Vorgaben des NetzDG. Sie löschen oder kennzeichnen entsprechende Inhalte auf Basis eigener Hausregeln und Ethikkodizes. Dies ist insbesondere bei nutzergenerierten Inhalten von Bedeutung.

In Deutschland fördert der "Rat für technologische Souveränität" des Bundesministeriums für Bildung und Forschung Forschungsprojekte zur Erkennung und Bekämpfung von Desinformation und Deepfakes. So entwickeln Wissenschaftler Programme, die auch künstliche Intelligenz nutzen, um die Echtheit von Video- und Audioinhalten zu überprüfen und so Fälschungen zu erkennen.

Eine weitere Form des Schutzes ist die Vermittlung von Digital- und Medienkompetenz. Denn Nachrichtenkompetenz und digitale Informationskompetenz sind entscheidend, um Desinformation und vor allem Deepfakes erkennen zu können.


Wie kann ich Deepfakes erkennen?

  • Achte auf eine gute Bildqualität. Je größer das Bild ist, desto leichter sind Unstimmigkeiten im Bild zu erkennen. Deshalb ist es besser, heikle Videos nicht auf dem Handy, sondern auf einem größeren Bildschirm anzusehen. Gute Farbeinstellungen helfen ebenfalls, Unstimmigkeiten zu erkennen, zum Beispiel beim Hautton.

  • Achte auf die Mimik der Person: Gibt es natürliche Bewegungen wie Blinzeln, Stirnrunzeln oder Zornesfalten? Diese können von künstlichen Intelligenzen noch nicht gut dargestellt werden.

  • Schaue ein Video langsam oder mehrmals an, um mögliche Verzerrungen zu erkennen!

  • Überprüfe die Quelle auf Verlässlichkeit!


Obwohl KI viele fortschrittliche Möglichkeiten bietet, muss sie immer hinterfragt und mit Vorsicht behandelt werden, um ihre Risiken zu erkennen und entsprechend damit umzugehen!

1 Ansicht0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comentarios


bottom of page