Aktuelle Themen Sind wir bald "Deep Fakes" ausgeliefert?
Gestern geisterte die Meldung durch die Medien, dass ein "falscher Klitschko" die Berliner Bürgermeisterin an der Nase herum geführt und etwa eine halbe Stunde mit ihr ein Videotelefonat geführt habe.
"Typisch Frau" werden wahrscheinlich einige Männer hämisch gegrinst haben, jedoch sie liegen falsch. Der "Fake" des Kiewer Bürgermeisters und früheren Profi-Boxers "hat nacheinander mit Rathauschefs quer durch Europa konferiert... . Auch Madrid, Wien, Budapest und möglicherweise weitere Städte sind betroffen. (Quelle)".
Das Videobild, die Mimik und die Stimme eines realen Betrügers wurde durch künstliche Intelligenz (KI) manipuliert, so dass sowohl das Aussehen, die Mimik wie die Stimme des Doppelgängers mit dem echten Klitschko übereinstimmten. Franziska Giffey kann also kaum ein Vorwurf gemacht werden. Das Beispiel zeigt jedoch, auf was für einem dünnen Eis wir uns inzwischen bewegen, wenn wir Videos als bare Münze nehmen und für real halten.
Wie kann sich gegen solche Manipulationen geschützt werden? Ich bin weit davon entfernt, eine Lösung zu wissen, aber sicher ist, dass es wichtig ist, dass wir uns der Möglichkeit solcher Manipulationen, die in Zukunft zunehmen werden, bewusst sein müssen. Wir müssen extrem kritisch mit Informationen, Bildern und nun auch Videos umgehen und müssen immer alles auf Plausibilität prüfen.
Mehr über Deep-Fake
Karl
P.S.: Wer mag kann auch meinen Videovortrag über KI anschauen: https://youtu.be/RVjBCXr3n8c
Das ließe sich eventuell lösen, wenn für derartige Videokonferenzen eine Authentisierung eingeführt würde, so wie sie im Personalausweisportal beschrieben wird. Das mag auf den ersten Blick umständlich erscheinen, bietet aber Sicherheit.
Lieber @det,
es geht ja nicht nur um Videotelefonate. Stell Dir vor, ein Deepfake-Video über die Verfehlung eines Politikers in Tat oder Rede würde ins Netz gestellt. Der Schaden wäre kaum reparierbar.
Karl
Wie kann sich gegen solche Manipulationen geschützt werden? Ich bin weit davon entfernt, eine Lösung zu wissen, aber sicher ist, dass es wichtig ist, dass wir uns der Möglichkeit solcher Manipulationen, die in Zukunft zunehmen werden, bewusst sein müssen. Wir müssen extrem kritisch mit Informationen, Bildern und nun auch Videos umgehen und müssen immer alles auf Plausibilität prüfen.Ganz einfach, sich auf solche Fallen überhaupt nicht einlassen.
Sollte ein 'Klitschko' das bei mir versuchen, der käme nicht mal übers Bimmeln weg, falls er überhaupt bei mir bimmeln könnte.
Ich habe meine persönliche 'WhiteList', über die nur jemand kommt, der darin steht.
So gibts auch keine InvestitionsAngebote um 07:00 morgens.
Mittlerweile hab ich nämlich kapiert, dass 'das Internet' eine der bösesten Sachen auf Erden ist. Leider wurde.
Das war doch kürzlich mal was mit der 'Interpol'. Ich glaube, die Buben wurden aber gekrallt. Wer solchen Brüdern aber glaubt, der weiss auch, daß der Mond eine Scheibe ist.
Ganz besonders bei Politikern sollte es doch einen 'VorTänzer' geben, der die Sache erst mal abklopft.
Wieso kommt dann Giffey in diese Falle? Die ist doch nicht blöde.
Was tust Du, Karl mit dem ST?
Deine zooms kündigst Du doch an. Ein Weg, um Unheil zu vermeiden.
Wer sich auf anderes, Unangekündigtes einlässt, muss sich nicht wundern.
So wie das Internet jetzt strukturiert ist, gibt es keine technische Chance gegen den Dreck.
Es hilft nur den Verstand einzuschalten mit dem Hintergedanken:
Brauche ich das wirklich? Jetzt? Muss ich das wirklich wissen? Was hilft es mir?
Beim auch nur geringsten Zweifel: Hau wech die Scheisse.
Wie lange wird es, eurer Einschätzung nach, noch dauern, bis diese DeepFakeProgramme so einfach zu verwenden sind, dass die Mehrheit der Menschen sie in excellenter Qualität einsetzen kann?
WurzelFluegel
Lieber @det,
Es wurde ja nicht nur Frau Giffey hereingelegt - die brach irgendwann das Gespräch ab. In Wien wurde es aber zu Ende geführt.
es geht ja nicht nur um Videotelefonate. Stell Dir vor, ein Deepfake-Video über die Verfehlung eines Politikers in Tat oder Rede würde ins Netz gestellt. Der Schaden wäre kaum reparierbar.
Karl
PolitikerInnen befinden sich in solchen Dingen in einer sehr schwierigen Lage. Sprechen sie nicht mit dem Anrufer, wird das ebenso hetztechnisch verfolgt wie solche Fake-Gespräche.
Die gegnerische Seite wird vermutlich auch immer cleverer und wenn sich um grössere Gruppen handelt, befinden sich immer mehr Experten unter ihnen, die solche Angriffe dann auch optimieren.
Es wird seit Jahren vom Machtwechsel, Umsturz, Verfolgung von PolitikerInnen usw. in grossem Umfange gefaselt. Meist reagiert man ja selbst kopfschüttelnd darauf und erklärte solche Fantasten zu Idioten. Das dürfte aber für die Zukunft nicht mehr stimmig sein.
Was wäre die Lösung? Einschränkung der medialen Freiheit oder auch aus Selbstschutz ein "Rückzug" von PolitikerInnen, damit sie nicht noch mehr zum Gespött gemacht werden, wie es seit vielen Jahren der Fall ist.
Alles wäre ein erster SChritt hin zu einer illiberalen Gesellschaft. Schon heute hört man z.B. Personen des öffentlichen Interesses sorgfältig sortiert sprechen und eine Art Textbausteine verwenden, weil sie vermutlich alle befürchten, sich sonst wieder irgendwelchen Shitstorms, auch mit Bedrohungspotential auszusetzen. Olga
Lieber @det,Erstmal Danke für das Thema, @karl. Ich stimme dir teilweise zu, dass durch so etwas Schaden angerichtet werden könnte. Doch haben wir die Vorstufe nicht schon längst erreicht? In einschlägigen Foren und Messengergruppen von Querdenkenkern, Verschwörungsgläubigen, Reichsbürgern etc. kursieren seit langem gefälschte Zitate von Politikern und von dem bis zum Deep Fake ist es nur noch ein kleiner Schritt.
es geht ja nicht nur um Videotelefonate. Stell Dir vor, ein Deepfake-Video über die Verfehlung eines Politikers in Tat oder Rede würde ins Netz gestellt. Der Schaden wäre kaum reparierbar.
Karl
Meiner Ansicht nach gibt es nur eine Strategie und das ist verstärkte Aufklärung und Stärken von Medienkompetenz. Die Menschen, die unbesehen gefälschte Zitate glauben, die werden auch Deep Fakes als Video akzeptieren, weil sie nämlich darin genau das finden, was sie hören wollen.
Die Alternative zur Bekämpfung solcher Fälschungen wollen wir garantiert nicht, denn das würde lückenlose Kontrolle sämtlicher Aktionen im Internet bedeuten. China hat in dieser Hinsicht gerade den nächsten Schritt angekündigt, dass Betreiber von Foren und Ähnlichem Beiträge vor Veröffentlichung auf Systemkonformität prüfen müssen. Ehrlich gesagt lebe ich lieber mit dem Risiko von Deep Fakes, wenn so die Alternative aussieht.