Vergiss Deepfakes, neue Bildbearbeitungs-AI sprengt die Vorstellungskraft
° Die Zahl an AIs, die zur Bilderstellung und -manipulation genutzt werden, wächst stetig.
Generierte Inhalte mit dieser Bildbearbeitungs-AI können dabei täuschend echt ausfallen. Auf den ersten Blick sind vielen von ihnen nicht mehr von echten Fotos zu unterscheiden. Es ist Vorsicht geboten.
Die Technologie entwickelt sich weiter. AI generierte Inhalte sind mittlerweile täuschend echt geworden. Auf den ersten Blick lassen sich viele der angefertigten Bilder nicht mehr von echten Bildern unterscheiden. Darum ist Vorsicht geboten, worauf du im Netz stößt. Nicht bei jedem Werk solltest du deinen Augen blind vertrauen. Die Kreationen dieser neuen Bildbearbeitungs-AI sprengen die Vorstellungskraft gewaltig.
° Deepfakes: „Man kann einer einfachen visuellen Kommunikation nicht mehr trauen“
Per künstlicher Intelligenz manipulierte Videos, so genannte Deepfakes, sind inzwischen leicht herzustellen. Im Ukrainekrieg nutzen sie beide Seiten zu Propagandazwecken.
Ein echt wirkendes Video, in dem Wolodymyr Selenskyi seine Soldaten aufruft, die Waffen niederzulegen, ein ähnliches Video, in dem Wladimir Putin die Kapitulation erklärt, und ein Kiewer Bürgermeister Vitali Klitschko im Videogespräch mit seiner Berliner Amtskollegin Franziska Giffey (SPD) entpuppten sich schnell als Fälschungen. Laut dem Darmstädter IT-Forensiker Martin Steinebach bewahrheitet sich im Ukrainekrieg erstmals etwas, vor dem Fachleute schon lange warnen: Dass so genannte Deepfakes zur Desinformation der Öffentlichkeit eingesetzt werden. Wie man solche Manipulationen erkennt, sich davor schützt und welche guten Anwendungen Deepfakes auch haben, erklärt der Forscher vom Fraunhofer-Institut für Sichere Informationstechnologie im Interview mit Riffreporter.
° Das Gehirn erkennt Deepfakes – aber nur unterbewusst
Immer häufiger werden wir mit computergenerierten Personen konfrontiert, die sich kaum von echten unterscheiden lassen. Doch offenbar kann unser Hirn das doch.
Computern gelingt es dank maschinellem Lernen und neuartigen Bilderzeugungsalgorithmen längst, kaum mehr zu erkennende Fälschungen von Menschen zu erzeugen – im Foto wie auch im Video. Doch offenbar verfügt unser Gehirn über Möglichkeiten, Deepfakes & Co. doch zu identifizieren, erstaunlicherweise aber nicht bewusst, sondern unterbewusst. Zu diesem Schluss kommt eine Gruppe von Forschern an der University of Sydney, die dazu die Hirnstrommessung verwendet hat.