Navigation auf uzh.ch

Suche

Willkommen am fög – Forschungszentrum Öffentlichkeit und Gesellschaft

Deepfakes – Wie sie von der Schweizer Bevölkerung wahrgenommen werden

Sogenannte Deepfakes, also Bild-, Audio- oder Videoinhalte die mit Künstlicher Intelligenz verändert oder erstellt wurden, kursieren vermehrt in den Sozialen Netzwerken und im Internet. Mit dem Innovationsschub im Bereich der KI hat das Phänomen  an Bedeutung gewonnen. Gerade mit Blick auf die Schweiz, existiert noch kaum Forschung zu Deepfakes. Eine neue Studie des fög schafft Grundlagen.

Forschende des fög haben im Rahmen eines breit abgestützten Projekts der Stiftung für Technologiefolgenabschätzung TA Swiss in einer neuen Studie erhoben, welche Erfahrungen Schweizerinnen und Schweizer mit Deepfakes haben, wie sie die Chancen und Risiken von Deepfake-Technologien einschätzen und ob sie in der Lage sind, Deepfakes von realen Videos zu unterscheiden. Neben der Wahrnehmung in der Bevölkerung beleuchtet die TA-Swiss-Studie die Chancen und Risiken von Deepfakes in der Politik, der Wirtschaft, im Recht und im Journalismus. Für die Studie hat das fög mit Forscher:innen des Frauhofer Institut für System- und Innovationsforschung und der Universität Freiburg zusammengearbeitet.

Bekanntheit von Deepfakes

Für die Studie wurde eine repräsentative Befragung von 1359 Schweizer:innen aus der Deutschschweiz und der Suisse Romande durchgeführt (vgl.  Methodik). Die Resultate zeigen, dass nur etwas mehr als die Hälfte der Befragten den Begriff Deepfakes kennen. Ähnlich viele geben an, bereits Deepfakes gesehen zu haben. Nur eine kleine Minderheit, nämlich  2% respektive  3% hat nach eigenen Angaben schon Deepfakes erstellt oder weiterverbreitet.

Risiko oder Chance?

Die Schweizer Bevölkerung assoziiert Deepfakes grösstenteils mit Risiken. Besonders Menschen, die glauben, dass andere von Deepfakes beeinflusst werden, schätzen die Risiken von Deepfakes als hoch ein.

Frauen nehmen individuelle Risiken, wie die Gefährdung der Privatsphäre oder das Risiko, selbst Opfer eines Deepfakes zu werden, stärker als Gefahr wahr.

Spannenderweise ändert sich die generelle Einschätzung der möglichen Chancen von Deepfake-Technologie, wenn die Bezeichnung «synthetische Medien» anstelle des Begriffs «Deepfakes» verwendet wird. Der Begriff «synthetische Medien» scheint also weniger mit Risiken assoziiert zu werden als der Begriff Deepfake.

Social Media Literacy ist essenziell

Die im Rahmen der Analyse durchgeführten Online-Experimente zeigen klar, dass die Schweizer Bevölkerung Deepfakes kaum von realen Videos unterscheiden kann. Insbesondere dann, wenn die Deepfakes qualitativ gut bis sehr gut sind. Es gibt jedoch eine Komponente, welche einen positiven Einfluss auf das Erkennen von Deepfakes hat: Die Kompetenz im Umgang mit neuen Medien im Internet, die sogenannte Social Media Literacy.

Die TA-Swiss-Studie wurde unter der Leitung von Dr. Murat Karaboga vom Fraunhofer Institut für System- und Innovationsforschung durchgeführt. Dr. Daniel Vogler, Forschungsleiter des fög, Prof. Dr. Adrian Rauchfleisch (National Taiwan University) und Dr. Gabriele De Seta (Universität Bergen) waren für die Durchführung der repräsentativen Befragung zuständig. Die gesamte Studie kann unter folgendem Link eingesehen werden: Deepfake Studie