©Adobe Firefly
in

Ich glaube nur, was ich sehe

von Mario Passini

Blicken wir, liebe Leserin, lieber Leser, kurz zurück. Nicht allzu weit. Nur gerade einmal bis in die Steinzeit. In der prähistorischen Stadt Bedrock, zu einer Zeit, als Smartphones und das Internet eine weit entfernte Science-Fiction-Story waren, hätten sich Fred Feuerstein und sein Freund und Nachbar Barney Geröllheimer niemals vorstellen können, was die Zukunft so alles bereithält. Eines ruhigen Abends, während sie gemütlich an ihren Steintischen saßen und über das nächste Mammut-BBQ plauderten, meinte Fred: „Barney, es gibt nichts, was es nicht gibt!“ Barney, immer der Skeptiker, erwiderte mit einem schelmischen Grinsen: „Siehst Du Fred, deshalb glaube ich nur, was ich sehe.“

Hinein in die Welt der KI-generierten Videos

FALSCH! Das, was wir heute sehen, existiert oft gar nicht; es ist wie eine moderne Fata Morgana. Die Technologie der KI-generierten Videos (KI = Künstliche Intelligenz), die durch Texteingabe – Spracheingabe kommt in näherer Zukunft – realistische Videos erschafft, führt uns an den Rand dessen, was wir für möglich halten. Was wir sehen, ist nicht immer das, was es zu sein scheint. Diese technische Revolution öffnet eine moderne Version der Büchse der Pandora und löst eine Welle bahnbrechender Veränderungen aus, die schneller und weitreichender sein werden als alles in den letzten drei Jahrhunderten. Es ist genau der richtige Zeitpunkt, um diese wunderbare und zugleich verwirrende Welt zu erkunden. Um neue Möglichkeiten in Unterhaltung, Politik, Bildung und Privatleben zu entdecken, während gleichzeitig ernste, ethische Fragen anstehen.

Während die Vorteile von KI-generierten Videos offensichtlich sind, bergen sie auch Risiken, die nicht übersehen werden dürfen. Großes Bedenken bringt der potenzielle Missbrauch durch Deepfakes – Videos, die Personen zeigen, die Dinge sagen oder tun, die nie stattgefunden haben. Dies könnte genutzt werden, um die öffentliche Meinung zu manipulieren, politische Gegner zu diskreditieren oder Prominente in kompromittierenden Situationen darzustellen. Ein weiteres Risiko betrifft die Privatsphäre und Sicherheit: Mit genügend Daten könnte die KI eine Person so realistisch imitieren, dass selbst für Experten die Unterscheidung zwischen Echtheit und Fälschung schwierig wird, was zu einem Vertrauensverlust in digitale Inhalte führen und die Grundlagen unserer Informationsgesellschaft erschüttern könnte.

Ein drohendes Szenario

Ein Beispiel gefällig? Stellen Sie sich die neue Technologie vor, die bald Wirklichkeit werden könnte: Sie schalten Ihren Bildschirm ein und plötzlich steht Ihnen Ihr perfektes Ebenbild gegenüber – Ihr Alter, Ihr Ego, das Sie bis ins kleinste Detail exakt und fehlerfrei nachahmt. Stimmige Kleidung, gleiche Stimme, die gleichen blauen Augen. Dieses digitale Double zeigt weder Pixelfehler noch verzerrte Perspektiven, sondern eine vollkommene und absolut echte Darstellung Ihrer selbst.

Je nach Programmierung kann dieser digitale Doppelgänger entweder lobend oder bedrohlich reagieren. In einem erschreckenden Szenario könnte Ihr Ebenbild damit drohen, Ihre dunkelsten Geheimnisse zu enthüllen – von Brandstiftung bis zu schweren Verbrechen – und diese über alle TV-Kanäle sowie soziale Medien zu verbreiten, es sei denn, Sie zahlen einen bestimmten Betrag auf ein angegebenes Konto. Dabei sind Sie ein gesetzestreuer, ehrbarer und untadeliger Bürger, frei von jeglichem Fehlverhalten. Sie verhalten sich vorbildlich und verdienen Respekt. Doch wer würde das glauben, wenn eine lebensechte, unverwechselbare Version von Ihnen im Fernsehen ein Schuldbekenntnis ablegt?

Sie fragen sich vielleicht, wie es möglich ist, dass ein solch realistisches Bild von Ihnen existieren könnte. Die Antwort wird Sie vielleicht nicht überraschen: Sie würden sich wundern, wie oft Ihr Abbild auf zahlreichen Handys festgehalten ist, ob gewollt oder ungewollt.

Verschmelzung von Staat und Schatten

Diese Entwicklung birgt das Risiko gefährlichen Missbrauchs. Angenommen, eine politische Figur wie Donald T. nutzte diese Technologie, um realistische Videos zu erstellen, in denen Gegner unangemessene oder illegale Handlungen vornehmen. Dies könnte während einer Wahlkampagne die öffentliche Meinung manipulieren und das Wahlergebnis beeinflussen. Ein solcher Missbrauch könnte das politische Klima vergiften, Wahlen delegitimieren und das Vertrauen in demokratische Prozesse erheblich schädigen.

Regulatorische Notwendigkeiten

Angesichts der Risiken von KI-generierten Inhalten ist klar, dass starke regulatorische Maßnahmen notwendig sind. Experten fordern internationale Abkommen und Gesetze, um die Produktion und Verbreitung dieser Technologien zu regulieren. Eine vielversprechende Idee ist die Schaffung einer internationalen Stelle, die ein unveränderbares Wasserzeichen in alle KI-generierten Videos einbettet. Dieses würde als digitaler „Fingerabdruck“ fungieren, um den Ursprung und die Echtheit eines Videos klar zu kennzeichnen und das Engagement für Sicherheit und Ethik in der digitalen Welt symbolisieren. Doch selbst mit solchen internationalen Rahmenbedingungen müssten Überwachungs- und Durchsetzungsmechanismen entwickelt werden, um die Einhaltung der Regeln durch alle Beteiligten zu gewährleisten. Denn trotz dieser Maßnahmen bleibt die Herausforderung bestehen, dass hochmotivierte Kriminelle oder selbst staatliche Akteure möglicherweise Wege finden könnten, diese Sicherheitsvorkehrungen zu umgehen, was ein ständiges Wettrüsten zwischen Sicherheitstechnologien und den Methoden zu ihrer Umgehung bedeutet.

Kriminelle könnten KI-generierte Videos nutzen, um Menschen durch gefälschte, kompromittierende Inhalte zu erpressen, was das öffentliche Vertrauen untergräbt, und Karrieren zerstören kann. Die größte Gefahr dieser Technologie liegt in der Erstellung überzeugender Fake News, die durch schnell verbreitete Videos mit falschen Aussagen politischer Figuren erheblichen Schaden anrichten können, bevor sie entlarvt werden. Dies könnte das Vertrauen in die politische Kommunikation untergraben, Politikverdrossenheit fördern und direkt auf Wahlergebnisse einwirken. Externe Akteure könnten solche Videos auch nutzen, um politische Unruhen zu schüren und die globale Sicherheit zu gefährden. In einer Zeit, in der Informationen schneller verbreitet werden, als ihre Echtheit überprüft werden kann, stehen demokratische Prozesse ernsthaft auf dem Spiel.

Lesen Sie mehr darüber in der aktuellen risControl Print Ausgabe..

Inflation macht jungen Österreichern Kopfzerbrechen

Neuer Head of Sales Insurance