Bedrohung für Banken

Deep Fakes erleichtern Betrug

Rufschädigende, gefälschte Aussagen von Vorstandschefs, gefakte Identitäten bei der Kontoeröffnung, kursbeeinflussende Desinformationskampagnen in sozialen Medien gegen Banken und Firmen: Mit sogenannten Deep Fakes wird das virtuelle Klonen von...

Deep Fakes erleichtern Betrug

fir Frankfurt

Rufschädigende, gefälschte Aussagen von Vorstandschefs, gefakte Identitäten bei der Kontoeröffnung, kursbeeinflussende Desinformationskampagnen in sozialen Medien gegen Banken und Firmen: Mit sogenannten Deep Fakes wird das virtuelle Klonen von Gesichtern und Stimmen in naher Zukunft zum Kinderspiel und für Unternehmen und ihre Führungskräfte zur Bedrohung. Deep Fakes sind mit Hilfe künstlicher Intelligenz fabrizierte Videos, Audio- oder Bildformate. Sie ermöglichen teils schon heute täuschend echt wirkende synthetische Gesichts- oder Sprachimitationen.

Rasante Entwicklung

Die rasante technologische Entwicklung und die Verfügbarkeit der erforderlichen Software verbessern die Qualität stetig und wecken das Interesse von Kriminellen, aber auch politischen Spindoktoren und Geheimdiensten an Deep Fakes. Mittlerweile ist ihr Einsatz in Echtzeit möglich, der Täter befähigt, per Videochat mit dem Aussehen und der Stimme eines anderen zu kommunizieren. Alsbald werde es „menschlich unmöglich“, Fälschungen zu entlarven, befindet die Ratingagentur Moody‘s. Sie sieht die Gefahr, dass Führungskräften in Fake-Videos oder Tonaufnahmen Worte in den Mund gelegt werden, die Kursstürze hervorrufen. So könnten Deep Fakes Unternehmen derart zusetzen, dass sich Kunden, Investoren und Mitarbeiter abwenden, Kreditratings absacken und sie angesichts der verursachten Zweifel und Unsicherheit dauerhaft Schaden nehmen.

Expertinnen wie Agnieszka Walorska und Kathrin Meuthen von der Beratungsgesellschaft Capco weisen darauf hin, dass sich Betrüger Deep Fakes zunutze machen könnten, um Identitätsprüfungen bei Kontoeröffnungen etwa in Verbindung mit einem gestohlenen Ausweis auszutricksen. Auch Social Engineering sei Tür und Tor geöffnet. Dabei erschleichen sich Kriminelle das Vertrauen ihrer Opfer, bedienen sich ihrer Neugierde oder üben Druck auf sie aus. In einem der bislang raren Fälle, in denen der Einsatz von Deep Fakes publik wurde, fiel der Leiter der britischen Niederlassung eines deutschen Energiekonzerns 2019 einem Betrüger zum Opfer, welcher dank Stimmenimitationssoftware wie sein Chef klang. In dieser modernen Auflage des CEO Fraud oder Fake President ließ sich der Manager dazu hinreißen, 220000 Euro auf ein Konto in Ungarn zu überweisen. Geld, das von den Betrügern umgehend abgeräumt wurde.

EZB erwartet Wachsamkeit

Die EZB-Bankenaufsicht hat Deep Fakes nach eigener Aussage als potenzielle Bedrohung im Blick und erwartet auch von den Finanzinstituten, sich mit derlei Cyberrisiken auseinanderzusetzen. Sie erwarte von den Banken, alle Risiken, darunter auch Deep Fakes, zu bewerten und zu entschärfen, heißt es auf Anfrage.

Bericht Seite 2

BZ+
Jetzt weiterlesen mit BZ+
4 Wochen für nur 1 € testen
Zugang zu allen Premium-Artikeln
Flexible Laufzeit, monatlich kündbar.
Es wurden keine Inhalte gefunden, die den Filterkriterien entsprechen.