fbpx

Stimmen-Imitation per Software: Enkeltrick mit KI erreicht Düsseldorf

Der Enkeltrick ist alt, aber bis heute bei Betrügern beliebt. Nun gibt es deutschlandweit eine neue Variante des Telefon-Betrugs. Dabei ahmt eine Software die Stimme von Angehörigen täuschend echt nach. Wie viele Fälle gibt es in Düsseldorf?

Veröffentlicht am 14. September 2023
Enkeltrick: Stimmen per KI imitieren
Die Kriminellen nutzen bei dem neuen Enkeltrick künstliche Intelligenz, um die Stimmen von Angehörigen nachzuahmen. Foto: Andreas Endermann

Als Stefan Mertens* an diesem Tag auf sein Handy schaut, denkt er sofort, dass irgendetwas passiert sein muss. Das Smartphone zeigt sechs Anrufe in Abwesenheit. Sein Vater und seine Mutter haben es versucht, seine Frau ebenfalls. Der Düsseldorfer ruft zurück – und erfährt dann, was passiert ist. Mertens’ Vater Rudolf* hatte kurz vorher einen Anruf erhalten. „Papa, Papa, ich brauche schnell 120.000 Euro. Ich habe ein vierjähriges Mädchen überfahren und bin auf dem Weg ins Gefängnis“, sagte sein angeblicher Sohn und gab auch gleich die passenden Anweisungen: Pack das Geld in einen Rucksack, es wird gleich von einem Taxi abgeholt.

Als der Senior später mit seinem richtigen Sohn spricht, weiß der nichts von einem Unfall. Sie kontaktieren die Polizei. Eines macht die beiden stutzig. Er hätte schwören können, „dass du das warst“, sagt Rudolf Mertens zu seinem Sohn. Der kann sich das nur so erklären: Dessen Stimme wurde mit einer Computer-Software imitiert. Er hat kürzlich etwas von dieser Masche gelesen. Einen Verdacht hat er auch. Ein paar Tage vorher hatte eine Frau angerufen und eine Umfrage mit ihm machen wollen. Weil ihm das so unseriös vorkam, beendete Stefan das Gespräch innerhalb von einer halben Minute. Womöglich reichte das, um seine Stimme aufzunehmen, vermutet er. Wie die Täter an seine Nummer gekommen sind und die Verknüpfung zu seinem Vater hergestellt haben, weiß er nicht.

Einen Enkel gibt es hier zwar nicht, dennoch fällt dieser Fall in die Kategorie des Enkeltricks. Der ist uralt, bei Kriminellen aber noch immer beliebt und vielfach erfolgreich. Das liegt auch daran, dass es immer wieder andere Varianten gibt. Die jüngste wird „Audio Deepfake“ oder „Voice Cloning“ genannt. Dabei werden, so beschreiben es Experten von Ermittlungsbehörden und Verbraucherzentralen, Stimmproben einer Person in einer speziellen Software hochgeladen. Damit ist es möglich, per künstlicher Intelligenz Audiodateien zu erzeugen, auf denen die nachgeahmte Stimme jeden beliebigen Text sprechen kann. Und das täuschend echt.

Das ist jetzt eine gemeine Stelle, den Text auszublenden, das wissen wir.

Da unser Journalismus werbefrei und unabhängig ist, können wir ihn nicht kostenlos anbieten. Deshalb bitten wir Sie an dieser Stelle darum, unsere Arbeit zu unterstützen und eines unserer Abos abzuschließen oder diesen Artikel einzeln zu kaufen. Sie können per Paypal, Sepa-Lastschrift oder Kreditkarte bezahlen.

Start-Abo: 6 Monate für 1 Euro

Artikel einzeln kaufen

Schon Mitglied, Freundin/Freund oder Förderin/Förderer?

Hier einloggen


Lust auf weitere Geschichten?