Zum Inhalt der Seite gehen


Betrugsmasche: Abzocke mit KI-generierter Stimme


In Nordamerika kam es zu Betrugsfällen, bei denen die Opfer die vermeintlichen Stimmen ihrer Angehörigen am Telefon hören. Diese wurden von einer KI generiert.

In Nordamerika greifen Kriminelle zu künstlicher Intelligenz: Mit KI-generierten Stimmen gehen sie auf Opfersuche für Variationen der als Enkeltrick bekannten Betrugsmasche. Dabei geben sich die Täter als Verwandte in Not aus, die dringend Geld benötigen, um weiteres dräuendes Ungemach abzuwenden.

https://www.heise.de/news/Betrugsmasche-Abzocke-mit-KI-generierter-Stimme-7537847.html