Neue Gefahr: Virtuelles Kidnapping mit KI

Transparenz
DAS WICHTIGSTE IM üBERBLICK

Modernste Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) wurden zur Erh?hung von Produktivit?t, Effizienz und Komfort in unserem Alltag entwickelt. Leider geraten sie auch in die H?nde von Internetkriminellen mit b?swilligen Absichten. Die virtuelle Entführung ist eine neue Form der Cyberkriminalit?t, bei der KI zur Manipulation von Entscheidungsprozessen und zur Beeinflussung menschlicher Emotionen zwecks Sch?digung eingesetzt wird.

Kurzer Abstecher in eine Black Mirror-?hnliche Zukunftsvision, aber für einen guten Zweck.

Ihre Tochter ist auf ihrer ersten Klassenfahrt und freut sich, als Sie sie absetzen.

Nach ein paar Stunden sind Sie wieder zu Hause, und Ihr Telefon klingelt: Es ist Ihre Tochter! Etwas überrascht nehmen Sie den H?rer ab.

Sie werden von einer schroffen und unh?flichen Stimme auf der anderen Seite überrascht: ?Wir haben Ihre Tochter.“

Im Hintergrund h?ren Sie sie um Hilfe schreien.
Fassungslosigkeit wird zu Schock, und dann kommt die Aufforderung, 50.000 $ zu zahlen.

Charlie Brooker kümmert sich um den Rest, aber es endet mit der überweisung des Geldes, nur um festzustellen, dass Casey sicher und glücklich ist und ihre Reise genie?t.

Willkommen in der Welt des virtuellen Kidnappings. Die Betrüger haben Sie gerade get?uscht.

Moment mal, was ist dann mit Caseys Stimme? Sie klang so echt

Begrü?en Sie die Welt, in der die Stimme jeder Person – ob verstorbener oder lebender – in Sekundenschnelle nachgeahmt werden kann.

Diese Technologie gibt es bereits für verschiedene Anwendungsf?lle. Nehmen wir Podcast.ai, das Podcasts mit künstlicher Intelligenz (KI) generiert.

Der Gastgeber und die G?ste sind virtuell und k?nnen alle m?glichen Personen sein – live auf Sendung sind gerade Joe Rogan und Steve Jobs.

Inzwischen übersetzt Spotify seine beliebtesten Podcasts in andere Sprachen – mit den Stimmen der Original-Podcaster.

Laut Subbarao Kambhampati, einem Informatikprofessor an der Arizona State University, der sich auf KI spezialisiert hat, haben sich die F?higkeiten der KI zum Klonen von Stimmen rasch verbessert.

?Am Anfang brauchte man dafür eine gr??ere Anzahl von Samples. Jetzt gibt es M?glichkeiten, dies mit nur drei Sekunden Ihrer Stimme zu tun. Drei Sekunden. Und mit diesen drei Sekunden kann man dem Klang der eigenen Stimme sehr nahe kommen. Der gr??te Teil der geklonten Stimmen f?ngt den Tonfall und die Emotionen ein. Je gr??er die Stichprobe ist, desto besser gelingt die Erfassung.“

Und falls die Geschichte, die wir Ihnen oben im Artikel erz?hlt haben, zu hypothetisch klingt, um zutreffend zu sein: Die Zitate stammen aus einem Fall, in dem eine Mutter aus Arizona einen Anruf von einem Stimmenklon erhielt, der 1 $ Million L?segeld für die Rückkehr ihrer Tochter forderte – w?hrend ihre Tochter fr?hlich beim Tanzunterricht war.

Wie funktioniert das Stimmenklonen?

Wenn Sie bereits mit Video-Deepfakes vertraut sind, k?nnen Sie sich die Software zum Klonen von KI-Stimmen als das auditive Gegenstück vorstellen.

Mit nur einem Schnipsel aufgezeichneter Sprache k?nnen Entwickler einen Audiodatensatz zusammenstellen und damit ein KI-Stimmenmodell trainieren, das die Zielstimme nachbilden kann.

Diese Modelle ahmen den Lernprozess des Gehirns nach und zeigen eine bemerkenswerte Effizienz beim Erkennen von Mustern in Daten. Es gibt verschiedene Ans?tze für die Anwendung von Deep Learning auf synthetische Stimmen.

Sie führen in der Regel zu Verbesserungen bei der Aussprache von W?rtern und den nuancierten Aspekten der Sprache, wie Geschwindigkeit und Intonation, was im Ergebnis lebensechtere und menschlicher klingende Stimmen ergibt.

Laut Dan Mayo, einem Spezialagenten des FBI, finden die Betrüger ihre Opfer in sozialen Medien. Tats?chlich sind die sozialen Netzwerke voll von Video- und Audioclips, und ihre Besitzer sind leicht zu fassen.

Mayo r?t: ?Man muss diese Dinge unter Verschluss halten. Wenn man sie offen legt, macht man sich angreifbar für solche Leute, denn sie suchen nach ?ffentlichen Profilen, die m?glichst viele Informationen über einen enthalten, und wenn sie diese in die Finger bekommen, werden sie in den Daten wühlen.“

Fazit

Die rasche Verbesserung des Stimmklonens durch KI spiegelt die enorme Geschwindigkeit der KI-Entwicklung wider und wirft die Frage nach Ethik, Geheimhaltung und Sicherheit auf.

Zweifellos befindet sich die KI mitten in einem Angriff auf unsere Privatsph?re und Sicherheit, und es gibt noch keine L?sung.

Eins k?nnen wir tun, n?mlich vorsichtiger sein. Vielleicht sind wir schlafwandlerisch in eine Welt hineingewandert, in der wir unser Privatleben über die sozialen Medien bereitwillig der ?ffentlichkeit preisgegeben haben.

Wir k?nnen zwar den Fortschritt der künstlichen Intelligenz nicht aufhalten, aber sicherlich k?nnen wir mit der Weitergabe unserer pers?nlichen Daten sorgf?ltiger umgehen.
Betrüger werden immer neue Wege finden. Doch unsere Aufgabe ist es, immer auf der Hut zu sein.

Verwandte Begriffe

In Verbindung stehende Artikel

Kaushik Pal
Technischer Redakteur
Kaushik Pal
Technischer Redakteur

Kaushik ist technischer Architekt und Softwareberater und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Softwareanalyse, -entwicklung, -architektur, -design, -prüfung und -schulung. Er interessiert sich für neue Technologien und Innovationsbereiche. Er konzentriert sich auf Webarchitektur, Webtechnologien, Java/J2EE, Open Source, WebRTC, Big Data und semantische Technologien. Kaushik ist auch der Gründer von TechAlpine, einem Technologie-Blog/Beratungsunternehmen mit Sitz in Kolkata. Das Team von TechAlpine arbeitet für verschiedene Kunden in Indien und im Ausland. Das Team verfügt über Fachwissen in den Bereichen Java/J2EE/Open Source/Web/WebRTC/Hadoop/Big Data-Technologien und technisches Schreiben.

',a='';if(l){t=t.replace('data-lazy-','');t=t.replace('loading="lazy"','');t=t.replace(/