KnowBe4 warnt: Generative KI macht Audio Deepfakes gefährlicher
Berlin (ots)
Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4
Audio Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. Der sogenannte "Enkeltrick", bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist bereits bekannt. Nun werden dabei jedoch künstliche Intelligenzen verwendet, die darauf spezialisiert sind, Stimmen zu imitieren.
Diese KIs brauchen teilweise lediglich 30 Minuten an Audiomaterial und können daraus ein vollständiges Stimmprofil erstellen, mit dem diese Person imitiert werden kann. Mit dem Einsatz von generativer KI gelingt dies erschreckend gut. An das benötigte Audiomaterial zu kommen ist heute auch leichter als jemals zuvor. Social Media macht es möglich.
Es gibt bereits viele Berichte, sogar vor der Verfügbarkeit von generativer KI, von derartigen Betrugsversuchen auch im Unternehmensumfeld, wie ein Vorfall in den Vereinigten Arabischen Emiraten aus dem Jahr 2021 beweist. Und viele fallen auch darauf herein, weil ein großer Teil gar nicht in der Lage ist, die imitierte Stimme von seinem Original zu unterscheiden. Je mehr Material der KI zur Verfügung steht, desto schwerer wird es, Auffälligkeiten in der imitierten Stimme zu erkennen.
Mehr lesen Sie hier: https://ots.de/uqU7oM
Pressekontakt:
Kafka Kommunikation GmbH & Co. KG
Auf der Eierwiese 1
82031 Grünwald
KnowBe4@kafka-kommunikation.de
089 747470580
Original content of: KnowBe4, transmitted by news aktuell