KnowBe4 warnt: Generative KI macht Audio Deepfakes gefährlicher
Berlin (ots) - Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4 Audio Deepfakes, also mit Computersystemen imitierte Stimmen, entwickeln sich stetig weiter. Daraus folgt ein Anstieg aus KI unterstützten Betrugsversuchen. Der sogenannte "Enkeltrick", bei dem sich der Täter meist als Kind oder Enkelkind des Opfers ausgibt und eine Krisensituation vorgibt, um finanzielle Unterstützung zu erlangen, ist ...