KI ist noch nicht perfekt 12. Jun 2024 Von Stephan W. Eder Lesezeit: ca. 2 Minuten

Deepfake-Stimmen: So erkennt unser Gehirn den Unterschied

Macht das Gehirn beim Verarbeiten von natürlichen Stimmen im Vergleich zu ihren Deepfake-Imitationen einen Unterschied? Ja, sagt eine neue Studie der Universität Zürich. Es lassen sich zwei Hirnareale identifizieren, die unterschiedlich auf die akustischen Signale reagieren.

Печать
Symbolbild für die Schallwellen einer Stimme: Ob da ein Mensch spricht oder eine KI einen Deepfake der Stimme erzeugt, das kann unser Gehirn unterscheiden, so eine neue Studie der Universität Zürich.
Foto: panthermedia.net/Rockvel

Jeder Mensch hat ein einzigartiges Stimmprofil. Es hilft uns, Personen zu identifizieren. Neueste Algorithmen für die Stimmsynthese sind so leistungsfähig, dass die Stimmklone, die sie erstellen, den natürlichen Stimmen sehr nahekommen. Noch nie war es so leicht, mit Deepfake-Technologien Stimmen zu imitieren.

Bisher war unklar, wie das Gehirn auf solche Deepfake-Stimmen reagiert. Sagt es uns: „Das ist echt“? Oder erkennt es den Fake? Ein Forschungsteam der Universität Zürich hat herausgefunden, dass Menschen die geklaute Identität in einem Deepfake-Audio oft als natürlich akzeptieren. Trotzdem: Unser Gehirn merkt, dass da was nicht stimmt. Es reagiert anders auf Deepfake-Stimmen als auf natürliche Stimmen.

Täuschend echt? Deepfake-Stimmen und das Gehirn

Die Forscherinnen und Forscher testeten mit psychoakustischen Methoden, wie gut die menschliche Identität in den imitierten Stimmklonen erhalten bleibt. Sie nahmen vier männliche Sprecher auf und generierten Deepfake-Stimmen ihrer Stimmen. Im Hauptexperiment hörten 25 Probandinnen und Probanden mehrere Stimmen. Sie sollten entscheiden, ob die Identität zweier Stimmen identisch war oder nicht. Dabei gab es zwei Aufgaben: Entweder sollten sie die Identität von zwei natürlichen Stimmen oder einer natürlichen und einer Deepfake-Stimme abgleichen.

Es zeigte sich, dass die Deepfake-Stimmen in zwei Dritteln der Fälle korrekt zugeordnet wurden. „Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die Wahrnehmung von Menschen zu täuschen“, sagt die Neuro- und Sprachwissenschaftlerin Claudia Roswandowitz vom Institut für Computerlinguistik.

Deepfake-Erkennung: Belohnungssystem im Gehirn auf dem Prüfstand

Mit bildgebenden Verfahren untersuchten die Forschenden dann, welche Gehirnareale abweichend auf Deepfake-Stimmen im Vergleich zu natürlichen Stimmen reagieren. Sie fanden zwei zentrale Areale, die den Fake erkennen: den Nucleus accumbens und den auditorischen Cortex.

Zum einen reagiert ein Teil des mesolimbischen Systems, der Nucleus accumbens, anders auf Deepfake-Stimmen. „Der Nucleus accumbens ist ein wichtiger Bestandteil des Belohnungssystems im Gehirn. Er war weniger aktiv, als die Probandinnen und Probanden die Identität zwischen Deepfake und natürlichen Stimmen abgleichen sollten“, erklärt Roswandowitz. Der Nucleus accumbens war viel aktiver, wenn die Probandinnen und Probanden zwei natürliche Stimmen vergleichen mussten.

Deepfake-Stimmen machen offenbar weniger Spaß und das ist relativ unabhängig von der Qualität des akustischen Signals. „Der Mensch kann also nur teilweise durch Deepfakes getäuscht werden“, folgert Roswandowitz. Sie spricht von einer menschlichen Widerstandsfähigkeit gegenüber gefälschten Informationen, die uns im Alltag immer häufiger begegnen.

Deepfake: Der Klangdetektiv im Gehirn erkennt die falschen Stimmen

Das zweite Hirnareal, das im Experiment aktiv war, ist der auditorische Cortex. Dieser ist zuständig für die Analyse von Geräuschen. Er war aktiver, als es die Identität zwischen Deepfake und natürlicher Stimme abzugleichen galt. „Wir vermuten, dass dieses Areal auf die noch nicht perfekte akustische Imitation der Deepfake-Stimmen reagiert“, so die Forscherin. Unser Hirn merkt also: Da stimmt was nicht. Als Reaktion versuche dann der auditorische Cortex das fehlende akustische Signal auszugleichen, so Roswandowitz. Je weniger natürlich und sympathisch die gefälschte Stimme im Vergleich zur natürlichen Stimme wahrgenommen wurde, desto größer waren die Aktivitätsunterschiede im auditorischen Cortex.

 

Ist KI ein unkalkulierbares Sicherheitsrisiko?

Themen im Artikel

Ein Beitrag von:

Stellenangebote

RWTH Aachen University

Full Professor (W2, Tenure Track W3) in Process Metallurgy in a Circular Economy Faculty of Georesources and Materials Engineering

Aachen
Brandenburgischer Landesbetrieb für Liegenschaften und Bauen (BLB)

Projektleiter/in "Altlasten und Kampfmittel" (w/m/d)

Bernau
Minebea Intec GmbH

Automations- / Inbetriebnahmeingenieur (m/w/d)

Hamburg
Hensoldt Sensors GmbH

Systemingenieur*in Sekundärradar / IFF (m/w/d)

München/Taufkirchen
HENSOLDT Sensors GmbH

Head of N&G Radar Planning & Cables (w/m/d)

Ulm
HENSOLDT Sensors GmbH

Junior Systemingenieur*in Produktentwicklung (w/m/d)

Ulm
HENSOLDT Optronics GmbH

SAP Consultant EWM / Logistics / TM (w/m/d)

Oberkochen, Ulm
HENSOLDT AG

Corporate Finance und Treasury Risk Manager*in (w/m/d)

Ulm, München/Taufkirchen
HENSOLDT Sensors GmbH

Governmental Business Development Manager Naval Solutions Germany (w/m/d)

verschiedene Standorte
Hensoldt Sensors GmbH

Technische*r Projektleiter*in für Airborne Electronic Warfare Solutions (w/m/d)

Ulm
Zur Jobbörse

Das könnte Sie auch interessieren

Empfehlungen des Verlags

Meistgelesen aus der Kategorie Informationstechnik