Alexa, Siri, Cortana - klingen diese Namen schon so vertraut für Sie wie Freunde? Diese virtuellen Assistenten leisten uns über Smart-Speaker, Smartphones und den traditionellen Computer inzwischen oft Gesellschaft und erleichtern uns die Arbeit durch Sprachkommandos. Allerdings birgt deren Nutzung - wie jede neue Technologie - auch Risiken, derer sich die wenigsten bewusst sind. Hier erfahren Sie, was passieren kann und wie Sie sich davor schützen.
Voice Hacking bezeichnet das Hacken sprachgebundener Prozesse. So kann Ihre Stimme zum Beispiel als Passwort oder klingender Fingerabdruck dienen, um den Zugang zu Geräten und Konten zu schützen und freizugeben. Das Voice Hacking ist eine Art Audio-Piraterie, die zum Ziel hat, Ihre Stimme nachzuahmen und damit zum Beispiel Ihren Sprachassistenten zu täuschen, um an Ihre persönlichen Daten zu kommen und nicht von Ihnen autorisierte Aktivitäten durchführen zu lassen.
Bevor Sie nun Ihre intelligenten Lautsprecher lieber wieder wegwerfen oder das Mikrofon Ihres Smartphones überkleben, lesen Sie unsere Empfehlungen, wie Sie die Sicherheit Ihrer Geräte beim Einsatz Ihrer Stimme erhöhen können.
Um zu verhindern, dass Voice Hacker über Ihr WLAN-Netz Zugang zu Ihren damit verbundenen Geräten erhalten, legen Sie sich ein sicheres WLAN-Passwort zu und ändern Sie es regelmäßig. Aktivieren Sie beim Einsatz von Sprachassistenten außerdem zusätzliche Sicherheitsmaßnahmen. So können Sie bei Alexa zum Beispiel für den Online-Einkauf einen PIN-Code festlegen (oder Käufe per Sprachbefehl ganz abschalten) oder die Zwei-Faktor-Authentifizierung bei Google Home nutzen.
Auch wenn das weder einfach noch nützlich ist, versuchen Sie, Ihre Smart-Speaker weit von anderen möglichen Tonquellen entfernt aufzustellen, wie zum Beispiel HiFi-Anlagen, Laptops, Smart TVs oder auch Fenster zur Straße. Schalten Sie den immer Lautsprecher ab, wenn Sie ihn nicht nutzen. Es ist leider keine Science Fiction, dass Sprachassistenten vereinzelt Käufe getätigt haben aufgrund von entsprechenden Wörtern, die sie aus einem Fernsehprogramm oder aus einem Lied aufgeschnappt haben. Ein Mensch mit böser Absicht kann das erst recht missbrauchen.
Natürlich sind Sie unter vielen Menschen am verletzlichsten, weil Unbekannte Ihre Stimme hören und aufnehmen können. Mit den entsprechenden Kenntnissen und Programmen können diese mit der Tonaufnahme dann ein Audio-Deepfake erstellen, das auch beliebige andere Wörter und Sätze mit Ihrer Stimme nachsprechen kann. Nicht auszudenken, was Ihnen damit alles in den Mund gelegt werden kann.
Sie können Voice Hacking schwerer machen, indem Sie Ihren Sprachassistenten und verbundene Apps so einrichten, dass diese nur auf Ihre Stimme reagieren (bei Google Home und den Geräten mit Google Assistant nennt sich diese Option Voice Match). Um zu überprüfen, ob die Stimmerkennung funktioniert, bitten Sie eine Person, der Sie vertrauen, ein paar Sprachbefehle in Ihrem Namen zu diktieren.
Foto: © chombosan - 123RF.com