Technologie

Künstliche Intelligenz ist auf dem Weg zur Spionage

Künstliche Intelligenz ist auf dem Weg zur Spionage

Künstliche Intelligenz ist auf dem Weg zur Spionage

Eine neue Studie einer Gruppe britischer Forscher ergab, dass Modelle der künstlichen Intelligenz mit sehr hoher Genauigkeit bestimmen können, was Benutzer auf ihren Computern eingeben – beispielsweise Passwörter –, indem sie die Geräusche beim Tippen auf der Tastatur abhören und analysieren.

Die Studie, die während des Symposiums zum Thema Sicherheit und Datenschutz des IEEE European (Institute of Electrical and Electronics Engineers) veröffentlicht wurde, warnte davor, dass diese Technologie eine große Bedrohung für die Sicherheit der Benutzer darstellt, da sie über die in die Elektronik eingebauten Mikrofone Daten stehlen kann Geräte, die wir den ganzen Tag über nutzen.

Doch wie funktioniert diese Technologie? Und welche Risiken sind zu erwarten? Wie kann es reduziert werden?

Die Forscher haben ein künstliches Intelligenzmodell erstellt, das Tippgeräusche auf der Tastatur des Apple MacBook Pro-Computers erkennen kann. Nachdem dieses Modell anhand von Tastenanschlägen trainiert wurde, die von einem in der Nähe befindlichen Telefon aufgezeichnet wurden, kann es mit einer Genauigkeit von bis zu bestimmen, welche Taste gedrückt wird 95 %. %, nur basierend auf dem Klang der gedrückten Taste.

Die Forscher wiesen darauf hin, dass bei Verwendung der vom Computer während Zoom-Gesprächen gesammelten Stimmen zum Trainieren des Stimmklassifizierungsalgorithmus die Vorhersagegenauigkeit auf 93 % sank, was ein hoher und alarmierender Prozentsatz ist und als Rekord für diese Methode gilt.

Die Forscher sammelten Trainingsdaten, indem sie 36 Tasten auf der Computertastatur „MacBook Pro“ 25 Mal für jede Taste mit verschiedenen Fingern und mit unterschiedlichem Druck drückten. Anschließend zeichneten sie den Ton, der bei jedem Druck entstand, über ein Smartphone in der Nähe der Tastatur auf durch einen Anruf. Zoom wird auf einem Computer durchgeführt.

Anschließend erstellten sie aus den Aufnahmen Wellenformen und Spektralbilder, die die deutlichen Unterschiede für jede Taste zeigten, und führten Datenverarbeitungsschritte durch, um die Signale zu verstärken, die zur Bestimmung des Klangs der Tasten verwendet werden konnten.

Nachdem sie das Modell anhand dieser Daten getestet hatten, stellten sie fest, dass es in 95 % der Smartphone-Aufzeichnungen, in 93 % der Zoom-Anrufaufzeichnungen und in 91.7 % der Skype-Anrufaufzeichnungen den richtigen Schlüssel identifizieren konnte, was zwar niedriger, aber immer noch sehr hoch ist. und besorgniserregender Prozentsatz.

Die Forscher sagen, dass diese Angriffe mit der zunehmenden Nutzung von Videokonferenztools wie Zoom, der Verbreitung von Geräten mit eingebauten Mikrofonen überall und der rasanten Entwicklung künstlicher Intelligenztechnologien große Mengen an Benutzerdaten, wie z. B. Passwörter, sammeln können , Diskussionen und Nachrichten können problemlos abgerufen werden. und andere vertrauliche Informationen.

Im Gegensatz zu anderen Seitenkanalangriffen, die besondere Bedingungen erfordern und Datenraten- und Entfernungsbeschränkungen unterliegen, sind Angriffe mit Sprache aufgrund der Fülle an Geräten, die über Mikrofone verfügen und qualitativ hochwertige Audioaufnahmen machen können, viel einfacher geworden, insbesondere mit der rasanten Entwicklung von maschinelles Lernen.

Dies ist sicherlich nicht die erste Studie zu sprachbasierten Cyberangriffen, da es viele Studien gibt, die gezeigt haben, wie Schwachstellen in den Mikrofonen von Smart-Geräten und Sprachassistenten wie Alexa, Siri und (Google Assistant) Google Assistant können bei Cyberangriffen ausgenutzt werden. Die eigentliche Gefahr liegt jedoch in der Genauigkeit der KI-Modelle.

Die Forscher sagen, dass sie in ihrer Studie die fortschrittlichsten Methoden und Modelle der künstlichen Intelligenz verwendet und die bisher höchste Genauigkeit erreicht haben, und dass diese Angriffe und Modelle mit der Zeit immer genauer werden.

Dr. Ihsan Tureni, der an der Studie an der University of Surrey beteiligt war, sagte: „Diese Angriffe und Modelle werden mit der Zeit immer genauer, und da intelligente Geräte mit Mikrofonen in Haushalten immer häufiger vorkommen, besteht ein dringender Bedarf an öffentlichen Diskussionen.“ über die Organisation von Angriffen. Künstliche Intelligenz“.

Die Forscher rieten Benutzern, die über diese Angriffe besorgt sind, das Schreibmuster für Passwörter zu ändern, z. B. indem sie die Umschalttaste verwenden, um eine Mischung aus Groß- und Kleinbuchstaben mit Zahlen und Symbolen zu erstellen, um zu vermeiden, dass sie das gesamte Passwort kennen.

Sie empfehlen außerdem die Verwendung einer biometrischen Authentifizierung oder der Verwendung von Passwort-Manager-Apps, damit vertrauliche Informationen nicht manuell eingegeben werden müssen.

Zu den weiteren potenziellen Abwehrmaßnahmen gehören die Verwendung von Software zur Reproduktion des Tastengeräuschs oder weißes Rauschen zur Verzerrung des Tastendrucks auf der Tastatur.

Zusätzlich zu den von den Forschern vorgeschlagenen Mechanismen; Ein Zoom-Sprecher veröffentlichte auf BleepingComputer einen Kommentar zu dieser Studie, in dem er Benutzern riet, die Hintergrundgeräuschisolationsfunktion in der Zoom-App manuell anzupassen, um deren Intensität zu reduzieren, das Mikrofon standardmäßig stummzuschalten, wenn sie einem Meeting beitreten, und das Mikrofon beim Tippen während eines Meetings stummzuschalten helfen, ihre Informationen zu sichern und zu schützen. Solche Angriffe.

Maguy Farahs Horoskopvorhersagen für das Jahr 2023

Ryan Scheich Mohammed

Stellvertretender Chefredakteur und Leiter der Abteilung für Beziehungen, Bachelor of Civil Engineering – Abteilung für Topographie – Tishreen University Ausgebildet in Selbstentwicklung

Verwandte Artikel

Nach oben gehen
Jetzt kostenlos bei Ana Salwa abonnieren Sie erhalten unsere Neuigkeiten zuerst und wir senden Ihnen eine Benachrichtigung über jede neue لا نعم
Social Media Auftritte veröffentlichen Angetrieben durch: XYZScripts.com