Dijital asistanlar gizlice konuşuyor
Bilim insanları Siri, Alexa ve Google Asistan gibi akıllı dijital asistanlara insan kulağının duyamayacağı sesli komutlar gönderilebileceğini ortaya çıkardı.
Giriş Tarihi: 14.05.2018
12:26
Bilim insanları, son dönemde hayatımıza giren akıllı ya da dijital asistanlara insan kulağının duyamayacağı sesli komutlar göndermenin yolunu bulmayı başardı. Apple Siri, Amazon Alexa ve Google Asistan gibi dijital asistan servisleri kullanan milyonlarca cihaz bulunuyor. Amerikalı ve Çinli bilim insanları, dijital asistanlara gizli komutlar göndermenin yollarını keşfetti. Bu keşif ile birlikte dijital asistanlarla ilgili potansiyel bir tehlikenin de olduğunu görmüş olduk. Araştırmacılar tarafından yürütülen laboratuvar testlerinde, Apple Siri, Amazon Alexa ve Google Asistan'ın insan kulağı tarafından duyulamayan seviyede seslerle komut alabildikleri ortaya çıktı. Siber korsanlar bu yöntem sayesinde kolaylıkla akıllı kilitleri açabilir, kullanıcının banka hesaplarına girebilir ya da istediği tüm kişisel bilgilere erişebilir.
Deneyi gerçekleştiren California, Berkeley Üniversitesi araştırmacıları, söz konusu gizli komutların herhangi bir şarkıya ve ses kaydına fark edilmeden yerleştirilebileceğini, bu açıdan siber korsanlar adına tehlikeli bir araç olduğunu belirtiyor. Araştırmanın yazarlarından yüksek lisans öğrencisi Nicholas Carlini, "Kötü niyetli insanların halihazırda bu yöntemi keşfettiklerini ve uyguladıklarını tahmin ediyorum." açıklamasını yaptı
Geçtiğimiz yıl Princeton ve Çin'in Zhejiang Üniversitesi'nden araştırmacılar da dijital asistanların insan kulağının duyamayacağı frekanslarla yönetilebildiğini ortaya çıkaran deneyler gerçekleştirmişti. Çinli araştırmacılar bu yöntemin bir siber saldırı amacıyla kullanılmasına 'DolphinAttack', yani Yunus Saldırısı adını vermişti.
Hoparlör üreticilerinin bu bulgulara karşı yanıt vermeleri ise gecikmedi, şirketlerin sözcüleri The New York Times'a konuştu: Amazon konuyla ilgili güncellemeler yapacağını, Google bu komutları engelleyen bir özelliği olduğunu, Apple ise Siri'nin kullanılabilmesi için önce iPhone kilidinin açılması gerektiğini açıkladı.
Deneyi gerçekleştiren California, Berkeley Üniversitesi araştırmacıları, söz konusu gizli komutların herhangi bir şarkıya ve ses kaydına fark edilmeden yerleştirilebileceğini, bu açıdan siber korsanlar adına tehlikeli bir araç olduğunu belirtiyor. Araştırmanın yazarlarından yüksek lisans öğrencisi Nicholas Carlini, "Kötü niyetli insanların halihazırda bu yöntemi keşfettiklerini ve uyguladıklarını tahmin ediyorum." açıklamasını yaptı
Geçtiğimiz yıl Princeton ve Çin'in Zhejiang Üniversitesi'nden araştırmacılar da dijital asistanların insan kulağının duyamayacağı frekanslarla yönetilebildiğini ortaya çıkaran deneyler gerçekleştirmişti. Çinli araştırmacılar bu yöntemin bir siber saldırı amacıyla kullanılmasına 'DolphinAttack', yani Yunus Saldırısı adını vermişti.
Hoparlör üreticilerinin bu bulgulara karşı yanıt vermeleri ise gecikmedi, şirketlerin sözcüleri The New York Times'a konuştu: Amazon konuyla ilgili güncellemeler yapacağını, Google bu komutları engelleyen bir özelliği olduğunu, Apple ise Siri'nin kullanılabilmesi için önce iPhone kilidinin açılması gerektiğini açıkladı.