Son yıllarda yapay zeka (AI) ve makine tahsili teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine taarruzlarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.
Bunlardan biri de insan gibisi doğal konuşma yahut gerçek insanların fotoğraf ve görüntü kopyalarını içeren deepfake’ler. Bu atakları oluşturmak için harcanan vakit ve uğraş çoklukla potansiyel ‘ödüllerinden’ daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake’lerin gelecekte daha fazla telaş kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.
Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve kapalı dataların çalınması üzere çeşitli emeller için yapay zeka yardımıyla görüntü oluşturma imkanı sunuyor. Kaspersky uzmanlarının iddialarına nazaran, bir dakikalık deepfake görüntü 300 dolar üzere düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları ortasında dijital okuryazarlık konusunda değerli bir uçurum olduğu konusunda da kaygılar var. Yakın vakitte yapılan Kaspersky İş Dijitalleşme Anketine¹ nazaran Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51’i bir deepfake’i gerçek bir manzaradan ayırt edebileceklerini söyledi. Yapılan testte ise sırf %25’i gerçek bir manzarayı yapay zeka tarafından oluşturulmuş bir imajdan ayırt edebildi2. Kimlik avı ve başka toplumsal mühendislik ataklarının birincil amaçlarının ekseriyetle çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.
Örneğin, siber hatalılar CEO’nun bir banka havalesi talep ettiği yahut ödemeyi onayladığı uydurma bir görüntü oluşturabilir ve bu görüntü şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı görüntüler ya da imgeler oluşturulabilir.
Kaspersky Baş Bilgi Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Yüksek kaliteli deepfake yaratacak teknolojiler şimdi yaygın olarak bulunmasa da, bu teknolojinin en muhtemel kullanım alanlarından biri gerçek vakitli sesler üreterek öteki birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans vazifelisi, deepfake teknolojisi sayesinde bir görüntü konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake’lerin sırf işletmeler için değil, birebir vakitte ferdi kullanıcılar için de bir tehdit olduğunu unutmamak değerlidir. Yanlış bilgi yayarlar, dolandırıcılık emeliyle kullanılırlar yahut isteği olmadan öteki birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit.”
Kaspersky, deepfake’lerin oluşturduğu çeşitli tehditlere karşı korunmak için bireylere ve işletmelere aşağıdaki tedbirleri öneriyor:
- Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma halleri ve gelen anlamsız gürültülere dikkat edin.
- Deepfake görüntülerin temel özelliklerini öğrenin. Bu özellikler ortasında sarsıntılı hareketler, bir plandan başkasına geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla hislere dayalı kararlar vermeyin ve detayları kimseyle paylaşmayın. Yalnızca o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıyeten doğrulamak her vakit daha uygundur. Bu noktada ‘güven lakin doğrula’ protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını denetim edin ve güncelleyin.
- Kaspersky Threat Intelligence gibi bir güvenlik tahlili, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında aktüel kalmasına yardımcı olabilir.
- Şirketler ayrıyeten çalışanlarının deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak beşere dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake akınlarını nasıl tespit edeceklerini öğretmek üzere uygulanacak daima farkındalık ve eğitim çalışmalarını kapsar.
Kaynak: (BYZHA) Beyaz Haber Ajansı