Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı

Son yıllarda yapay zeka (AI) ve makine tahsili teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine ataklarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.

Bunlardan biri de insan gibisi doğal konuşma yahut gerçek insanların fotoğraf ve görüntü kopyalarını içeren deepfake’ler. Bu hücumları oluşturmak için harcanan vakit ve uğraş çoklukla potansiyel ‘ödüllerinden’ daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake’lerin gelecekte daha fazla tasa kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.

Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve kapalı bilgilerin çalınması üzere çeşitli hedefler için yapay zeka yardımıyla görüntü oluşturma imkanı sunuyor. Kaspersky uzmanlarının varsayımlarına nazaran, bir dakikalık deepfake görüntü 300 dolar üzere düşük bir fiyata satın alınabiliyor.

İnternet kullanıcıları ortasında dijital okuryazarlık konusunda değerli bir uçurum olduğu konusunda da tasalar var. Yakın vakitte yapılan Kaspersky İş Dijitalleşme Anketine¹ nazaran Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51’i bir deepfake’i gerçek bir imgeden ayırt edebileceklerini söyledi. Yapılan testte ise sırf %25’i gerçek bir manzarayı yapay zeka tarafından oluşturulmuş bir manzaradan ayırt edebildi2. Kimlik avı ve öteki toplumsal mühendislik hücumlarının birincil gayelerinin çoklukla çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.

Örneğin, siber hatalılar CEO’nun bir banka havalesi talep ettiği yahut ödemeyi onayladığı geçersiz bir görüntü oluşturabilir ve bu görüntü şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı görüntüler ya da manzaralar oluşturulabilir.

Kaspersky Baş Data Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Yüksek kaliteli deepfake yaratacak teknolojiler şimdi yaygın olarak bulunmasa da, bu teknolojinin en mümkün kullanım alanlarından biri gerçek vakitli sesler üreterek diğer birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans vazifelisi, deepfake teknolojisi sayesinde bir görüntü konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake’lerin sadece işletmeler için değil, birebir vakitte kişisel kullanıcılar için de bir tehdit olduğunu unutmamak değerlidir. Yanlış bilgi yayarlar, dolandırıcılık maksadıyla kullanılırlar yahut isteği olmadan öteki birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit.”

Kaspersky, deepfake’lerin oluşturduğu çeşitli tehditlere karşı korunmak için bireylere ve işletmelere aşağıdaki tedbirleri öneriyor:

  • Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma halleri ve gelen anlamsız gürültülere dikkat edin.
  • Deepfake görüntülerin temel özelliklerini öğrenin. Bu özellikler ortasında sarsıntılı hareketler, bir plandan başkasına geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
  • Asla hislere dayalı kararlar vermeyin ve detayları kimseyle paylaşmayın. Yalnızca o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıyeten doğrulamak her vakit daha uygundur. Bu noktada ‘güven lakin doğrula’ protokolünü izleyin.
  • Kuruluşunuzun siber güvenlik uygulamalarını denetim edin ve güncelleyin. 
  • Kaspersky Threat Intelligence gibi bir güvenlik tahlili, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında şimdiki kalmasına yardımcı olabilir.
  • Şirketler ayrıyeten çalışanlarının deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak beşere dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake ataklarını nasıl tespit edeceklerini öğretmek üzere uygulanacak daima farkındalık ve eğitim çalışmalarını kapsar.

Kaynak: (BYZHA) Beyaz Haber Ajansı

DMCA.com Protection Status Bu Site DMCA Tarafından Korunmaktadır.