Şirketten yapılan açıklamaya göre, teknolojik ilerlemenin ve toplumsal değişimlerin hızlı temposu devam ederken, "Yapay Zeka" terimi kendisini küresel gündemin ön saflarında sağlam bir şekilde konumlandırdı. Büyük dil modellerinin (LLM'ler) giderek yaygınlaşmasıyla birlikte güvenliğe ve gizliliğe dair endişelerdeki artış, yapay zekayı doğrudan siber güvenlik dünyasıyla ilişkilendiriyor.
Kaspersky araştırmacıları, yapay zeka araçlarının 2023 yılında siber suçlulara kötü niyetli faaliyetlerinde nasıl yardımcı olduğunu ortaya koyarken, aynı zamanda bu teknolojinin savunma alanındaki potansiyel uygulamalarını da gözler önüne seriyor.
Kaspersky uzmanları, yayınladıkları son raporda yapay zekanın 2023 siber güvenlik ortamı üzerindeki derin etkisini ortaya koyarken, uzmanlar raporda ayrıca gelecekte yapay zeka ile ilgili tehditlerin nasıl değişebileceğine de değiniyor
Çok yönlü bir yaklaşımla gerçekleştirilen analizde yapay zekanın etkileri araştırılıyor, yapay zekanın siber güvenlik uzmanları ve regülasyon yetkilileri tarafından kullanımına odaklanılıyor ve siber suçlular tarafından potansiyel olarak nasıl istismar edilebileceği değerlendiriliyor.
Daha karmaşık güvenlik açıklarıVerilen bilgiye göre, belli talimatları takip edebilen LLM'ler tüketiciye yönelik daha fazla ürüne entegre edildikçe, üretken yapay zeka ile geleneksel teknolojilerin kesiştiği noktada yeni ve karmaşık güvenlik açıkları ortaya çıkacak. Bu da siber güvenlik uzmanlarının güvence altına alması gereken saldırı yüzeyini genişlemesine neden olacak. Bu durum, geliştiricilerin LLM aracıları tarafından başlatılan eylemler için kullanıcı onayı gibi yeni güvenlik önlemleri üzerinde çalışmasını gerektiriyor.
Kırmızı ekip üyeleri ve araştırmacılar, yenilikçi siber güvenlik araçları için üretken yapay zekadan yararlanacak ve bu da LLM veya makine öğrenimi (ML) tabanlı asistanların yolunu açacak. Bu araç, pentesting ortamında yürütülen komutlara dayalı rehberlik sunarak kırmızı ekiplerin görevlerini otomatikleştirme potansiyeline sahip bulunuyor.
Yapay sinir ağları dolandırıcılığa yönelik görseller üretmek için daha fazla kullanılacakÖnümüzdeki yıl, dolandırıcılar yapay sinir ağlarını kullanarak taktiklerini güçlendirecek ve daha ikna edici sahte içerikler oluşturmak için yapay zeka araçlarından yararlanacak. Zahmetsizce ikna edici görseller ve videolar üretebilen kötü niyetli aktörler, dolandırıcılık ve sahtekarlıklarla ilgili siber tehditleri tırmandırma riskini artıracak.
Yukarıda yer verilen gelişmelere rağmen Kaspersky uzmanları, yapay zekanın yakın zamanda tehdit ortamını önemli ölçüde değiştireceği konusuna şüpheyle yaklaşıyor. Siber suçlular üretken yapay zekayı benimserken, aynı durum yazılımların ve ağların güvenliğini artırmak için gelişmiş araçları test edecek siber güvenlik uzmanları için de geçerli. Bu da saldırı ortamının büyük ölçüde değişmesini olası kılmıyor.
Teknoloji geliştikçe, bu gelişime uygun düzenleme ve regülasyonlar da söz konusu oluyor. Bu doğrultuda yapay zeka ile ilgili düzenleyici girişimlerin sayısı da artacak. Teknoloji şirketleri gibi kamu harici aktörler, yapay zeka geliştirme ve kullanma konusundaki uzmanlıkları göz önüne alındığında, hem küresel hem de ulusal platformlarda yapay zeka regülasyonlarına dair tartışmalar açısından çok değerli bilgiler sağlayabilir.
Yapay zeka tarafından oluşturulan içeriklerin filigranla işaretlenmesi gündeme gelecekAçıklamada yer alan bilgiye göre, sentetik içeriğin işaretlenmesi veya tanımlanması için daha fazla düzenlemenin yanı sıra yeni hizmet sağlayıcı politikaları da gerekecek. Bunun sonucunda hizmet sağlayıcılar tespit teknolojilerine yatırım yapmaya devam edecek.
Geliştiriciler ve araştırmacılar ise daha kolay tanımlama ve kaynak gösterme için sentetik medyayı filigranlama yöntemlerine katkıda bulunacaklar.
Açıklamada görüşlerine yer verilen Kaspersky Güvenlik Uzmanı Vladislav Tushkanov, "Siber güvenlikte yapay zeka iki ucu keskin bir kılıca benziyor. Yapay zekanın uyarlanabilen yetenekleri, gelişen tehditlere karşı proaktif bir kalkan sunarak savunmamızı güçlendirebilir. Ancak aynı dinamizm, saldırganlar daha sofistike saldırılar düzenlemek için yapay zekadan yararlanması sonucunu da doğurabilir. Hassas verileri aşırı paylaşmadan, sorumlu kullanım sağlayarak doğru dengeyi kurmak, dijital sınırlarımızı güvence altına almak adına çok önemlidir." ifadelerini kullandı.