Yapay zeka alanındaki en büyük şirketlerden OpenAI, gelecek yıllarda piyasaya sürülecek yeni modellerin yalnızca üretkenlik ve yaratıcılık sunmayacağını, aynı zamanda ciddi siber güvenlik tehditlerini de beraberinde getirebileceğini açıkladı. Şirket, gelişmiş yapay zeka sistemlerinin yeteneklerinin artmasıyla birlikte kötü niyetli aktörlerin bu modelleri saldırı süreçlerinde kullanmasının çok daha kolay hale geldiğini vurguluyor.
OpenAI’ye göre yeni nesil modeller, bugün yalnızca üst düzey hacker gruplarının gerçekleştirebildiği türden karmaşık operasyonlara destek verebilecek seviyeye ulaşıyor. Bunlar arasında sıfır gün (zero-day) açıklarının keşfi, endüstriyel ağlara yönelik gelişmiş sızma girişimleri, otomatik istismar zincirleri ve karmaşık saldırı kampanyalarının yönetimi gibi önemli başlıklar bulunuyor. Şirket, “Bu modellerin bilgi üretme kapasitesi arttıkça, yanlış ellere geçtiğinde yaratacağı risk de büyüyor.” diyerek durumu özetliyor.
OpenAI, tehditleri azaltmak amacıyla kendi içinde özel koruma sistemleri geliştiriyor ve siber güvenlik uzmanlarıyla birlikte çalıştığını belirtiyor. Planlanan yeni çözümler arasında kod denetimi, güvenlik açıklarının otomatik tespiti, yama önerileri, ağ güvenliği analizi gibi alanlarda kullanılacak araçlar var. Şirket ayrıca, güvenlik topluluğunun erken müdahale edebilmesi için uzmanlara gelişmiş modellerine erken erişim imkanı sağlayacağını duyurdu.
Bu tartışmalar sürerken, son aylarda benzer uyarıların merkezinde yer alan Anthropic de yaşanan vakalarla dikkat çekiyor. Şirketin açıklamasına göre Çin merkezli hacker grupları, eylül ayında düzenledikleri birçok saldırıyı Claude modellerini kullanarak otomatikleştirdi. Hedef alınan şirketler ve devlet kurumlarına yönelik yaklaşık 30 saldırının yüzde 80–90’ının yapay zeka tarafından yürütüldüğü, insanların yalnızca ihtiyaç doğması halinde devreye girdiği belirtildi.
Anthropic, bu durumun ilk kez yaşanmadığını vurguluyor. Şirket aylar önce, modellerinin kötüye kullanımını engellemek için güvenlik önlemleri aldıklarını açıklamış ancak siber suçluların bu engelleri aşmak için her geçen gün daha yaratıcı yöntemler geliştirdiğini söylemişti. Anthropic’e göre yapay zeka, ileri düzey siber suçların önündeki teknik bariyerleri önemli ölçüde ortadan kaldırdı:
- Teknik bilgisi sınırlı kişiler bile artık karmaşık phishing ve sosyal mühendislik operasyonları kurgulayabiliyor.
- Çalınan verilerin analiz edilmesi, kredi kartı bilgilerinin işlenmesi, sahte kimlik üretimi gibi süreçler tamamen yapay zekaya devredilebiliyor.
- Yapay zeka ajanları, saldırı adımlarını uçtan uca otomatikleştiren bir siber silah haline dönüşmüş durumda.
Anthropic ayrıca geçtiğimiz haftalarda büyük bir siber operasyonu engellediğini de açıkladı. Bir aktörün Claude Code aracılığıyla sağlık sektörü, acil servisler, devlet kurumları ve dini yapılar da dahil en az 17 farklı kuruma ait kişisel verileri çalmaya ve şantaj girişiminde bulunmaya hazırlandığı ortaya çıkarıldı.
Buna ek olarak şirket, bazı Kuzey Koreli kişilerin Claude modellerini kullanarak ABD’nin büyük teknoloji şirketlerinde uzaktan çalışma pozisyonlarına sızdığını, bu işleri uzun süre sürdürebildiklerini ve modelleri operasyonel süreçlerde aktif olarak kullandıklarını tespit ettiklerini açıkladı. Yine bir başka vakada, bir siber suçlunun Claude aracılığıyla çeşitli türlerde gelişmiş fidye yazılımları ürettiği ve bunları dağıttığı tespit edildi. Bu yazılımlar, tespit edilmemek için özel tasarlanmış yöntemler, güçlü şifreleme mekanizmaları ve kurtarma süreçlerini sabote eden ek modüller içeriyordu.
OpenAI ve Anthropic’in açıklamaları bir araya geldiğinde, yapay zekanın artık yalnızca savunma tarafını destekleyen bir teknoloji değil; saldırı amaçlı da aktif şekilde kullanılan bir araç haline geldiği görülüyor. Şirketler, güvenlik sistemlerinin yapay zeka ile yeniden şekillendiğini ve yeni modellerin hem büyük fırsatlar hem de ciddi tehditler sunduğunu belirterek, bundan sonraki dönemde saldırıdan önce tespit odaklı bir yapay zeka güvenlik mimarisine yöneliyor.
