Google Project Zero ve Google DeepMind, LLM Kullanarak İlk Güvenlik Açığını Keşfetti

Google Project Zero ve Google DeepMind araştırmacıları, büyük bir dil modeli (LLM) kullanarak gerçek dünyada ilk güvenlik açığını keşfettiklerini duyurdu.

1 Kasım tarihli blog yazısında, araştırmacılar, SQLite adlı açık kaynaklı veritabanı motorunda stack buffer underflow tespit ettiklerini belirttiler. Bu güvenlik açığı, özellikle SQLite’ın kendi test altyapısı ve OSS-Fuzz gibi mevcut test sistemleri tarafından fark edilmemesi nedeniyle dikkat çekti.

Stack Buffer Underflow Nedir?

Stack Buffer Underflow, bir programın hafızadaki  stack bölümünde, beklenenden daha az veriye erişme veya bu veriye ulaşma sırasında bir hata yapması durumudur. Bu hata, bellek güvenliği açısından kritik bir açık oluşturur çünkü normalde programın erişmemesi gereken bellek alanlarına erişilmesine yol açabilir.

kısacası, bir buffer overflow hatasında, program kendi sınırlarından taşarak fazladan belleğe erişmeye çalışırken, buffer underflow hatasında, erişim sınırın altına düşer. Her iki durumda da programın beklenmeyen bellek alanlarına müdahalesi, saldırganların güvenlik açıklarından yararlanmasına olanak tanır.

Big Sleep projesi kapsamında Google Project Zero ve DeepMind ekipleri, Naptime adlı çerçeveden yararlanarak AI destekli güvenlik araştırmaları yapıyor. Naptime, insan güvenlik araştırmacılarının iş akışını taklit eden özel araç setleri ile çalışan bir LLM (büyük dil modeli) çerçevesi olarak 2023’te geliştirilmişti. Bu araştırma, projenin henüz başlangıç aşamasında olmasına rağmen savunma potansiyelinin büyük olduğunu vurguluyor.

Fuzzing Yönteminin Açıkları

Günümüzde yazılımları üretim öncesinde test etmenin en yaygın yolu fuzzing  olarak biliniyor. Fuzzing, yazılıma geçersiz veya beklenmedik veri girdileri sağlayarak programın çökmesi veya hafıza sızıntıları gibi durumlar için izlenmesini içeriyor. Ancak, bu yöntem bazı durumlarda güvenlik açıklarını tespit edemiyor. Big Sleep araştırmacıları, bu açığın fark edilmemesinin, otomatik test araçlarının belirli konfigürasyonlar ve kod versiyonlarını içermemesi nedeniyle gerçekleştiğini belirtti.

Araştırmacılar, LLM yardımıyla yapılan analizlerin, fuzzing’in eksik kaldığı alanları doldurabileceğini umuyorlar. Özellikle, daha önce düzeltilmiş bir güvenlik açığının detaylarından yola çıkılarak benzer güvenlik açıklarının bulunabileceğini savunuyorlar.

LLM Destekli İlk Bellek Güvenliği Sorunu Keşfi

Araştırmacılar, bu keşfin, bir AI ajanının gerçek dünya yazılımında daha önce bilinmeyen bir bellek güvenliği sorununu tespit ettiği ilk halka açık örnek olduğunu ifade ettiler. Ancak, Nisan 2024’te Neuroengine’de çalışan güvenlik araştırmacısı Alfredo Ortega, LLM’leri kullanarak OpenBSD’de bir zero-day açığı keşfettiğini ve bu sonuçları Haziran ayında yayımladığını belirtti. Ayrıca, Google’ın Açık Kaynak Güvenlik Ekibi’nin Ekim ayında OpenSSL’de bir out-of-bound okuma hatası bulduğunu da ekledi.

Ortega, bu durumu akademik çevrelerde sıkça rastlanan bir hata olarak değerlendirerek, “Akademik çevreler, alan dışındaki gelişmelerin farkında olmayabiliyor. Her şeyi bilmeleri imkansız, ancak sadece Google’da arama yapmaları gerekirdi,” ifadelerini kullandı.

About The Author

Reply