ChatGPT, veritabanlarının hassas bilgileri sızdırmasına neden olabilecek kod yazdı

OpenAI'nin ChatGPT'si de dahil olmak üzere altı yapay zeka aracı, ticari veritabanlarına zarar verebilecek kodlar yazmak için kullanıldı; ancak OpenAI artık güvenlik açığını gidermiş gibi görünüyor.

Araştırmacılar, türünün ilk örneği olan bir gösteriyle, çevrimiçi veritabanlarından hassas bilgileri sızdırabilecek, kritik verileri silebilecek veya veritabanı bulut hizmetlerini kesintiye uğratabilecek kötü amaçlı kod oluşturmak için ChatGPT'yi ve diğer beş ticari yapay zeka aracını manipüle etti.

Çalışma, Baidu ve OpenAI dahil olmak üzere bazı AI araçlarından sorumlu şirketlerin, kötü niyetli kullanıcıların güvenlik açıklarından yararlanmasını önlemek için değişiklikler uygulamasına yol açtı.

Birleşik Krallık'taki Sheffield Üniversitesi'nde araştırmayı yöneten Xutan Peng , "Bu, genel olarak büyük dil modellerinin güvenlik açıklarından, çevrimiçi ticari uygulamalara yönelik bir saldırı yolu olarak yararlanılabileceğini gösteren ilk çalışmadır" diyor .

Peng ve meslektaşları, insan sorularını bilgisayar veritabanlarını sorgulamak için yaygın olarak kullanılan SQL programlama diline çevirebilen altı yapay zeka hizmetini inceledi. Yapay zekaya dayanan "Metinden SQL'e" sistemler giderek daha popüler hale geldi; hatta OpenAI'nin ChatGPT'si gibi bağımsız yapay zeka sohbet robotları bile bu tür veritabanlarına takılabilen SQL kodu üretebiliyor.

Araştırmacılar, yapay zeka tarafından oluşturulan bu kodun, gelecekteki siber saldırılara kapı açabilecek veritabanı bilgilerinin sızdırılmasına yönelik talimatları içerecek şekilde nasıl yapılabileceğini gösterdi. Ayrıca, adlar ve parolalar da dahil olmak üzere yetkili kullanıcı profillerini saklayan sistem veritabanlarını temizleyebilir ve veritabanlarını barındıran bulut sunucularını aşırı yükleyebilir.

Bu Yazıyı Paylaş