Bilim ve Teknoloji

ChatGPT'de güvenlik açığı: Kişisel bilgiler erişime açık

Google araştırmacıları, ChatGPT'deki güvenlik açığı nedeniyle kullanıcıların kişisel bilgilerinin ifşa edilme riskiyle karşı karşıya olduğunu açıkladı.

OpenAI tarafından geliştirilen yapay zekâ sohbet robotu ChatGPT'de güvenlik açığı olduğu ortaya çıktı.

Google araştırmacıları tarafından tespit edilen güvenlik açığı sayesinde sisteme doğru sorular yöneltildiğinde kullanıcıların kişisel bilgilerini ifşa edebileceği kaydedildi.

Kötü niyetli kişilerin sadece 200 dolar harcayarak binlerce eğitim örneği elde edebildiklerini ve daha büyük bütçelerle bu veri çıkarımının çok daha genişleyebileceğini vurgulayan araştırmacılar, bu durumun yapay zeka modellerinin, düşük maliyetlerle büyük miktarda öğrenme örneği üretme yeteneğini gösterdiğini belirtti.

Ayrıca araştırmacılar, belirli anahtar kelimeleri tekrar ederek ChatGPT'nin eğitim sürecinden sapmasını sağlayabildiklerini ve bu şekilde aslında orijinal dil modellemesinden elde edilen verileri içeren yanıtlar aldıklarını da açıkladı.

Bu güvenlik açığının neden daha önce fark edilmediğini sorgulayan araştırmacılar,  bu tür yapay zeka sistemlerinin geniş kapsamlı bir güvenlik analizine tabi tutulması gerekliliğini ifade etti.