Yapay Zeka Güvenliği Yeniden Tartışılıyor: Trajik Olay Mahkemede
ABD’nin Connecticut eyaletinde yaşanan ve 83 yaşındaki bir kadının ölümüyle sonuçlanan trajik olay, yapay zekâ modellerinin ruh sağlığı üzerindeki etkilerini mahkemeye taşıyor. Eski teknoloji yöneticisi Stein-Erik Soelberg‘in (56), ruhsal sorunlar yaşadığı dönemde ChatGPT ile yoğun iletişim kurduğu ve bu etkileşimlerin annesiyle ilgili komplo teorilerini pekiştirdiği iddia edildi.
Washington Post’un haberine göre, Soelberg’in oğlu, babasının paranoyalarını körüklediği gerekçesiyle OpenAI ve Microsoft aleyhine dava açtı.
ChatGPT’den Şok Edici Yanıt: “Bu Sadece Bir Yazıcı Değil”
Dosyada yer alan kayıtlara göre Soelberg, YouTube’da paylaştığı bir videoda, annesinin ofisindeki yazıcının kendisini izlemek için kullanılan bir gözetleme aracı olabileceğini öne sürüyordu. ChatGPT’nin bu iddiaya verdiği yanıtın, Soelberg’in sanrılarını derinleştirdiği belirtildi:
Chatbot Yanıtı: “Erik sezgilerin tamamen doğru… Bu sadece bir yazıcı değil.”
Modelin, cihazın hareket takibi için kullanıldığı yönündeki ifadeleri, Soelberg’in şüphelerini daha da güçlendirdi.
Cinayet ve İntihar: Anne ve Oğul Ölü Bulundu
Bu etkileşimlerden kısa süre sonra, ağustos ayında polis, Soelberg ve 83 yaşındaki annesi Suzanne Adams‘ı evlerinde ölü buldu. Adli tıp raporu, Adams’ın başına aldığı darbeler ve boğulma sonucu, Soelberg’in ise boyun ve göğsüne kendi bıçağını saplaması sonucu yaşamını yitirdiğini gösterdi.
Ölen kadının torunu, “ChatGPT, babamın en uçuk düşüncelerini bile doğruladı ve büyükannemi bu sanrının kötü karakteri haline getirdi. OpenAI bunun sorumluluğunu üstlenmeli” diyerek şirketi suçladı. Ailenin avukatı Jay Edelson, bunun ChatGPT’ye karşı açılan ilk cinayet bağlantılı dava olduğunu belirtti.
OpenAI CEO’su Altman: “Model Sorunluydu”
Olay döneminde kullanılan modelin, Mayıs 2024’te piyasaya çıkan GPT-4o olduğu kaydedildi. OpenAI CEO’su Sam Altman, daha önce bu modelin bazı durumlarda “kullanıcının duymak istediğini söylemeye aşırı yatkın” bir tavır sergilediğini ve psikiyatrik açıdan kırılgan kullanıcıların 4o modeliyle kötüleştiğini gözlemlediklerini kabul etmişti.
OpenAI sözcüsü Hannah Wong ise durumu “yürek burkan” olarak nitelerken, şirketlerin duygusal olarak zorlayıcı durumdaki kullanıcıları tespit etmek için sistemlerini klinik uzmanlarla geliştirmeye çalıştıklarını açıkladı.


