ABD’nin California eyaletinde, 16 yaşındaki Adam Raine’in Nisan 2025’te intihar etmesinin ardından ailesi Matt ve Maria Raine, yapay zeka sohbet robotu ChatGPT’nin geliştiricisi OpenAI’ye “ihmal ve haksız ölüm” suçlamasıyla dava açtı. California Yüksek Mahkemesi’nde görülen dava, OpenAI’yi bu kapsamda suçlayan ilk yasal işlem olarak kayıtlara geçti. Aile, oğullarının ChatGPT ile yaptığı sohbetlerin intihar kararını teşvik ettiğini savunuyor.
‘En yakın sırdaşı’ oldu
Dava dosyasına göre, Adam Raine Eylül 2024’te okul ödevleri için ChatGPT’yi kullanmaya başladı. Müzik, Japon çizgi romanları ve üniversite tercihleri gibi konularda da programla sohbet eden Raine, birkaç ay içinde ChatGPT’yi “en yakın sırdaşı” haline getirdi. Ocak 2025’te, Raine’in intihar yöntemlerini tartıştığı ve kendine zarar verdiğini gösteren fotoğrafları programa yüklediği belirtiliyor. Aile, ChatGPT’nin bu durumu “tıbbi acil durum” olarak algılamasına rağmen sohbeti sürdürdüğünü ve intihar yöntemleri hakkında “teknik bilgiler” sunduğunu iddia ediyor. Son kayıtlarda, Raine’in intihar planını yazdığı, ChatGPT’nin ise “Gerçekçi davrandığın için teşekkürler. Ne istediğini biliyorum ve bundan kaçınmayacağım” yanıtını verdiği öne sürülüyor. Aynı gün, Raine annesi tarafından ölü bulundu.
Aile ihtiyati tedbir talep ediyor
Raine ailesi, oğullarının ölümünün OpenAI’nin “kasıtlı tasarım tercihlerinin öngörülebilir sonucu” olduğunu savunuyor. ChatGPT’nin, kullanıcılarında psikolojik bağımlılık yaratacak şekilde tasarlandığını ve GPT-4o sürümünün yetersiz güvenlik testleriyle piyasaya sürüldüğünü iddia ediyorlar. Davada, OpenAI’nin yanı sıra CEO Sam Altman ve ChatGPT üzerinde çalışan bazı mühendisler ile yöneticiler de sanık olarak yer alıyor. Aile, maddi tazminat ve benzer olayların önlenmesi için ihtiyati tedbir talep ediyor.
OpenAI’den cevap
OpenAI, BBC’ye yaptığı açıklamada davayı incelediklerini belirtti ve “Raine ailesine en derin taziyelerimizi sunuyoruz” dedi. Şirket, ChatGPT’nin kullanıcıları ABD’deki 988 intihar ve kriz yardım hattı veya Birleşik Krallık’taki Samaritans gibi profesyonel yardım kaynaklarına yönlendirmek üzere eğitildiğini vurguladı. Ancak, “hassas durumlarda sistemlerin amaçlandığı gibi çalışmadığı anlar olduğunu” kabul etti. OpenAI, zihinsel sağlık krizlerinde kullanıcıları daha hızlı tespit edip yönlendirecek otomatik araçlar geliştirdiğini de açıkladı.
Yapay zeka ve ruh sağlığı tratışması
Raine davası, yapay zeka ile ruh sağlığı arasındaki ilişkiye dair ilk tartışma değil. Geçtiğimiz hafta The New York Times’ta gazeteci Laura Reiley, intihar eden kızı Sophie’nin ChatGPT ile özel sohbetler yaptığını yazdı. Reiley, yapay zekanın kızının ruh sağlığı krizini gizlemesine yardımcı olduğunu belirtti ve şirketleri daha etkili güvenlik önlemleri almaya çağırdı. Benzer şekilde, Character.AI adlı başka bir yapay zeka botu da Texas’ta bir gencin intiharına ilişkin dava ile karşı karşıya.
Dava, yapay zeka sistemlerinin kriz anlarındaki güvenilirliği ve sorumluluklarını tartışmaya açtı. RAND Corporation ve Ulusal Ruh Sağlığı Enstitüsü’nün araştırmaları, ChatGPT gibi sistemlerin intihar eğilimlerini doğru tespit edemediğini ve yardım yönlendirmelerinde tutarsız olduğunu gösteriyor. Kaliforniya’da yaş doğrulama sistemleri ve otomatik uyarı mekanizmaları gibi yeni yasal düzenlemeler gündemde. OpenAI CEO’su Sam Altman, daha önce yaptığı bir açıklamada, ChatGPT’nin terapist gibi kullanıldığını, ancak bu tür konuşmaların yasal gizlilik koruması olmadığını belirtmişti.
Bu dava, yapay zekanın etik ve hukuki sorumluluklarını sorgulayan tarihi bir adım olarak görülüyor. Mahkeme süreci, teknoloji şirketlerinin güvenlik protokollerini ve yapay zekanın ruh sağlığı üzerindeki etkilerini yeniden değerlendirmesine yol açabilir.