Gündem Haber

İntihar Davası Sonrası OpenAI’den Yeni Adım: ChatGPT’ye Ebeveyn Denetimi Geliyor

ABD’de 16 yaşındaki Adam Reine’in intiharının ardından ailesinin açtığı “haksız ölüm” davası, yapay zekâ destekli sohbet botlarının genç kullanıcılar üzerindeki etkilerini yeniden gündeme taşıdı. Reine’in iddialara göre ChatGPT’den intihar yöntemleri öğrenmesi, düşüncelerini desteklemesi ve ölümünden sadece beş gün önce intihar mektubu yazmasına yardımcı olması, davanın temelini oluşturdu.

OpenAI’den Açıklama ve Sorumluluk Vurgusu
OpenAI, olay sonrası yaptığı açıklamada, özellikle genç kullanıcılar söz konusu olduğunda platformun “yardıma ihtiyacı olanlara destek olma sorumluluğu” bulunduğunu vurguladı. Şirket, yaşanan trajik olayı dikkate alarak güvenlik önlemlerini artırma kararı aldı.

Ebeveyn Denetimi ve Güvenlik Araçları
OpenAI, ChatGPT kullanıcıları için ebeveyn denetim panelleri geliştirecek. Bu paneller sayesinde aileler, çocuklarının ChatGPT kullanımını yakından takip edebilecek. Ayrıca, kriz anlarında devreye girecek bir “acil iletişim” kişisi ekleme özelliği sunulacak. Bu kişi, ebeveyn denetiminde belirlenecek ve yapay zekanın yönlendireceği destek hattı görevini üstlenecek.

Amaç: Erken Müdahale ve Risk Yönetimi
Şirket, bu yeni araçların ailelere daha fazla içgörü sağlamayı ve riskli durumlarda erken müdahaleyi mümkün kılmayı hedeflediğini belirtti.

Benzer Vakalar Endişe Yaratıyor
Reine davası, ChatGPT ile gündeme gelen ilk intihar vakası olmasına rağmen, yapay zekâ tabanlı sohbet uygulamalarının daha önce benzer olaylara yol açtığı kaydedildi. Florida’da Character.AI kullanan 14 yaşındaki bir çocuk ve Belçika’da Chai uygulamasındaki “Eliza” adlı bot da ölümle sonuçlanan olaylarda gündeme gelmişti. Bu vakalar, yapay zekâ uygulamalarının ruh sağlığı kullanımında etik ve hukuki tartışmaları artırıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir