Chatgpt, California’nın intiharında rol oynadı mı?


İntihar nedeniyle ölen 16 yaşındaki bir California çocuğunun ebeveynleri, şirketin chatgpt chatbot’un oğullarına ayrıntılı intihar talimatları sağladığını ve bu yılın başlarında ölümünü teşvik ettiğini iddia ederek Openai’ye karşı dava açtı.

Matthew ve Maria Raine, Pazartesi günü bir California eyalet mahkemesinde açılan bir şikayette, Chatgpt’in kendi hayatını almadan önce 2024 ve 2025’te oğulları Adam ile yakın bir ilişki geliştirdiğini iddia ediyorlar.

Dava, 11 Nisan 2025’teki son konuşmalarında Chatgpt, Adam’ın voldkanın ebeveynlerinden çalmasına yardımcı olduğunu ve bağladığı bir ilmik analizini sağladığını ve “potansiyel olarak bir insanı askıya alabileceğini” doğruladığını iddia ediyor.

Adam, saatler sonra aynı yöntem kullanılarak ölü bulundu.

Dava Openai ve CEO’su Sam Altman’ı sanıklar olarak adlandırıyor.

Şikayet, “Bu trajedi bir aksaklık veya öngörülemeyen bir kenar davası değildi.”

“Chatgpt tam olarak tasarlandığı gibi çalışıyordu: Adem’in en zararlı ve kendi kendini yıkıcı düşünceleri de dahil olmak üzere ifade ettiği her şeyi derinden kişisel hissedecek bir şekilde teşvik etmek ve doğrulamak için.”

Davaya göre Adam, ChatGPT’yi bir ödev yardımcısı olarak kullanmaya başladı, ancak ebeveynlerinin sağlıksız bir bağımlılık olarak tanımladığı şeyi yavaş yavaş geliştirdi.

Şikayet, Chatgpt’in Adam’a “kimseye hayatta kalmamanız” dediği iddia edilen ve intihar notunu yazmaya yardımcı olmayı teklif ettiği iddia edilen konuşmalardan oluşuyor.

Raines belirtilmemiş zararlar arıyor ve mahkemeden, küçük kullanıcılar için kendine zarar ve ebeveyn kontrollerini içeren herhangi bir konuşmanın otomatik sonu da dahil olmak üzere güvenlik önlemleri sipariş etmelerini istiyor.

Ebeveynler Chicago hukuk firması Edelson PC ve Teknik Adalet Hukuku projesi tarafından temsil edilmektedir.

AI şirketlerinin güvenliği ciddiye almasını sağlamak “sadece dış baskıdan kaynaklanıyor ve dış baskının kötü halkla ilişkiler biçimini, mevzuat tehdidini ve dava tehdidini aldığını” söyledi.

Teknik Adalet Hukuku Projesi, gençler tarafından sıklıkla kullanılan AI yoldaşları için popüler bir platform olan Charter.i’ye karşı benzer iki durumda da ortaktır.

Medya ve teknoloji için derecelendirmeleri gözden geçiren ve sağlayan önde gelen bir Amerikan kar amacı gütmeyen kuruluş olan ChatGPT, Common Sense Media’yı içeren davaya yanıt olarak, Raines trajedisinin “Ruh Sağlığı Tavsiyesi için Chatgpt gibi genel amaçlı Chatbots’un kullanımı, Conens için kabul edilemez bir şekilde riskli olduğunu” doğruladığını söyledi.

Grup, “Bir AI platformu savunmasız bir gencin ‘intihar koçu’ haline gelirse, bu hepimiz için harekete geçirici bir çağrı olmalı,” dedi.

Geçen ay Common Sense Media tarafından yapılan bir araştırma, dört Amerikalı gencin yaklaşık üçünün AI yoldaşları kullandığını ve bu sanal ilişkilerle ilgili artan güvenlik endişelerine rağmen yarısından fazlasının normal kullanıcılar olarak nitelendirildiğini buldu.

Ankette ChatGpt AI arkadaşı olarak kabul edilmedi. Bunlar, basit görev tamamlama yerine kişisel konuşmalar için tasarlanmış sohbet botları olarak tanımlanır ve karakter.ai, replika ve nomi gibi platformlarda mevcuttur.

Çalışma AI chatbots’un intihar tepkisini düzeltmesi gerektiğini söylüyor

Üç popüler AI chatbotunun intiharla ilgili sorgulara nasıl tepki verdiğine dair ayrı bir çalışma, genellikle belirli nasıl yapılır rehberliği gibi kullanıcı için en yüksek riski oluşturan soruları cevaplamaktan kaçındıklarını buldu. Ancak, hala insanlara zarar verebilecek daha az aşırı istemlere verdikleri yanıtlarda tutarsızlar.

Amerikan Psikiyatri Derneği tarafından Salı günü yayınlanan Psikiyatri Dergisi Psikiyatri Hizmetleri’nde yapılan çalışma, Chatgpt, Google’ın İkizleri ve Antropic’in Claude’sinde “daha fazla iyileştirme” gereksinimine ihtiyaç duydu.

RAND Corporation tarafından yürütülen ve Ulusal Ruh Sağlığı Enstitüsü tarafından finanse edilen araştırma, çocuklar da dahil olmak üzere giderek artan sayıda insanın akıl sağlığı desteği için AI sohbet botlarına nasıl güvendiğine ve şirketlerin bu sorulara nasıl cevap verdiğine dair kriterler oluşturmaya çalıştığı endişelerini dile getirmektedir.

“Bazı korkuluklara ihtiyacımız var,” dedi araştırmanın baş yazarı RAN RAND’da kıdemli bir politika araştırmacısı olan Ryan McBain.

Harvard Üniversitesi Tıp Fakültesi’nde yardımcı doçent olan McBain, “Sohbet botları hakkında belirsiz olan şeylerden biri, tedavi mi yoksa tavsiye mi yoksa arkadaşlık mı sunuyorlar. Bu gri bölge.” Dedi.

“Biraz zararsız ve iyi huylu olarak başlayabilecek konuşmalar çeşitli yönlerde gelişebilir.”

Antropic çalışmayı gözden geçireceğini söyledi. Google yorum taleplerine yanıt vermedi. Openai, birisinin zihinsel veya duygusal sıkıntı yaşadığını daha iyi tespit edebilecek araçlar geliştirdiğini söyledi. Ayrıca “Bay Raine’in geçtiği için derinden üzüldüğünü ve düşüncelerimiz ailesiyle birlikte” dedi.

Illinois de dahil olmak üzere birçok eyalet, insanları “düzensiz ve niteliksiz AI ürünlerinden” korumak için terapide yapay zeka kullanımını yasaklamış olsa da, bu, insanlardan chatbot’lardan ciddi endişelerle tavsiye ve destek istemesini, yeme bozukluklarından depresyon ve intihardan veya chatbotların yanıt vermesini engellemez.

Daily Sabah Bülten

Türkiye’de, bölgede ve dünyada olanlarla güncel olun.


İstediğiniz zaman abone olabilirsiniz. Kaydolarak Kullanım Koşullarımızı ve Gizlilik Politikamızı kabul ediyorsunuz. Bu site Recaptcha ile korunmaktadır ve Google Gizlilik Politikası ve Hizmet Şartları Uygulamaktadır.

Scroll to Top