OpenAI, yapay zekâ destekli sohbet robotu ChatGPT’nin hayal ürünü iddialar üretmesi nedeniyle kendisine dava açan ABD’li radyo sunucusu Mark Walters’a karşı Georgia Eyaleti’nde görülen davada mahkeme kararıyla aklandı. Mahkeme, OpenAI’nin yanlış bilgi üretebileceği konusunda kullanıcıları açıkça uyardığını vurguladı.
Davanın Arka Planı: Hayali Bir Suçlama
ABD’li radyo sunucusu ve silah hakları savunucusu Mark Walters, 2023 yılında yapay zekâ şirketi OpenAI’ye karşı iftira davası açtı. Walters’ın iddiasına göre, bir gazeteci, ChatGPT’ye silahlarla ilgili bir dava hakkında bilgi almak amacıyla bir soru yöneltti. Ancak ChatGPT, bu soruya yanıt verirken Mark Walters’ın adını da içeren ve gerçekte var olmayan, tamamen hayal ürünü bir dava senaryosu sundu.
ChatGPT’nin oluşturduğu bu yanıtta, Walters’ın silahlarla ilgili hukuki bir süreçte sanık olarak yer aldığı izlenimi veriliyordu. Oysa böyle bir dava hiçbir zaman açılmamıştı. Bu durum, sohbet robotunun kamuya açık olmayan bir konuda, gerçek kişilere zarar verebilecek düzeyde asılsız bilgi üretmiş olabileceği yönünde endişe yarattı.
Söz konusu gazeteci, editörü olduğu AmmoLand.com adlı internet sitesinde bu iddiayı araştırdıktan sonra ChatGPT’nin sunduğu bilgilerin hatalı ve uydurma olduğunu fark etti. Bunun üzerine söz konusu içerik kamuya açıklanmadı ve gazeteci, dava sürecine dahil edilmedi. Ancak Walters, ChatGPT’nin bu tür yanıltıcı içerikler üretebildiği gerekçesiyle OpenAI’ye karşı doğrudan bir hukuk mücadelesi başlattı.
Mahkeme: Hatalı Bilgi Riski Açıkça Bildiriliyor
Georgia eyaletine bağlı Gwinnett County Yüksek Mahkemesi Yargıcı Tracie Cason, Walters’ın kendisine yönelik iddiaların iftira niteliği taşıdığını ispat edemediğine hükmetti. Kararda, OpenAI’nin kullanıcılarını yapay zekânın hata yapabileceği konusunda açıkça uyardığı ve bu uyarıların sorumluluğu sınırladığı belirtildi.
“Actual Malice” Eşiği Aşılamadı
ABD hukukunda iftira davalarında geçerli olan “actual malice” (kastî kötülük) standardı, bir kişinin bilerek ya da ağır ihmal göstererek yanlış bilgi yaydığını ispatlamayı gerektirir. Yargıç Cason, OpenAI’nin yanlış bilgi yayma konusunda kasıtlı davrandığına veya ağır ihmal gösterdiğine dair yeterli delil sunulamadığını belirtti.
Yargıç, “OpenAI’nin bu tür hataları azaltmaya yönelik sektör lideri çabaları ve kullanıcıları bu hatalara karşı kapsamlı şekilde uyarması, jüri tarafından kastî kötülük olduğuna hükmedilmesini olanaksız kılar,” dedi.
Tarafların Tepkileri
OpenAI karardan memnuniyet duyduğunu açıkladı ve kullanıcı eğitimine ve model iyileştirmelerine verdikleri önemin mahkeme tarafından dikkate alınmasından memnun olduklarını belirtti. Walters’ın avukatı John Monroe ise kararın incelenmeye devam edildiğini söyledi.
