ABD’nin Utah Eyaleti Temyiz Mahkemesi, avukat Richard Bednar’ı, ChatGPT kullanarak hazırladığı bir dilekçede gerçek olmayan dava örneklerine atıfta bulunması nedeniyle cezalandırdı. Olay, yapay zekâ destekli hukuki araştırmaların güvenilirliği ve sorumluluğu üzerine yeni tartışmalar başlattı.
ChatGPT’den Uydurma Davalar: “Royer v Nelson” Hiç Var Olmamış
Olay, Bednar ve meslektaşı Douglas Durbano’nun, bir müvekkil için hazırladığı ara temyiz dilekçesi sırasında ortaya çıktı. Belgelerde, “Royer v Nelson” adlı bir davaya atıf yapıldığı görüldü. Ancak yapılan incelemelerde, bu davanın hiçbir yasal veri tabanında bulunmadığı, sadece ChatGPT tarafından “üretilmiş” olduğu tespit edildi.
Karşı tarafın avukatları, dosyada yalnızca sahte davalar değil, aynı zamanda konuyla ilgisiz ve yanlış alıntılar da bulunduğunu belirterek şikâyette bulundu.
Bednar Hatalarını Kabul Etti, Özür Diledi
Bednar, hataları kabul ederek özür diledi ve dosyanın hazırlanmasında lisanssız bir hukuk asistanının görev aldığını, kendisinin ise belgeleri kontrol etmeden sunduğunu itiraf etti. Utah Temyiz Mahkemesi’ne göre, Bednar’ın asistanı hukuk fakültesi mezunu bir çalışan olup, olay sonrası işten çıkarıldı.
Bednar, hatasını telafi etmek için karşı tarafın avukatlık ücretlerini, müvekkiline yapılan ücretleri ve duruşma masraflarını ödemeyi kabul etti. Ayrıca Utah merkezli bir hukuk derneğine 1.000 dolar bağış yapmasına karar verildi.
Mahkemeden Açıklama: “Yapay Zekâ Araçları Yardımcıdır Ama Avukatın Sorumluluğu Vardır”
Utah Temyiz Mahkemesi yaptığı açıklamada, yapay zekâ araçlarının hukuki araştırmalarda kullanımının gelişen bir alan olduğunu kabul etmekle birlikte, her avukatın dosyalarının doğruluğunu denetleme yükümlülüğü olduğunu vurguladı:
“Avukatlar, sahte dava örnekleri içeren belgeler sunarak mesleki sorumluluklarını ihlal edemezler.”
Hukuki Sistem ve Yapay Zekâ: Yeni Sorular, Yeni Riskler
Bu olay, yapay zekâ tabanlı araçların hukuk alanında ne kadar güvenilir olduğu ve avukatların bu araçları nasıl kullanması gerektiği konusundaki endişeleri artırdı. Hukuk uzmanları, AI’nin hız kazandırıcı bir araç olabileceğini, ancak yargı sistemine yanlış ve hatalı bilgiler taşımamak için insan denetiminin şart olduğunu savunuyor.