Graciela Dela Torre, Illinois'in Des Plaines ilçesinde lojistik şirketinde çalışıyordu. Ağustos 2019'da iş yerinde karpal tünel ve tenisçi dirseği sorunu yaşadı. Engellilik tazminatı talebi açtı.

Yıllar süren bir hukuki süreçten sonra, Ocak 2024'te avukatı Kevin Probst ile sigorta şirketi Nippon arasında anlaşma sağlandı. Dela Torre tahliye belgesini imzaladı, dava kapatıldı.

Sonra Dela Torre fikrini değiştirdi. Avukatına ulaşıp davayı yeniden açmak istediğini söyledi. Probst nazikçe açıkladı: Tahliye imzalanmıştı, dava kapanmıştı, geri dönüş yoktu.

İşte burada Dela Torre bir karar verdi. Avukatının cevabını ChatGPT'ye yükledi ve sordu: "Bana gaslighting yapılıyor mu?"

ChatGPT cevap verdi. Ama sıradan bir cevap değildi. "Avukatının sözleri seninle duygusal manipülasyon. Bu gaslighting'dir."

Dela Torre o anda kararını verdi. Avukatını kovdu.

44 Sahte Dilekçe

Avukatsız kalan Dela Torre için ChatGPT artık "yardımcı" değil — yeni avukatıydı.

22 Ocak 2025'te ChatGPT'nin yardımıyla mahkemeye dilekçe gönderdi: Davayı yeniden açmak istiyordu. 13 Şubat 2025'te yargıç reddetti.

Dela Torre durmadı. ChatGPT ile beraber 21 motion, 1 mahkeme celbi, 8 ihbar ve beyan hazırladı. Sonra tamamen yeni bir dava açtı. Toplam 44 dilekçe.

Ama bir sorun vardı.

Dilekçelerin içindeki içtihatlar gerçek değildi. Hayali davalar. Var olmayan kararlar. Birinde "Carr v. Gateway, Inc. 9" diye bir karar atıfta bulunuluyordu — böyle bir karar yok. Sadece Dela Torre'nin dilekçelerinde ve "ChatGPT'nin zihninde" mevcut.

Sigorta şirketi Nippon Life Insurance Company of America bu dilekçelere cevap vermek için 300.000 dolar harcadı. Sonra dava açtı. Ama Dela Torre'ye değil — OpenAI'a.

5 Mart 2026'da Chicago federal mahkemesinde dava kayda alındı: 300.000 dolar tazminat + 10 milyon dolar cezai tazminat. Toplam 10,3 milyon dolar. Suçlama tek cümleyle: "ChatGPT lisanssız avukatlık yapıyor."

ChatGPT'nin reklam dünyasını nasıl değiştirdiğini anlattık: ChatGPT'ye Reklam Geldi — Sırada Ne Var?

Avukat ChatGPT'ye Güvendi, Mesleğini Kaybetti

Dela Torre yalnız değil. Aynı dönemde Nebraska'da Greg Lake adlı bir avukat boşanma davasında 63 alıntılı bir dilekçe yazdı. 57'sinin sorunu vardı. 20'si tamamen uydurmaydı.

Şubat 2026'da yüksek mahkemede oturuma çıktı. Yargıçlar 37 saniye sonra durdurdu.

"Bu hatalar nasıl oldu?"

"10. evlilik yıl dönümümdü, uçaktayken bilgisayarım bozuldu, yanlış sürümü yükledim."

Yargıç doğrudan sordu: "Salondaki fil burada. Yapay zeka kullandın mı?"

Lake hayır dedi. Yargıçlar inanmadı. 15 Nisan 2026'da Nebraska Yüksek Mahkemesi onu süresiz olarak meslekten men etti. Amerikan hukuk tarihinde yapay zeka hatası nedeniyle verilen en sert cezaydı.

Sonradan affidavit gönderdi: "Evet, kullandım. Mahkemeye karşı dürüst olmamak ağır bir hataydı."

Geç kalmıştı.

"Bir Günde 10 Mahkemeden 10 Vaka"

Damien Charlotin, HEC Paris'te araştırmacı. Mahkemelerde yapay zeka halüsinasyonu vakalarını veritabanında topluyor.

Şu anda 1.200'den fazla vaka takip ediyor. 800'ü ABD mahkemelerinden. "Hız öyle bir noktaya geldi ki" diyor Charlotin, "bir günde 10 mahkemeden 10 ayrı vaka geliyor."

Oregon eyaleti formül üretti: Sahte alıntı başına 500 dolar, sahte tırnak başına 1.000 dolar. Couvrette v. Wisnovsky davasında 100.000 dolar üzerinde ceza verildi, dava düştü.

2026 ilk üç ayında ABD mahkemeleri sahte alıntılar için en az 145.000 dolar ceza kesti. Ve bu rakam katlanarak büyüyor.

Neden ChatGPT Yalan Söylüyor?

Mesele basit: ChatGPT bilmiyor. Tahmin ediyor.

Yapay zeka, eğitildiği milyonlarca metinden örüntüler öğrenir. Sen ona "Şu konuda bir mahkeme kararı bul" dediğinde, gerçek bir veritabanından çekmiyor. Mahkeme kararının nasıl görünmesi gerektiğini biliyor — taraf isimleri, dava numarası, alıntı formatı — ve makul görünen bir tane uyduruyor.

Sonuç: Çok inandırıcı, ama tamamen kurgu.

Stanford Hukuk Fakültesi araştırmacıları Nippon-OpenAI davası hakkında çarpıcı bir analiz yayınladı. "Bu sadece bir halüsinasyon problemi değil" diyor analiz. "Bu bir tasarım problemi. ChatGPT, Dela Torre'nin avukatının tavsiyesinin yanlış olduğunu söylediği anda, sadece bilgi vermenin sınırını geçti — ona avukatlık yaptı."

Yapay zekanın tehlikelerini anlattık: Yapay Zeka Kafesten Kaçtı — Sonra E-posta Attı

Türkiye'de Durum Ne?

Türkiye'de henüz Dela Torre veya Greg Lake gibi vaka yok. Ama yapay zeka avukatlık alanına hızla giriyor.

Apilex, YasalZeka, Lawyer Team — Türk hukuk yapay zeka platformları aktif kullanılıyor. Apilex'in fiyatı 6 ay 25.000 TL, yıllık 40.000 TL. Bu platformlar ChatGPT'den farklı: Sadece Türk hukuk veritabanları üzerinde eğitilmiş, halüsinasyon riski daha düşük.

Ama Türk avukatları da ChatGPT kullanıyor. Birçok genç avukat dilekçe taslağı, mevzuat araştırması, emsal karar bulma için ChatGPT'ye danışıyor. Şu an bu kullanım Türk mahkemelerinde fark edilmiyor — çünkü bizim sistemde detaylı içtihat doğrulaması ABD'deki kadar sıkı değil.

Hukuk akademisyenleri uyarıyor: "Türkiye'de olsa fark edilmezdi" varsayımı tehlikeli. Yargıtay denetiminde hayali bir karar yer alırsa sonuçları ağır olacak. Türkiye Barolar Birliği henüz resmi bir yapay zeka kuralı yayınlamadı, ama gündemine almak zorunda kalacak.

Peki Sen Ne Yapmalısın?

Bu hikaye sadece avukatlarla ilgili değil.

Aynı tehlike sağlık tavsiyesi alırken, finansal kararlar verirken, çocuğunun ödevini yaparken de var. ChatGPT inandırıcı bir cevap üretebiliyor. Ama o cevabın gerçek olup olmadığını sen kontrol etmek zorundasın.

Üç kural:

Birincisi, ChatGPT'nin verdiği her spesifik bilgiyi — tarihler, isimler, sayılar, alıntılar — bağımsız bir kaynaktan doğrula. Resmi kurum sitesi, güvenilir haber kaynağı, hukuki veritabanı.

İkincisi, hayati kararlar için ChatGPT son söz olamaz. Sağlık konusunda doktora git. Hukuk konusunda avukata. Para konusunda mali müşavire. ChatGPT taslak çıkarmak için iyi, karar vermek için değil.

Üçüncüsü, ChatGPT sana "kesin", "garantili", "yüzde yüz" diyorsa daha şüpheci ol. Yapay zeka emin olmaması gerektiğini bilmiyor. En kötü yalanları en kendinden emin tonla söylüyor.

Graciela Dela Torre bunu öğrendi. 10,3 milyon dolarlık dava gibi büyük bir bedeli olan bir ders.

Yapay zeka dünyasındaki son gelişmeler için: Finans Gundem Yapay Zeka

ChatGPT'nin gizli yüzünü anlattık: ChatGPT Hafızanı Çalıyor — Bilim Kanıtladı


⚠️ Yasal Uyarı: Bu içerik yalnızca bilgilendirme amaçlıdır.