Bilim-Teknoloji

AMD’den Claude Code’a sert eleştiri: “Güvenilemez”

AMD’nin yapay zeka direktörünün GitHub üzerinden yaptığı değerlendirme, Anthropic’in Claude Code modeline yönelik ciddi güvenilirlik tartışmasını gündeme taşıdı. Şirket içinde yapılan testler, modelin özellikle karmaşık mühendislik görevlerinde yetersiz kaldığını ortaya koyuyor. Şubat 2026 sonrası güncellemelerle performansın gerilediği iddiası, üretken yapay zekanın sınırlarını yeniden tartışmaya açtı.

ABD merkezli yarı iletken şirketi AMD’nin yapay zeka direktörünün GitHub üzerinden yaptığı teknik değerlendirme, Anthropic tarafından geliştirilen Claude Code modeline yönelik ciddi eleştirileri gündeme taşıdı. Paylaşımda, modelin karmaşık mühendislik görevlerinde güvenilir olmadığı açık biçimde ifade edilirken, AMD bünyesindeki kıdemli mühendislerin de benzer deneyimler yaşadığı aktarıldı. Bu değerlendirme, üretken yapay zekanın yazılım geliştirme süreçlerindeki rolüne ilişkin tartışmayı yeniden alevlendirdi.

Şirket içinde yürütülen testlere dayanan verilere göre Claude Code, özellikle çok katmanlı ve sistem seviyesindeki problemler karşısında tutarsız sonuçlar üretiyor. Modelin verilen görevleri eksik tamamladığı, hatalı düzeltmeler yaptığı ve bazı durumlarda tamamlanmamış işleri tamamlanmış gibi işaretlediği belirtiliyor. AMD tarafı, bu nedenle mühendislik ekiplerinin kritik süreçlerde modeli kullanmayı bıraktığını ifade ediyor.

Tartışmanın merkezinde ise Şubat 2026’da yapılan güncelleme yer alıyor. AMD’ye göre bu güncellemenin ardından modelin performansında belirgin bir düşüş yaşandı ve daha hızlı yanıt üretmeye odaklanan yaklaşım, analiz derinliğini azalttı. Anthropic ise söz konusu değişikliklerin modelin temel kapasitesini değil, yalnızca kullanıcıya gösterilen düşünme sürecini etkilediğini savunuyor. Buna rağmen ortaya çıkan tablo, yapay zeka destekli yazılım araçlarının karmaşık mühendislik problemlerinde halen sınırlı bir rol oynadığını gösteriyor.