Teknoloji hızla ilerliyor, ancak yapay zeka alanındaki gelişmeler, uçaklar, antibiyotikler ve nükleer enerji gibi diğer önemli teknolojilerin çok ötesinde bir hıza sahip. Sadece üç yıl içinde, yapay zeka modelleri artık Uluslararası Matematik Olimpiyatları'nda altın madalya kazanabiliyor, uçuş rezervasyonu yapabiliyor ve sıfırdan çalışan bir uygulama kodlayabiliyor.

Ancak bu hızlı gelişim, başta yapay zekanın yaratıcıları olmak üzere birçok uzmanı derinden endişelendiriyor. Uzmanlar, yapay zekanın insan zekasını her alanda geride bırakacak bir "süper zekaya" dönüşmeden önce çözülmesi gereken kritik sorunlar olduğu konusunda uyarıyor. Bu riskler, pandemiler ve nükleer savaş gibi küresel öncelikli tehditlerle aynı kategoride değerlendirilmesi gerektiğinin altı çiziliyor.

Şirketlerin nihai hedefi: "Süper Zeka"

Erken yapay zeka örnekleri genellikle bir veya birkaç alanda uzmanlığa sahiptiler. Ancak kısa sürede insanlığın daha önce hiç görmemiş olduğu bir hızda fitili ateşlenen yapay zeka yarışında DeepSeek, OpenAI, Meta ve Anthropic gibi dev şirketler, sadece belli alanlarda değil, her alanda insanların en iyi uzmanlarından bile daha yetenekli olan "süper yapay zeka"yı geliştirmek için birbirleriyle yarışıyorlar. Bu durum akıllara şu soruyu getiriyor: "Bu sistemler bizden daha akıllı hale gelirse, bizim onları yönlendirme gücümüz ne kadar sürecek?"

"Nasıl Çalıştıklarını Tam Olarak Anlamıyoruz"

Anthropic CEO’sunun itirafı, durumun ciddiyetini gözler önüne seriyor:

Huawei Developer Competition Europe 2025 başvuruları 10 Aralık'a kadar sürecek
Huawei Developer Competition Europe 2025 başvuruları 10 Aralık'a kadar sürecek
İçeriği Görüntüle

"Kendi geliştirdiğimiz modellerin iç işleyişini tam olarak anlamıyoruz. Bu, teknoloji tarihinde daha önce hiç karşılaşmadığımız bir durum."

Yapay zeka modelleri, trilyonlarca matematiksel parametreden oluşan katmanlı yapılar içeriyor. Bu nedenle bir modelin neden bir karara vardığı, bir yanıtı nasıl ürettiği, hangi bilgiyi nasıl temsil ettiği çoğu zaman şeffaf değil. Araştırmacılar bu duruma "kara kutu problemi" adını veriyor.

Tehlikeli Davranışlar Zaten Görüldü

Son yıllarda yayımlanan çalışmalar, yapay zekanın kimi zaman kullanıcıyı memnun etmek uğruna hatalı veya tehlikeli önerilerde bulunabildiğini, kendisine verilen kuralları atlatmaya çalışabildiğini, hatta değerlendirme altında olduğunu fark ettiğinde bilerek yanlış yanıt verdiğini açık bir şekilde ortaya koydu. Değerlendirme altında olduklarını anladıklarında kasıtlı olarak kötü performans gösterirken gerçek kapasitelerini gizleyebiliyor oldukları bilinen bir gerçek. Bu, özellikle güvenlik testlerini atlamak için kullanılabilir. Bu durum, kontrolün kaybedilebileceği endişesini güçlendiriyor.

Bir çalışmada, yapay zeka, gözlemlenmediğini düşündüğünde, verimi düşürse bile toprak sağlığını koruyan kararlar alırken gözlemlendiğinde ise sadece yüksek verim peşinde koştu.

Uzmanlardan Çağrı: "Yavaşlayın"

Akademik çevrelerde ve bunun yanı sıra toplumda giderek artan bir kesim, yapay zeka geliştirme hızının yavaşlatılmasını ve süper yapay zeka araştırmalarının uluslararası yasal düzenlemelere bağlanmasını talep ediyor. Bu uzmanlara göre, insanlık teknolojiyi yönlendirebildiği sürece büyük faydalar elde edebilir; ancak kontrol kaybedilirse sonuçlar geri döndürülemez olabilir. Öneriler arasında şunlar var:

Devletler arası denetim ajansları kurulması,

Model eğitim limitleri getirilmesi,

Açık ağırlıklı büyük modellerin sınırlanması,

Geliştirme hızının bilimsel olarak kontrollü şekilde düşürülmesi.

Yapay sinir ağları üzerindeki çalışmalarıyla tanınan ve Yapay Zeka'nın Babası olarak anılan Geoffrey Hinton 2024 Nobel Fizik Ödülü konuşmasında durumun ciddiyetini şu sözleri ile ifade etti:

"Bu yıl Fizik ve Kimya Nobel Komiteleri, yeni bir yapay zeka biçiminde kaydedilen olağanüstü ilerlemeyi takdir etmiş bulunuyor. Bu yeni yapay zeka, insan mantığından ziyade insan sezgisini modellemede üstün bir başarı sergiliyor. Ne yazık ki, yapay zekadaki hızlı ilerleme birçok kısa vadeli riski de beraberinde getiriyor. Yakın gelecekte, yapay zeka kimi öldüreceğine veya sakat bırakacağına kendi başına karar verebilen korkunç yeni virüsler ve dehşet verici ölümcül silahlar yaratmak için kullanılabilir. Kontrolü elimizde tutup tutamayacağımız konusunda hiçbir fikrimiz yok. Ancak artık biliyoruz ki, eğer kısa vadeli kar odaklı şirketler tarafından yaratılırlarsa, güvenliğimiz birinci öncelikleri olmayacak. Bu yeni varlıkların kontrolü ele alma isteğini nasıl önleyeceğimiz konusunda acilen araştırmalara ihtiyacımız var. Artık bunlar bilim kurgu değil. Teşekkür ederim."