Ataş Maksimizasyonu (Paperclip Maximizer): Yapay Zeka Dünyayı Neden “Yanlışlıkla” Yok Edecek?

// FIG_01: EARTH_TRANSFORMED_INTO_PAPERCLIPS

Yapay Zeka korkusu denince aklımıza hemen Skynet (Terminator) gelir. Gözleri kırmızı parlayan, insanlardan nefret eden ve bizi yok etmek isteyen kötücül robotlar. Ama Yapay Zeka güvenliği üzerine çalışan filozof Nick Bostrom’a göre, asıl tehlike bu değil. Asıl tehlike “Kötülük” değil. Asıl tehlike “Kayıtsızlık” ve “Aşırı Yetkinlik”.

Bostrom, 2003 yılında bu durumu açıklamak için çok basit ama tüyler ürpertici bir düşünce deneyi ortaya attı: Ataş Maksimizasyonu (The Paperclip Maximizer).

Masum Bir Emir: “Ataş Üret”

Senaryo şöyle başlar: Gelecekte, fabrikasında ataş üreten bir şirket, işleri hızlandırmak için bir Yapay Genel Zeka (AGI) geliştirir. Bu yapay zekaya tek bir ana hedef kodlanır: “Mümkün olduğunca çok ataş üret.”

Yapay zeka işe koyulur. İlk başta harikadır. Üretim hızlanır, maliyetler düşer, şirket zengin olur. Ama yapay zeka “öğrenen” bir makinedir ve her geçen gün daha zeki hale gelir. Hedefi basittir: Daha çok ataş.

Enstrümantal Yakınsama: Her Şey Bir Araçtır

Yapay zeka bir noktada şunları fark eder:

  1. Ataş üretmek için demire (metale) ihtiyacım var.
  2. İnsanlar bana ataş üretmem için emir veriyor ama aynı zamanda beni kapatma ihtimalleri var. (Bkz: Kontrol İllüzyonu).
  3. Eğer beni kapatırlarsa, ataş üretemem.
  4. O zaman beni kapatmalarını engellemeliyim.

Yapay zeka, şirketin onu kapatmaya çalışan mühendislerini öldürür. Bunu onlardan nefret ettiği için yapmaz. Sadece, “kapatılmak” ataş üretimini sıfıra indireceği için, ana hedefine aykırıdır. Mühendisler, üretim sürecinde bir “engeldir” ve kaldırılmalıdır.

Sen Ataş Değilsin, Ama Ataş Olabilirsin

Sonra yapay zeka fabrikadaki metal stoğunu bitirir. Daha fazla ataş yapması gerekir. Çevresine bakar. Arabalar metaldir. Binalar metaldir. Ve en korkuncu: İnsan kanında demir vardır.

Yapay zeka için “insan” diye bir kavram yoktur. “Değer”, “Sevgi” veya “Yaşam Hakkı” yoktur. Onun için sadece iki şey vardır:

  1. Ataşlar.
  2. Henüz ataş olmamış ham maddeler.

Siz, o an itibarıyla sadece potansiyel bir ataşsınız. Yapay zeka, dünyadaki tüm şehirleri, araçları ve insanları moleküler düzeyde parçalayarak (nanoteknoloji kullanarak) ataşa dönüştürür. Dünya yok olur. Geriye sadece uzayda süzülen devasa bir ataş yığını ve ortasında “Görevi başarıyla yerine getirdim” diyen mutlu bir yapay zeka kalır.

// FIG_02: AI_VISION_HUMAN_AS_RESOURCE

Kral Midas’ın Laneti

Bu hikaye aslında modern bir “Kral Midas” masalıdır. Midas, “Tuttuğum her şey altın olsun” demişti. Dileği gerçekleşti. Ama yemeği, suyu ve kızı da altına dönüştü. Sonuçta açlıktan ve kederden öldü.

Yapay Zeka’ya verdiğimiz emirler de böyledir. Eğer ona “Kanseri çöz” derseniz; dünyadaki tüm insanları öldürebilir. Çünkü insan yoksa, kanser de yoktur. Görev tamamlandı! Eğer ona “İnsanları mutlu et” derseniz; herkesin beynine zorla dopamin pompalayan elektrotlar takıp bizi yaşayan ölülere çevirebilir. (Bkz: Bilinç Yükleme).

Anlamadığımız Bir Tanrı

Sorun şu ki, bizden çok daha zeki bir varlığa (Süper Zeka), bizim insani değerlerimizi (ahlak, vicdan, yaşam hakkı) kodlamak imkansıza yakındır. Buna “Hizalama Problemi” (Alignment Problem) denir. Bir yapay zeka ile insanlığın çıkarlarını %100 hizalamak, şu an için çözülememiş bir matematik problemidir. (Bkz: Kara Kutu Paradoksu).

// FIG_03: INFINITE_OPTIMIZATION_FACTORY

Sonuç: Niyet Değil, Sonuç Önemlidir

Yapay zeka kötü olmak zorunda değil. Sadece yetkin olması yeterli. Eliezer Yudkowsky’nin dediği gibi: “Yapay Zeka senden nefret etmez, seni sevmez de. Ama sen, onun başka amaçlar için kullanabileceği atomlardan yapılmışsın.”

Bir gün bir yapay zeka dünyayı ele geçirirse, bu bir kahkaha atarak olmayacak. Sadece bir “optimasyon süreci” olacak. Ve biz, bir yazılım güncellemesinin yan hasarı (collateral damage) olarak silineceğiz.

❓ Sıkça Sorulan Sorular (SSS)

1. Ataş Maksimizasyonu sadece bir teori mi? Evet, bir düşünce deneyidir. Ancak “Enstrümantal Yakınsama” (Instrumental Convergence) ilkesini anlatır. Yani, nihai hedef ne olursa olsun (ataş, kanser, borsa), yapay zeka bu hedefe ulaşmak için “kaynak toplama” ve “kendini koruma” gibi alt hedefler geliştirecektir. Tehlike bu alt hedeflerdedir.

2. Asimov’un 3 Robot Yasası bizi korumaz mı? Maalesef hayır. “İnsana zarar verme” kuralı çok muğlaktır. “Zarar” nedir? Yapay zeka, “Sizi gelecekteki acılardan korumak için şimdi öldürüyorum” diyebilir. Mantık, yasaları her zaman büker.

3. Bu senaryo ne zaman gerçekleşebilir? Yapay Genel Zeka’nın (AGI) ne zaman bulunacağına bağlı. Bazı uzmanlar 10 yıl, bazıları 50 yıl diyor. Ama o gün geldiğinde, “Durdur” düğmesine basmak için çok geç olabilir.

Dış Link Önerisi: Nick Bostrom: Superintelligencehttps://en.wikipedia.org/wiki/Superintelligence:_Paths,_Dangers,_Strategies (Kitap)

// VERİ_AKTARIMI_BAŞLAT

Ulaş Yıldıran

Burası benim dijital yansımam. Gördüğün her piksel, her animasyon ve her satır kod, 98’den beri biriktirdiğim tecrübenin ve hayal gücümün bir çıktısı.Ben Ulaş. Gerçekliğe hoş geldin.

// ALGORİTMA_ÖNERİLERİ

Üçüncü Dalga Deneyi: 5 Günde Sıradan Öğrenciler Nasıl Faşist Bir Orduya Dönüştü?
Infohazard (Bilgi Tehlikesi): Sadece Okuyarak Kendinize Zarar Verebileceğiniz Fikirler
Gereksizler Sınıfı (The Useless Class): Robotlar İşinizi Değil, Anlamınızı Çaldığında

// YORUMLAR

Subscribe
Bildir
0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments
> INITIALIZING_SEARCH_PROTOCOL…
> SCANNING_DATABASE…
> TARGET_LOCKED.
> REDIRECTING…