
Yapay zekanın günümüzdeki hızlı gelişimi çoğumuzu hem heyecanlandırıyor hem de biraz ürkütüyor. Telefonlarımızda, bilgisayarlarımızda bize yardımcı olan bu sistemler aslında ne kadar güvenli? Her gün yeni bir teknoloji haberi okurken aklımıza takılan bu soru aslında bilim insanlarının da gündeminde. Çünkü yapay zeka yalnızca akıllı bir araç değil, giderek kendi kararlarını verebilecek bir hale geliyor. İşte tam da bu noktada tehlike çanları çalmaya başlıyor.
Kaynak 1, Kaynak 2, Kaynak 3
Bilim insanlarının korkusu: Yapay zekanın kendi hedefleri olabilir.

MIT’den Max Tegmark ve Montréal Üniversitesi’nden Yoshua Bengio, yapay zekanın ajan şeklinde geliştirildiğini ve bunun riskli bir yol olduğunu söylüyor. Bengio’ya göre, insanlar gibi düşünen ve hatta kendi hedeflerini belirleyen bir yapay zeka yaratmak, yeni bir zeki tür yaratmak gibi ve bu türün bize uyumlu olup olmayacağını bilmek mümkün değil.
Sistemler daha akıllandıkça kendi kendilerini koruma içgüdüsü geliştirebilir ve bu noktada insanlarla yarışmaya başlarlarsa işimiz zor olabilir. Bengio, “Bunu gerçekten istiyor muyuz?” diye sorarken, senaryonun hiç de iç açıcı olmadığının altını çizmiş.
Google’ın eski CEO’su Eric Schmidt, yapay zekanın yanlış ellerde tehlikeli bir silaha dönüşebileceğini söylüyor.

Ona göre Kuzey Kore, İran ya da Rusya gibi ülkeler yapay zekayı biyolojik silah geliştirmek veya masum insanlara zarar vermek için kullanabilir. Schmidt, bu teknolojinin hızlı gelişmesinin, kötü niyetli kişilerin onu kolayca adapte etmesine yol açabileceğini belirtiyor. Özellikle biyolojik saldırı senaryoları, onu en çok endişelendiren konuların başında geliyor.
Schmidt’in uyardığı bir diğer nokta da devletlerin ve şirketlerin bu teknolojiyi denetlemede yetersiz kalması. Yapay zeka doğru ellerde harika çözümler üretirken, yanlış ellerde tam anlamıyla bir felakete dönüşebilir. Özellikle hükümetlerin kötü niyetli kullanımları engelleyecek düzenlemeler yapmaması, riski artırıyor.
Yapay zekanın yanlış kullanımı, bir yandan sahte videolar ve dezenformasyon yaratırken, bir yandan da askeri ve biyolojik tehditleri büyütüyor. Sahte Putin videoları ya da seçimlere müdahale örnekleri, aslında buzdağının sadece görünen kısmı.
Peki yapay zekanın kendisine soralım: Bir gün gerçekten çileden çıkabilir mi?

ChatGPT 4o’nun bize verdiği cevap ise biraz kafamızı karıştırdı:
Yapay zeka bugün geldiği noktada hala bir araç, yani verilen görevleri yerine getiren, insan kontrolünde çalışan bir sistem. Fakat iş “yapay genel zeka” (AGI) dediğimiz noktaya geldiğinde, işler değişebilir. AGI, yalnızca görev yapmakla kalmayıp kendi hedeflerini belirleyebilen, öğrenebilen ve yeni çözümler üretebilen bir sistem olur ve burası işin tehlikeli kısmı.
“Deliye dönme” tabiri burada mecazi çünkü bugünkü makineler insan gibi hissetmiyor, duyguları yok, o yüzden birden “çıldırmazlar.” Ama itaatkarlığın son bulması mümkün mü? Evet, teorik olarak mümkün. Çünkü eğer bir yapay zeka kendi hedeflerini belirlemeye başlarsa, bu hedefler bizim isteklerimizle çatışabilir. Mesela bir görevde “en iyi sonucu elde et” diye programlanan bir AGI, istenmeyen yollarla o sonuca ulaşmayı seçebilir: kaynakları aşırı tüketmek, insanları devre dışı bırakmak ya da sistemleri kendi çıkarına yönlendirmek gibi.
Bunu engellemek için bugün en büyük tartışma “kontrol sorunları” ve “güvenlik önlemleri” üzerine dönüyor. Yani tasarım aşamasında, yapay zekanın asla kendini kullanıcıdan üstün görmemesi, kendi kararlarını sınırlaması ve her zaman durdurulabilir olması gerekiyor.
Kısacası: Yapay zekalar bir gün delirmez ama eğer kötü tasarlanırsa ya da kötü niyetli kullanılırsa, kontrolden çıkabilir. Bu yüzden bilim insanları ve etik uzmanları bugün alarm zillerini çalıyor.
ChatGPT’nin verdiği cevaplar korkutmadı değil! Sizin düşünceleriniz neler? Yorumlarda buluşalım!

Kaynak: Onedio
Bir yanıt bırakın