OpenAI ve Google Deepmind'in başkanları da dahil olmak üzere uzmanlar, yapay zekanın insanlığın yok olmasına yol açabileceği konusunda uyarılarda bulunuyor.
Yapay Zeka Güvenliği Merkezi'nin web sayfasında yayınlanan bir açıklama medyada tartışma konus olmaya devam ediyor.
Raporda "Yapay zeka nedeniyle yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi toplumsal ölçekteki diğer risklerin yanı sıra küresel bir öncelik olmalıdır" ifadesi yer alıyor.
ChatGPT yapımcısı OpenAI'nin genel müdürü Sam Altman, Google DeepMind'ın genel müdürü Demis Hassabis ve Anthropic'ten Dario Amodei açıklamayı destekledi.
"YAPAY ZEKA SİLAH HALİNE GETİRİLEBİLİR"
Yapay Zeka Güvenliği Merkezi web sitesi bir dizi felaket senaryosuna ilişkin şunları kaydediyor:
"Yapay zekalar silah haline getirilebilir; örneğin ilaç keşif araçları kimyasal silah yapımında kullanılabilir. Yapay zekanın ürettiği yanlış bilgi toplumu istikrarsızlaştırabilir ve "kolektif karar almayı baltalayabilir"
Yapay zekanın gücü giderek daha az sayıda elde yoğunlaşabilir ve "rejimlerin yaygın gözetim ve sansür baskılarına" imkan tanıyabilir.
İNSANLARIN YAPA ZEKA BAĞIMLILIK ZAAFI
Süper akıllı yapay zekadan kaynaklanan riskler hakkında daha önce uyarıda bulunan Dr. Geoffrey Hinton da Yapay Zeka Güvenliği Merkezi'nin çağrısını destekledi.
Montreal Üniversitesi'nde bilgisayar bilimi profesörü olan Yoshua Bengio da imzayı attı.
Dr. Hinton, Prof Bengio ve NYU Profesörü Yann LeCun, bu alandaki çığır açıcı çalışmalarından dolayı sıklıkla "Yapay Zekanın vaftiz babaları" olarak tanımlanıyor. Her iki isim çalışmalarıyla bilgisayar bilimleri alanında 2018 Turing Ödülü'nü ortaklaşa kazandılar.
Ancak aynı zamanda Meta'da da çalışan Prof. LeCun, bu felaket uyarılarının abartılı paylaşımlar olduğunu ve "Yapay zeka araştırmacılarının bu kıyamet kehanetlerine karşı en yaygın tepkisinin yüz avuçlama olduğunu" söyledi.
"GERÇEĞİ PARÇALAMAK"
Diğer uzman kesimi ise yapay zekanın insanlığı yok edeceğine dair korkuların gerçekçi olmadığına ve halihazırda sorun olan sistemlerdeki önyargı gibi konulardan dikkati dağıtacağına inanıyor.
Princeton Üniversitesi'nden bilgisayar bilimcisi Arvind Narayanan daha önce BBC'ye bilim kurgu benzeri felaket senaryolarının gerçekçi olmadığını iddia ederek, "Mevcut yapay zeka bu risklerin gerçekleşmesini sağlayacak kapasiteye hiç de yakın değil. Sonuç olarak, yapay zekanın kısa vadeli zararlarıyla ilgiil dikkati olaydan uzaklaştırmak" şeklinde değerlendiriyor.
Oxford'un Yapay Zeka Etik Enstitüsü'nden kıdemli araştırma görevlisi Elizabeth Renieris, BBC News'e, bugün artık yakın risklerden daha fazla endişe duyduğunu söyledi.
Renieris, "Yapay zekadaki ilerlemeler, önyargılı, ayrımcı, dışlayıcı veya başka bir şekilde adil olmayan, aynı zamanda gizemli ve tartışılmaz olan otomatik karar vermenin ölçeğini büyütecek. Yanlış bilginin hacminde ve yayılmasında katlanarak bir artışa neden olacak, böylece gerçekliği parçalayacak ve halkın güvenini aşındıracak. Özellikle dijital uçurumun yanlış tarafında kalanlar için eşitsizliği daha da artıracak." dedi.
Birçok yapay zeka aracının aslında "bugüne kadarki insan deneyiminin tamamında bedava yolculuk" olduğunu söyleyen Renieris. şöyle devam etti:
"Yapay zeka aracıyla taklit edilebilecek insan yapımı içerik, metin, sanat ve müzik konusunda bir çok kişi eğitiliyor ve yaratıcıları muazzam zenginliği ve gücü kamusal alandan küçük bir avuç özel kuruluşa etkili bir şekilde aktarmış."
Ancak Yapay Zeka Güvenliği Merkezi direktörü Dan Hendrycks, gelecekteki risklerin ve mevcut endişelerin "düşmanca görülmemesi gerektiğini" belirterek, "bazı sorunların bugün ele alınması, yarın daha sonra ortaya çıkabilecek risklerin çoğunun ele alınması için faydalı olabilir" dedi.
SÜPER ZEKA ÇALIŞMALARI
Yapay zekadan kaynaklanan "varoluşsal" tehdidin medyada yer alması, Tesla'nın patronu Elon Musk da dahil olmak üzere uzmanların yeni nesil yapay zeka teknolojisinin geliştirilmesini durdurma çağrısında bulunan açık bir mektubu imzaladığı Mart 2023'ten bu yana çığ gibi arttı.
Mektupta, "sonunda sayıca üstün olabilecek, zekasıyla geride kalabilecek, geçerliliğini yitirmiş ve yerimizi alacak insan olmayan zihinler geliştirmemiz" gerekip gerekmediği soruluyordu.
Açıklamada dile getirilen risk, nükleer savaşın yarattığı riskle karşılaştırılıyor.
OpenAI geçtiğimiz günlerde yayınladığı bir blog yazısında süper istihbaratın nükleer enerjiye benzer şekilde düzenlenebileceğini öne sürdü.
Firma, "Süper istihbarat çabaları için eninde sonunda IAEA (Uluslararası Atom Enerjisi Ajansı) gibi bir şeye ihtiyacımız olacak" açıklamasında bulundu.