Üç devin ortak imzası! "Yapay Zekaya Dikkat Edin, İnsanlığı Savun" konulu bir açık mektup daha yayınlandı

"AI yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli riskleri yönetmek gibi küresel bir öncelik olmalıdır."

Yazan: VickyXiao, Juny

Kaynak: Silicon Stars

Üretken yapay zeka neredeyse her alanı bu kadar hızlı bir şekilde süpürdüğünden beri, yapay zekanın insanlara meydan okuma korkusu giderek daha gerçek hale geldi.

Geçen sefer Musk, AI büyük model eğitiminin yarım yıl süreyle askıya alınması ve AI teknolojisinin yapay zeka araştırma topluluğu ve endüstri liderleri üzerindeki denetiminin güçlendirilmesi çağrısında bulunan açık bir mektup yayınlayarak, dünyadaki tüm laboratuvarları geliştirmeyi askıya almaya çağırdı. en az 6 aylık askıya alma süresi olan daha güçlü AI modelleri. Ancak, yepyeni bir AI projesini tanıtmak için Twitter için aslında 10.000 GPU satın aldığı ortaya çıktı ve büyük olasılıkla kendi büyük dil modelini geliştiriyor.

Ancak bu kez, insanları yapay zekanın oluşturduğu tehdide dikkat etmeye çağıran başka bir açık mektup yeniden yayınlandı. Geçen seferden daha çarpıcı olan ise, üretici yapay zeka alanında günümüzün üç devi olan OpenAI, DeepMind (Google'a ait) ve Anthropic'in de aralarına katılması.

22 kelimelik açıklama, 350 imza

San Francisco merkezli kâr amacı gütmeyen bir kuruluş olan Yapay Zeka Güvenliği Merkezi tarafından yayınlanan bildiri, yapay zekanın insanlığa yönelik varoluşsal bir tehdit oluşturduğuna inandıkları yeni bir uyarıdır. Açıklamanın tamamı sadece 22 kelime - evet yanlış okumadınız, sadece 22 kelime ve tam içeriği şu şekilde:

**AI yok olma riskini azaltmak, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli riskleri yönetmenin yanı sıra küresel bir öncelik olmalıdır. **

AI tehdidi teorisi yeni olmasa da, tüm insanlığı tehlikeye atan "nükleer savaş" ve "pandemi" gibi kriz faktörleriyle ilk kez kamuoyunda karşılaştırılıyor.

İfadenin imza kısmı, ifadenin içeriğinden çok daha uzundur.

OpenAI CEO'su Sam Altman, DeepMind CEO'su Demis Hassabis ve Anthropic CEO'su Dario Amode'ye ek olarak, bir zamanlar "AI Big Three" de dahil olmak üzere 350'den fazla üst düzey AI araştırmacısı, mühendisi ve girişimci de katıldı. Turing Ödülü "İki Geoffrey Hinton ve Yoshua Bengio, ancak onlarla birlikte ödülü kazanan ve şu anda Facebook'un ana şirketi Meta'nın baş yapay zeka bilimcisi olan Yann LeCun henüz imzalamadı.

Buna ek olarak, Çin Bilimler Akademisi Otomasyon Enstitüsü Yapay Zeka Etiği ve Yönetişimi Araştırma Merkezi direktörü Zeng Yi ve Tsinghua Üniversitesi'nde doçent olan Zhan Xianyuan da dahil olmak üzere Çinli akademisyenler de listede yer aldı.

İmzaların tam listesi buradan görüntülenebilir:

Açıklamanın yayıncısı Yapay Zeka Güvenliği Merkezi'nin yönetici direktörü Hendrycks, açıklamanın özlü olduğunu ve anlaşmazlığı önlemek için yapay zeka tehdidini hafifletmenin herhangi bir potansiyel yolunu kasıtlı olarak ele almadığını söyledi. Hendrycks, "30 potansiyel müdahaleden oluşan devasa bir portföy için zorlamak istemedik" dedi. "Bu olduğunda, mesajı sulandırır."

Musk'ın açık mektubunun geliştirilmiş versiyonu

Bu açık mektup, Musk'ın bu yılın başlarında açık mektubunun geliştirilmiş ve "temiz bir versiyonu" olarak görülebilir.

Daha önce Musk, "Future of Life Institute" web sitesinde ortak bir duyuru yayınlamak için endüstri ve akademi dünyasından binden fazla liderle bir araya geldi. Açık mektup temel olarak bilginin iki yönünü aktarıyor: birincisi, yapay zekanın insan toplumu üzerindeki potansiyel tehdidine karşı uyarıda bulunmak ve GPT-4'ten daha güçlü herhangi bir yapay zeka sisteminin eğitiminin derhal askıya alınmasını gerektiriyor. en az 6 ay İkincisi, yapay zeka teknolojisinin gelişimini denetlemek ve gözden geçirmek için tüm yapay zeka alanını ve politika yapıcıları ortaklaşa kapsamlı bir yapay zeka yönetişim sistemi tasarlamaya davet etmektir.

Mektup o sırada birden çok düzeyde eleştirildi. Musk'ın yalnızca "dövüş sanatları hakkında konuşmadığı" ifşa edildiğinden ve AI araştırmalarının askıya alınması çağrısında bulunduğu için değil, gizlice yepyeni bir AI projesini destekledi ve Google ve OpenAI'den bazı teknik yetenekleri kaçırdı, aynı zamanda " Geliştirmeyi askıya almak" mümkün değildi ve sorunu çözmedi.

Örneğin yapay zeka alanında "Üç Büyük"ten biri olan Yann LeCun, Yoshua Bengio ile Turing Ödülü'nü kazandığında, mektubun bakış açısına katılmadığını ve imzalamadığını o dönemde açıkça belirtmişti. BT.

Ancak Yann LeCun da bu yeni ve daha muğlak açık mektubu imzalamadı.

Yapay zeka alanında tanınmış bir akademisyen ve Landing AI'ın kurucusu Wu Enda da o dönemde LinkedIn'de AI eğitimine 6 ay ara verme fikrinin kötü ve gerçekçi olmayan bir fikir olduğunu paylaşmıştı.

Endüstrinin AI eğitimi araştırmasını gerçekten askıya almanın tek yolunun devlet müdahalesi olduğunu, ancak hükümetten anlamadıkları gelişen teknolojileri askıya almasını istemenin rekabete aykırı olduğunu ve açıkça iyi bir çözüm olmadığını söyledi. Sorumlu yapay zekanın önemli olduğunu ve yapay zekanın riskleri olduğunu kabul etti, ancak herkese uyan tek bir yaklaşım tavsiye edilmiyor. Şu anda daha da önemlisi, tüm tarafların yapay zeka teknolojisini geliştirirken güvenlik alanına daha fazla yatırım yapması, şeffaflık ve denetim etrafında düzenlemeler oluşturmak için işbirliği yapmasıdır.

Hatta Sam Altman, ABD Kongresi tarafından sorgulandığında Musk'ın çağrısının çerçevesinin yanlış olduğunu, tarihin askıya alınmasının anlamsız olduğunu doğrudan ifade etmişti. "Altı ay ara veriyoruz, sonra ne olacak? Altı ay daha ara vereceğiz" dedi.

Ancak Andrew Ng gibi, Sam Altman da AI'nın daha fazla hükümet düzenlemesi için en sesli savunuculardan biri olmuştur.

Hatta duruşmada ABD hükümetine düzenleyici tavsiyelerde bulundu ve hükümetten büyük ölçekli AI modelleri için lisans vermekten sorumlu yeni bir devlet kurumu kurmasını istedi.Bir şirketin modeli hükümet standartlarını karşılamıyorsa, ajans şirketin lisansını iptal edebilir. .

Geçen hafta, AI'yı düzenlemek için Uluslararası Atom Enerjisi Ajansı'na benzer uluslararası bir organizasyonun kurulması çağrısında bulunmak üzere birkaç OpenAI yöneticisine katıldı ve önde gelen uluslararası AI geliştiricileri arasında işbirliği çağrısında bulundu.

Rakibin Sesi

Musk'ın açık mektubu gibi, bu sonuncusu da AI sistemlerinin hızla gelişeceği, ancak insanların güvenli operasyonları üzerinde tam kontrole sahip olmayacağı varsayımına dayanıyor.

Birçok uzman, büyük dil modelleri gibi sistemlerdeki hızlı gelişmelerin öngörülebilir olduğuna dikkat çekiyor. Yapay zeka sistemleri belirli bir karmaşıklık düzeyine ulaştığında, insanlar davranışları üzerindeki kontrollerini kaybedebilir. Oxford Üniversitesi'nden bir akademisyen olan Toby Ord, tıpkı insanların büyük tütün şirketlerinin ürünlerinin ciddi sağlık tehlikelerine neden olacağını daha önce kabul etmelerini ve bu tehlikeleri nasıl sınırlandıracaklarını tartışmaya başlamalarını umdukları gibi, AI liderlerinin de şimdi bunu yaptığını söyledi.

Ancak bu tahminlerden şüphe duyanlar da var. AI sistemlerinin araba kullanmak gibi nispeten sıradan görevleri bile yerine getiremeyeceğine dikkat çekiyorlar. Yıllarca süren çabalara ve bu araştırma alanına yatırılan on milyarlarca dolara rağmen, tam otonom araçlar hala bir gerçeklikten uzak. Şüpheciler, AI bu zorluğun üstesinden bile gelemezse, teknolojinin önümüzdeki birkaç yıl içinde bir tehdit oluşturma şansı nedir?

Yann LeCun, Twitter'da bu endişeyi onaylamadığını ifade etti ve insanüstü yapay zekanın, insan neslinin tükenme krizi listesinin başında hiç olmadığını söyledi - esas olarak henüz var olmadığı için. "Köpek düzeyinde yapay zeka tasarlamadan önce (insan düzeyinde yapay zeka bir yana), onu nasıl daha güvenli hale getirebileceğimizi tartışmak için tamamen erken."

Wu Enda, yapay zeka konusunda daha iyimser. Onun gözünde, çoğu insan için salgın hastalıklar, iklim değişikliği, asteroitler vb. Dahil olmak üzere hayatta kalma krizlerine neden olacak faktörlerin, yapay zekanın bu krizler için kilit bir çözüm olacağını söyledi. İnsanlık önümüzdeki 1000 yıl içinde hayatta kalacak ve gelişecekse, yapay zekanın daha hızlı gelişmesi gerekiyor, daha yavaş değil.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin