Görsel kaynağı: Unbounded AI tarafından oluşturuldu
Google'ın AlphaGo'nun insan satranç oyuncularını yenmesinden teknoloji topluluğunda hararetli tartışmaları tetikleyen ChatGpt'e kadar, yapay zeka teknolojisindeki her gelişme insanların sinirlerini etkiliyor. Hiç şüphe yok ki yapay zeka toplumumuzu, ekonomimizi, politikamızı ve hatta dış politikamızı derinden değiştiriyor ve geçmişin geleneksel teorileri çoğu zaman tüm bunların etkisini açıklamakta başarısız oluyor. Ünlü diplomat Kissinger, Google'ın eski CEO'su Schmidt ve Massachusetts Teknoloji Enstitüsü Schwarzman Bilgisayar Bilimleri Okulu dekanı Huttenlocher, "Yapay Zeka Çağı ve İnsanlığın Geleceği" adlı kitabında, yapay zekanın geçmiş yaşamını farklı açılardan ele alarak, gelişiminin bireylere, işletmelere, hükümetlere, toplumlara ve ülkelere getirebileceği çeşitli etkileri kapsamlı bir şekilde tartıştı. Bazı üst düzey düşünürler, yapay zekanın yetenekleri daha da güçlendikçe, insanoğlunun rolünün nasıl konumlandırılacağının gelecekte uzun süre düşünmemiz gereken bir önerme olacağına inanıyor. Aşağıdaki içerik, "Yapay Zeka Çağı ve İnsanlığın Geleceği" adlı eserden, yayıncının izniyle, silintiler ve düzeltmelerle alıntılanmıştır, editör tarafından altyazılar eklenmiştir.
Orijinal Yazar | [ABD] Henry Kissinger / [ABD] Eric Schmidt / [ABD] Daniel Huttenlocher
**Genel yapay zeka ne getirecek? **
İnsanlar ve yapay zeka aynı gerçekliğe farklı açılardan yaklaşabilir mi, birbirini tamamlayabilir ve tamamlayabilir mi? Yoksa iki farklı ama kısmen örtüşen gerçeklik mi algılıyoruz: Biri insanların rasyonel olarak açıklayabildiği, diğeri ise yapay zekanın algoritmik olarak açıklayabildiği? Cevap ikincisi ise, o zaman yapay zeka henüz algılamadığımız ve algılayamayacağımız şeyleri algılayabilir - sadece onlar hakkında kendi yolumuzda düşünmek için yeterli zamanımız olmadığı için değil, aynı zamanda zihnimizin bir yerde var oldukları için. kavramsallaştıramaz. İnsanlığın "dünyayı tam olarak anlama" arayışı değişecek ve insanlar, belirli bilgileri elde etmek için, bizim için bilgi edinmesi ve bize geri bildirimde bulunması için yapay zekaya güvenmemiz gerekebileceğini anlayacak. Cevap ne olursa olsun, yapay zeka daha kapsamlı ve kapsamlı hedefler peşinde koştukça, insanlara dünyayı deneyimleyen ve anlayan bir "yaratık" gibi görünecek - araçlar, evcil hayvanlar ve zihinlerin bir kombinasyonu var.
Araştırmacılar yapay genel zekaya yaklaştıkça veya ulaştıkça, bulmaca daha da derinleşecektir. Bölüm 3'te tartıştığımız gibi, AGI, öğrenme ve belirli görevleri yerine getirme ile sınırlı olmayacak; bunun yerine, tanımı gereği, AGI tıpkı insanlar gibi son derece geniş bir görev yelpazesini öğrenebilecek ve gerçekleştirebilecektir. Yapay genel zeka geliştirmek, muazzam bilgi işlem gücü gerektirecek ve bu, yalnızca birkaç iyi finanse edilmiş kuruluşun böyle bir yapay zeka oluşturma yeteneğine sahip olmasına neden olabilir. Mevcut AI'da olduğu gibi, AGI, yetenekleri göz önüne alındığında, merkezi olmayan bir şekilde dağıtılabilirken, uygulamaları zorunlu olarak sınırlı olacaktır. AGI'ye yalnızca onaylı kuruluşların onu işletmesine izin verilerek sınırlamalar getirilebilir. O zaman soru şu olur: AGI'yi kim kontrol edecek? Kullanımına kim izin verecek? Birkaç "dahi" makinenin birkaç kuruluş tarafından çalıştırıldığı bir dünyada demokrasi hala mümkün mü? Bu durumda insan-yapay zeka işbirliği nasıl olacak?
Yapay genel zeka dünyada ortaya çıkarsa, bu büyük bir entelektüel, bilimsel ve stratejik başarı olacaktır. Ancak bunu başaramasa bile, yapay zeka insan ilişkilerinde de bir devrim yaratabilir. Yapay zekanın acil durumlara (veya beklenmedik olaylara) yanıt verme ve çözüm sunma güdüsü ve yeteneği, onu önceki teknolojilerden ayırır. Yapay zeka, denetimsiz bırakılırsa beklentilerimizden ve dolayısıyla niyetimizden sapabilir. Onu sınırlandırma, onunla işbirliği yapma ya da ona itaat etme kararı sadece insanlar tarafından verilmeyecektir. Bazı durumlarda bu, yapay zekanın kendisi tarafından belirlenecektir; diğerlerinde ise çeşitli etkinleştirme faktörlerine bağlı olacaktır. İnsanlar bir "dibe doğru yarış" içinde olabilir.
Yapay zeka süreçleri otomatikleştirdikçe, insanların büyük miktarda veriyi keşfetmesine izin verdikçe ve fiziksel ve sosyal alanları organize edip yeniden yapılandırdıkça, ilk hareket edenler ilk hamle avantajı elde edebilir. Rekabetçi baskılar, tarafları riskleri değerlendirmek veya basitçe görmezden gelmek için yeterli zaman olmadan AGI'yi uygulamaya koymaya zorlayabilir. Yapay zeka ile ilgili etik esastır. Sınırlandırma, işbirliği yapma veya uyma gibi her bir bireysel kararın dramatik sonuçları olabilir veya olmayabilir, ancak bir araya getirildiğinde etki katlanarak artar.
Bu kararlar tek başına alınamaz. İnsanlık geleceği şekillendirmek istiyorsa, her seçimi yönlendiren ortak ilkeler üzerinde anlaşmaya varmalıdır. Kolektif eylemin zor ve hatta bazen imkansız olduğu doğrudur, ancak ortak bir ahlaki normun rehberliği olmadan bireysel eylemler yalnızca bir bütün olarak insanlık için daha büyük kargaşa ve kaosa yol açacaktır. AI tasarlayan, eğiten ve onunla çalışan kişiler, yeni bilimsel atılımlar, yeni ekonomik verimlilikler, yeni güvenlik biçimleri ve sosyal gözetim yeni boyut gibi insanlar için şimdiye kadar ulaşılamaz bir ölçek ve karmaşıklıktaki hedeflere ulaşabilecektir. Ve yapay zekanın ve kullanımlarının yaygınlaşmasında, yetkilendirilmemiş olanlar, anlamadıkları ve kendi tasarımları veya seçimleri olmayan güçler tarafından izlendiklerini, incelendiklerini ve üzerlerinde hareket edildiklerini hissedebilirler. Bu güç, pek çok toplumda geleneksel insan aktörleri veya kurumları tarafından tolere edilemeyecek kadar şeffaf olmayan bir şekilde işler. Yapay zeka tasarımcıları ve uygulayıcıları, teknik olmayan kişilere yapay zekanın ne yaptığını, ne "bildiğini" ve nasıl yaptığını açıklayarak başlayarak bu sorunları ele almaya hazırlıklı olmalıdır. Yapay zekanın dinamik ve gelişmekte olan doğası, en az iki şekilde belirsizlik yaratır. İlk olarak, yapay zeka beklediğimiz gibi performans gösterebilir, ancak öngöremeyeceğimiz sonuçlar üretebilir. Tıpkı 1914'te politikacıların yeni teknolojiyle birleşen eski askeri seferberlik mantığının Avrupa'yı savaşa sürükleyeceğini fark edememeleri gibi, bu sonuçlar insanlığı yaratıcılarının hiç beklemediği yerlere götürebilir. Yapay zeka, dikkatle düşünülmeden konuşlandırılır ve kullanılırsa ciddi sonuçlara da yol açabilir.
Alita: Savaş Meleği filminden kareler.
Bu sonuçlar, kendi kendine giden bir arabanın hayati tehlike oluşturan bir karar vermesi gibi küçük veya ciddi bir askeri çatışma gibi son derece önemli olabilir. İkincisi, bazı uygulama alanlarında yapay zeka tamamen beklenmedik davranarak tahmin edilemez olabilir. AlphaZero'yu örnek alarak, sadece "satrancı kazanma" talimatına göre, insanların binlerce yıllık satranç tarihinde asla hayal bile edemediği bir satranç stili geliştirdi. İnsanlar bir yapay zekanın hedeflerini belirlerken dikkatli olsalar da, ona daha geniş bir serbestlik tanıdığımız için, onun bu hedefe giden yolu bizi şaşırtabilir ve hatta panikletebilir. Bu nedenle, özellikle kararlarının ölümcül olabileceği alanlarda, AI'nın hem hedeflemesi hem de yetkisi dikkatli bir şekilde tasarlanmalıdır. Yapay zeka ne otonom, gözetimsiz olarak görülmemeli ne de denetim, gözetim veya doğrudan kontrol olmadan geri alınamaz eylemlerde bulunmasına izin verilmemelidir. Yapay zeka insanlar tarafından yaratıldı, dolayısıyla insanlar tarafından denetlenmesi de gerekiyor. Ancak zamanımızda yapay zekanın zorluklarından biri, onu yaratacak becerilere ve kaynaklara sahip insanların, onun daha geniş anlamlarını anlamak için mutlaka felsefi bir bakış açısına sahip olmamasıdır. Birçok yapay zeka yaratıcısı, öncelikle başarmaya çalıştıkları uygulamalara ve çözmek istedikleri sorunlara odaklanır: Çözümün tarihi bir devrim yaratıp yaratmayacağını veya teknolojilerinin farklı kitleleri nasıl etkileyeceğini düşünmek için durmayabilirler. Yapay zeka çağının, ne yarattığımızı ve bunun insanlar için ne anlama geldiğini açıklamak için kendi Descartes ve Kant'ına ihtiyacı var.
Hükümetleri, üniversiteleri ve özel sektör yenilikçilerini içeren rasyonel tartışmalar ve müzakereler düzenlememiz gerekiyor ve amaç, günümüzde bireysel ve örgütsel eylemi yönetenler gibi pratik eyleme sınırlar koymak olmalıdır. AI, şu anda düzenlenmiş ürünler, hizmetler, teknolojiler ve kuruluşlarla aynı özellikleri paylaşsa da bazı önemli açılardan onlardan farklı niteliklere sahiptir, çünkü kendisine ait tam olarak tanımlanmış bir kavramsal ve yasal çerçeveden yoksundur. Örneğin, yapay zekanın sürekli gelişen, kışkırtıcı doğası, düzenleyici zorluklar sunar: dünyada kimin ve nasıl çalıştığı, etki alanlarına göre değişebilir ve zaman içinde gelişebilir ve her zaman öngörülebilir bir şekilde sunulmayabilir. İnsanların yönetişimi bir etik kod tarafından yönlendirilir. Yapay zekanın, yalnızca teknolojinin doğasını değil, aynı zamanda sunduğu zorlukları da yansıtan kendine ait bir ahlaki pusulaya ihtiyacı var.
Genellikle yerleşik ilkeler burada geçerli değildir. İnanç Çağı'nda, Engizisyon'daki sanıklar bir savaş kararıyla karşı karşıya kaldıklarında, suça mahkeme karar verebilirdi ama kimin galip geleceğine Tanrı karar verirdi. Akıl çağında insanoğlu, suçu aklın kurallarına göre belirlemiş, suçları nedensellik ve suç kastı gibi kavramlara göre yargılamış ve cezalandırmıştır. Ancak yapay zeka, insan mantığı üzerinde çalışmaz, insan motivasyonuna, niyetine veya kendini yansıtmaya sahip değildir. Bu nedenle, AI'nın tanıtılması, insanlar için geçerli olan mevcut adalet ilkelerini karmaşıklaştıracaktır.
Otonom bir sistem kendi algı ve kararlarına göre hareket ettiğinde, yaratıcıları sorumluluk alıyor mu? Ya da AI'nın eylemleri, en azından suçluluk açısından, yaratıcılarının eylemleriyle karıştırılmamalı mı? AI, suçlu davranış belirtilerini tespit etmek veya birinin suçlu olup olmadığını belirlemeye yardımcı olmak için kullanılacaksa, insan yetkililerin ona güvenebilmesi için AI, sonuçlara nasıl ulaştığını "açıklayabilmeli" mi? Ayrıca, teknolojik gelişmenin hangi noktasında ve hangi bağlamında yapay zeka uluslararası müzakerelere konu olmalıdır? Bu da bir diğer önemli tartışma konusu. Çok erken araştırılırsa, teknolojinin gelişimi sekteye uğrayabilir veya yeteneklerini gizleme eğilimine girebilir; çok uzun süre ertelenirse, özellikle orduda yıkıcı sonuçlara yol açabilir. Bu zorluk, ruhani, belirsiz ve kolayca yayılan bir teknoloji için etkili doğrulama mekanizmaları tasarlamanın zorluğuyla birleşiyor. Resmi müzakereciler mutlaka hükümetler olacak, ancak teknoloji uzmanları, etikçiler, yapay zeka yaratan ve işleten şirketler ve saha dışındaki diğer kişiler için de bir sese ihtiyaç duyulacak.
Amerikan draması "Western World"den kareler.
Yapay zekanın ortaya çıkardığı ikilemler, farklı toplumlar için geniş kapsamlı sonuçlara sahiptir. Bugün sosyal ve politik hayatımızın çoğu, yapay zekanın etkin olduğu çevrimiçi platformlarda geçiyor ve özellikle demokrasiler, tartışma ve iletişim için bu bilgi alanlarına güveniyor, kamuoyunu şekillendiriyor ve onlara meşruiyet kazandırıyor. Teknolojinin rolünü kim veya hangi kurum belirlemeli? Kim düzenlemeli? AI kullanan bireyler nasıl bir rol oynamalı? Peki ya yapay zeka üreten şirketler? Peki ya onu uygulayan sosyal hükümetler? Bu sorunların çözümünün bir parçası olarak, onu denetlenebilir, yani süreçleri ve sonuçları hem denetlenebilir hem de düzeltilebilir kılmaya çalışmalıyız. Buna karşılık, düzeltmelerin uygulanıp uygulanamayacağı, AI algısı ve karar verme biçimi için ilkeleri iyileştirme yeteneğine bağlı olacaktır. Ahlak, irade ve hatta nedensellik, otonom yapay zeka dünyasına pek uymuyor. Ulaşımdan finansa ve ilaca kadar toplumun çoğu düzeyinde benzer sorunlar yaşanıyor.
Yapay zekanın sosyal medya üzerindeki etkisini düşünün. Son yeniliklerle birlikte, bu platformlar hızla kamusal hayatımızın önemli bir yönü haline geldi. 4. Bölüm'de tartıştığımız gibi, Twitter ve Facebook'un içeriği vurgulamak, sınırlamak veya tamamen yasaklamak için kullandığı özellikler veya bireylerin tümü, gücünün bir kanıtı olan yapay zekaya güveniyor. Yapay zekanın içerik ve kavramların tek taraflı ve çoğu zaman belirsiz tanıtımı veya kaldırılması için kullanılması, başta demokrasiler olmak üzere tüm uluslar için bir zorluktur. Sosyal ve politik hayatımız giderek yapay zeka tarafından yönetilen alanlara doğru kayarken ve bu alanlarda gezinmek için yalnızca böyle bir yönetime güvenebilirken, hakimiyeti korumamız mümkün mü?
Büyük miktarda bilgiyi işlemek için yapay zekayı kullanma pratiği, başka bir zorluğu da beraberinde getiriyor: yapay zeka, insanın içgüdüsel tercihlerine hitap etmek için dünyanın bozulmasını artırıyor. Bu, yapay zekanın bilişsel önyargılarımızı kolayca artırabileceği bir alandır, ancak yine de onlarla rezonansa giriyoruz. Çeşitli seçeneklerle karşı karşıya kalan ve seçme ve eleme yetkisine sahip bu seslerle, insanlar bir yanlış bilgi seli alacaklar. Sosyal medya şirketleri, haber akışları aracılığıyla aşırı ve şiddetli siyasi kutuplaşmayı teşvik etmiyor, ancak bu hizmetlerin aydın söylemin maksimize edilmesine de yol açmadığı açık.
Yapay zeka, özgür bilgi ve bağımsız düşünme
Peki, AI ile ilişkimiz nasıl olmalı? Kısıtlanmalı mı, yetkilendirilmeli mi yoksa bu alanların yönetiminde bir ortak olarak mı ele alınmalı? Hiç şüphe yok ki bazı bilgilerin, özellikle kasıtlı olarak oluşturulmuş yanlış bilgilerin yayılması, zarara, bölünmeye ve kışkırtmaya neden olabilir. Bu nedenle bazı kısıtlamalara ihtiyaç vardır. Bununla birlikte, "zararlı bilgilerin" kınanması, saldırılması ve bastırılması artık çok gevşek ve bu da düşünmeye yol açmalıdır.
Özgür bir toplumda, zararlı ve dezenformasyonun tanımı şirketlerin alanıyla sınırlı kalmamalıdır. Bununla birlikte, bu tür sorumluluklar bir devlet grubuna veya kurumuna emanet edilirse, bu grup veya kurum, iktidardakilerin istismarını önlemek için yerleşik kamu standartlarına ve doğrulanabilir prosedürlere göre çalışmalıdır. Bir AI algoritmasına emanet edilirse, algoritmanın amaç işlevi, öğrenmesi, kararları ve eylemleri açık olmalı ve dış incelemeye ve en azından bir tür insan çekiciliğine tabi olmalıdır.
Elbette farklı toplumlar buna farklı cevaplar verecektir. Bazı toplumlar, belki de bireysel ifadelere ilişkin göreceli anlayışlarına bağlı olarak değişen derecelerde ifade özgürlüğünü vurgulayabilir ve bu nedenle yapay zekanın içeriği denetlemedeki rolünü sınırlayabilir. Her toplum hangi fikirlere değer vereceğini seçer, bu da çok uluslu ağ platformu operatörleriyle karmaşık ilişkilere yol açabilir. AI bir sünger kadar emicidir ve biz onu tasarlarken ve şekillendirirken bile insanlardan öğrenir.
Amerikan draması "Western World"den kareler.
Bu nedenle, yalnızca her toplumun tercihleri değil, aynı zamanda her toplumun yapay zeka ile ilişkisi, yapay zeka algısı ve yapay zekanın insanları taklit etme ve insan öğretmenlerden öğrenme biçimleri de farklıdır. Ancak kesin olan bir şey var ki, o da insanın gerçekleri ve hakikati arayışının, bir toplumun hayatı kötü tanımlanmış ve test edilemez bir filtreden geçirerek deneyimlemesine neden olmaması gerektiğidir. Gerçekliğin kendiliğinden deneyimi, tüm çelişkileri ve karmaşıklıklarına rağmen, verimsizliklere veya hatalara yol açsa bile insanlık durumunun önemli bir yönüdür.
Yapay Zeka ve Uluslararası Düzen
Dünyanın dört bir yanında sayısız soru cevaplanmayı bekliyor. Yapay zeka çevrimiçi platformları, güvenliklerinden endişe duyan ülkeler arasında gerilime yol açmadan nasıl düzenlenebilir? Bu çevrimiçi platformlar geleneksel ulusal egemenlik kavramlarını aşındıracak mı? Ortaya çıkan değişiklikler, dünyaya Sovyetler Birliği'nin dağılmasından bu yana görülmemiş bir kutuplaşma getirecek mi? Küçük Kongre itiraz ediyor mu? Bu sonuçlara aracılık etme girişimleri başarılı olacak mı? Yoksa başarı umudu var mı?
Yapay zekanın yetenekleri artmaya devam ettikçe, yapay zeka ile işbirliği içinde insanların rolünün nasıl konumlandırılacağı giderek daha önemli ve karmaşık hale gelecektir. İnsanların önemi artan konularda yapay zekanın fikirlerine giderek daha fazla saygı duyduğu bir dünya hayal edebiliyoruz. Saldırgan düşmanların yapay zekayı başarılı bir şekilde konuşlandırdığı bir dünyada, savunma tarafındaki liderler kendi yapay zekalarını konuşlandırmamaya ve bunun sorumluluğunu üstlenmeye karar verebilirler mi? Onlar bile bu konuşlandırmanın nasıl gelişeceğinden emin değiller. Ve yapay zekanın bir hareket tarzı tavsiye etme konusunda üstün bir yeteneği varsa, bu hareket tarzı bir miktar fedakarlık gerektirse bile karar vericilerin onu kabul etmesi için bir neden var mı? İnsan böyle bir fedakarlığın zafer için gerekli olup olmadığını nasıl bilebilir? Eğer gerekliyse, politika yapıcılar bunu gerçekten veto etmeye istekli mi? Başka bir deyişle, yapay zekayı desteklemekten başka seçeneğimiz olmayabilir. Ama bunu insanlığın geleceği ile uyumlu bir şekilde şekillendirme sorumluluğumuz da var. Kusurluluk, özellikle liderlik söz konusu olduğunda, insan deneyiminin normlarından biridir.
Çoğu zaman, politika yapıcılar dayanılmaz kaygılar karşısında bunalırlar. Bazen eylemleri yanlış varsayımlara dayalıdır; bazen saf duygularla hareket ederler ve yine diğer zamanlarda ideoloji vizyonlarını çarpıtır. İnsan-yapay zeka ortaklıklarını yapılandırmak için hangi stratejiler kullanılırsa kullanılsın, bunlar insanlara uyarlanmalıdır. Yapay zeka, belirli alanlarda insanüstü yetenekler sergiliyorsa, kullanımının kusurlu insan ortamıyla uyumlu olması gerekir.
Güvenlik alanında, AI özellikli sistemler o kadar hızlı yanıt verir ki, saldırganlar sistemler çalışmaya başlamadan önce saldırı girişiminde bulunabilir. Sonuç, nükleer silahların yarattığına benzer, doğası gereği istikrarsız bir durum olabilir. Yine de nükleer silahlar, son birkaç on yılda hükümetler, bilim adamları, stratejistler ve etikçiler tarafından sürekli iyileştirme, tartışma ve müzakere yoluyla geliştirilen uluslararası güvenlik ve silah kontrolü kavramları çerçevesinde çerçeveleniyor. Yapay zeka ve siber silahlar benzer bir çerçeveye sahip değil.
Aslında, hükümetler varlıklarını kabul etmekte isteksiz olabilirler. Ülkelerin ve muhtemelen teknoloji şirketlerinin, silahlı yapay zeka ile nasıl bir arada var olacakları konusunda anlaşmaları gerekiyor. Yapay zekanın hükümet savunma işlevleri aracılığıyla yaygınlaşması, uluslararası dengeyi ve zamanımızda dayandığı hesaplamayı değiştirecektir. Nükleer silahlar, boyutları ve yapıları nedeniyle pahalı ve saklanması zordur. Buna karşılık, yapay zeka her yerde bulunabilen bilgisayarlarda çalışabilir. Bir makine öğrenimi modelini eğitmek uzmanlık ve bilgi işlem kaynakları gerektirdiğinden, yapay zeka oluşturmak büyük bir şirket veya ülke düzeyinde kaynak gerektirir ve yapay zeka uygulaması nispeten küçük bilgisayarlarda gerçekleştirildiğinden, yaygın olarak kullanılması kaçınılmazdır. , beklemediğimiz şekillerde dahil. Dizüstü bilgisayarı, internet bağlantısı olan ve yapay zekanın karanlık tarafını gözetlemeye kendini adamış herkes sonunda yapay zeka destekli bir silaha erişebilecek mi? Hükümetler, kendileriyle yakın bağı olan veya hiç bağı olmayan aktörlerin, rakiplerini taciz etmek için yapay zeka kullanmasına izin verecek mi? Teröristler AI saldırıları planlayacak mı? Bu faaliyetleri Devletlere veya diğer aktörlere atfedebilecekler mi?
Geçmişte diplomasi organize ve öngörülebilir bir arenada gerçekleşirken, günümüzde bilgiye erişim ve hareket alanı büyük ölçüde genişleyecektir. Eskiden coğrafi ve dilsel farklılıkların oluşturduğu net sınırlar yavaş yavaş ortadan kalkacaktır. Yapay zeka çevirisi, önceki çevirmenlerin yaptığı gibi yalnızca dil bilgisine değil aynı zamanda kültürel anlayışa da ihtiyaç duymadan diyaloğu kolaylaştıracak. Yapay zeka destekli çevrimiçi platformlar sınır ötesi iletişimi kolaylaştırırken, bilgisayar korsanlığı ve dezenformasyon algıları ve değerlendirmeleri çarpıtmaya devam edecek. Durum daha karmaşık hale geldikçe, öngörülebilir sonuçları olan uygulanabilir anlaşmalar geliştirmek daha zor hale gelecektir.
Yapay zeka yeteneklerini siber silahlarla birleştirme olasılığı bu ikilemi daha da artırıyor. İnsanlık, konvansiyonel silahlar (geleneksel stratejiyle uyumlu olarak kabul edilen) ve nükleer silahlar (istisna olarak kabul edilen) arasında net bir ayrım yaparak nükleer paradokstan kaçınıyor. Nükleer silahların yıkıcı gücü bir kez serbest bırakıldığında ayrım gözetmez ve hedeften bağımsızdır; oysa konvansiyonel silahlar hedefi ayırt edebilir. Ancak hem hedefleri tespit edebilen hem de büyük çapta ortalığı kasıp kavuran siber silahlar bu ayrımı ortadan kaldırıyor.
Yapay zeka yakıtına eklenen bu silahlar daha da öngörülemez ve potansiyel olarak daha yıkıcı hale gelecek. Aynı zamanda, bu silahlar ağda gezinirken niteliklerini belirlemek imkansızdır. Nükleer silahlar gibi hantal olmadıkları için tespit edilemezler, ayrıca USB belleklerde taşınabilirler, bu da yayılmayı kolaylaştırır. Bazı biçimlerde, yapay zekanın dinamik ve gelişmekte olan doğası göz önüne alındığında, bu silahların konuşlandırıldıktan sonra kontrol edilmesi zordur.
Bu durum, kurallara dayalı dünya düzeninin öncüllerine meydan okumaktadır. Ayrıca, AI silah kontrolü ile ilgili kavramların geliştirilmesini zorunlu hale getirdi. Yapay zeka çağında caydırıcılık artık tarihsel normları takip etmeyecek ve etmeyecek. Nükleer çağın şafağında, Harvard, MIT ve Caltech'teki önde gelen profesörler ve akademisyenler (hükümet deneyimi olan) arasındaki tartışmalardan elde edilen içgörülere dayalı olarak nükleer silahların kontrolü için kavramsal bir çerçeve geliştirildi ve bu da bir sistemin yaratılmasına yol açtı ( ve Amerika Birleşik Devletleri ve diğer ülkelerde uygulayacak kurumlar).
Akademik düşünce ne kadar önemli olsa da, Pentagon'un konvansiyonel savaşla ilgili düşüncelerinden ayrı olarak uygulanmaktadır - bir değişiklik değil, yeni bir ekleme. Ancak yapay zekanın potansiyel askeri kullanımları nükleer silahlardan daha geniş ve saldırı ile savunma arasındaki ayrım en azından şimdilik net değil. Bu kadar karmaşık, doğası gereği öngörülemeyen bir dünyada, yapay zeka başka bir olası yanlış anlama ve hata kaynağı haline geliyor ve er ya da geç yüksek teknoloji yeteneklerine sahip büyük güçler sürekli bir diyaloga girmek zorunda kalacak.
Böyle bir diyalog tek bir temel konuya odaklanmalıdır: felaketten kaçınmak ve hayatta kalmak. Yapay zeka ve kuantum hesaplama gibi diğer gelişmekte olan teknolojiler, insan algısının ötesindeki gerçeklikleri daha erişilebilir kılıyor gibi görünüyor. Ancak nihayetinde, bu tekniklerin bile sınırlamaları olduğunu görebiliriz. Bizim sorunumuz, bunların felsefi içerimlerini kavrayamamış olmamızdır. Onlar tarafından bilinçli olarak değil, istemsizce ileriye doğru itiliyoruz.
İnsan bilincinde en son büyük bir değişiklik Aydınlanma sırasında oldu ve bu kayma, yeni teknolojilerin yeni felsefi içgörüler üretmesi ve bunun da teknoloji aracılığıyla (matbaa biçiminde) yayılması nedeniyle gerçekleşti. Zamanımızda, yeni teknolojiler, karşılık gelen yol gösterici felsefeler olmaksızın geliştirilmiştir. Yapay zeka, geniş kapsamlı potansiyel faydaları olan devasa bir girişimdir. İnsanlar yapay zekayı geliştirmek için çok çalışıyor ama biz onu hayatımızı daha iyi hale getirmek için mi yoksa daha kötü hale getirmek için mi kullanıyoruz? Daha güçlü ilaçlar, daha verimli ve adil sağlık hizmetleri, daha sürdürülebilir çevresel uygulamalar ve diğer ilerleme vizyonları vaat ediyor. Ancak aynı zamanda bilgiyi çarpıtabilir veya en azından bilgi tüketme ve gerçeği tanımlama sürecini karmaşıklaştırabilir ve böylece bazı insanların bağımsız muhakeme ve muhakeme yeteneğini zayıflatabilir.
Sonunda ortaya “meta” bir soru çıkıyor: İnsan, dünyayı farklı yorumlayan ve anlayan yapay zekanın “yardımıyla” felsefe ihtiyacını giderebilir mi? İnsanlar makineleri tam olarak anlamıyor ama sonunda onlarla barışacak ve dünyayı değiştirecek miyiz? Immanuel Kant, Saf Aklın Eleştirisi'nin önsözüne şu noktayla başlar:
İnsan aklının kendine özgü bir kaderi vardır; tüm bilgisinin dallarından birinde, aklın doğası tarafından kendisine dayatıldığı için göz ardı edilemeyecek, ancak aklın tüm yeteneklerini aştığı için , çözülemez.
Yüzyıllar boyunca insanlar, bazıları zihnin doğasına, mantığa ve hatta gerçekliğe değinen bu soruları derinlemesine araştırdılar. İnsanlık büyük atılımlar yaptı ama aynı zamanda Kant'ın öne sürdüğü sınırlamaların çoğuyla da karşılaştı: cevaplayamadığı bir sorular dünyası, tam olarak anlayamadığı bir gerçekler dünyası. İnsanın tek başına akılla elde edemeyeceği bilgileri öğrenme ve işleme yeteneğini beraberinde getiren yapay zekanın ortaya çıkışı, cevap verme gücümüzün ötesinde kanıtlanmış sorularda ilerleme kaydetmemizi sağlayabilir. Ancak başarı, bazılarını bu kitapta aydınlatmaya çalıştığımız yeni sorular ortaya çıkaracaktır. İnsan zekası ve yapay zeka, ikisinin ulusal, kıtasal ve hatta küresel ölçekte arayışlarda birleşeceği bir kavşakta. Bu değişimi anlamak ve bu konuda yol gösterici bir etik kod geliştirmek, bilim adamları ve stratejistler, politikacılar ve filozoflar, din adamları ve CEO'lar dahil olmak üzere toplumun tüm kesimlerinin ortak aklını, sesini ve ortak bağlılığını gerektirecektir. Bu taahhüt sadece ülkeler içinde değil, ülkeler arasında da yapılmalıdır. Yapay zeka ile nasıl bir ortaklığımız olabilir ve bundan nasıl bir gerçeklik doğacak? Şimdi bunu tanımlamanın zamanı geldi.
Yazar: / [ABD] Henry Kissinger / [ABD] Eric Schmidt / [ABD] Daniel Huttenlocher
Alıntı / Liu Yaguang
Editör/Liu Yaguang
Düzeltme / Zhao Lin
View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
Kissinger yapay zeka hakkında konuşuyor: Yapay zeka çağında uluslararası düzeni nasıl görüyorsunuz?
Orijinal: Pekin Haberleri
Google'ın AlphaGo'nun insan satranç oyuncularını yenmesinden teknoloji topluluğunda hararetli tartışmaları tetikleyen ChatGpt'e kadar, yapay zeka teknolojisindeki her gelişme insanların sinirlerini etkiliyor. Hiç şüphe yok ki yapay zeka toplumumuzu, ekonomimizi, politikamızı ve hatta dış politikamızı derinden değiştiriyor ve geçmişin geleneksel teorileri çoğu zaman tüm bunların etkisini açıklamakta başarısız oluyor. Ünlü diplomat Kissinger, Google'ın eski CEO'su Schmidt ve Massachusetts Teknoloji Enstitüsü Schwarzman Bilgisayar Bilimleri Okulu dekanı Huttenlocher, "Yapay Zeka Çağı ve İnsanlığın Geleceği" adlı kitabında, yapay zekanın geçmiş yaşamını farklı açılardan ele alarak, gelişiminin bireylere, işletmelere, hükümetlere, toplumlara ve ülkelere getirebileceği çeşitli etkileri kapsamlı bir şekilde tartıştı. Bazı üst düzey düşünürler, yapay zekanın yetenekleri daha da güçlendikçe, insanoğlunun rolünün nasıl konumlandırılacağının gelecekte uzun süre düşünmemiz gereken bir önerme olacağına inanıyor. Aşağıdaki içerik, "Yapay Zeka Çağı ve İnsanlığın Geleceği" adlı eserden, yayıncının izniyle, silintiler ve düzeltmelerle alıntılanmıştır, editör tarafından altyazılar eklenmiştir.
Orijinal Yazar | [ABD] Henry Kissinger / [ABD] Eric Schmidt / [ABD] Daniel Huttenlocher
**Genel yapay zeka ne getirecek? **
İnsanlar ve yapay zeka aynı gerçekliğe farklı açılardan yaklaşabilir mi, birbirini tamamlayabilir ve tamamlayabilir mi? Yoksa iki farklı ama kısmen örtüşen gerçeklik mi algılıyoruz: Biri insanların rasyonel olarak açıklayabildiği, diğeri ise yapay zekanın algoritmik olarak açıklayabildiği? Cevap ikincisi ise, o zaman yapay zeka henüz algılamadığımız ve algılayamayacağımız şeyleri algılayabilir - sadece onlar hakkında kendi yolumuzda düşünmek için yeterli zamanımız olmadığı için değil, aynı zamanda zihnimizin bir yerde var oldukları için. kavramsallaştıramaz. İnsanlığın "dünyayı tam olarak anlama" arayışı değişecek ve insanlar, belirli bilgileri elde etmek için, bizim için bilgi edinmesi ve bize geri bildirimde bulunması için yapay zekaya güvenmemiz gerekebileceğini anlayacak. Cevap ne olursa olsun, yapay zeka daha kapsamlı ve kapsamlı hedefler peşinde koştukça, insanlara dünyayı deneyimleyen ve anlayan bir "yaratık" gibi görünecek - araçlar, evcil hayvanlar ve zihinlerin bir kombinasyonu var.
Araştırmacılar yapay genel zekaya yaklaştıkça veya ulaştıkça, bulmaca daha da derinleşecektir. Bölüm 3'te tartıştığımız gibi, AGI, öğrenme ve belirli görevleri yerine getirme ile sınırlı olmayacak; bunun yerine, tanımı gereği, AGI tıpkı insanlar gibi son derece geniş bir görev yelpazesini öğrenebilecek ve gerçekleştirebilecektir. Yapay genel zeka geliştirmek, muazzam bilgi işlem gücü gerektirecek ve bu, yalnızca birkaç iyi finanse edilmiş kuruluşun böyle bir yapay zeka oluşturma yeteneğine sahip olmasına neden olabilir. Mevcut AI'da olduğu gibi, AGI, yetenekleri göz önüne alındığında, merkezi olmayan bir şekilde dağıtılabilirken, uygulamaları zorunlu olarak sınırlı olacaktır. AGI'ye yalnızca onaylı kuruluşların onu işletmesine izin verilerek sınırlamalar getirilebilir. O zaman soru şu olur: AGI'yi kim kontrol edecek? Kullanımına kim izin verecek? Birkaç "dahi" makinenin birkaç kuruluş tarafından çalıştırıldığı bir dünyada demokrasi hala mümkün mü? Bu durumda insan-yapay zeka işbirliği nasıl olacak?
Yapay genel zeka dünyada ortaya çıkarsa, bu büyük bir entelektüel, bilimsel ve stratejik başarı olacaktır. Ancak bunu başaramasa bile, yapay zeka insan ilişkilerinde de bir devrim yaratabilir. Yapay zekanın acil durumlara (veya beklenmedik olaylara) yanıt verme ve çözüm sunma güdüsü ve yeteneği, onu önceki teknolojilerden ayırır. Yapay zeka, denetimsiz bırakılırsa beklentilerimizden ve dolayısıyla niyetimizden sapabilir. Onu sınırlandırma, onunla işbirliği yapma ya da ona itaat etme kararı sadece insanlar tarafından verilmeyecektir. Bazı durumlarda bu, yapay zekanın kendisi tarafından belirlenecektir; diğerlerinde ise çeşitli etkinleştirme faktörlerine bağlı olacaktır. İnsanlar bir "dibe doğru yarış" içinde olabilir.
Yapay zeka süreçleri otomatikleştirdikçe, insanların büyük miktarda veriyi keşfetmesine izin verdikçe ve fiziksel ve sosyal alanları organize edip yeniden yapılandırdıkça, ilk hareket edenler ilk hamle avantajı elde edebilir. Rekabetçi baskılar, tarafları riskleri değerlendirmek veya basitçe görmezden gelmek için yeterli zaman olmadan AGI'yi uygulamaya koymaya zorlayabilir. Yapay zeka ile ilgili etik esastır. Sınırlandırma, işbirliği yapma veya uyma gibi her bir bireysel kararın dramatik sonuçları olabilir veya olmayabilir, ancak bir araya getirildiğinde etki katlanarak artar.
Bu kararlar tek başına alınamaz. İnsanlık geleceği şekillendirmek istiyorsa, her seçimi yönlendiren ortak ilkeler üzerinde anlaşmaya varmalıdır. Kolektif eylemin zor ve hatta bazen imkansız olduğu doğrudur, ancak ortak bir ahlaki normun rehberliği olmadan bireysel eylemler yalnızca bir bütün olarak insanlık için daha büyük kargaşa ve kaosa yol açacaktır. AI tasarlayan, eğiten ve onunla çalışan kişiler, yeni bilimsel atılımlar, yeni ekonomik verimlilikler, yeni güvenlik biçimleri ve sosyal gözetim yeni boyut gibi insanlar için şimdiye kadar ulaşılamaz bir ölçek ve karmaşıklıktaki hedeflere ulaşabilecektir. Ve yapay zekanın ve kullanımlarının yaygınlaşmasında, yetkilendirilmemiş olanlar, anlamadıkları ve kendi tasarımları veya seçimleri olmayan güçler tarafından izlendiklerini, incelendiklerini ve üzerlerinde hareket edildiklerini hissedebilirler. Bu güç, pek çok toplumda geleneksel insan aktörleri veya kurumları tarafından tolere edilemeyecek kadar şeffaf olmayan bir şekilde işler. Yapay zeka tasarımcıları ve uygulayıcıları, teknik olmayan kişilere yapay zekanın ne yaptığını, ne "bildiğini" ve nasıl yaptığını açıklayarak başlayarak bu sorunları ele almaya hazırlıklı olmalıdır. Yapay zekanın dinamik ve gelişmekte olan doğası, en az iki şekilde belirsizlik yaratır. İlk olarak, yapay zeka beklediğimiz gibi performans gösterebilir, ancak öngöremeyeceğimiz sonuçlar üretebilir. Tıpkı 1914'te politikacıların yeni teknolojiyle birleşen eski askeri seferberlik mantığının Avrupa'yı savaşa sürükleyeceğini fark edememeleri gibi, bu sonuçlar insanlığı yaratıcılarının hiç beklemediği yerlere götürebilir. Yapay zeka, dikkatle düşünülmeden konuşlandırılır ve kullanılırsa ciddi sonuçlara da yol açabilir.
Bu sonuçlar, kendi kendine giden bir arabanın hayati tehlike oluşturan bir karar vermesi gibi küçük veya ciddi bir askeri çatışma gibi son derece önemli olabilir. İkincisi, bazı uygulama alanlarında yapay zeka tamamen beklenmedik davranarak tahmin edilemez olabilir. AlphaZero'yu örnek alarak, sadece "satrancı kazanma" talimatına göre, insanların binlerce yıllık satranç tarihinde asla hayal bile edemediği bir satranç stili geliştirdi. İnsanlar bir yapay zekanın hedeflerini belirlerken dikkatli olsalar da, ona daha geniş bir serbestlik tanıdığımız için, onun bu hedefe giden yolu bizi şaşırtabilir ve hatta panikletebilir. Bu nedenle, özellikle kararlarının ölümcül olabileceği alanlarda, AI'nın hem hedeflemesi hem de yetkisi dikkatli bir şekilde tasarlanmalıdır. Yapay zeka ne otonom, gözetimsiz olarak görülmemeli ne de denetim, gözetim veya doğrudan kontrol olmadan geri alınamaz eylemlerde bulunmasına izin verilmemelidir. Yapay zeka insanlar tarafından yaratıldı, dolayısıyla insanlar tarafından denetlenmesi de gerekiyor. Ancak zamanımızda yapay zekanın zorluklarından biri, onu yaratacak becerilere ve kaynaklara sahip insanların, onun daha geniş anlamlarını anlamak için mutlaka felsefi bir bakış açısına sahip olmamasıdır. Birçok yapay zeka yaratıcısı, öncelikle başarmaya çalıştıkları uygulamalara ve çözmek istedikleri sorunlara odaklanır: Çözümün tarihi bir devrim yaratıp yaratmayacağını veya teknolojilerinin farklı kitleleri nasıl etkileyeceğini düşünmek için durmayabilirler. Yapay zeka çağının, ne yarattığımızı ve bunun insanlar için ne anlama geldiğini açıklamak için kendi Descartes ve Kant'ına ihtiyacı var.
Hükümetleri, üniversiteleri ve özel sektör yenilikçilerini içeren rasyonel tartışmalar ve müzakereler düzenlememiz gerekiyor ve amaç, günümüzde bireysel ve örgütsel eylemi yönetenler gibi pratik eyleme sınırlar koymak olmalıdır. AI, şu anda düzenlenmiş ürünler, hizmetler, teknolojiler ve kuruluşlarla aynı özellikleri paylaşsa da bazı önemli açılardan onlardan farklı niteliklere sahiptir, çünkü kendisine ait tam olarak tanımlanmış bir kavramsal ve yasal çerçeveden yoksundur. Örneğin, yapay zekanın sürekli gelişen, kışkırtıcı doğası, düzenleyici zorluklar sunar: dünyada kimin ve nasıl çalıştığı, etki alanlarına göre değişebilir ve zaman içinde gelişebilir ve her zaman öngörülebilir bir şekilde sunulmayabilir. İnsanların yönetişimi bir etik kod tarafından yönlendirilir. Yapay zekanın, yalnızca teknolojinin doğasını değil, aynı zamanda sunduğu zorlukları da yansıtan kendine ait bir ahlaki pusulaya ihtiyacı var.
Genellikle yerleşik ilkeler burada geçerli değildir. İnanç Çağı'nda, Engizisyon'daki sanıklar bir savaş kararıyla karşı karşıya kaldıklarında, suça mahkeme karar verebilirdi ama kimin galip geleceğine Tanrı karar verirdi. Akıl çağında insanoğlu, suçu aklın kurallarına göre belirlemiş, suçları nedensellik ve suç kastı gibi kavramlara göre yargılamış ve cezalandırmıştır. Ancak yapay zeka, insan mantığı üzerinde çalışmaz, insan motivasyonuna, niyetine veya kendini yansıtmaya sahip değildir. Bu nedenle, AI'nın tanıtılması, insanlar için geçerli olan mevcut adalet ilkelerini karmaşıklaştıracaktır.
Otonom bir sistem kendi algı ve kararlarına göre hareket ettiğinde, yaratıcıları sorumluluk alıyor mu? Ya da AI'nın eylemleri, en azından suçluluk açısından, yaratıcılarının eylemleriyle karıştırılmamalı mı? AI, suçlu davranış belirtilerini tespit etmek veya birinin suçlu olup olmadığını belirlemeye yardımcı olmak için kullanılacaksa, insan yetkililerin ona güvenebilmesi için AI, sonuçlara nasıl ulaştığını "açıklayabilmeli" mi? Ayrıca, teknolojik gelişmenin hangi noktasında ve hangi bağlamında yapay zeka uluslararası müzakerelere konu olmalıdır? Bu da bir diğer önemli tartışma konusu. Çok erken araştırılırsa, teknolojinin gelişimi sekteye uğrayabilir veya yeteneklerini gizleme eğilimine girebilir; çok uzun süre ertelenirse, özellikle orduda yıkıcı sonuçlara yol açabilir. Bu zorluk, ruhani, belirsiz ve kolayca yayılan bir teknoloji için etkili doğrulama mekanizmaları tasarlamanın zorluğuyla birleşiyor. Resmi müzakereciler mutlaka hükümetler olacak, ancak teknoloji uzmanları, etikçiler, yapay zeka yaratan ve işleten şirketler ve saha dışındaki diğer kişiler için de bir sese ihtiyaç duyulacak.
Yapay zekanın ortaya çıkardığı ikilemler, farklı toplumlar için geniş kapsamlı sonuçlara sahiptir. Bugün sosyal ve politik hayatımızın çoğu, yapay zekanın etkin olduğu çevrimiçi platformlarda geçiyor ve özellikle demokrasiler, tartışma ve iletişim için bu bilgi alanlarına güveniyor, kamuoyunu şekillendiriyor ve onlara meşruiyet kazandırıyor. Teknolojinin rolünü kim veya hangi kurum belirlemeli? Kim düzenlemeli? AI kullanan bireyler nasıl bir rol oynamalı? Peki ya yapay zeka üreten şirketler? Peki ya onu uygulayan sosyal hükümetler? Bu sorunların çözümünün bir parçası olarak, onu denetlenebilir, yani süreçleri ve sonuçları hem denetlenebilir hem de düzeltilebilir kılmaya çalışmalıyız. Buna karşılık, düzeltmelerin uygulanıp uygulanamayacağı, AI algısı ve karar verme biçimi için ilkeleri iyileştirme yeteneğine bağlı olacaktır. Ahlak, irade ve hatta nedensellik, otonom yapay zeka dünyasına pek uymuyor. Ulaşımdan finansa ve ilaca kadar toplumun çoğu düzeyinde benzer sorunlar yaşanıyor.
Yapay zekanın sosyal medya üzerindeki etkisini düşünün. Son yeniliklerle birlikte, bu platformlar hızla kamusal hayatımızın önemli bir yönü haline geldi. 4. Bölüm'de tartıştığımız gibi, Twitter ve Facebook'un içeriği vurgulamak, sınırlamak veya tamamen yasaklamak için kullandığı özellikler veya bireylerin tümü, gücünün bir kanıtı olan yapay zekaya güveniyor. Yapay zekanın içerik ve kavramların tek taraflı ve çoğu zaman belirsiz tanıtımı veya kaldırılması için kullanılması, başta demokrasiler olmak üzere tüm uluslar için bir zorluktur. Sosyal ve politik hayatımız giderek yapay zeka tarafından yönetilen alanlara doğru kayarken ve bu alanlarda gezinmek için yalnızca böyle bir yönetime güvenebilirken, hakimiyeti korumamız mümkün mü?
Büyük miktarda bilgiyi işlemek için yapay zekayı kullanma pratiği, başka bir zorluğu da beraberinde getiriyor: yapay zeka, insanın içgüdüsel tercihlerine hitap etmek için dünyanın bozulmasını artırıyor. Bu, yapay zekanın bilişsel önyargılarımızı kolayca artırabileceği bir alandır, ancak yine de onlarla rezonansa giriyoruz. Çeşitli seçeneklerle karşı karşıya kalan ve seçme ve eleme yetkisine sahip bu seslerle, insanlar bir yanlış bilgi seli alacaklar. Sosyal medya şirketleri, haber akışları aracılığıyla aşırı ve şiddetli siyasi kutuplaşmayı teşvik etmiyor, ancak bu hizmetlerin aydın söylemin maksimize edilmesine de yol açmadığı açık.
Yapay zeka, özgür bilgi ve bağımsız düşünme
Peki, AI ile ilişkimiz nasıl olmalı? Kısıtlanmalı mı, yetkilendirilmeli mi yoksa bu alanların yönetiminde bir ortak olarak mı ele alınmalı? Hiç şüphe yok ki bazı bilgilerin, özellikle kasıtlı olarak oluşturulmuş yanlış bilgilerin yayılması, zarara, bölünmeye ve kışkırtmaya neden olabilir. Bu nedenle bazı kısıtlamalara ihtiyaç vardır. Bununla birlikte, "zararlı bilgilerin" kınanması, saldırılması ve bastırılması artık çok gevşek ve bu da düşünmeye yol açmalıdır.
Özgür bir toplumda, zararlı ve dezenformasyonun tanımı şirketlerin alanıyla sınırlı kalmamalıdır. Bununla birlikte, bu tür sorumluluklar bir devlet grubuna veya kurumuna emanet edilirse, bu grup veya kurum, iktidardakilerin istismarını önlemek için yerleşik kamu standartlarına ve doğrulanabilir prosedürlere göre çalışmalıdır. Bir AI algoritmasına emanet edilirse, algoritmanın amaç işlevi, öğrenmesi, kararları ve eylemleri açık olmalı ve dış incelemeye ve en azından bir tür insan çekiciliğine tabi olmalıdır.
Elbette farklı toplumlar buna farklı cevaplar verecektir. Bazı toplumlar, belki de bireysel ifadelere ilişkin göreceli anlayışlarına bağlı olarak değişen derecelerde ifade özgürlüğünü vurgulayabilir ve bu nedenle yapay zekanın içeriği denetlemedeki rolünü sınırlayabilir. Her toplum hangi fikirlere değer vereceğini seçer, bu da çok uluslu ağ platformu operatörleriyle karmaşık ilişkilere yol açabilir. AI bir sünger kadar emicidir ve biz onu tasarlarken ve şekillendirirken bile insanlardan öğrenir.
Bu nedenle, yalnızca her toplumun tercihleri değil, aynı zamanda her toplumun yapay zeka ile ilişkisi, yapay zeka algısı ve yapay zekanın insanları taklit etme ve insan öğretmenlerden öğrenme biçimleri de farklıdır. Ancak kesin olan bir şey var ki, o da insanın gerçekleri ve hakikati arayışının, bir toplumun hayatı kötü tanımlanmış ve test edilemez bir filtreden geçirerek deneyimlemesine neden olmaması gerektiğidir. Gerçekliğin kendiliğinden deneyimi, tüm çelişkileri ve karmaşıklıklarına rağmen, verimsizliklere veya hatalara yol açsa bile insanlık durumunun önemli bir yönüdür.
Yapay Zeka ve Uluslararası Düzen
Dünyanın dört bir yanında sayısız soru cevaplanmayı bekliyor. Yapay zeka çevrimiçi platformları, güvenliklerinden endişe duyan ülkeler arasında gerilime yol açmadan nasıl düzenlenebilir? Bu çevrimiçi platformlar geleneksel ulusal egemenlik kavramlarını aşındıracak mı? Ortaya çıkan değişiklikler, dünyaya Sovyetler Birliği'nin dağılmasından bu yana görülmemiş bir kutuplaşma getirecek mi? Küçük Kongre itiraz ediyor mu? Bu sonuçlara aracılık etme girişimleri başarılı olacak mı? Yoksa başarı umudu var mı?
Yapay zekanın yetenekleri artmaya devam ettikçe, yapay zeka ile işbirliği içinde insanların rolünün nasıl konumlandırılacağı giderek daha önemli ve karmaşık hale gelecektir. İnsanların önemi artan konularda yapay zekanın fikirlerine giderek daha fazla saygı duyduğu bir dünya hayal edebiliyoruz. Saldırgan düşmanların yapay zekayı başarılı bir şekilde konuşlandırdığı bir dünyada, savunma tarafındaki liderler kendi yapay zekalarını konuşlandırmamaya ve bunun sorumluluğunu üstlenmeye karar verebilirler mi? Onlar bile bu konuşlandırmanın nasıl gelişeceğinden emin değiller. Ve yapay zekanın bir hareket tarzı tavsiye etme konusunda üstün bir yeteneği varsa, bu hareket tarzı bir miktar fedakarlık gerektirse bile karar vericilerin onu kabul etmesi için bir neden var mı? İnsan böyle bir fedakarlığın zafer için gerekli olup olmadığını nasıl bilebilir? Eğer gerekliyse, politika yapıcılar bunu gerçekten veto etmeye istekli mi? Başka bir deyişle, yapay zekayı desteklemekten başka seçeneğimiz olmayabilir. Ama bunu insanlığın geleceği ile uyumlu bir şekilde şekillendirme sorumluluğumuz da var. Kusurluluk, özellikle liderlik söz konusu olduğunda, insan deneyiminin normlarından biridir.
Çoğu zaman, politika yapıcılar dayanılmaz kaygılar karşısında bunalırlar. Bazen eylemleri yanlış varsayımlara dayalıdır; bazen saf duygularla hareket ederler ve yine diğer zamanlarda ideoloji vizyonlarını çarpıtır. İnsan-yapay zeka ortaklıklarını yapılandırmak için hangi stratejiler kullanılırsa kullanılsın, bunlar insanlara uyarlanmalıdır. Yapay zeka, belirli alanlarda insanüstü yetenekler sergiliyorsa, kullanımının kusurlu insan ortamıyla uyumlu olması gerekir.
Güvenlik alanında, AI özellikli sistemler o kadar hızlı yanıt verir ki, saldırganlar sistemler çalışmaya başlamadan önce saldırı girişiminde bulunabilir. Sonuç, nükleer silahların yarattığına benzer, doğası gereği istikrarsız bir durum olabilir. Yine de nükleer silahlar, son birkaç on yılda hükümetler, bilim adamları, stratejistler ve etikçiler tarafından sürekli iyileştirme, tartışma ve müzakere yoluyla geliştirilen uluslararası güvenlik ve silah kontrolü kavramları çerçevesinde çerçeveleniyor. Yapay zeka ve siber silahlar benzer bir çerçeveye sahip değil.
Aslında, hükümetler varlıklarını kabul etmekte isteksiz olabilirler. Ülkelerin ve muhtemelen teknoloji şirketlerinin, silahlı yapay zeka ile nasıl bir arada var olacakları konusunda anlaşmaları gerekiyor. Yapay zekanın hükümet savunma işlevleri aracılığıyla yaygınlaşması, uluslararası dengeyi ve zamanımızda dayandığı hesaplamayı değiştirecektir. Nükleer silahlar, boyutları ve yapıları nedeniyle pahalı ve saklanması zordur. Buna karşılık, yapay zeka her yerde bulunabilen bilgisayarlarda çalışabilir. Bir makine öğrenimi modelini eğitmek uzmanlık ve bilgi işlem kaynakları gerektirdiğinden, yapay zeka oluşturmak büyük bir şirket veya ülke düzeyinde kaynak gerektirir ve yapay zeka uygulaması nispeten küçük bilgisayarlarda gerçekleştirildiğinden, yaygın olarak kullanılması kaçınılmazdır. , beklemediğimiz şekillerde dahil. Dizüstü bilgisayarı, internet bağlantısı olan ve yapay zekanın karanlık tarafını gözetlemeye kendini adamış herkes sonunda yapay zeka destekli bir silaha erişebilecek mi? Hükümetler, kendileriyle yakın bağı olan veya hiç bağı olmayan aktörlerin, rakiplerini taciz etmek için yapay zeka kullanmasına izin verecek mi? Teröristler AI saldırıları planlayacak mı? Bu faaliyetleri Devletlere veya diğer aktörlere atfedebilecekler mi?
Geçmişte diplomasi organize ve öngörülebilir bir arenada gerçekleşirken, günümüzde bilgiye erişim ve hareket alanı büyük ölçüde genişleyecektir. Eskiden coğrafi ve dilsel farklılıkların oluşturduğu net sınırlar yavaş yavaş ortadan kalkacaktır. Yapay zeka çevirisi, önceki çevirmenlerin yaptığı gibi yalnızca dil bilgisine değil aynı zamanda kültürel anlayışa da ihtiyaç duymadan diyaloğu kolaylaştıracak. Yapay zeka destekli çevrimiçi platformlar sınır ötesi iletişimi kolaylaştırırken, bilgisayar korsanlığı ve dezenformasyon algıları ve değerlendirmeleri çarpıtmaya devam edecek. Durum daha karmaşık hale geldikçe, öngörülebilir sonuçları olan uygulanabilir anlaşmalar geliştirmek daha zor hale gelecektir.
Yapay zeka yeteneklerini siber silahlarla birleştirme olasılığı bu ikilemi daha da artırıyor. İnsanlık, konvansiyonel silahlar (geleneksel stratejiyle uyumlu olarak kabul edilen) ve nükleer silahlar (istisna olarak kabul edilen) arasında net bir ayrım yaparak nükleer paradokstan kaçınıyor. Nükleer silahların yıkıcı gücü bir kez serbest bırakıldığında ayrım gözetmez ve hedeften bağımsızdır; oysa konvansiyonel silahlar hedefi ayırt edebilir. Ancak hem hedefleri tespit edebilen hem de büyük çapta ortalığı kasıp kavuran siber silahlar bu ayrımı ortadan kaldırıyor.
Yapay zeka yakıtına eklenen bu silahlar daha da öngörülemez ve potansiyel olarak daha yıkıcı hale gelecek. Aynı zamanda, bu silahlar ağda gezinirken niteliklerini belirlemek imkansızdır. Nükleer silahlar gibi hantal olmadıkları için tespit edilemezler, ayrıca USB belleklerde taşınabilirler, bu da yayılmayı kolaylaştırır. Bazı biçimlerde, yapay zekanın dinamik ve gelişmekte olan doğası göz önüne alındığında, bu silahların konuşlandırıldıktan sonra kontrol edilmesi zordur.
Bu durum, kurallara dayalı dünya düzeninin öncüllerine meydan okumaktadır. Ayrıca, AI silah kontrolü ile ilgili kavramların geliştirilmesini zorunlu hale getirdi. Yapay zeka çağında caydırıcılık artık tarihsel normları takip etmeyecek ve etmeyecek. Nükleer çağın şafağında, Harvard, MIT ve Caltech'teki önde gelen profesörler ve akademisyenler (hükümet deneyimi olan) arasındaki tartışmalardan elde edilen içgörülere dayalı olarak nükleer silahların kontrolü için kavramsal bir çerçeve geliştirildi ve bu da bir sistemin yaratılmasına yol açtı ( ve Amerika Birleşik Devletleri ve diğer ülkelerde uygulayacak kurumlar).
Akademik düşünce ne kadar önemli olsa da, Pentagon'un konvansiyonel savaşla ilgili düşüncelerinden ayrı olarak uygulanmaktadır - bir değişiklik değil, yeni bir ekleme. Ancak yapay zekanın potansiyel askeri kullanımları nükleer silahlardan daha geniş ve saldırı ile savunma arasındaki ayrım en azından şimdilik net değil. Bu kadar karmaşık, doğası gereği öngörülemeyen bir dünyada, yapay zeka başka bir olası yanlış anlama ve hata kaynağı haline geliyor ve er ya da geç yüksek teknoloji yeteneklerine sahip büyük güçler sürekli bir diyaloga girmek zorunda kalacak.
Böyle bir diyalog tek bir temel konuya odaklanmalıdır: felaketten kaçınmak ve hayatta kalmak. Yapay zeka ve kuantum hesaplama gibi diğer gelişmekte olan teknolojiler, insan algısının ötesindeki gerçeklikleri daha erişilebilir kılıyor gibi görünüyor. Ancak nihayetinde, bu tekniklerin bile sınırlamaları olduğunu görebiliriz. Bizim sorunumuz, bunların felsefi içerimlerini kavrayamamış olmamızdır. Onlar tarafından bilinçli olarak değil, istemsizce ileriye doğru itiliyoruz.
İnsan bilincinde en son büyük bir değişiklik Aydınlanma sırasında oldu ve bu kayma, yeni teknolojilerin yeni felsefi içgörüler üretmesi ve bunun da teknoloji aracılığıyla (matbaa biçiminde) yayılması nedeniyle gerçekleşti. Zamanımızda, yeni teknolojiler, karşılık gelen yol gösterici felsefeler olmaksızın geliştirilmiştir. Yapay zeka, geniş kapsamlı potansiyel faydaları olan devasa bir girişimdir. İnsanlar yapay zekayı geliştirmek için çok çalışıyor ama biz onu hayatımızı daha iyi hale getirmek için mi yoksa daha kötü hale getirmek için mi kullanıyoruz? Daha güçlü ilaçlar, daha verimli ve adil sağlık hizmetleri, daha sürdürülebilir çevresel uygulamalar ve diğer ilerleme vizyonları vaat ediyor. Ancak aynı zamanda bilgiyi çarpıtabilir veya en azından bilgi tüketme ve gerçeği tanımlama sürecini karmaşıklaştırabilir ve böylece bazı insanların bağımsız muhakeme ve muhakeme yeteneğini zayıflatabilir.
Sonunda ortaya “meta” bir soru çıkıyor: İnsan, dünyayı farklı yorumlayan ve anlayan yapay zekanın “yardımıyla” felsefe ihtiyacını giderebilir mi? İnsanlar makineleri tam olarak anlamıyor ama sonunda onlarla barışacak ve dünyayı değiştirecek miyiz? Immanuel Kant, Saf Aklın Eleştirisi'nin önsözüne şu noktayla başlar:
İnsan aklının kendine özgü bir kaderi vardır; tüm bilgisinin dallarından birinde, aklın doğası tarafından kendisine dayatıldığı için göz ardı edilemeyecek, ancak aklın tüm yeteneklerini aştığı için , çözülemez.
Yüzyıllar boyunca insanlar, bazıları zihnin doğasına, mantığa ve hatta gerçekliğe değinen bu soruları derinlemesine araştırdılar. İnsanlık büyük atılımlar yaptı ama aynı zamanda Kant'ın öne sürdüğü sınırlamaların çoğuyla da karşılaştı: cevaplayamadığı bir sorular dünyası, tam olarak anlayamadığı bir gerçekler dünyası. İnsanın tek başına akılla elde edemeyeceği bilgileri öğrenme ve işleme yeteneğini beraberinde getiren yapay zekanın ortaya çıkışı, cevap verme gücümüzün ötesinde kanıtlanmış sorularda ilerleme kaydetmemizi sağlayabilir. Ancak başarı, bazılarını bu kitapta aydınlatmaya çalıştığımız yeni sorular ortaya çıkaracaktır. İnsan zekası ve yapay zeka, ikisinin ulusal, kıtasal ve hatta küresel ölçekte arayışlarda birleşeceği bir kavşakta. Bu değişimi anlamak ve bu konuda yol gösterici bir etik kod geliştirmek, bilim adamları ve stratejistler, politikacılar ve filozoflar, din adamları ve CEO'lar dahil olmak üzere toplumun tüm kesimlerinin ortak aklını, sesini ve ortak bağlılığını gerektirecektir. Bu taahhüt sadece ülkeler içinde değil, ülkeler arasında da yapılmalıdır. Yapay zeka ile nasıl bir ortaklığımız olabilir ve bundan nasıl bir gerçeklik doğacak? Şimdi bunu tanımlamanın zamanı geldi.
Yazar: / [ABD] Henry Kissinger / [ABD] Eric Schmidt / [ABD] Daniel Huttenlocher
Alıntı / Liu Yaguang
Editör/Liu Yaguang
Düzeltme / Zhao Lin