Dari Google AlphaGo yang mengalahkan pemain catur manusia hingga ChatGpt yang memicu diskusi hangat di komunitas teknologi, setiap kemajuan dalam teknologi kecerdasan buatan memengaruhi saraf orang. Tidak ada keraguan bahwa kecerdasan buatan sangat mengubah masyarakat, ekonomi, politik, dan bahkan kebijakan luar negeri kita, dan teori tradisional di masa lalu sering gagal menjelaskan dampak dari semua ini. Dalam buku "Era Kecerdasan Buatan dan Masa Depan Kemanusiaan", Kissinger, diplomat terkenal, Schmidt, mantan CEO Google, dan Huttenlocher, dekan Sekolah Ilmu Komputer Schwarzman di Massachusetts Institute of Technology, mengurutkan keluar kehidupan masa lalu kecerdasan buatan dari berbagai perspektif Kehidupan ini, dan secara komprehensif membahas berbagai dampak yang dapat ditimbulkan oleh perkembangannya bagi individu, perusahaan, pemerintah, masyarakat, dan negara. Beberapa pemikir top percaya bahwa ketika kemampuan kecerdasan buatan menjadi semakin kuat, bagaimana memposisikan peran manusia akan menjadi proposisi yang harus kita pikirkan untuk waktu yang lama di masa depan. Konten berikut disadur dari "Era Kecerdasan Buatan dan Masa Depan Kemanusiaan" dengan izin penerbit, dengan penghapusan dan revisi, subtitle ditambahkan oleh editor.
Penulis Asli | [AS] Henry Kissinger / [AS] Eric Schmidt / [AS] Daniel Huttenlocher
**Apa yang akan dibawa oleh kecerdasan buatan umum? **
Bisakah manusia dan kecerdasan buatan mendekati realitas yang sama dari perspektif yang berbeda, dan dapatkah mereka saling melengkapi dan saling melengkapi? Atau apakah kita merasakan dua realitas yang berbeda tetapi sebagian tumpang tindih: satu yang dapat dijelaskan oleh manusia secara rasional, dan yang lainnya dapat dijelaskan oleh kecerdasan buatan secara algoritme? Jika jawabannya adalah yang terakhir, maka kecerdasan buatan dapat melihat hal-hal yang belum kita rasakan dan tidak dapat kita rasakan — bukan hanya karena kita tidak memiliki cukup waktu untuk memikirkannya dengan cara kita, tetapi karena mereka ada di tempat yang pikiran kita tidak dapat membuat konsep di lapangan. Pengejaran umat manusia untuk "pemahaman lengkap tentang dunia" akan berubah, dan orang-orang akan menyadari bahwa untuk mendapatkan pengetahuan tertentu, kita mungkin perlu mempercayakan kecerdasan buatan untuk mendapatkan pengetahuan bagi kita dan melaporkannya kembali kepada kita. Terlepas dari jawabannya, karena kecerdasan buatan mengejar tujuan yang lebih komprehensif dan luas, manusia akan semakin tampak seperti "makhluk" yang mengalami dan memahami dunia - kombinasi alat, hewan peliharaan, dan pikiran.
Saat peneliti mendekati atau mencapai kecerdasan umum buatan, teka-teki itu hanya akan tumbuh lebih dalam. Seperti yang telah kita diskusikan di Bab 3, AGI tidak akan terbatas pada pembelajaran dan melakukan tugas-tugas tertentu, melainkan, menurut definisi, AGI akan dapat mempelajari dan melakukan berbagai tugas yang sangat luas, seperti halnya manusia. Mengembangkan kecerdasan umum buatan akan membutuhkan daya komputasi yang sangat besar, yang dapat mengakibatkan hanya sedikit organisasi yang memiliki dana mampu menciptakan AI semacam itu. Seperti AI saat ini, sementara AGI dapat dengan mudah digunakan secara terdesentralisasi, mengingat kemampuannya, aplikasinya pasti akan terbatas. Keterbatasan dapat dikenakan pada AGI dengan hanya mengizinkan organisasi yang disetujui untuk mengoperasikannya. Pertanyaannya kemudian menjadi: Siapa yang akan mengendalikan AGI? Siapa yang akan mengotorisasi penggunaannya? Apakah demokrasi masih memungkinkan di dunia di mana beberapa mesin "jenius" dijalankan oleh beberapa organisasi? Dalam hal ini, seperti apa kerja sama manusia-AI?
Jika kecerdasan umum buatan benar-benar muncul ke dunia, itu akan menjadi pencapaian intelektual, ilmiah, dan strategis yang besar. Namun meski gagal melakukannya, kecerdasan buatan juga dapat membawa revolusi dalam urusan manusia. Dorongan dan kemampuan AI untuk merespons keadaan darurat (atau kejadian tak terduga) dan memberikan solusi membedakannya dari teknologi sebelumnya. Jika dibiarkan tidak diatur, AI dapat menyimpang dari harapan kami dan, selanjutnya, niat kami. Keputusan apakah akan membatasinya, bekerja sama dengannya, atau menaatinya tidak akan dibuat sendiri oleh manusia. Dalam beberapa kasus, ini akan ditentukan oleh AI itu sendiri, dalam kasus lain, ini akan bergantung pada berbagai faktor pendukung. Manusia mungkin terlibat dalam "perlombaan ke bawah".
Saat AI mengotomatiskan proses, memungkinkan manusia menjelajahi data dalam jumlah besar, dan mengatur serta merestrukturisasi alam fisik dan sosial, penggerak pertama tersebut mungkin mendapatkan keuntungan penggerak pertama. Tekanan persaingan dapat memaksa pihak-pihak untuk berlomba menerapkan AGI tanpa waktu yang cukup untuk menilai risiko atau mengabaikannya. Etika tentang kecerdasan buatan sangat penting. Setiap keputusan individu — untuk membatasi, untuk bekerja sama, atau untuk mematuhi — mungkin memiliki atau mungkin tidak memiliki konsekuensi yang dramatis, tetapi jika digabungkan, dampaknya berlipat ganda.
Keputusan ini tidak dapat dibuat secara terpisah. Jika umat manusia ingin membentuk masa depan, ia perlu menyepakati prinsip-prinsip umum yang memandu setiap pilihan. Memang benar bahwa tindakan kolektif itu sulit, dan terkadang bahkan tidak mungkin, tetapi tindakan individu tanpa pedoman norma moral bersama hanya akan menimbulkan kekacauan dan kekacauan yang lebih besar bagi umat manusia secara keseluruhan. Mereka yang merancang, melatih, dan bekerja dengan AI akan dapat mencapai tujuan dengan skala dan kompleksitas yang sampai sekarang tidak dapat dicapai oleh manusia, seperti terobosan ilmiah baru, efisiensi ekonomi baru, bentuk keamanan baru, dan dimensi baru pengawasan sosial. Dan dalam perluasan kecerdasan buatan dan penggunaannya, mereka yang tidak diberdayakan mungkin merasa bahwa mereka sedang diawasi, dipelajari, dan ditindaklanjuti oleh kekuatan yang tidak mereka pahami, dan itu bukan rancangan atau pilihan mereka sendiri. Kekuasaan ini beroperasi dengan cara yang tidak jelas sehingga di banyak masyarakat tidak dapat ditoleransi oleh aktor atau institusi manusia tradisional. Perancang dan penerapan AI harus siap untuk mengatasi masalah ini, dimulai dengan menjelaskan kepada orang non-teknis apa yang dilakukan AI, apa yang "diketahui", dan bagaimana melakukannya. Sifat AI yang dinamis dan muncul menciptakan ambiguitas setidaknya dalam dua cara. Pertama, kecerdasan buatan dapat berfungsi seperti yang kita harapkan, tetapi menghasilkan hasil yang tidak dapat kita duga. Hasil-hasil ini dapat membawa umat manusia ke tempat-tempat yang tidak pernah diharapkan oleh penciptanya, seperti halnya para politisi pada tahun 1914 gagal untuk menyadari bahwa logika lama mobilisasi militer ditambah dengan teknologi baru akan menyeret Eropa ke dalam perang. Kecerdasan buatan juga dapat memiliki konsekuensi serius jika digunakan dan digunakan tanpa pertimbangan yang cermat.
Cuplikan dari film Alita: Battle Angel.
Konsekuensi ini bisa kecil, seperti keputusan yang mengancam jiwa yang dibuat oleh mobil tanpa pengemudi, atau sangat signifikan, seperti konflik militer yang serius. Kedua, di beberapa domain aplikasi, AI mungkin tidak dapat diprediksi, bertindak sama sekali tidak terduga. Mengambil AlphaZero sebagai contoh, ia mengembangkan gaya catur yang tidak pernah dibayangkan manusia selama ribuan tahun sejarah catur, hanya sesuai dengan instruksi "memenangkan catur". Sementara manusia mungkin berhati-hati untuk menentukan tujuan AI, karena kita memberikannya kebebasan yang lebih besar, jalannya menuju tujuan tersebut dapat mengejutkan kita, dan bahkan membuat kita panik. Oleh karena itu, penargetan dan mandat AI perlu dirancang dengan hati-hati, terutama di area di mana keputusannya bisa mematikan. AI tidak boleh dipandang sebagai otonom, tanpa pengawasan, atau diizinkan untuk mengambil tindakan yang tidak dapat dibatalkan tanpa pengawasan, pengawasan, atau kontrol langsung. Kecerdasan buatan diciptakan oleh manusia, jadi harus diawasi juga oleh manusia. Namun salah satu tantangan AI saat ini adalah bahwa orang dengan keterampilan dan sumber daya untuk membuatnya tidak harus memiliki perspektif filosofis untuk memahami implikasinya yang lebih luas. Banyak pencipta kecerdasan buatan berfokus terutama pada aplikasi yang mereka coba capai dan masalah yang ingin mereka selesaikan: mereka mungkin tidak berhenti untuk mempertimbangkan apakah solusi tersebut akan menghasilkan revolusi bersejarah, atau bagaimana teknologi mereka akan mempengaruhi orang banyak. Zaman kecerdasan buatan membutuhkan Descartes dan Kant sendiri untuk menjelaskan apa yang telah kita ciptakan dan apa artinya bagi manusia.
Kita perlu mengatur diskusi dan negosiasi yang rasional yang melibatkan pemerintah, universitas, dan inovator industri swasta, dan tujuannya adalah untuk menetapkan batasan tindakan praktis seperti yang mengatur tindakan individu dan organisasi saat ini. AI memiliki atribut yang memiliki beberapa hal yang sama, tetapi berbeda dari mereka dalam beberapa hal penting, dari produk, layanan, teknologi, dan entitas yang saat ini diatur, karena AI tidak memiliki kerangka kerja konseptual dan hukumnya sendiri yang sepenuhnya terdefinisi. Misalnya, sifat AI yang terus berkembang dan provokatif menghadirkan tantangan peraturan: siapa dan bagaimana AI beroperasi di dunia dapat bervariasi di seluruh domain dan berkembang seiring waktu, dan tidak selalu dengan cara yang dapat diprediksi. Pemerintahan orang dipandu oleh kode etik. AI membutuhkan kompas moralnya sendiri yang mencerminkan tidak hanya sifat teknologinya tetapi juga tantangan yang dihadirkannya.
Seringkali, prinsip-prinsip yang ditetapkan tidak berlaku di sini. Di Zaman Iman, ketika para terdakwa dalam Inkuisisi menghadapi vonis pertempuran, pengadilan dapat memutuskan kejahatannya, tetapi Tuhan memutuskan siapa yang menang. Di zaman akal, manusia menentukan kesalahan menurut aturan akal, dan menilai kejahatan dan menghukumnya menurut konsep seperti kausalitas dan niat kriminal. Tetapi kecerdasan buatan tidak bekerja berdasarkan akal manusia, juga tidak memiliki motivasi, niat, atau refleksi diri manusia. Dengan demikian, pengenalan AI akan memperumit prinsip keadilan yang ada yang berlaku pada manusia.
Ketika sistem otonom bertindak berdasarkan persepsi dan keputusannya sendiri, apakah penciptanya bertanggung jawab? Atau haruskah tindakan AI tidak disamakan dengan tindakan penciptanya, setidaknya dalam hal kesalahan? Jika AI akan digunakan untuk mendeteksi tanda-tanda perilaku kriminal, atau untuk membantu menentukan apakah seseorang bersalah, haruskah AI dapat "menjelaskan" bagaimana kesimpulannya sehingga pejabat manusia dapat mempercayainya? Selanjutnya, pada titik apa dan dalam konteks perkembangan teknologi apa AI harus tunduk pada negosiasi internasional? Ini adalah topik perdebatan penting lainnya. Jika diselidiki terlalu dini, perkembangan teknologi bisa terhalang, atau bisa tergoda untuk menyembunyikan kemampuannya; ditunda terlalu lama, bisa menimbulkan konsekuensi yang menghancurkan, terutama di militer. Tantangan ini diperparah dengan sulitnya merancang mekanisme verifikasi yang efektif untuk teknologi yang halus, tidak jelas, dan mudah disebarluaskan. Negosiator resmi pastilah pemerintah, tetapi juga akan ada kebutuhan akan suara dari para teknolog, ahli etika, perusahaan yang membuat dan mengoperasikan AI, dan lainnya di luar lapangan.
Gambar diam dari drama Amerika "Western World".
Dilema yang ditimbulkan oleh AI memiliki implikasi yang luas untuk masyarakat yang berbeda. Sebagian besar kehidupan sosial dan politik kita saat ini berlangsung di platform online yang mendukung AI, dan negara-negara demokrasi khususnya mengandalkan ruang informasi ini untuk debat dan komunikasi, membentuk opini publik, dan memberinya legitimasi. Siapa, atau lembaga apa, yang harus menentukan peran teknologi? Siapa yang harus mengaturnya? Peran apa yang harus dimainkan oleh individu yang menggunakan AI? Bagaimana dengan perusahaan yang memproduksi kecerdasan buatan? Bagaimana dengan pemerintah sosial yang menerapkannya? Sebagai bagian dari solusi untuk masalah ini, kita harus mencoba membuatnya dapat diaudit, yaitu proses dan kesimpulannya dapat diperiksa dan diperbaiki. Pada gilirannya, apakah koreksi dapat diterapkan akan bergantung pada kemampuan untuk menyempurnakan prinsip-prinsip dalam bentuk persepsi AI dan pengambilan keputusan. Moralitas, kemauan, dan bahkan penyebab tidak cocok dengan dunia kecerdasan buatan otonom. Masalah serupa muncul di sebagian besar lapisan masyarakat, mulai dari transportasi hingga keuangan hingga obat-obatan.
Pertimbangkan dampak kecerdasan buatan di media sosial. Dengan inovasi terkini, platform ini dengan cepat menjadi aspek penting dalam kehidupan publik kita. Seperti yang telah kita bahas di Bab 4, fitur yang digunakan Twitter dan Facebook untuk menyoroti, membatasi, atau langsung melarang konten atau individu semuanya bergantung pada kecerdasan buatan, sebuah bukti kekuatannya. Penggunaan AI untuk promosi atau penghapusan konten dan konsep secara sepihak dan seringkali tidak jelas merupakan tantangan bagi semua negara, terutama negara demokrasi. Apakah mungkin bagi kita untuk mempertahankan dominasi karena kehidupan sosial dan politik kita semakin bergeser ke ranah yang diatur oleh kecerdasan buatan, dan kita hanya dapat mengandalkan manajemen semacam itu untuk menavigasinya?
Penggunaan kecerdasan buatan untuk memproses informasi dalam jumlah besar juga menghadirkan tantangan lain: kecerdasan buatan meningkatkan distorsi dunia untuk memenuhi preferensi naluriah manusia. Ini adalah area di mana kecerdasan buatan dapat dengan mudah memperkuat bias kognitif kita, namun kita masih beresonansi dengannya. Dengan suara-suara ini, dihadapkan pada beragam pilihan, dan diberdayakan untuk memilih dan menyaring, orang akan menerima banjir informasi yang salah. Perusahaan media sosial tidak mempromosikan polarisasi politik yang ekstrem dan keras melalui umpan berita mereka, tetapi jelas bahwa layanan ini juga tidak mengarah pada pemaksimalan wacana yang tercerahkan.
Kecerdasan buatan, informasi bebas, dan pemikiran mandiri
Jadi, seperti apa hubungan kita dengan AI? Haruskah itu dibatasi, diberdayakan, atau diperlakukan sebagai mitra dalam mengatur domain ini? Tidak dipungkiri bahwa penyebaran informasi tertentu, apalagi informasi palsu yang sengaja dibuat, dapat menimbulkan kerusakan, perpecahan dan hasutan. Oleh karena itu diperlukan beberapa pembatasan. Namun, kecaman, serangan, dan penindasan terhadap "informasi berbahaya" sekarang terlalu longgar, dan ini juga harus direnungkan.
Dalam masyarakat bebas, definisi berbahaya dan disinformasi tidak boleh terbatas pada lingkup korporasi. Namun, jika tanggung jawab tersebut dipercayakan kepada kelompok atau badan pemerintah, kelompok atau badan tersebut harus beroperasi sesuai dengan standar publik yang ditetapkan dan melalui prosedur yang dapat diverifikasi untuk menghindari eksploitasi oleh mereka yang berkuasa. Jika dipercayakan kepada algoritme AI, fungsi objektif, pembelajaran, keputusan, dan tindakan algoritme harus jelas dan tunduk pada pengawasan eksternal, dan setidaknya beberapa bentuk daya tarik manusia.
Tentu saja, masyarakat yang berbeda akan memberikan jawaban yang berbeda untuk ini. Beberapa masyarakat mungkin menekankan kebebasan berekspresi, mungkin pada tingkat yang berbeda-beda berdasarkan pemahaman relatif mereka terhadap ekspresi individu, dan dengan demikian dapat membatasi peran AI dalam memoderasi konten. Setiap masyarakat memilih ide mana yang dihargai, yang dapat mengarah pada hubungan yang kompleks dengan operator platform jaringan multinasional. AI menyerap seperti spons, belajar dari manusia, bahkan saat kita mendesain dan membentuknya.
Gambar diam dari drama Amerika "Western World".
Oleh karena itu, tidak hanya pilihan setiap masyarakat berbeda, tetapi hubungan setiap masyarakat dengan AI, persepsi AI, dan cara AI meniru manusia dan belajar dari guru manusia juga berbeda. Tetapi satu hal yang pasti, dan itu adalah pencarian manusia akan fakta dan kebenaran tidak boleh menyebabkan masyarakat mengalami kehidupan melalui filter yang tidak jelas dan tidak dapat diuji. Pengalaman realitas yang spontan, dengan segala kontradiksi dan kerumitannya, merupakan aspek penting dari kondisi manusia, bahkan jika itu mengarah pada ketidakefisienan atau kesalahan.
Kecerdasan Buatan dan Tatanan Internasional
Di seluruh dunia, banyak sekali pertanyaan yang menunggu untuk dijawab. Bagaimana platform online kecerdasan buatan dapat diatur tanpa memicu ketegangan di antara negara-negara yang mengkhawatirkan keamanannya? Akankah platform online ini mengikis gagasan tradisional tentang kedaulatan nasional? Akankah perubahan yang dihasilkan membawa polarisasi ke dunia yang tidak terlihat sejak runtuhnya Uni Soviet? Apakah Kongres kecil keberatan? Apakah upaya untuk menengahi konsekuensi ini akan berhasil? Atau apakah ada harapan untuk sukses?
Seiring kemampuan kecerdasan buatan yang terus meningkat, bagaimana memposisikan peran manusia yang bekerja sama dengan kecerdasan buatan akan menjadi semakin penting dan kompleks. Kita bisa membayangkan dunia di mana manusia semakin menghormati pendapat kecerdasan buatan tentang isu-isu yang semakin penting. Di dunia di mana musuh yang ofensif berhasil menerapkan AI, dapatkah para pemimpin di pihak defensif memutuskan untuk tidak menggunakan AI mereka sendiri dan bertanggung jawab untuk itu? Bahkan mereka tidak yakin bagaimana penerapan ini akan berkembang. Dan jika AI memiliki kemampuan superior untuk merekomendasikan suatu tindakan, apakah ada alasan bagi pembuat keputusan untuk menerimanya, bahkan jika tindakan itu membutuhkan pengorbanan? Bagaimana manusia bisa tahu apakah pengorbanan seperti itu penting untuk kemenangan? Jika itu penting, apakah para pembuat kebijakan benar-benar ingin memvetonya? Dengan kata lain, kita mungkin tidak punya pilihan selain mengembangkan kecerdasan buatan. Namun kita juga memiliki tanggung jawab untuk membentuknya dengan cara yang sesuai dengan masa depan umat manusia. Ketidaksempurnaan adalah salah satu norma pengalaman manusia, terutama dalam hal kepemimpinan.
Seringkali, pembuat kebijakan kewalahan oleh kekhawatiran yang tidak dapat ditolerir. Terkadang tindakan mereka didasarkan pada asumsi yang salah; terkadang mereka bertindak berdasarkan emosi murni; dan terkadang ideologi mendistorsi visi mereka. Strategi apa pun yang digunakan untuk menyusun kemitraan manusia-AI, harus disesuaikan dengan manusia. Jika kecerdasan buatan menunjukkan kemampuan manusia super dalam domain tertentu, penggunaannya harus sesuai dengan lingkungan manusia yang tidak sempurna.
Di arena keamanan, sistem yang mendukung AI merespons dengan sangat cepat sehingga musuh dapat mencoba menyerang sebelum sistem beroperasi. Hasilnya bisa menjadi situasi yang tidak stabil sebanding dengan yang diciptakan oleh senjata nuklir. Namun senjata nuklir dibingkai dalam konsep keamanan internasional dan pengendalian senjata yang telah dikembangkan selama beberapa dekade terakhir oleh pemerintah, ilmuwan, ahli strategi, dan ahli etika melalui penyempurnaan, debat, dan negosiasi yang berkelanjutan. Kecerdasan buatan dan senjata siber tidak memiliki kerangka kerja serupa.
Bahkan, pemerintah mungkin enggan untuk mengakui keberadaan mereka. Negara—dan mungkin perusahaan teknologi—perlu menyepakati cara hidup berdampingan dengan AI yang dipersenjatai. Proliferasi AI melalui fungsi pertahanan pemerintah akan mengubah keseimbangan internasional dan komputasi yang dipertahankannya di zaman kita. Senjata nuklir mahal dan sulit disembunyikan karena ukuran dan strukturnya. Sebaliknya, kecerdasan buatan bisa berjalan di komputer yang bisa ditemukan di mana-mana. Karena pelatihan model pembelajaran mesin membutuhkan keahlian dan sumber daya komputasi, menciptakan kecerdasan buatan membutuhkan sumber daya di tingkat perusahaan besar atau negara; dan karena penerapan kecerdasan buatan dilakukan pada komputer yang relatif kecil, itu pasti akan digunakan secara luas. , termasuk dengan cara yang tidak kita duga. Akankah ada orang yang memiliki laptop, koneksi internet, dan komitmen untuk mengintip sisi gelap AI akhirnya memiliki akses ke senjata bertenaga AI? Akankah pemerintah mengizinkan aktor yang dekat atau tidak memiliki hubungan dengan mereka untuk menggunakan AI untuk melecehkan musuh mereka? Akankah teroris merencanakan serangan AI? Apakah mereka dapat mengaitkan kegiatan ini dengan Negara atau aktor lain?
Di masa lalu, diplomasi berlangsung di arena yang terorganisir dan dapat diprediksi; hari ini, aksesnya ke informasi dan ruang lingkup tindakan akan sangat diperluas. Batas-batas yang jelas yang dulunya terbentuk oleh perbedaan geografis dan bahasa, lambat laun akan hilang. Terjemahan AI akan memfasilitasi dialog tanpa memerlukan tidak hanya pemahaman linguistik tetapi juga budaya seperti yang dilakukan oleh penerjemah sebelumnya. Platform online bertenaga AI akan memfasilitasi komunikasi lintas batas, sementara peretasan dan disinformasi akan terus mendistorsi persepsi dan penilaian. Ketika situasinya menjadi lebih kompleks, akan menjadi lebih sulit untuk mengembangkan kesepakatan yang dapat ditegakkan dengan hasil yang dapat diprediksi.
Kemungkinan menggabungkan kemampuan AI dengan senjata siber menambah dilema ini. Umat manusia menghindari paradoks nuklir dengan membuat perbedaan yang jelas antara senjata konvensional (dianggap selaras dengan strategi konvensional) dan senjata nuklir (dianggap sebagai pengecualian). Begitu kekuatan destruktif senjata nuklir dilepaskan, itu tidak pandang bulu dan terlepas dari targetnya; sedangkan senjata konvensional dapat membedakan targetnya. Tapi senjata siber yang dapat mengidentifikasi target dan mendatangkan malapetaka dalam skala besar melenyapkan perbedaan itu.
Ditambah bahan bakar kecerdasan buatan, senjata ini akan menjadi lebih tidak terduga dan berpotensi lebih merusak. Pada saat yang sama, ketika senjata-senjata ini berkeliaran di sekitar jaringan, tidak mungkin untuk menentukan atribusinya. Mereka tidak dapat dideteksi karena tidak besar seperti senjata nuklir; mereka juga dapat dibawa dengan stik USB, yang memfasilitasi proliferasi. Dalam beberapa bentuk, senjata ini sulit dikendalikan setelah dikerahkan, apalagi mengingat sifat kecerdasan buatan yang dinamis dan baru muncul.
Situasi ini menantang premis tatanan dunia berbasis aturan. Selain itu, sangat penting untuk mengembangkan konsep yang berkaitan dengan pengendalian senjata AI. Di era kecerdasan buatan, pencegahan tidak akan lagi mengikuti norma sejarah, juga tidak akan melakukannya. Pada awal era nuklir, kerangka kerja konseptual untuk pengendalian senjata nuklir dikembangkan berdasarkan wawasan dari diskusi di antara para profesor dan cendekiawan terkemuka (dengan pengalaman di pemerintahan) di Harvard, MIT, dan Caltech, yang pada gilirannya menyebabkan terciptanya sebuah sistem ( dan lembaga untuk menerapkannya di Amerika Serikat dan negara lain).
Sama pentingnya dengan pemikiran akademis, ini diimplementasikan secara terpisah dari pertimbangan Pentagon tentang perang konvensional—tambahan baru, bukan modifikasi. Tetapi potensi penggunaan kecerdasan buatan oleh militer lebih luas daripada senjata nuklir, dan perbedaan antara penyerangan dan pertahanan tidak jelas, setidaknya untuk saat ini. Di dunia yang begitu kompleks, secara inheren tidak dapat diprediksi, kecerdasan buatan menjadi sumber kesalahpahaman dan kesalahan yang mungkin terjadi, dan cepat atau lambat kekuatan besar dengan kemampuan teknologi tinggi harus terlibat dalam dialog yang berkelanjutan.
Dialog semacam itu harus fokus pada satu masalah mendasar: menghindari bencana dan bertahan. Kecerdasan buatan dan teknologi baru lainnya, seperti komputasi kuantum, tampaknya membuat realitas di luar persepsi manusia menjadi lebih mudah diakses. Namun, pada akhirnya, kita mungkin menemukan bahwa bahkan teknik ini memiliki keterbatasan. Masalah kita adalah kita belum memahami implikasi filosofisnya. Kami didorong maju oleh mereka tanpa sadar, tidak secara sadar.
Terakhir kali terjadi pergeseran besar dalam kesadaran manusia adalah pada masa Pencerahan, dan pergeseran ini terjadi karena teknologi baru menghasilkan wawasan filosofis baru yang pada gilirannya disebarluaskan melalui teknologi (dalam bentuk mesin cetak). Di zaman kita, teknologi baru telah dikembangkan tanpa filosofi panduan yang sesuai. Kecerdasan buatan adalah usaha besar dengan manfaat potensial yang luas. Manusia bekerja keras untuk mengembangkan kecerdasan buatan, tetapi apakah kita menggunakannya untuk membuat hidup kita lebih baik atau lebih buruk? Ini menjanjikan obat-obatan yang lebih kuat, perawatan kesehatan yang lebih efisien dan adil, praktik lingkungan yang lebih berkelanjutan, dan visi kemajuan lainnya. Namun, pada saat yang sama, itu juga dapat mendistorsi informasi, atau setidaknya memperumit proses konsumsi informasi dan mengidentifikasi kebenaran, dan dengan demikian melemahkan kemampuan penalaran dan penilaian independen beberapa orang.
Pada akhirnya, muncul pertanyaan "meta": Bisakah manusia memenuhi kebutuhan akan filsafat dengan "bantuan" kecerdasan buatan dengan interpretasi dan pemahaman yang berbeda tentang dunia? Manusia tidak sepenuhnya memahami mesin, tetapi apakah pada akhirnya kita akan berdamai dengan mereka dan mengubah dunia? Immanuel Kant memulai kata pengantarnya untuk Critique of Pure Reason dengan poin ini:
Akal manusia memiliki takdir yang aneh ini, di salah satu cabang dari semua pengetahuannya, ia diliputi oleh masalah-masalah yang tidak dapat diabaikan karena dipaksakan pada dirinya sendiri oleh sifat akal itu sendiri, tetapi karena ia melampaui semua kemampuan akal. , tidak dapat dipecahkan.
Berabad-abad sejak itu, manusia telah menjelajahi pertanyaan-pertanyaan ini secara mendalam, beberapa di antaranya menyentuh sifat pikiran, akal, dan bahkan realitas. Umat manusia telah membuat terobosan besar, tetapi juga menghadapi banyak keterbatasan yang dikemukakan Kant: ranah pertanyaan yang tidak dapat dijawabnya, ranah fakta yang tidak dapat dipahami sepenuhnya. Munculnya kecerdasan buatan, yang menghadirkan kemampuan untuk mempelajari dan memproses informasi yang tidak dapat dicapai manusia hanya dengan akal, memungkinkan kita membuat kemajuan dalam pertanyaan yang telah terbukti di luar kemampuan kita untuk menjawabnya. Namun kesuksesan akan menimbulkan pertanyaan-pertanyaan baru, yang beberapa di antaranya telah kami coba terangkan dalam buku ini. Kecerdasan manusia dan kecerdasan buatan berada pada titik di mana keduanya akan bertemu dalam pengejaran pada skala nasional, kontinental, atau bahkan global. Memahami pergeseran ini, dan mengembangkan pedoman kode etik di sekitarnya, akan membutuhkan kearifan kolektif, suara dan komitmen bersama dari semua segmen masyarakat, termasuk ilmuwan dan ahli strategi, politisi dan filsuf, pendeta dan CEO. Komitmen ini tidak hanya dilakukan di dalam negara, tetapi juga antar negara. Kemitraan seperti apa yang bisa kita miliki dengan kecerdasan buatan, dan realitas seperti apa yang akan muncul darinya? Sekarang, saatnya untuk mendefinisikan ini.
Pengarang: / [AS] Henry Kissinger / [AS] Eric Schmidt / [AS] Daniel Huttenlocher
Kutipan / Liu Yaguang
Editor/Liu Yaguang
Koreksi / Zhao Lin
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Kissinger berbicara tentang kecerdasan buatan: Bagaimana Anda memandang tatanan internasional di era kecerdasan buatan?
Asli: Berita Beijing
Dari Google AlphaGo yang mengalahkan pemain catur manusia hingga ChatGpt yang memicu diskusi hangat di komunitas teknologi, setiap kemajuan dalam teknologi kecerdasan buatan memengaruhi saraf orang. Tidak ada keraguan bahwa kecerdasan buatan sangat mengubah masyarakat, ekonomi, politik, dan bahkan kebijakan luar negeri kita, dan teori tradisional di masa lalu sering gagal menjelaskan dampak dari semua ini. Dalam buku "Era Kecerdasan Buatan dan Masa Depan Kemanusiaan", Kissinger, diplomat terkenal, Schmidt, mantan CEO Google, dan Huttenlocher, dekan Sekolah Ilmu Komputer Schwarzman di Massachusetts Institute of Technology, mengurutkan keluar kehidupan masa lalu kecerdasan buatan dari berbagai perspektif Kehidupan ini, dan secara komprehensif membahas berbagai dampak yang dapat ditimbulkan oleh perkembangannya bagi individu, perusahaan, pemerintah, masyarakat, dan negara. Beberapa pemikir top percaya bahwa ketika kemampuan kecerdasan buatan menjadi semakin kuat, bagaimana memposisikan peran manusia akan menjadi proposisi yang harus kita pikirkan untuk waktu yang lama di masa depan. Konten berikut disadur dari "Era Kecerdasan Buatan dan Masa Depan Kemanusiaan" dengan izin penerbit, dengan penghapusan dan revisi, subtitle ditambahkan oleh editor.
Penulis Asli | [AS] Henry Kissinger / [AS] Eric Schmidt / [AS] Daniel Huttenlocher
**Apa yang akan dibawa oleh kecerdasan buatan umum? **
Bisakah manusia dan kecerdasan buatan mendekati realitas yang sama dari perspektif yang berbeda, dan dapatkah mereka saling melengkapi dan saling melengkapi? Atau apakah kita merasakan dua realitas yang berbeda tetapi sebagian tumpang tindih: satu yang dapat dijelaskan oleh manusia secara rasional, dan yang lainnya dapat dijelaskan oleh kecerdasan buatan secara algoritme? Jika jawabannya adalah yang terakhir, maka kecerdasan buatan dapat melihat hal-hal yang belum kita rasakan dan tidak dapat kita rasakan — bukan hanya karena kita tidak memiliki cukup waktu untuk memikirkannya dengan cara kita, tetapi karena mereka ada di tempat yang pikiran kita tidak dapat membuat konsep di lapangan. Pengejaran umat manusia untuk "pemahaman lengkap tentang dunia" akan berubah, dan orang-orang akan menyadari bahwa untuk mendapatkan pengetahuan tertentu, kita mungkin perlu mempercayakan kecerdasan buatan untuk mendapatkan pengetahuan bagi kita dan melaporkannya kembali kepada kita. Terlepas dari jawabannya, karena kecerdasan buatan mengejar tujuan yang lebih komprehensif dan luas, manusia akan semakin tampak seperti "makhluk" yang mengalami dan memahami dunia - kombinasi alat, hewan peliharaan, dan pikiran.
Saat peneliti mendekati atau mencapai kecerdasan umum buatan, teka-teki itu hanya akan tumbuh lebih dalam. Seperti yang telah kita diskusikan di Bab 3, AGI tidak akan terbatas pada pembelajaran dan melakukan tugas-tugas tertentu, melainkan, menurut definisi, AGI akan dapat mempelajari dan melakukan berbagai tugas yang sangat luas, seperti halnya manusia. Mengembangkan kecerdasan umum buatan akan membutuhkan daya komputasi yang sangat besar, yang dapat mengakibatkan hanya sedikit organisasi yang memiliki dana mampu menciptakan AI semacam itu. Seperti AI saat ini, sementara AGI dapat dengan mudah digunakan secara terdesentralisasi, mengingat kemampuannya, aplikasinya pasti akan terbatas. Keterbatasan dapat dikenakan pada AGI dengan hanya mengizinkan organisasi yang disetujui untuk mengoperasikannya. Pertanyaannya kemudian menjadi: Siapa yang akan mengendalikan AGI? Siapa yang akan mengotorisasi penggunaannya? Apakah demokrasi masih memungkinkan di dunia di mana beberapa mesin "jenius" dijalankan oleh beberapa organisasi? Dalam hal ini, seperti apa kerja sama manusia-AI?
Jika kecerdasan umum buatan benar-benar muncul ke dunia, itu akan menjadi pencapaian intelektual, ilmiah, dan strategis yang besar. Namun meski gagal melakukannya, kecerdasan buatan juga dapat membawa revolusi dalam urusan manusia. Dorongan dan kemampuan AI untuk merespons keadaan darurat (atau kejadian tak terduga) dan memberikan solusi membedakannya dari teknologi sebelumnya. Jika dibiarkan tidak diatur, AI dapat menyimpang dari harapan kami dan, selanjutnya, niat kami. Keputusan apakah akan membatasinya, bekerja sama dengannya, atau menaatinya tidak akan dibuat sendiri oleh manusia. Dalam beberapa kasus, ini akan ditentukan oleh AI itu sendiri, dalam kasus lain, ini akan bergantung pada berbagai faktor pendukung. Manusia mungkin terlibat dalam "perlombaan ke bawah".
Saat AI mengotomatiskan proses, memungkinkan manusia menjelajahi data dalam jumlah besar, dan mengatur serta merestrukturisasi alam fisik dan sosial, penggerak pertama tersebut mungkin mendapatkan keuntungan penggerak pertama. Tekanan persaingan dapat memaksa pihak-pihak untuk berlomba menerapkan AGI tanpa waktu yang cukup untuk menilai risiko atau mengabaikannya. Etika tentang kecerdasan buatan sangat penting. Setiap keputusan individu — untuk membatasi, untuk bekerja sama, atau untuk mematuhi — mungkin memiliki atau mungkin tidak memiliki konsekuensi yang dramatis, tetapi jika digabungkan, dampaknya berlipat ganda.
Keputusan ini tidak dapat dibuat secara terpisah. Jika umat manusia ingin membentuk masa depan, ia perlu menyepakati prinsip-prinsip umum yang memandu setiap pilihan. Memang benar bahwa tindakan kolektif itu sulit, dan terkadang bahkan tidak mungkin, tetapi tindakan individu tanpa pedoman norma moral bersama hanya akan menimbulkan kekacauan dan kekacauan yang lebih besar bagi umat manusia secara keseluruhan. Mereka yang merancang, melatih, dan bekerja dengan AI akan dapat mencapai tujuan dengan skala dan kompleksitas yang sampai sekarang tidak dapat dicapai oleh manusia, seperti terobosan ilmiah baru, efisiensi ekonomi baru, bentuk keamanan baru, dan dimensi baru pengawasan sosial. Dan dalam perluasan kecerdasan buatan dan penggunaannya, mereka yang tidak diberdayakan mungkin merasa bahwa mereka sedang diawasi, dipelajari, dan ditindaklanjuti oleh kekuatan yang tidak mereka pahami, dan itu bukan rancangan atau pilihan mereka sendiri. Kekuasaan ini beroperasi dengan cara yang tidak jelas sehingga di banyak masyarakat tidak dapat ditoleransi oleh aktor atau institusi manusia tradisional. Perancang dan penerapan AI harus siap untuk mengatasi masalah ini, dimulai dengan menjelaskan kepada orang non-teknis apa yang dilakukan AI, apa yang "diketahui", dan bagaimana melakukannya. Sifat AI yang dinamis dan muncul menciptakan ambiguitas setidaknya dalam dua cara. Pertama, kecerdasan buatan dapat berfungsi seperti yang kita harapkan, tetapi menghasilkan hasil yang tidak dapat kita duga. Hasil-hasil ini dapat membawa umat manusia ke tempat-tempat yang tidak pernah diharapkan oleh penciptanya, seperti halnya para politisi pada tahun 1914 gagal untuk menyadari bahwa logika lama mobilisasi militer ditambah dengan teknologi baru akan menyeret Eropa ke dalam perang. Kecerdasan buatan juga dapat memiliki konsekuensi serius jika digunakan dan digunakan tanpa pertimbangan yang cermat.
Konsekuensi ini bisa kecil, seperti keputusan yang mengancam jiwa yang dibuat oleh mobil tanpa pengemudi, atau sangat signifikan, seperti konflik militer yang serius. Kedua, di beberapa domain aplikasi, AI mungkin tidak dapat diprediksi, bertindak sama sekali tidak terduga. Mengambil AlphaZero sebagai contoh, ia mengembangkan gaya catur yang tidak pernah dibayangkan manusia selama ribuan tahun sejarah catur, hanya sesuai dengan instruksi "memenangkan catur". Sementara manusia mungkin berhati-hati untuk menentukan tujuan AI, karena kita memberikannya kebebasan yang lebih besar, jalannya menuju tujuan tersebut dapat mengejutkan kita, dan bahkan membuat kita panik. Oleh karena itu, penargetan dan mandat AI perlu dirancang dengan hati-hati, terutama di area di mana keputusannya bisa mematikan. AI tidak boleh dipandang sebagai otonom, tanpa pengawasan, atau diizinkan untuk mengambil tindakan yang tidak dapat dibatalkan tanpa pengawasan, pengawasan, atau kontrol langsung. Kecerdasan buatan diciptakan oleh manusia, jadi harus diawasi juga oleh manusia. Namun salah satu tantangan AI saat ini adalah bahwa orang dengan keterampilan dan sumber daya untuk membuatnya tidak harus memiliki perspektif filosofis untuk memahami implikasinya yang lebih luas. Banyak pencipta kecerdasan buatan berfokus terutama pada aplikasi yang mereka coba capai dan masalah yang ingin mereka selesaikan: mereka mungkin tidak berhenti untuk mempertimbangkan apakah solusi tersebut akan menghasilkan revolusi bersejarah, atau bagaimana teknologi mereka akan mempengaruhi orang banyak. Zaman kecerdasan buatan membutuhkan Descartes dan Kant sendiri untuk menjelaskan apa yang telah kita ciptakan dan apa artinya bagi manusia.
Kita perlu mengatur diskusi dan negosiasi yang rasional yang melibatkan pemerintah, universitas, dan inovator industri swasta, dan tujuannya adalah untuk menetapkan batasan tindakan praktis seperti yang mengatur tindakan individu dan organisasi saat ini. AI memiliki atribut yang memiliki beberapa hal yang sama, tetapi berbeda dari mereka dalam beberapa hal penting, dari produk, layanan, teknologi, dan entitas yang saat ini diatur, karena AI tidak memiliki kerangka kerja konseptual dan hukumnya sendiri yang sepenuhnya terdefinisi. Misalnya, sifat AI yang terus berkembang dan provokatif menghadirkan tantangan peraturan: siapa dan bagaimana AI beroperasi di dunia dapat bervariasi di seluruh domain dan berkembang seiring waktu, dan tidak selalu dengan cara yang dapat diprediksi. Pemerintahan orang dipandu oleh kode etik. AI membutuhkan kompas moralnya sendiri yang mencerminkan tidak hanya sifat teknologinya tetapi juga tantangan yang dihadirkannya.
Seringkali, prinsip-prinsip yang ditetapkan tidak berlaku di sini. Di Zaman Iman, ketika para terdakwa dalam Inkuisisi menghadapi vonis pertempuran, pengadilan dapat memutuskan kejahatannya, tetapi Tuhan memutuskan siapa yang menang. Di zaman akal, manusia menentukan kesalahan menurut aturan akal, dan menilai kejahatan dan menghukumnya menurut konsep seperti kausalitas dan niat kriminal. Tetapi kecerdasan buatan tidak bekerja berdasarkan akal manusia, juga tidak memiliki motivasi, niat, atau refleksi diri manusia. Dengan demikian, pengenalan AI akan memperumit prinsip keadilan yang ada yang berlaku pada manusia.
Ketika sistem otonom bertindak berdasarkan persepsi dan keputusannya sendiri, apakah penciptanya bertanggung jawab? Atau haruskah tindakan AI tidak disamakan dengan tindakan penciptanya, setidaknya dalam hal kesalahan? Jika AI akan digunakan untuk mendeteksi tanda-tanda perilaku kriminal, atau untuk membantu menentukan apakah seseorang bersalah, haruskah AI dapat "menjelaskan" bagaimana kesimpulannya sehingga pejabat manusia dapat mempercayainya? Selanjutnya, pada titik apa dan dalam konteks perkembangan teknologi apa AI harus tunduk pada negosiasi internasional? Ini adalah topik perdebatan penting lainnya. Jika diselidiki terlalu dini, perkembangan teknologi bisa terhalang, atau bisa tergoda untuk menyembunyikan kemampuannya; ditunda terlalu lama, bisa menimbulkan konsekuensi yang menghancurkan, terutama di militer. Tantangan ini diperparah dengan sulitnya merancang mekanisme verifikasi yang efektif untuk teknologi yang halus, tidak jelas, dan mudah disebarluaskan. Negosiator resmi pastilah pemerintah, tetapi juga akan ada kebutuhan akan suara dari para teknolog, ahli etika, perusahaan yang membuat dan mengoperasikan AI, dan lainnya di luar lapangan.
Dilema yang ditimbulkan oleh AI memiliki implikasi yang luas untuk masyarakat yang berbeda. Sebagian besar kehidupan sosial dan politik kita saat ini berlangsung di platform online yang mendukung AI, dan negara-negara demokrasi khususnya mengandalkan ruang informasi ini untuk debat dan komunikasi, membentuk opini publik, dan memberinya legitimasi. Siapa, atau lembaga apa, yang harus menentukan peran teknologi? Siapa yang harus mengaturnya? Peran apa yang harus dimainkan oleh individu yang menggunakan AI? Bagaimana dengan perusahaan yang memproduksi kecerdasan buatan? Bagaimana dengan pemerintah sosial yang menerapkannya? Sebagai bagian dari solusi untuk masalah ini, kita harus mencoba membuatnya dapat diaudit, yaitu proses dan kesimpulannya dapat diperiksa dan diperbaiki. Pada gilirannya, apakah koreksi dapat diterapkan akan bergantung pada kemampuan untuk menyempurnakan prinsip-prinsip dalam bentuk persepsi AI dan pengambilan keputusan. Moralitas, kemauan, dan bahkan penyebab tidak cocok dengan dunia kecerdasan buatan otonom. Masalah serupa muncul di sebagian besar lapisan masyarakat, mulai dari transportasi hingga keuangan hingga obat-obatan.
Pertimbangkan dampak kecerdasan buatan di media sosial. Dengan inovasi terkini, platform ini dengan cepat menjadi aspek penting dalam kehidupan publik kita. Seperti yang telah kita bahas di Bab 4, fitur yang digunakan Twitter dan Facebook untuk menyoroti, membatasi, atau langsung melarang konten atau individu semuanya bergantung pada kecerdasan buatan, sebuah bukti kekuatannya. Penggunaan AI untuk promosi atau penghapusan konten dan konsep secara sepihak dan seringkali tidak jelas merupakan tantangan bagi semua negara, terutama negara demokrasi. Apakah mungkin bagi kita untuk mempertahankan dominasi karena kehidupan sosial dan politik kita semakin bergeser ke ranah yang diatur oleh kecerdasan buatan, dan kita hanya dapat mengandalkan manajemen semacam itu untuk menavigasinya?
Penggunaan kecerdasan buatan untuk memproses informasi dalam jumlah besar juga menghadirkan tantangan lain: kecerdasan buatan meningkatkan distorsi dunia untuk memenuhi preferensi naluriah manusia. Ini adalah area di mana kecerdasan buatan dapat dengan mudah memperkuat bias kognitif kita, namun kita masih beresonansi dengannya. Dengan suara-suara ini, dihadapkan pada beragam pilihan, dan diberdayakan untuk memilih dan menyaring, orang akan menerima banjir informasi yang salah. Perusahaan media sosial tidak mempromosikan polarisasi politik yang ekstrem dan keras melalui umpan berita mereka, tetapi jelas bahwa layanan ini juga tidak mengarah pada pemaksimalan wacana yang tercerahkan.
Kecerdasan buatan, informasi bebas, dan pemikiran mandiri
Jadi, seperti apa hubungan kita dengan AI? Haruskah itu dibatasi, diberdayakan, atau diperlakukan sebagai mitra dalam mengatur domain ini? Tidak dipungkiri bahwa penyebaran informasi tertentu, apalagi informasi palsu yang sengaja dibuat, dapat menimbulkan kerusakan, perpecahan dan hasutan. Oleh karena itu diperlukan beberapa pembatasan. Namun, kecaman, serangan, dan penindasan terhadap "informasi berbahaya" sekarang terlalu longgar, dan ini juga harus direnungkan.
Dalam masyarakat bebas, definisi berbahaya dan disinformasi tidak boleh terbatas pada lingkup korporasi. Namun, jika tanggung jawab tersebut dipercayakan kepada kelompok atau badan pemerintah, kelompok atau badan tersebut harus beroperasi sesuai dengan standar publik yang ditetapkan dan melalui prosedur yang dapat diverifikasi untuk menghindari eksploitasi oleh mereka yang berkuasa. Jika dipercayakan kepada algoritme AI, fungsi objektif, pembelajaran, keputusan, dan tindakan algoritme harus jelas dan tunduk pada pengawasan eksternal, dan setidaknya beberapa bentuk daya tarik manusia.
Tentu saja, masyarakat yang berbeda akan memberikan jawaban yang berbeda untuk ini. Beberapa masyarakat mungkin menekankan kebebasan berekspresi, mungkin pada tingkat yang berbeda-beda berdasarkan pemahaman relatif mereka terhadap ekspresi individu, dan dengan demikian dapat membatasi peran AI dalam memoderasi konten. Setiap masyarakat memilih ide mana yang dihargai, yang dapat mengarah pada hubungan yang kompleks dengan operator platform jaringan multinasional. AI menyerap seperti spons, belajar dari manusia, bahkan saat kita mendesain dan membentuknya.
Oleh karena itu, tidak hanya pilihan setiap masyarakat berbeda, tetapi hubungan setiap masyarakat dengan AI, persepsi AI, dan cara AI meniru manusia dan belajar dari guru manusia juga berbeda. Tetapi satu hal yang pasti, dan itu adalah pencarian manusia akan fakta dan kebenaran tidak boleh menyebabkan masyarakat mengalami kehidupan melalui filter yang tidak jelas dan tidak dapat diuji. Pengalaman realitas yang spontan, dengan segala kontradiksi dan kerumitannya, merupakan aspek penting dari kondisi manusia, bahkan jika itu mengarah pada ketidakefisienan atau kesalahan.
Kecerdasan Buatan dan Tatanan Internasional
Di seluruh dunia, banyak sekali pertanyaan yang menunggu untuk dijawab. Bagaimana platform online kecerdasan buatan dapat diatur tanpa memicu ketegangan di antara negara-negara yang mengkhawatirkan keamanannya? Akankah platform online ini mengikis gagasan tradisional tentang kedaulatan nasional? Akankah perubahan yang dihasilkan membawa polarisasi ke dunia yang tidak terlihat sejak runtuhnya Uni Soviet? Apakah Kongres kecil keberatan? Apakah upaya untuk menengahi konsekuensi ini akan berhasil? Atau apakah ada harapan untuk sukses?
Seiring kemampuan kecerdasan buatan yang terus meningkat, bagaimana memposisikan peran manusia yang bekerja sama dengan kecerdasan buatan akan menjadi semakin penting dan kompleks. Kita bisa membayangkan dunia di mana manusia semakin menghormati pendapat kecerdasan buatan tentang isu-isu yang semakin penting. Di dunia di mana musuh yang ofensif berhasil menerapkan AI, dapatkah para pemimpin di pihak defensif memutuskan untuk tidak menggunakan AI mereka sendiri dan bertanggung jawab untuk itu? Bahkan mereka tidak yakin bagaimana penerapan ini akan berkembang. Dan jika AI memiliki kemampuan superior untuk merekomendasikan suatu tindakan, apakah ada alasan bagi pembuat keputusan untuk menerimanya, bahkan jika tindakan itu membutuhkan pengorbanan? Bagaimana manusia bisa tahu apakah pengorbanan seperti itu penting untuk kemenangan? Jika itu penting, apakah para pembuat kebijakan benar-benar ingin memvetonya? Dengan kata lain, kita mungkin tidak punya pilihan selain mengembangkan kecerdasan buatan. Namun kita juga memiliki tanggung jawab untuk membentuknya dengan cara yang sesuai dengan masa depan umat manusia. Ketidaksempurnaan adalah salah satu norma pengalaman manusia, terutama dalam hal kepemimpinan.
Seringkali, pembuat kebijakan kewalahan oleh kekhawatiran yang tidak dapat ditolerir. Terkadang tindakan mereka didasarkan pada asumsi yang salah; terkadang mereka bertindak berdasarkan emosi murni; dan terkadang ideologi mendistorsi visi mereka. Strategi apa pun yang digunakan untuk menyusun kemitraan manusia-AI, harus disesuaikan dengan manusia. Jika kecerdasan buatan menunjukkan kemampuan manusia super dalam domain tertentu, penggunaannya harus sesuai dengan lingkungan manusia yang tidak sempurna.
Di arena keamanan, sistem yang mendukung AI merespons dengan sangat cepat sehingga musuh dapat mencoba menyerang sebelum sistem beroperasi. Hasilnya bisa menjadi situasi yang tidak stabil sebanding dengan yang diciptakan oleh senjata nuklir. Namun senjata nuklir dibingkai dalam konsep keamanan internasional dan pengendalian senjata yang telah dikembangkan selama beberapa dekade terakhir oleh pemerintah, ilmuwan, ahli strategi, dan ahli etika melalui penyempurnaan, debat, dan negosiasi yang berkelanjutan. Kecerdasan buatan dan senjata siber tidak memiliki kerangka kerja serupa.
Bahkan, pemerintah mungkin enggan untuk mengakui keberadaan mereka. Negara—dan mungkin perusahaan teknologi—perlu menyepakati cara hidup berdampingan dengan AI yang dipersenjatai. Proliferasi AI melalui fungsi pertahanan pemerintah akan mengubah keseimbangan internasional dan komputasi yang dipertahankannya di zaman kita. Senjata nuklir mahal dan sulit disembunyikan karena ukuran dan strukturnya. Sebaliknya, kecerdasan buatan bisa berjalan di komputer yang bisa ditemukan di mana-mana. Karena pelatihan model pembelajaran mesin membutuhkan keahlian dan sumber daya komputasi, menciptakan kecerdasan buatan membutuhkan sumber daya di tingkat perusahaan besar atau negara; dan karena penerapan kecerdasan buatan dilakukan pada komputer yang relatif kecil, itu pasti akan digunakan secara luas. , termasuk dengan cara yang tidak kita duga. Akankah ada orang yang memiliki laptop, koneksi internet, dan komitmen untuk mengintip sisi gelap AI akhirnya memiliki akses ke senjata bertenaga AI? Akankah pemerintah mengizinkan aktor yang dekat atau tidak memiliki hubungan dengan mereka untuk menggunakan AI untuk melecehkan musuh mereka? Akankah teroris merencanakan serangan AI? Apakah mereka dapat mengaitkan kegiatan ini dengan Negara atau aktor lain?
Di masa lalu, diplomasi berlangsung di arena yang terorganisir dan dapat diprediksi; hari ini, aksesnya ke informasi dan ruang lingkup tindakan akan sangat diperluas. Batas-batas yang jelas yang dulunya terbentuk oleh perbedaan geografis dan bahasa, lambat laun akan hilang. Terjemahan AI akan memfasilitasi dialog tanpa memerlukan tidak hanya pemahaman linguistik tetapi juga budaya seperti yang dilakukan oleh penerjemah sebelumnya. Platform online bertenaga AI akan memfasilitasi komunikasi lintas batas, sementara peretasan dan disinformasi akan terus mendistorsi persepsi dan penilaian. Ketika situasinya menjadi lebih kompleks, akan menjadi lebih sulit untuk mengembangkan kesepakatan yang dapat ditegakkan dengan hasil yang dapat diprediksi.
Kemungkinan menggabungkan kemampuan AI dengan senjata siber menambah dilema ini. Umat manusia menghindari paradoks nuklir dengan membuat perbedaan yang jelas antara senjata konvensional (dianggap selaras dengan strategi konvensional) dan senjata nuklir (dianggap sebagai pengecualian). Begitu kekuatan destruktif senjata nuklir dilepaskan, itu tidak pandang bulu dan terlepas dari targetnya; sedangkan senjata konvensional dapat membedakan targetnya. Tapi senjata siber yang dapat mengidentifikasi target dan mendatangkan malapetaka dalam skala besar melenyapkan perbedaan itu.
Ditambah bahan bakar kecerdasan buatan, senjata ini akan menjadi lebih tidak terduga dan berpotensi lebih merusak. Pada saat yang sama, ketika senjata-senjata ini berkeliaran di sekitar jaringan, tidak mungkin untuk menentukan atribusinya. Mereka tidak dapat dideteksi karena tidak besar seperti senjata nuklir; mereka juga dapat dibawa dengan stik USB, yang memfasilitasi proliferasi. Dalam beberapa bentuk, senjata ini sulit dikendalikan setelah dikerahkan, apalagi mengingat sifat kecerdasan buatan yang dinamis dan baru muncul.
Situasi ini menantang premis tatanan dunia berbasis aturan. Selain itu, sangat penting untuk mengembangkan konsep yang berkaitan dengan pengendalian senjata AI. Di era kecerdasan buatan, pencegahan tidak akan lagi mengikuti norma sejarah, juga tidak akan melakukannya. Pada awal era nuklir, kerangka kerja konseptual untuk pengendalian senjata nuklir dikembangkan berdasarkan wawasan dari diskusi di antara para profesor dan cendekiawan terkemuka (dengan pengalaman di pemerintahan) di Harvard, MIT, dan Caltech, yang pada gilirannya menyebabkan terciptanya sebuah sistem ( dan lembaga untuk menerapkannya di Amerika Serikat dan negara lain).
Sama pentingnya dengan pemikiran akademis, ini diimplementasikan secara terpisah dari pertimbangan Pentagon tentang perang konvensional—tambahan baru, bukan modifikasi. Tetapi potensi penggunaan kecerdasan buatan oleh militer lebih luas daripada senjata nuklir, dan perbedaan antara penyerangan dan pertahanan tidak jelas, setidaknya untuk saat ini. Di dunia yang begitu kompleks, secara inheren tidak dapat diprediksi, kecerdasan buatan menjadi sumber kesalahpahaman dan kesalahan yang mungkin terjadi, dan cepat atau lambat kekuatan besar dengan kemampuan teknologi tinggi harus terlibat dalam dialog yang berkelanjutan.
Dialog semacam itu harus fokus pada satu masalah mendasar: menghindari bencana dan bertahan. Kecerdasan buatan dan teknologi baru lainnya, seperti komputasi kuantum, tampaknya membuat realitas di luar persepsi manusia menjadi lebih mudah diakses. Namun, pada akhirnya, kita mungkin menemukan bahwa bahkan teknik ini memiliki keterbatasan. Masalah kita adalah kita belum memahami implikasi filosofisnya. Kami didorong maju oleh mereka tanpa sadar, tidak secara sadar.
Terakhir kali terjadi pergeseran besar dalam kesadaran manusia adalah pada masa Pencerahan, dan pergeseran ini terjadi karena teknologi baru menghasilkan wawasan filosofis baru yang pada gilirannya disebarluaskan melalui teknologi (dalam bentuk mesin cetak). Di zaman kita, teknologi baru telah dikembangkan tanpa filosofi panduan yang sesuai. Kecerdasan buatan adalah usaha besar dengan manfaat potensial yang luas. Manusia bekerja keras untuk mengembangkan kecerdasan buatan, tetapi apakah kita menggunakannya untuk membuat hidup kita lebih baik atau lebih buruk? Ini menjanjikan obat-obatan yang lebih kuat, perawatan kesehatan yang lebih efisien dan adil, praktik lingkungan yang lebih berkelanjutan, dan visi kemajuan lainnya. Namun, pada saat yang sama, itu juga dapat mendistorsi informasi, atau setidaknya memperumit proses konsumsi informasi dan mengidentifikasi kebenaran, dan dengan demikian melemahkan kemampuan penalaran dan penilaian independen beberapa orang.
Pada akhirnya, muncul pertanyaan "meta": Bisakah manusia memenuhi kebutuhan akan filsafat dengan "bantuan" kecerdasan buatan dengan interpretasi dan pemahaman yang berbeda tentang dunia? Manusia tidak sepenuhnya memahami mesin, tetapi apakah pada akhirnya kita akan berdamai dengan mereka dan mengubah dunia? Immanuel Kant memulai kata pengantarnya untuk Critique of Pure Reason dengan poin ini:
Akal manusia memiliki takdir yang aneh ini, di salah satu cabang dari semua pengetahuannya, ia diliputi oleh masalah-masalah yang tidak dapat diabaikan karena dipaksakan pada dirinya sendiri oleh sifat akal itu sendiri, tetapi karena ia melampaui semua kemampuan akal. , tidak dapat dipecahkan.
Berabad-abad sejak itu, manusia telah menjelajahi pertanyaan-pertanyaan ini secara mendalam, beberapa di antaranya menyentuh sifat pikiran, akal, dan bahkan realitas. Umat manusia telah membuat terobosan besar, tetapi juga menghadapi banyak keterbatasan yang dikemukakan Kant: ranah pertanyaan yang tidak dapat dijawabnya, ranah fakta yang tidak dapat dipahami sepenuhnya. Munculnya kecerdasan buatan, yang menghadirkan kemampuan untuk mempelajari dan memproses informasi yang tidak dapat dicapai manusia hanya dengan akal, memungkinkan kita membuat kemajuan dalam pertanyaan yang telah terbukti di luar kemampuan kita untuk menjawabnya. Namun kesuksesan akan menimbulkan pertanyaan-pertanyaan baru, yang beberapa di antaranya telah kami coba terangkan dalam buku ini. Kecerdasan manusia dan kecerdasan buatan berada pada titik di mana keduanya akan bertemu dalam pengejaran pada skala nasional, kontinental, atau bahkan global. Memahami pergeseran ini, dan mengembangkan pedoman kode etik di sekitarnya, akan membutuhkan kearifan kolektif, suara dan komitmen bersama dari semua segmen masyarakat, termasuk ilmuwan dan ahli strategi, politisi dan filsuf, pendeta dan CEO. Komitmen ini tidak hanya dilakukan di dalam negara, tetapi juga antar negara. Kemitraan seperti apa yang bisa kita miliki dengan kecerdasan buatan, dan realitas seperti apa yang akan muncul darinya? Sekarang, saatnya untuk mendefinisikan ini.
Pengarang: / [AS] Henry Kissinger / [AS] Eric Schmidt / [AS] Daniel Huttenlocher
Kutipan / Liu Yaguang
Editor/Liu Yaguang
Koreksi / Zhao Lin