Từ việc AlphaGo của Google đánh bại người chơi cờ vua đến ChatGpt gây ra những cuộc thảo luận sôi nổi trong cộng đồng công nghệ, mọi tiến bộ trong công nghệ trí tuệ nhân tạo đều ảnh hưởng đến thần kinh của con người. Không còn nghi ngờ gì nữa, trí tuệ nhân tạo đang thay đổi sâu sắc xã hội, nền kinh tế, chính trị và thậm chí cả chính sách đối ngoại của chúng ta, và các lý thuyết truyền thống trong quá khứ thường không giải thích được tác động của tất cả những điều này. Trong cuốn sách "Kỷ nguyên Trí tuệ Nhân tạo và Tương lai của Nhân loại", Kissinger, nhà ngoại giao nổi tiếng, Schmidt, cựu CEO của Google, và Huttenlocher, hiệu trưởng Trường Khoa học Máy tính Schwarzman tại Viện Công nghệ Massachusetts, sắp xếp ra đời trước của trí tuệ nhân tạo từ các quan điểm khác nhau, đời này và thảo luận toàn diện về những tác động khác nhau mà sự phát triển của nó có thể mang lại cho các cá nhân, doanh nghiệp, chính phủ, xã hội và quốc gia. Một số nhà tư tưởng hàng đầu tin rằng khi khả năng của trí tuệ nhân tạo ngày càng mạnh mẽ hơn, thì việc định vị vai trò của con người như thế nào sẽ là một đề xuất mà chúng ta phải suy nghĩ lâu dài trong tương lai. Nội dung dưới đây được trích từ "Kỷ nguyên trí tuệ nhân tạo và tương lai của nhân loại" với sự cho phép của nhà xuất bản, với việc xóa và sửa đổi, phụ đề được thêm vào bởi biên tập viên.
Tác giả gốc | [Mỹ] Henry Kissinger / [Mỹ] Eric Schmidt / [Mỹ] Daniel Huttenlocher
**Trí tuệ nhân tạo nói chung sẽ mang lại điều gì? **
Con người và trí tuệ nhân tạo có thể tiếp cận cùng một thực tế từ những góc độ khác nhau không, và liệu chúng có thể bổ sung cho nhau và bổ sung cho nhau không? Hay chúng ta nhận thức được hai thực tế khác nhau nhưng có phần trùng lặp: một thực tế mà con người có thể giải thích một cách hợp lý và thực tế còn lại mà trí tuệ nhân tạo có thể giải thích bằng thuật toán? Nếu câu trả lời là câu trả lời sau, thì trí tuệ nhân tạo có thể nhận thức được những thứ mà chúng ta chưa nhận thức được và không thể nhận thức được—không chỉ bởi vì chúng ta không có đủ thời gian để suy luận về chúng theo cách của mình, mà bởi vì chúng tồn tại ở một nơi mà tâm trí chúng ta không thể khái niệm hóa.trong lĩnh vực. Mục tiêu theo đuổi "sự hiểu biết đầy đủ về thế giới" của nhân loại sẽ thay đổi và mọi người sẽ nhận ra rằng để có được một số kiến thức nhất định, chúng ta có thể cần phải giao phó trí tuệ nhân tạo để lấy kiến thức cho chúng tôi và báo cáo lại cho chúng tôi. Bất kể câu trả lời là gì, khi trí tuệ nhân tạo theo đuổi các mục tiêu toàn diện và rộng lớn hơn, con người sẽ ngày càng giống một "sinh vật" trải nghiệm và hiểu thế giới - sự kết hợp của các công cụ, vật nuôi và tâm trí tồn tại.
Khi các nhà nghiên cứu tiếp cận hoặc đạt được trí thông minh nhân tạo nói chung, câu đố sẽ chỉ phát triển sâu hơn. Như chúng ta đã thảo luận trong Chương 3, AGI sẽ không bị giới hạn trong việc học và thực hiện các nhiệm vụ cụ thể; thay vào đó, theo định nghĩa, AGI sẽ có thể học và thực hiện rất nhiều nhiệm vụ, giống như con người. Việc phát triển trí tuệ nhân tạo nói chung sẽ đòi hỏi sức mạnh tính toán khổng lồ, điều này có thể dẫn đến việc chỉ một số tổ chức được tài trợ tốt mới có khả năng tạo ra AI như vậy. Như với AI hiện tại, mặc dù AGI có thể dễ dàng được triển khai phi tập trung, nhưng với khả năng của nó, các ứng dụng của nó nhất thiết sẽ bị hạn chế. Các hạn chế có thể được áp dụng đối với AGI bằng cách chỉ cho phép các tổ chức đã được phê duyệt vận hành nó. Sau đó, câu hỏi trở thành: Ai sẽ kiểm soát AGI? Ai sẽ cho phép sử dụng nó? Liệu nền dân chủ có còn khả thi trong một thế giới mà một vài cỗ máy "thiên tài" được điều hành bởi một vài tổ chức? Trong trường hợp này, sự hợp tác giữa con người và AI sẽ như thế nào?
Nếu trí tuệ tổng quát nhân tạo xuất hiện trên thế giới, nó sẽ là một thành tựu trí tuệ, khoa học và chiến lược lớn. Nhưng ngay cả khi không làm được như vậy, trí tuệ nhân tạo cũng có thể mang lại một cuộc cách mạng trong các vấn đề của con người. Động lực và khả năng ứng phó với các trường hợp khẩn cấp (hoặc sự kiện bất ngờ) và cung cấp giải pháp của AI khiến AI khác biệt với các công nghệ trước đây. Nếu không được kiểm soát, AI có thể đi chệch khỏi mong đợi của chúng tôi và nói rộng ra là mục đích của chúng tôi. Quyết định hạn chế nó, hợp tác với nó hay tuân theo nó sẽ không chỉ do con người đưa ra. Trong một số trường hợp, điều này sẽ do chính AI quyết định, trong những trường hợp khác, nó sẽ phụ thuộc vào nhiều yếu tố hỗ trợ khác nhau. Con người có thể tham gia vào một "cuộc đua xuống đáy".
Khi AI tự động hóa các quy trình, cho phép con người khám phá lượng dữ liệu khổng lồ, đồng thời tổ chức và tái cấu trúc các lĩnh vực vật chất và xã hội, những người đi đầu có thể đạt được lợi thế của người đi trước. Áp lực cạnh tranh có thể buộc các bên chạy đua triển khai AGI mà không có đủ thời gian để đánh giá rủi ro hoặc đơn giản là bỏ qua chúng. Đạo đức về trí tuệ nhân tạo là rất cần thiết. Mỗi quyết định riêng lẻ—giới hạn, hợp tác hoặc tuân thủ—có thể có hoặc không có hậu quả nghiêm trọng, nhưng khi kết hợp lại, tác động sẽ được nhân lên gấp bội.
Những quyết định này không thể được thực hiện một cách cô lập. Nếu nhân loại muốn định hình tương lai, nhân loại cần thống nhất về những nguyên tắc chung dẫn dắt mọi lựa chọn. Đúng là hành động tập thể rất khó, và đôi khi thậm chí là không thể, nhưng những hành động cá nhân mà không có sự hướng dẫn của một chuẩn mực đạo đức chung sẽ chỉ dẫn đến sự hỗn loạn và hỗn loạn lớn hơn cho toàn thể nhân loại. Những người thiết kế, đào tạo và làm việc với AI sẽ có thể đạt được các mục tiêu ở quy mô và độ phức tạp mà con người chưa thể đạt được cho đến nay, chẳng hạn như những đột phá khoa học mới, hiệu quả kinh tế mới, hình thức an ninh mới và giám sát xã hội theo chiều hướng mới. Và trong quá trình mở rộng trí tuệ nhân tạo và các ứng dụng của nó, những người không được trao quyền có thể cảm thấy rằng họ đang bị theo dõi, nghiên cứu và hành động bởi những thế lực mà họ không hiểu, và đó không phải là kế hoạch hay lựa chọn của riêng họ. Quyền lực này hoạt động một cách không rõ ràng mà trong nhiều xã hội không thể chấp nhận được bởi các chủ thể hoặc thể chế truyền thống của con người. Các nhà thiết kế và triển khai AI nên chuẩn bị sẵn sàng để giải quyết những vấn đề này, bắt đầu bằng việc giải thích cho những người không có kỹ thuật về AI đang làm gì, nó “biết” gì và nó làm như thế nào. Bản chất năng động và mới nổi của AI tạo ra sự mơ hồ theo ít nhất hai cách. Đầu tiên, trí tuệ nhân tạo có thể hoạt động như chúng ta mong đợi, nhưng tạo ra kết quả mà chúng ta không thể thấy trước. Những kết quả này có thể đưa nhân loại đến những nơi mà những người tạo ra nó không bao giờ ngờ tới, giống như các chính trị gia vào năm 1914 đã không nhận ra rằng logic cũ của việc huy động quân đội cùng với công nghệ mới sẽ kéo châu Âu vào chiến tranh. Trí tuệ nhân tạo cũng có thể gây ra những hậu quả nghiêm trọng nếu nó được triển khai và sử dụng mà không có sự cân nhắc kỹ lưỡng.
Hình ảnh trong phim Alita: Battle Angel.
Những hậu quả này có thể nhỏ, chẳng hạn như một quyết định đe dọa đến tính mạng của một chiếc xe tự lái, hoặc cực kỳ nghiêm trọng, chẳng hạn như một cuộc xung đột quân sự nghiêm trọng. Thứ hai, trong một số lĩnh vực ứng dụng, AI có thể không đoán trước được, hành động hoàn toàn bất ngờ. Lấy AlphaZero làm ví dụ, nó đã phát triển một phong cách chơi cờ mà con người chưa bao giờ tưởng tượng được trong lịch sử cờ vua hàng ngàn năm, chỉ theo hướng dẫn của "cờ thắng". Mặc dù con người có thể cẩn thận đặt ra các mục tiêu của AI, nhưng khi chúng ta cho nó quyền hạn lớn hơn, con đường dẫn đến mục tiêu đó có thể khiến chúng ta ngạc nhiên và thậm chí là hoảng sợ. Do đó, cả mục tiêu và nhiệm vụ của AI cần phải được thiết kế cẩn thận, đặc biệt là trong các lĩnh vực mà các quyết định của nó có thể gây chết người. Không nên xem AI là tự trị, không giám sát hoặc không được phép thực hiện các hành động không thể thay đổi mà không có sự giám sát, theo dõi hoặc kiểm soát trực tiếp. Trí tuệ nhân tạo do con người tạo ra nên nó cũng phải được con người giám sát. Nhưng một trong những thách thức của AI trong thời đại chúng ta là những người có kỹ năng và nguồn lực để tạo ra nó không nhất thiết phải có quan điểm triết học để hiểu những hàm ý rộng lớn hơn của nó. Nhiều người tạo ra trí tuệ nhân tạo tập trung chủ yếu vào các ứng dụng mà họ đang cố gắng đạt được và các vấn đề họ muốn giải quyết: họ có thể không dừng lại để xem xét liệu giải pháp có tạo ra một cuộc cách mạng lịch sử hay công nghệ của họ sẽ ảnh hưởng đến những đám đông khác nhau như thế nào. Thời đại trí tuệ nhân tạo cần Descartes và Kant của riêng nó để giải thích những gì chúng ta đã tạo ra và ý nghĩa của nó đối với con người.
Chúng ta cần tổ chức các cuộc thảo luận và đàm phán hợp lý có sự tham gia của các chính phủ, trường đại học và các nhà đổi mới công nghiệp tư nhân, và mục tiêu phải là thiết lập các giới hạn cho hành động thực tế giống như những giới hạn chi phối hành động của cá nhân và tổ chức ngày nay. AI có các thuộc tính chia sẻ một số điểm giống nhau, nhưng khác với chúng ở một số khía cạnh quan trọng, của các sản phẩm, dịch vụ, công nghệ và thực thể hiện được quản lý, ở chỗ nó thiếu một khung pháp lý và khái niệm được xác định đầy đủ của riêng nó. Ví dụ: bản chất khiêu khích, không ngừng phát triển của AI đặt ra những thách thức về quy định: ai và cách thức hoạt động của nó trên thế giới có thể khác nhau giữa các lĩnh vực và phát triển theo thời gian, và không phải lúc nào cũng có thể dự đoán được. Việc quản lý con người được hướng dẫn bởi một quy tắc đạo đức. AI cần một la bàn đạo đức của riêng nó, không chỉ phản ánh bản chất của công nghệ mà còn cả những thách thức mà nó đưa ra.
Thông thường, các nguyên tắc đã được thiết lập không áp dụng ở đây. Trong Thời đại Đức tin, khi các bị cáo trong Tòa án Dị giáo phải đối mặt với một phán quyết chiến đấu, tòa án có thể quyết định tội danh, nhưng Đức Chúa Trời quyết định ai là người chiến thắng. Trong thời đại của lý trí, con người xác định tội lỗi theo giới luật của lý trí, phán xét tội ác và trừng phạt chúng theo các khái niệm như quan hệ nhân quả và ý định phạm tội. Nhưng trí tuệ nhân tạo không hoạt động dựa trên lý trí của con người, cũng như không có động cơ, ý định hay sự tự phản ánh của con người. Do đó, việc giới thiệu AI sẽ làm phức tạp thêm các nguyên tắc công lý hiện có áp dụng cho con người.
Khi một hệ thống tự hành hoạt động dựa trên nhận thức và quyết định của chính nó, những người tạo ra nó có chịu trách nhiệm không? Hay không nên nhầm lẫn hành động của AI với hành động của những người tạo ra nó, ít nhất là về khả năng phạm tội? Nếu AI được sử dụng để phát hiện các dấu hiệu của hành vi phạm tội hoặc để giúp xác định xem ai đó có tội hay không, liệu AI có thể "giải thích" cách thức đưa ra kết luận của mình để các quan chức con người có thể tin tưởng không? Hơn nữa, tại thời điểm nào và trong bối cảnh nào của sự phát triển công nghệ, AI nên là đối tượng của các cuộc đàm phán quốc tế? Đây là một chủ đề tranh luận quan trọng khác. Nếu bị thăm dò quá sớm, sự phát triển của công nghệ có thể bị cản trở, hoặc nó có thể bị cám dỗ để che giấu khả năng của mình; nếu bị trì hoãn quá lâu, nó có thể gây ra những hậu quả tàn khốc, đặc biệt là trong quân đội. Thách thức này còn phức tạp hơn do khó khăn trong việc thiết kế các cơ chế xác minh hiệu quả cho một công nghệ siêu phàm, ít người biết đến và dễ dàng phổ biến. Các nhà đàm phán chính thức nhất thiết phải là chính phủ, nhưng cũng cần có tiếng nói của các nhà công nghệ, nhà đạo đức học, các công ty tạo và vận hành AI và những người khác bên ngoài lĩnh vực này.
Ảnh tĩnh từ bộ phim truyền hình Mỹ "Thế giới phương Tây".
Những tình huống khó xử do AI đặt ra có ý nghĩa sâu rộng đối với các xã hội khác nhau. Phần lớn đời sống xã hội và chính trị của chúng ta ngày nay diễn ra trên các nền tảng trực tuyến hỗ trợ AI và các nền dân chủ nói riêng dựa vào những không gian thông tin này để tranh luận và giao tiếp, định hình dư luận và mang lại cho chúng tính hợp pháp. Ai hoặc cơ quan nào nên xác định vai trò của công nghệ? Ai nên điều chỉnh nó? Các cá nhân sử dụng AI nên đóng vai trò gì? Còn những công ty sản xuất trí tuệ nhân tạo thì sao? Điều gì về các chính phủ xã hội triển khai nó? Là một phần của giải pháp cho những vấn đề này, chúng ta nên cố gắng làm cho nó có thể kiểm tra được, nghĩa là các quy trình và kết luận của nó đều có thể kiểm tra và sửa chữa được. Đổi lại, việc điều chỉnh có thể được thực hiện hay không sẽ phụ thuộc vào khả năng tinh chỉnh các nguyên tắc cho hình thức nhận thức và ra quyết định của AI. Đạo đức, ý chí và thậm chí cả quan hệ nhân quả không phù hợp lắm trong thế giới trí tuệ nhân tạo tự trị. Những vấn đề tương tự nảy sinh ở hầu hết các tầng lớp trong xã hội, từ giao thông, tài chính đến y học.
Xem xét tác động của trí tuệ nhân tạo trên phương tiện truyền thông xã hội. Với những đổi mới gần đây, những nền tảng này đã nhanh chóng trở thành một khía cạnh quan trọng trong đời sống công cộng của chúng ta. Như chúng ta đã thảo luận trong Chương 4, các tính năng mà Twitter và Facebook sử dụng để làm nổi bật, hạn chế hoặc cấm hoàn toàn nội dung hoặc cá nhân đều dựa vào trí tuệ nhân tạo, một minh chứng cho sức mạnh của nó. Việc sử dụng AI để quảng bá hoặc xóa nội dung và khái niệm đơn phương và thường không rõ ràng là một thách thức đối với tất cả các quốc gia, đặc biệt là các nền dân chủ. Liệu chúng ta có thể duy trì sự thống trị khi đời sống xã hội và chính trị của chúng ta ngày càng chuyển sang các lĩnh vực do trí tuệ nhân tạo quản lý và chúng ta chỉ có thể dựa vào đó để điều hướng trong quá trình quản lý đó?
Việc sử dụng trí tuệ nhân tạo để xử lý lượng lớn thông tin cũng đặt ra một thách thức khác: trí tuệ nhân tạo làm tăng sự biến dạng của thế giới để phục vụ cho sở thích bản năng của con người. Đây là một lĩnh vực mà trí tuệ nhân tạo có thể dễ dàng khuếch đại những thành kiến nhận thức của chúng ta, nhưng chúng ta vẫn cộng hưởng với chúng. Với những tiếng nói này, đối mặt với nhiều lựa chọn và được trao quyền để lựa chọn và sàng lọc, mọi người sẽ nhận được vô số thông tin sai lệch. Các công ty truyền thông xã hội không thúc đẩy sự phân cực chính trị cực đoan và bạo lực thông qua các nguồn cấp tin tức của họ, nhưng rõ ràng là các dịch vụ này cũng không dẫn đến việc tối đa hóa các diễn ngôn giác ngộ.
Trí tuệ nhân tạo, thông tin miễn phí và suy nghĩ độc lập
Vì vậy, mối quan hệ của chúng ta với AI sẽ như thế nào? Nó có nên bị hạn chế, trao quyền hoặc được coi là một đối tác trong việc quản lý các lĩnh vực này không? Không còn nghi ngờ gì nữa, việc phổ biến một số thông tin nhất định, đặc biệt là thông tin sai lệch được cố ý tạo ra, có thể gây ra thiệt hại, chia rẽ và kích động. Do đó một số hạn chế là cần thiết. Tuy nhiên, việc lên án, công kích, trấn áp “thông tin độc hại” hiện nay còn quá lỏng lẻo, điều này cũng đáng để chúng ta suy ngẫm.
Trong một xã hội tự do, định nghĩa về thông tin sai lệch và có hại không nên chỉ giới hạn trong phạm vi hoạt động của các tập đoàn. Tuy nhiên, nếu các trách nhiệm đó được giao cho một nhóm hoặc cơ quan chính phủ, thì nhóm hoặc cơ quan đó phải hoạt động theo các tiêu chuẩn công đã được thiết lập và thông qua các thủ tục có thể kiểm chứng để tránh bị những người có quyền lực lợi dụng. Nếu nó được giao phó cho một thuật toán AI, chức năng mục tiêu, quá trình học tập, các quyết định và hành động của thuật toán đó phải rõ ràng và chịu sự giám sát từ bên ngoài cũng như ít nhất là một số hình thức kháng cáo của con người.
Tất nhiên, các xã hội khác nhau sẽ có những câu trả lời khác nhau cho vấn đề này. Một số xã hội có thể nhấn mạnh quyền tự do ngôn luận, có lẽ ở các mức độ khác nhau dựa trên sự hiểu biết tương đối của họ về các biểu hiện cá nhân và do đó có thể hạn chế vai trò của AI trong việc kiểm duyệt nội dung. Mỗi xã hội chọn những ý tưởng mà nó coi trọng, điều này có thể dẫn đến các mối quan hệ phức tạp với các nhà khai thác nền tảng mạng đa quốc gia. AI hấp thụ như một miếng bọt biển, học hỏi từ con người, ngay cả khi chúng ta thiết kế và định hình nó.
Ảnh tĩnh từ bộ phim truyền hình Mỹ "Thế giới phương Tây".
Do đó, không chỉ các lựa chọn của mỗi xã hội là khác nhau, mà mối quan hệ của mỗi xã hội với AI, nhận thức về AI và cách AI bắt chước con người và học hỏi từ những người thầy là con người cũng khác nhau. Nhưng có một điều chắc chắn, đó là việc con người tìm kiếm sự thật và sự thật không nên khiến xã hội trải nghiệm cuộc sống thông qua một bộ lọc không rõ ràng và không thể kiểm chứng. Trải nghiệm tự phát về thực tế, với tất cả những mâu thuẫn và phức tạp của nó, là một khía cạnh quan trọng của tình trạng con người, ngay cả khi nó dẫn đến sự thiếu hiệu quả hoặc sai sót.
Trí tuệ nhân tạo và trật tự quốc tế
Trên toàn cầu, vô số câu hỏi đang chờ được trả lời. Làm thế nào các nền tảng trực tuyến trí tuệ nhân tạo có thể được quản lý mà không gây ra căng thẳng giữa các quốc gia lo ngại về sự an toàn của chúng? Liệu những nền tảng trực tuyến này có làm xói mòn các quan niệm truyền thống về chủ quyền quốc gia? Liệu những thay đổi kết quả có mang lại sự phân cực cho thế giới chưa từng thấy kể từ khi Liên Xô sụp đổ? Quốc hội nhỏ có phản đối không? Những nỗ lực để hòa giải những hậu quả này sẽ thành công? Hoặc có bất kỳ hy vọng thành công?
Khi khả năng của trí tuệ nhân tạo tiếp tục tăng lên, cách định vị vai trò của con người trong việc hợp tác với trí tuệ nhân tạo sẽ ngày càng trở nên quan trọng và phức tạp. Chúng ta có thể tưởng tượng một thế giới mà con người ngày càng tôn trọng ý kiến của trí tuệ nhân tạo về các vấn đề ngày càng quan trọng. Trong một thế giới nơi các đối thủ tấn công đang triển khai thành công AI, liệu các nhà lãnh đạo ở phe phòng thủ có thể quyết định không triển khai AI của riêng họ và chịu trách nhiệm về điều đó không? Thậm chí họ không chắc việc triển khai này sẽ phát triển như thế nào. Và nếu AI có khả năng vượt trội trong việc đề xuất một hướng hành động, liệu có lý do gì để những người ra quyết định chấp nhận nó, ngay cả khi hướng hành động đó đòi hỏi một số mức độ hy sinh? Làm sao con người có thể biết liệu sự hy sinh như vậy có cần thiết để chiến thắng hay không? Nếu nó là cần thiết, các nhà hoạch định chính sách có thực sự sẵn sàng phủ quyết nó không? Nói cách khác, chúng ta có thể không có lựa chọn nào khác ngoài việc thúc đẩy trí tuệ nhân tạo. Nhưng chúng ta cũng có trách nhiệm định hình nó theo cách tương thích với tương lai của nhân loại. Sự không hoàn hảo là một trong những tiêu chuẩn trải nghiệm của con người, đặc biệt là khi nói đến vai trò lãnh đạo.
Thông thường, các nhà hoạch định chính sách bị choáng ngợp bởi những mối quan tâm không thể chịu đựng được. Đôi khi, hành động của họ dựa trên những giả định sai lầm; đôi khi, họ hành động theo cảm xúc đơn thuần; và vẫn có những lúc, hệ tư tưởng bóp méo tầm nhìn của họ. Bất kỳ chiến lược nào được sử dụng để cấu trúc mối quan hệ đối tác giữa con người và AI, chúng phải được điều chỉnh cho phù hợp với con người. Nếu trí tuệ nhân tạo thể hiện khả năng siêu phàm trong một số lĩnh vực nhất định, thì việc sử dụng nó phải tương thích với môi trường không hoàn hảo của con người.
Trong lĩnh vực bảo mật, các hệ thống hỗ trợ AI phản ứng nhanh đến mức kẻ thù có thể cố gắng tấn công trước khi hệ thống hoạt động. Kết quả có thể là một tình huống không ổn định cố hữu có thể so sánh với tình huống do vũ khí hạt nhân tạo ra. Tuy nhiên, vũ khí hạt nhân được đóng khung trong các khái niệm về an ninh quốc tế và kiểm soát vũ khí đã được các chính phủ, nhà khoa học, nhà chiến lược và nhà đạo đức phát triển trong vài thập kỷ qua thông qua việc sàng lọc, tranh luận và đàm phán liên tục. Trí tuệ nhân tạo và vũ khí mạng không có khuôn khổ tương tự.
Trên thực tế, các chính phủ có thể miễn cưỡng thừa nhận sự tồn tại của chúng. Các quốc gia — và có thể là các công ty công nghệ — cần đồng ý về cách cùng tồn tại với AI được vũ khí hóa. Sự phổ biến của AI thông qua các chức năng phòng thủ của chính phủ sẽ làm thay đổi cán cân quốc tế và hệ thống điện toán mà nó được duy trì trong thời đại của chúng ta. Vũ khí hạt nhân đắt tiền và khó che giấu do kích thước và cấu trúc của chúng. Ngược lại, trí tuệ nhân tạo có thể chạy trên các máy tính có thể tìm thấy ở mọi nơi. Vì việc đào tạo một mô hình máy học đòi hỏi chuyên môn và tài nguyên máy tính, nên việc tạo ra một trí tuệ nhân tạo đòi hỏi các nguồn lực ở cấp độ của một công ty lớn hoặc một quốc gia; và vì ứng dụng trí tuệ nhân tạo được thực hiện trên các máy tính tương đối nhỏ nên nó chắc chắn sẽ được sử dụng rộng rãi , kể cả theo những cách mà chúng tôi không mong đợi. Liệu bất kỳ ai có máy tính xách tay, kết nối internet và cam kết khám phá mặt tối của AI cuối cùng cũng có quyền truy cập vào vũ khí do AI cung cấp? Liệu các chính phủ có cho phép những kẻ có quan hệ gần gũi hoặc không có quan hệ gì với họ sử dụng AI để quấy rối đối thủ của họ không? Những kẻ khủng bố sẽ lên kế hoạch tấn công AI? Liệu họ có thể quy các hoạt động này cho các Quốc gia hoặc các chủ thể khác không?
Trước đây, ngoại giao diễn ra trong một lĩnh vực có tổ chức và có thể dự đoán được, ngày nay, khả năng tiếp cận thông tin và phạm vi hành động của nó sẽ được mở rộng đáng kể. Những ranh giới rõ ràng từng được hình thành bởi sự khác biệt về địa lý và ngôn ngữ sẽ dần biến mất. Bản dịch AI sẽ tạo điều kiện thuận lợi cho cuộc đối thoại mà không yêu cầu không chỉ hiểu biết về ngôn ngữ mà còn cả sự hiểu biết về văn hóa như các dịch giả trước đây đã làm. Các nền tảng trực tuyến do AI cung cấp sẽ tạo điều kiện thuận lợi cho giao tiếp xuyên biên giới, trong khi hoạt động hack và thông tin sai lệch sẽ tiếp tục bóp méo nhận thức và đánh giá. Khi tình hình trở nên phức tạp hơn, việc xây dựng các thỏa thuận có hiệu lực thi hành với kết quả có thể dự đoán được sẽ trở nên khó khăn hơn.
Khả năng kết hợp các khả năng của AI với vũ khí mạng làm tăng thêm tình trạng tiến thoái lưỡng nan này. Nhân loại vượt qua nghịch lý hạt nhân bằng cách phân biệt rõ ràng giữa vũ khí thông thường (được coi là hài hòa với chiến lược thông thường) và vũ khí hạt nhân (được coi là ngoại lệ). Một khi sức công phá của vũ khí hạt nhân được giải phóng là bừa bãi và không phân biệt mục tiêu; trong khi vũ khí thông thường có thể phân biệt được mục tiêu. Nhưng vũ khí mạng vừa có thể xác định mục tiêu vừa có thể tàn phá trên quy mô lớn đã xóa bỏ sự khác biệt đó.
Được thêm vào nhiên liệu trí tuệ nhân tạo, những vũ khí này thậm chí sẽ trở nên khó đoán hơn và có khả năng hủy diệt cao hơn. Đồng thời, khi những vũ khí này đang bay trên mạng, không thể xác định được quy kết của chúng. Chúng không thể bị phát hiện vì chúng không cồng kềnh như vũ khí hạt nhân; chúng cũng có thể được mang trên các thanh USB, tạo điều kiện cho sự phổ biến. Ở một số dạng, những vũ khí này rất khó kiểm soát sau khi được triển khai, đặc biệt là do bản chất năng động và mới nổi của trí tuệ nhân tạo.
Tình trạng này thách thức các tiền đề của trật tự thế giới dựa trên luật lệ. Ngoài ra, nó buộc phải phát triển các khái niệm liên quan đến kiểm soát vũ khí AI. Trong thời đại trí tuệ nhân tạo, khả năng răn đe sẽ không còn tuân theo các chuẩn mực lịch sử, và nó cũng sẽ không như vậy. Vào buổi bình minh của thời đại hạt nhân, một khung khái niệm về kiểm soát vũ khí hạt nhân đã được phát triển dựa trên những hiểu biết sâu sắc từ các cuộc thảo luận giữa các giáo sư và học giả hàng đầu (có kinh nghiệm trong chính phủ) tại Harvard, MIT và Caltech, từ đó dẫn đến việc tạo ra một hệ thống ( và các tổ chức để thực hiện nó ở Hoa Kỳ và các quốc gia khác).
Tư duy học thuật cũng quan trọng như vậy, nhưng nó được thực hiện tách biệt với những cân nhắc của Lầu Năm Góc về chiến tranh thông thường—một sự bổ sung mới, không phải là một sự sửa đổi. Nhưng tiềm năng sử dụng trí tuệ nhân tạo trong quân sự rộng hơn vũ khí hạt nhân và sự khác biệt giữa tấn công và phòng thủ là không rõ ràng, ít nhất là cho đến thời điểm hiện tại. Trong một thế giới quá phức tạp, vốn dĩ không thể đoán trước, trí tuệ nhân tạo có thể trở thành một nguồn gây hiểu lầm và sai sót khác, và sớm hay muộn, các cường quốc với khả năng công nghệ cao sẽ phải tham gia vào một cuộc đối thoại đang diễn ra.
Một cuộc đối thoại như vậy nên tập trung vào một vấn đề cơ bản: tránh thảm họa và sống sót sau nó. Trí tuệ nhân tạo và các công nghệ mới nổi khác, chẳng hạn như điện toán lượng tử, dường như đang làm cho những thực tế nằm ngoài nhận thức của con người trở nên dễ tiếp cận hơn. Tuy nhiên, cuối cùng thì chúng ta có thể thấy rằng ngay cả những kỹ thuật này cũng có những hạn chế của chúng. Vấn đề của chúng ta là chúng ta chưa nắm được những hàm ý triết học của chúng. Chúng ta đang bị chúng đẩy về phía trước một cách vô tình, không có ý thức.
Lần cuối cùng có một sự thay đổi lớn trong ý thức con người là vào thời kỳ Khai sáng, và sự thay đổi này xảy ra bởi vì các công nghệ mới tạo ra những hiểu biết triết học mới, đến lượt chúng lại được phổ biến thông qua công nghệ (dưới dạng báo in). Trong thời đại của chúng ta, các công nghệ mới đã được phát triển mà không có các triết lý hướng dẫn tương ứng. Trí tuệ nhân tạo là một công việc to lớn với những lợi ích tiềm năng sâu rộng. Con người đang nỗ lực phát triển trí tuệ nhân tạo, nhưng chúng ta đang sử dụng nó để làm cho cuộc sống của mình tốt hơn hay tồi tệ hơn? Nó hứa hẹn các loại thuốc mạnh hơn, chăm sóc sức khỏe hiệu quả và công bằng hơn, thực hành môi trường bền vững hơn và các tầm nhìn khác về sự tiến bộ. Tuy nhiên, đồng thời, nó cũng có thể bóp méo thông tin, hoặc ít nhất là làm phức tạp quá trình tiếp nhận thông tin và xác định sự thật, từ đó làm suy yếu khả năng suy luận và phán đoán độc lập của một số người.
Cuối cùng, một câu hỏi “meta” hiện ra: Liệu con người có thể thỏa mãn nhu cầu triết học với sự “trợ giúp” của trí tuệ nhân tạo với những cách diễn giải và hiểu biết khác nhau về thế giới? Con người không hiểu hết về máy móc, nhưng liệu cuối cùng chúng ta có làm hòa với chúng và thay đổi thế giới? Immanuel Kant bắt đầu lời nói đầu cho cuốn Phê bình lý trí thuần túy với điểm này:
Lý trí của con người có số phận đặc biệt này, đó là trong một trong những nhánh của toàn bộ kiến thức của nó, nó bị bao vây bởi những vấn đề không thể coi thường vì nó được áp đặt lên chính nó bởi chính bản chất của lý trí, nhưng bởi vì nó vượt qua mọi khả năng của lý trí. , nó không thể được giải quyết.
Trong nhiều thế kỷ kể từ đó, con người đã khám phá sâu hơn những câu hỏi này, một số câu hỏi liên quan đến bản chất của tâm trí, lý trí và thậm chí cả thực tế. Nhân loại đã có những bước đột phá vĩ đại, nhưng nó cũng gặp phải nhiều hạn chế mà Kant đã đặt ra: một lĩnh vực của những câu hỏi mà nó không thể trả lời, một lĩnh vực của những sự thật mà nó không thể hiểu đầy đủ. Sự xuất hiện của trí tuệ nhân tạo mang lại khả năng học hỏi và xử lý thông tin mà con người không thể đạt được chỉ bằng lý trí, có thể cho phép chúng ta đạt được tiến bộ đối với những câu hỏi đã được chứng minh là vượt quá khả năng trả lời của chúng ta. Nhưng thành công sẽ đặt ra những câu hỏi mới, một số trong đó chúng tôi đã cố gắng làm sáng tỏ trong cuốn sách này. Trí tuệ con người và trí tuệ nhân tạo đang ở thời điểm mà cả hai sẽ hội tụ để theo đuổi ở quy mô quốc gia, lục địa hoặc thậm chí toàn cầu. Hiểu được sự thay đổi này và phát triển một quy tắc đạo đức hướng dẫn xung quanh nó, sẽ đòi hỏi trí tuệ tập thể, tiếng nói và cam kết chung của tất cả các thành phần xã hội, bao gồm các nhà khoa học và chiến lược gia, chính trị gia và triết gia, giáo sĩ và CEO . Cam kết này không chỉ nên được thực hiện trong nội bộ các quốc gia mà còn giữa các quốc gia với nhau. Chúng ta có thể có loại quan hệ đối tác nào với trí tuệ nhân tạo và loại thực tế nào sẽ xuất hiện từ đó? Bây giờ, đã đến lúc xác định điều này.
Tác giả: / [Mỹ] Henry Kissinger / [Mỹ] Eric Schmidt / [Mỹ] Daniel Huttenlocher
Trích đoạn / Liu Yaguang
Biên tập viên/Liu Yaguang
Hiệu đính / Zhao Lin
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Kissinger nói về trí tuệ nhân tạo: Bạn nhìn trật tự quốc tế như thế nào trong kỷ nguyên trí tuệ nhân tạo?
Bản gốc: Tin tức Bắc Kinh
Từ việc AlphaGo của Google đánh bại người chơi cờ vua đến ChatGpt gây ra những cuộc thảo luận sôi nổi trong cộng đồng công nghệ, mọi tiến bộ trong công nghệ trí tuệ nhân tạo đều ảnh hưởng đến thần kinh của con người. Không còn nghi ngờ gì nữa, trí tuệ nhân tạo đang thay đổi sâu sắc xã hội, nền kinh tế, chính trị và thậm chí cả chính sách đối ngoại của chúng ta, và các lý thuyết truyền thống trong quá khứ thường không giải thích được tác động của tất cả những điều này. Trong cuốn sách "Kỷ nguyên Trí tuệ Nhân tạo và Tương lai của Nhân loại", Kissinger, nhà ngoại giao nổi tiếng, Schmidt, cựu CEO của Google, và Huttenlocher, hiệu trưởng Trường Khoa học Máy tính Schwarzman tại Viện Công nghệ Massachusetts, sắp xếp ra đời trước của trí tuệ nhân tạo từ các quan điểm khác nhau, đời này và thảo luận toàn diện về những tác động khác nhau mà sự phát triển của nó có thể mang lại cho các cá nhân, doanh nghiệp, chính phủ, xã hội và quốc gia. Một số nhà tư tưởng hàng đầu tin rằng khi khả năng của trí tuệ nhân tạo ngày càng mạnh mẽ hơn, thì việc định vị vai trò của con người như thế nào sẽ là một đề xuất mà chúng ta phải suy nghĩ lâu dài trong tương lai. Nội dung dưới đây được trích từ "Kỷ nguyên trí tuệ nhân tạo và tương lai của nhân loại" với sự cho phép của nhà xuất bản, với việc xóa và sửa đổi, phụ đề được thêm vào bởi biên tập viên.
Tác giả gốc | [Mỹ] Henry Kissinger / [Mỹ] Eric Schmidt / [Mỹ] Daniel Huttenlocher
**Trí tuệ nhân tạo nói chung sẽ mang lại điều gì? **
Con người và trí tuệ nhân tạo có thể tiếp cận cùng một thực tế từ những góc độ khác nhau không, và liệu chúng có thể bổ sung cho nhau và bổ sung cho nhau không? Hay chúng ta nhận thức được hai thực tế khác nhau nhưng có phần trùng lặp: một thực tế mà con người có thể giải thích một cách hợp lý và thực tế còn lại mà trí tuệ nhân tạo có thể giải thích bằng thuật toán? Nếu câu trả lời là câu trả lời sau, thì trí tuệ nhân tạo có thể nhận thức được những thứ mà chúng ta chưa nhận thức được và không thể nhận thức được—không chỉ bởi vì chúng ta không có đủ thời gian để suy luận về chúng theo cách của mình, mà bởi vì chúng tồn tại ở một nơi mà tâm trí chúng ta không thể khái niệm hóa.trong lĩnh vực. Mục tiêu theo đuổi "sự hiểu biết đầy đủ về thế giới" của nhân loại sẽ thay đổi và mọi người sẽ nhận ra rằng để có được một số kiến thức nhất định, chúng ta có thể cần phải giao phó trí tuệ nhân tạo để lấy kiến thức cho chúng tôi và báo cáo lại cho chúng tôi. Bất kể câu trả lời là gì, khi trí tuệ nhân tạo theo đuổi các mục tiêu toàn diện và rộng lớn hơn, con người sẽ ngày càng giống một "sinh vật" trải nghiệm và hiểu thế giới - sự kết hợp của các công cụ, vật nuôi và tâm trí tồn tại.
Khi các nhà nghiên cứu tiếp cận hoặc đạt được trí thông minh nhân tạo nói chung, câu đố sẽ chỉ phát triển sâu hơn. Như chúng ta đã thảo luận trong Chương 3, AGI sẽ không bị giới hạn trong việc học và thực hiện các nhiệm vụ cụ thể; thay vào đó, theo định nghĩa, AGI sẽ có thể học và thực hiện rất nhiều nhiệm vụ, giống như con người. Việc phát triển trí tuệ nhân tạo nói chung sẽ đòi hỏi sức mạnh tính toán khổng lồ, điều này có thể dẫn đến việc chỉ một số tổ chức được tài trợ tốt mới có khả năng tạo ra AI như vậy. Như với AI hiện tại, mặc dù AGI có thể dễ dàng được triển khai phi tập trung, nhưng với khả năng của nó, các ứng dụng của nó nhất thiết sẽ bị hạn chế. Các hạn chế có thể được áp dụng đối với AGI bằng cách chỉ cho phép các tổ chức đã được phê duyệt vận hành nó. Sau đó, câu hỏi trở thành: Ai sẽ kiểm soát AGI? Ai sẽ cho phép sử dụng nó? Liệu nền dân chủ có còn khả thi trong một thế giới mà một vài cỗ máy "thiên tài" được điều hành bởi một vài tổ chức? Trong trường hợp này, sự hợp tác giữa con người và AI sẽ như thế nào?
Nếu trí tuệ tổng quát nhân tạo xuất hiện trên thế giới, nó sẽ là một thành tựu trí tuệ, khoa học và chiến lược lớn. Nhưng ngay cả khi không làm được như vậy, trí tuệ nhân tạo cũng có thể mang lại một cuộc cách mạng trong các vấn đề của con người. Động lực và khả năng ứng phó với các trường hợp khẩn cấp (hoặc sự kiện bất ngờ) và cung cấp giải pháp của AI khiến AI khác biệt với các công nghệ trước đây. Nếu không được kiểm soát, AI có thể đi chệch khỏi mong đợi của chúng tôi và nói rộng ra là mục đích của chúng tôi. Quyết định hạn chế nó, hợp tác với nó hay tuân theo nó sẽ không chỉ do con người đưa ra. Trong một số trường hợp, điều này sẽ do chính AI quyết định, trong những trường hợp khác, nó sẽ phụ thuộc vào nhiều yếu tố hỗ trợ khác nhau. Con người có thể tham gia vào một "cuộc đua xuống đáy".
Khi AI tự động hóa các quy trình, cho phép con người khám phá lượng dữ liệu khổng lồ, đồng thời tổ chức và tái cấu trúc các lĩnh vực vật chất và xã hội, những người đi đầu có thể đạt được lợi thế của người đi trước. Áp lực cạnh tranh có thể buộc các bên chạy đua triển khai AGI mà không có đủ thời gian để đánh giá rủi ro hoặc đơn giản là bỏ qua chúng. Đạo đức về trí tuệ nhân tạo là rất cần thiết. Mỗi quyết định riêng lẻ—giới hạn, hợp tác hoặc tuân thủ—có thể có hoặc không có hậu quả nghiêm trọng, nhưng khi kết hợp lại, tác động sẽ được nhân lên gấp bội.
Những quyết định này không thể được thực hiện một cách cô lập. Nếu nhân loại muốn định hình tương lai, nhân loại cần thống nhất về những nguyên tắc chung dẫn dắt mọi lựa chọn. Đúng là hành động tập thể rất khó, và đôi khi thậm chí là không thể, nhưng những hành động cá nhân mà không có sự hướng dẫn của một chuẩn mực đạo đức chung sẽ chỉ dẫn đến sự hỗn loạn và hỗn loạn lớn hơn cho toàn thể nhân loại. Những người thiết kế, đào tạo và làm việc với AI sẽ có thể đạt được các mục tiêu ở quy mô và độ phức tạp mà con người chưa thể đạt được cho đến nay, chẳng hạn như những đột phá khoa học mới, hiệu quả kinh tế mới, hình thức an ninh mới và giám sát xã hội theo chiều hướng mới. Và trong quá trình mở rộng trí tuệ nhân tạo và các ứng dụng của nó, những người không được trao quyền có thể cảm thấy rằng họ đang bị theo dõi, nghiên cứu và hành động bởi những thế lực mà họ không hiểu, và đó không phải là kế hoạch hay lựa chọn của riêng họ. Quyền lực này hoạt động một cách không rõ ràng mà trong nhiều xã hội không thể chấp nhận được bởi các chủ thể hoặc thể chế truyền thống của con người. Các nhà thiết kế và triển khai AI nên chuẩn bị sẵn sàng để giải quyết những vấn đề này, bắt đầu bằng việc giải thích cho những người không có kỹ thuật về AI đang làm gì, nó “biết” gì và nó làm như thế nào. Bản chất năng động và mới nổi của AI tạo ra sự mơ hồ theo ít nhất hai cách. Đầu tiên, trí tuệ nhân tạo có thể hoạt động như chúng ta mong đợi, nhưng tạo ra kết quả mà chúng ta không thể thấy trước. Những kết quả này có thể đưa nhân loại đến những nơi mà những người tạo ra nó không bao giờ ngờ tới, giống như các chính trị gia vào năm 1914 đã không nhận ra rằng logic cũ của việc huy động quân đội cùng với công nghệ mới sẽ kéo châu Âu vào chiến tranh. Trí tuệ nhân tạo cũng có thể gây ra những hậu quả nghiêm trọng nếu nó được triển khai và sử dụng mà không có sự cân nhắc kỹ lưỡng.
Những hậu quả này có thể nhỏ, chẳng hạn như một quyết định đe dọa đến tính mạng của một chiếc xe tự lái, hoặc cực kỳ nghiêm trọng, chẳng hạn như một cuộc xung đột quân sự nghiêm trọng. Thứ hai, trong một số lĩnh vực ứng dụng, AI có thể không đoán trước được, hành động hoàn toàn bất ngờ. Lấy AlphaZero làm ví dụ, nó đã phát triển một phong cách chơi cờ mà con người chưa bao giờ tưởng tượng được trong lịch sử cờ vua hàng ngàn năm, chỉ theo hướng dẫn của "cờ thắng". Mặc dù con người có thể cẩn thận đặt ra các mục tiêu của AI, nhưng khi chúng ta cho nó quyền hạn lớn hơn, con đường dẫn đến mục tiêu đó có thể khiến chúng ta ngạc nhiên và thậm chí là hoảng sợ. Do đó, cả mục tiêu và nhiệm vụ của AI cần phải được thiết kế cẩn thận, đặc biệt là trong các lĩnh vực mà các quyết định của nó có thể gây chết người. Không nên xem AI là tự trị, không giám sát hoặc không được phép thực hiện các hành động không thể thay đổi mà không có sự giám sát, theo dõi hoặc kiểm soát trực tiếp. Trí tuệ nhân tạo do con người tạo ra nên nó cũng phải được con người giám sát. Nhưng một trong những thách thức của AI trong thời đại chúng ta là những người có kỹ năng và nguồn lực để tạo ra nó không nhất thiết phải có quan điểm triết học để hiểu những hàm ý rộng lớn hơn của nó. Nhiều người tạo ra trí tuệ nhân tạo tập trung chủ yếu vào các ứng dụng mà họ đang cố gắng đạt được và các vấn đề họ muốn giải quyết: họ có thể không dừng lại để xem xét liệu giải pháp có tạo ra một cuộc cách mạng lịch sử hay công nghệ của họ sẽ ảnh hưởng đến những đám đông khác nhau như thế nào. Thời đại trí tuệ nhân tạo cần Descartes và Kant của riêng nó để giải thích những gì chúng ta đã tạo ra và ý nghĩa của nó đối với con người.
Chúng ta cần tổ chức các cuộc thảo luận và đàm phán hợp lý có sự tham gia của các chính phủ, trường đại học và các nhà đổi mới công nghiệp tư nhân, và mục tiêu phải là thiết lập các giới hạn cho hành động thực tế giống như những giới hạn chi phối hành động của cá nhân và tổ chức ngày nay. AI có các thuộc tính chia sẻ một số điểm giống nhau, nhưng khác với chúng ở một số khía cạnh quan trọng, của các sản phẩm, dịch vụ, công nghệ và thực thể hiện được quản lý, ở chỗ nó thiếu một khung pháp lý và khái niệm được xác định đầy đủ của riêng nó. Ví dụ: bản chất khiêu khích, không ngừng phát triển của AI đặt ra những thách thức về quy định: ai và cách thức hoạt động của nó trên thế giới có thể khác nhau giữa các lĩnh vực và phát triển theo thời gian, và không phải lúc nào cũng có thể dự đoán được. Việc quản lý con người được hướng dẫn bởi một quy tắc đạo đức. AI cần một la bàn đạo đức của riêng nó, không chỉ phản ánh bản chất của công nghệ mà còn cả những thách thức mà nó đưa ra.
Thông thường, các nguyên tắc đã được thiết lập không áp dụng ở đây. Trong Thời đại Đức tin, khi các bị cáo trong Tòa án Dị giáo phải đối mặt với một phán quyết chiến đấu, tòa án có thể quyết định tội danh, nhưng Đức Chúa Trời quyết định ai là người chiến thắng. Trong thời đại của lý trí, con người xác định tội lỗi theo giới luật của lý trí, phán xét tội ác và trừng phạt chúng theo các khái niệm như quan hệ nhân quả và ý định phạm tội. Nhưng trí tuệ nhân tạo không hoạt động dựa trên lý trí của con người, cũng như không có động cơ, ý định hay sự tự phản ánh của con người. Do đó, việc giới thiệu AI sẽ làm phức tạp thêm các nguyên tắc công lý hiện có áp dụng cho con người.
Khi một hệ thống tự hành hoạt động dựa trên nhận thức và quyết định của chính nó, những người tạo ra nó có chịu trách nhiệm không? Hay không nên nhầm lẫn hành động của AI với hành động của những người tạo ra nó, ít nhất là về khả năng phạm tội? Nếu AI được sử dụng để phát hiện các dấu hiệu của hành vi phạm tội hoặc để giúp xác định xem ai đó có tội hay không, liệu AI có thể "giải thích" cách thức đưa ra kết luận của mình để các quan chức con người có thể tin tưởng không? Hơn nữa, tại thời điểm nào và trong bối cảnh nào của sự phát triển công nghệ, AI nên là đối tượng của các cuộc đàm phán quốc tế? Đây là một chủ đề tranh luận quan trọng khác. Nếu bị thăm dò quá sớm, sự phát triển của công nghệ có thể bị cản trở, hoặc nó có thể bị cám dỗ để che giấu khả năng của mình; nếu bị trì hoãn quá lâu, nó có thể gây ra những hậu quả tàn khốc, đặc biệt là trong quân đội. Thách thức này còn phức tạp hơn do khó khăn trong việc thiết kế các cơ chế xác minh hiệu quả cho một công nghệ siêu phàm, ít người biết đến và dễ dàng phổ biến. Các nhà đàm phán chính thức nhất thiết phải là chính phủ, nhưng cũng cần có tiếng nói của các nhà công nghệ, nhà đạo đức học, các công ty tạo và vận hành AI và những người khác bên ngoài lĩnh vực này.
Những tình huống khó xử do AI đặt ra có ý nghĩa sâu rộng đối với các xã hội khác nhau. Phần lớn đời sống xã hội và chính trị của chúng ta ngày nay diễn ra trên các nền tảng trực tuyến hỗ trợ AI và các nền dân chủ nói riêng dựa vào những không gian thông tin này để tranh luận và giao tiếp, định hình dư luận và mang lại cho chúng tính hợp pháp. Ai hoặc cơ quan nào nên xác định vai trò của công nghệ? Ai nên điều chỉnh nó? Các cá nhân sử dụng AI nên đóng vai trò gì? Còn những công ty sản xuất trí tuệ nhân tạo thì sao? Điều gì về các chính phủ xã hội triển khai nó? Là một phần của giải pháp cho những vấn đề này, chúng ta nên cố gắng làm cho nó có thể kiểm tra được, nghĩa là các quy trình và kết luận của nó đều có thể kiểm tra và sửa chữa được. Đổi lại, việc điều chỉnh có thể được thực hiện hay không sẽ phụ thuộc vào khả năng tinh chỉnh các nguyên tắc cho hình thức nhận thức và ra quyết định của AI. Đạo đức, ý chí và thậm chí cả quan hệ nhân quả không phù hợp lắm trong thế giới trí tuệ nhân tạo tự trị. Những vấn đề tương tự nảy sinh ở hầu hết các tầng lớp trong xã hội, từ giao thông, tài chính đến y học.
Xem xét tác động của trí tuệ nhân tạo trên phương tiện truyền thông xã hội. Với những đổi mới gần đây, những nền tảng này đã nhanh chóng trở thành một khía cạnh quan trọng trong đời sống công cộng của chúng ta. Như chúng ta đã thảo luận trong Chương 4, các tính năng mà Twitter và Facebook sử dụng để làm nổi bật, hạn chế hoặc cấm hoàn toàn nội dung hoặc cá nhân đều dựa vào trí tuệ nhân tạo, một minh chứng cho sức mạnh của nó. Việc sử dụng AI để quảng bá hoặc xóa nội dung và khái niệm đơn phương và thường không rõ ràng là một thách thức đối với tất cả các quốc gia, đặc biệt là các nền dân chủ. Liệu chúng ta có thể duy trì sự thống trị khi đời sống xã hội và chính trị của chúng ta ngày càng chuyển sang các lĩnh vực do trí tuệ nhân tạo quản lý và chúng ta chỉ có thể dựa vào đó để điều hướng trong quá trình quản lý đó?
Việc sử dụng trí tuệ nhân tạo để xử lý lượng lớn thông tin cũng đặt ra một thách thức khác: trí tuệ nhân tạo làm tăng sự biến dạng của thế giới để phục vụ cho sở thích bản năng của con người. Đây là một lĩnh vực mà trí tuệ nhân tạo có thể dễ dàng khuếch đại những thành kiến nhận thức của chúng ta, nhưng chúng ta vẫn cộng hưởng với chúng. Với những tiếng nói này, đối mặt với nhiều lựa chọn và được trao quyền để lựa chọn và sàng lọc, mọi người sẽ nhận được vô số thông tin sai lệch. Các công ty truyền thông xã hội không thúc đẩy sự phân cực chính trị cực đoan và bạo lực thông qua các nguồn cấp tin tức của họ, nhưng rõ ràng là các dịch vụ này cũng không dẫn đến việc tối đa hóa các diễn ngôn giác ngộ.
Trí tuệ nhân tạo, thông tin miễn phí và suy nghĩ độc lập
Vì vậy, mối quan hệ của chúng ta với AI sẽ như thế nào? Nó có nên bị hạn chế, trao quyền hoặc được coi là một đối tác trong việc quản lý các lĩnh vực này không? Không còn nghi ngờ gì nữa, việc phổ biến một số thông tin nhất định, đặc biệt là thông tin sai lệch được cố ý tạo ra, có thể gây ra thiệt hại, chia rẽ và kích động. Do đó một số hạn chế là cần thiết. Tuy nhiên, việc lên án, công kích, trấn áp “thông tin độc hại” hiện nay còn quá lỏng lẻo, điều này cũng đáng để chúng ta suy ngẫm.
Trong một xã hội tự do, định nghĩa về thông tin sai lệch và có hại không nên chỉ giới hạn trong phạm vi hoạt động của các tập đoàn. Tuy nhiên, nếu các trách nhiệm đó được giao cho một nhóm hoặc cơ quan chính phủ, thì nhóm hoặc cơ quan đó phải hoạt động theo các tiêu chuẩn công đã được thiết lập và thông qua các thủ tục có thể kiểm chứng để tránh bị những người có quyền lực lợi dụng. Nếu nó được giao phó cho một thuật toán AI, chức năng mục tiêu, quá trình học tập, các quyết định và hành động của thuật toán đó phải rõ ràng và chịu sự giám sát từ bên ngoài cũng như ít nhất là một số hình thức kháng cáo của con người.
Tất nhiên, các xã hội khác nhau sẽ có những câu trả lời khác nhau cho vấn đề này. Một số xã hội có thể nhấn mạnh quyền tự do ngôn luận, có lẽ ở các mức độ khác nhau dựa trên sự hiểu biết tương đối của họ về các biểu hiện cá nhân và do đó có thể hạn chế vai trò của AI trong việc kiểm duyệt nội dung. Mỗi xã hội chọn những ý tưởng mà nó coi trọng, điều này có thể dẫn đến các mối quan hệ phức tạp với các nhà khai thác nền tảng mạng đa quốc gia. AI hấp thụ như một miếng bọt biển, học hỏi từ con người, ngay cả khi chúng ta thiết kế và định hình nó.
Do đó, không chỉ các lựa chọn của mỗi xã hội là khác nhau, mà mối quan hệ của mỗi xã hội với AI, nhận thức về AI và cách AI bắt chước con người và học hỏi từ những người thầy là con người cũng khác nhau. Nhưng có một điều chắc chắn, đó là việc con người tìm kiếm sự thật và sự thật không nên khiến xã hội trải nghiệm cuộc sống thông qua một bộ lọc không rõ ràng và không thể kiểm chứng. Trải nghiệm tự phát về thực tế, với tất cả những mâu thuẫn và phức tạp của nó, là một khía cạnh quan trọng của tình trạng con người, ngay cả khi nó dẫn đến sự thiếu hiệu quả hoặc sai sót.
Trí tuệ nhân tạo và trật tự quốc tế
Trên toàn cầu, vô số câu hỏi đang chờ được trả lời. Làm thế nào các nền tảng trực tuyến trí tuệ nhân tạo có thể được quản lý mà không gây ra căng thẳng giữa các quốc gia lo ngại về sự an toàn của chúng? Liệu những nền tảng trực tuyến này có làm xói mòn các quan niệm truyền thống về chủ quyền quốc gia? Liệu những thay đổi kết quả có mang lại sự phân cực cho thế giới chưa từng thấy kể từ khi Liên Xô sụp đổ? Quốc hội nhỏ có phản đối không? Những nỗ lực để hòa giải những hậu quả này sẽ thành công? Hoặc có bất kỳ hy vọng thành công?
Khi khả năng của trí tuệ nhân tạo tiếp tục tăng lên, cách định vị vai trò của con người trong việc hợp tác với trí tuệ nhân tạo sẽ ngày càng trở nên quan trọng và phức tạp. Chúng ta có thể tưởng tượng một thế giới mà con người ngày càng tôn trọng ý kiến của trí tuệ nhân tạo về các vấn đề ngày càng quan trọng. Trong một thế giới nơi các đối thủ tấn công đang triển khai thành công AI, liệu các nhà lãnh đạo ở phe phòng thủ có thể quyết định không triển khai AI của riêng họ và chịu trách nhiệm về điều đó không? Thậm chí họ không chắc việc triển khai này sẽ phát triển như thế nào. Và nếu AI có khả năng vượt trội trong việc đề xuất một hướng hành động, liệu có lý do gì để những người ra quyết định chấp nhận nó, ngay cả khi hướng hành động đó đòi hỏi một số mức độ hy sinh? Làm sao con người có thể biết liệu sự hy sinh như vậy có cần thiết để chiến thắng hay không? Nếu nó là cần thiết, các nhà hoạch định chính sách có thực sự sẵn sàng phủ quyết nó không? Nói cách khác, chúng ta có thể không có lựa chọn nào khác ngoài việc thúc đẩy trí tuệ nhân tạo. Nhưng chúng ta cũng có trách nhiệm định hình nó theo cách tương thích với tương lai của nhân loại. Sự không hoàn hảo là một trong những tiêu chuẩn trải nghiệm của con người, đặc biệt là khi nói đến vai trò lãnh đạo.
Thông thường, các nhà hoạch định chính sách bị choáng ngợp bởi những mối quan tâm không thể chịu đựng được. Đôi khi, hành động của họ dựa trên những giả định sai lầm; đôi khi, họ hành động theo cảm xúc đơn thuần; và vẫn có những lúc, hệ tư tưởng bóp méo tầm nhìn của họ. Bất kỳ chiến lược nào được sử dụng để cấu trúc mối quan hệ đối tác giữa con người và AI, chúng phải được điều chỉnh cho phù hợp với con người. Nếu trí tuệ nhân tạo thể hiện khả năng siêu phàm trong một số lĩnh vực nhất định, thì việc sử dụng nó phải tương thích với môi trường không hoàn hảo của con người.
Trong lĩnh vực bảo mật, các hệ thống hỗ trợ AI phản ứng nhanh đến mức kẻ thù có thể cố gắng tấn công trước khi hệ thống hoạt động. Kết quả có thể là một tình huống không ổn định cố hữu có thể so sánh với tình huống do vũ khí hạt nhân tạo ra. Tuy nhiên, vũ khí hạt nhân được đóng khung trong các khái niệm về an ninh quốc tế và kiểm soát vũ khí đã được các chính phủ, nhà khoa học, nhà chiến lược và nhà đạo đức phát triển trong vài thập kỷ qua thông qua việc sàng lọc, tranh luận và đàm phán liên tục. Trí tuệ nhân tạo và vũ khí mạng không có khuôn khổ tương tự.
Trên thực tế, các chính phủ có thể miễn cưỡng thừa nhận sự tồn tại của chúng. Các quốc gia — và có thể là các công ty công nghệ — cần đồng ý về cách cùng tồn tại với AI được vũ khí hóa. Sự phổ biến của AI thông qua các chức năng phòng thủ của chính phủ sẽ làm thay đổi cán cân quốc tế và hệ thống điện toán mà nó được duy trì trong thời đại của chúng ta. Vũ khí hạt nhân đắt tiền và khó che giấu do kích thước và cấu trúc của chúng. Ngược lại, trí tuệ nhân tạo có thể chạy trên các máy tính có thể tìm thấy ở mọi nơi. Vì việc đào tạo một mô hình máy học đòi hỏi chuyên môn và tài nguyên máy tính, nên việc tạo ra một trí tuệ nhân tạo đòi hỏi các nguồn lực ở cấp độ của một công ty lớn hoặc một quốc gia; và vì ứng dụng trí tuệ nhân tạo được thực hiện trên các máy tính tương đối nhỏ nên nó chắc chắn sẽ được sử dụng rộng rãi , kể cả theo những cách mà chúng tôi không mong đợi. Liệu bất kỳ ai có máy tính xách tay, kết nối internet và cam kết khám phá mặt tối của AI cuối cùng cũng có quyền truy cập vào vũ khí do AI cung cấp? Liệu các chính phủ có cho phép những kẻ có quan hệ gần gũi hoặc không có quan hệ gì với họ sử dụng AI để quấy rối đối thủ của họ không? Những kẻ khủng bố sẽ lên kế hoạch tấn công AI? Liệu họ có thể quy các hoạt động này cho các Quốc gia hoặc các chủ thể khác không?
Trước đây, ngoại giao diễn ra trong một lĩnh vực có tổ chức và có thể dự đoán được, ngày nay, khả năng tiếp cận thông tin và phạm vi hành động của nó sẽ được mở rộng đáng kể. Những ranh giới rõ ràng từng được hình thành bởi sự khác biệt về địa lý và ngôn ngữ sẽ dần biến mất. Bản dịch AI sẽ tạo điều kiện thuận lợi cho cuộc đối thoại mà không yêu cầu không chỉ hiểu biết về ngôn ngữ mà còn cả sự hiểu biết về văn hóa như các dịch giả trước đây đã làm. Các nền tảng trực tuyến do AI cung cấp sẽ tạo điều kiện thuận lợi cho giao tiếp xuyên biên giới, trong khi hoạt động hack và thông tin sai lệch sẽ tiếp tục bóp méo nhận thức và đánh giá. Khi tình hình trở nên phức tạp hơn, việc xây dựng các thỏa thuận có hiệu lực thi hành với kết quả có thể dự đoán được sẽ trở nên khó khăn hơn.
Khả năng kết hợp các khả năng của AI với vũ khí mạng làm tăng thêm tình trạng tiến thoái lưỡng nan này. Nhân loại vượt qua nghịch lý hạt nhân bằng cách phân biệt rõ ràng giữa vũ khí thông thường (được coi là hài hòa với chiến lược thông thường) và vũ khí hạt nhân (được coi là ngoại lệ). Một khi sức công phá của vũ khí hạt nhân được giải phóng là bừa bãi và không phân biệt mục tiêu; trong khi vũ khí thông thường có thể phân biệt được mục tiêu. Nhưng vũ khí mạng vừa có thể xác định mục tiêu vừa có thể tàn phá trên quy mô lớn đã xóa bỏ sự khác biệt đó.
Được thêm vào nhiên liệu trí tuệ nhân tạo, những vũ khí này thậm chí sẽ trở nên khó đoán hơn và có khả năng hủy diệt cao hơn. Đồng thời, khi những vũ khí này đang bay trên mạng, không thể xác định được quy kết của chúng. Chúng không thể bị phát hiện vì chúng không cồng kềnh như vũ khí hạt nhân; chúng cũng có thể được mang trên các thanh USB, tạo điều kiện cho sự phổ biến. Ở một số dạng, những vũ khí này rất khó kiểm soát sau khi được triển khai, đặc biệt là do bản chất năng động và mới nổi của trí tuệ nhân tạo.
Tình trạng này thách thức các tiền đề của trật tự thế giới dựa trên luật lệ. Ngoài ra, nó buộc phải phát triển các khái niệm liên quan đến kiểm soát vũ khí AI. Trong thời đại trí tuệ nhân tạo, khả năng răn đe sẽ không còn tuân theo các chuẩn mực lịch sử, và nó cũng sẽ không như vậy. Vào buổi bình minh của thời đại hạt nhân, một khung khái niệm về kiểm soát vũ khí hạt nhân đã được phát triển dựa trên những hiểu biết sâu sắc từ các cuộc thảo luận giữa các giáo sư và học giả hàng đầu (có kinh nghiệm trong chính phủ) tại Harvard, MIT và Caltech, từ đó dẫn đến việc tạo ra một hệ thống ( và các tổ chức để thực hiện nó ở Hoa Kỳ và các quốc gia khác).
Tư duy học thuật cũng quan trọng như vậy, nhưng nó được thực hiện tách biệt với những cân nhắc của Lầu Năm Góc về chiến tranh thông thường—một sự bổ sung mới, không phải là một sự sửa đổi. Nhưng tiềm năng sử dụng trí tuệ nhân tạo trong quân sự rộng hơn vũ khí hạt nhân và sự khác biệt giữa tấn công và phòng thủ là không rõ ràng, ít nhất là cho đến thời điểm hiện tại. Trong một thế giới quá phức tạp, vốn dĩ không thể đoán trước, trí tuệ nhân tạo có thể trở thành một nguồn gây hiểu lầm và sai sót khác, và sớm hay muộn, các cường quốc với khả năng công nghệ cao sẽ phải tham gia vào một cuộc đối thoại đang diễn ra.
Một cuộc đối thoại như vậy nên tập trung vào một vấn đề cơ bản: tránh thảm họa và sống sót sau nó. Trí tuệ nhân tạo và các công nghệ mới nổi khác, chẳng hạn như điện toán lượng tử, dường như đang làm cho những thực tế nằm ngoài nhận thức của con người trở nên dễ tiếp cận hơn. Tuy nhiên, cuối cùng thì chúng ta có thể thấy rằng ngay cả những kỹ thuật này cũng có những hạn chế của chúng. Vấn đề của chúng ta là chúng ta chưa nắm được những hàm ý triết học của chúng. Chúng ta đang bị chúng đẩy về phía trước một cách vô tình, không có ý thức.
Lần cuối cùng có một sự thay đổi lớn trong ý thức con người là vào thời kỳ Khai sáng, và sự thay đổi này xảy ra bởi vì các công nghệ mới tạo ra những hiểu biết triết học mới, đến lượt chúng lại được phổ biến thông qua công nghệ (dưới dạng báo in). Trong thời đại của chúng ta, các công nghệ mới đã được phát triển mà không có các triết lý hướng dẫn tương ứng. Trí tuệ nhân tạo là một công việc to lớn với những lợi ích tiềm năng sâu rộng. Con người đang nỗ lực phát triển trí tuệ nhân tạo, nhưng chúng ta đang sử dụng nó để làm cho cuộc sống của mình tốt hơn hay tồi tệ hơn? Nó hứa hẹn các loại thuốc mạnh hơn, chăm sóc sức khỏe hiệu quả và công bằng hơn, thực hành môi trường bền vững hơn và các tầm nhìn khác về sự tiến bộ. Tuy nhiên, đồng thời, nó cũng có thể bóp méo thông tin, hoặc ít nhất là làm phức tạp quá trình tiếp nhận thông tin và xác định sự thật, từ đó làm suy yếu khả năng suy luận và phán đoán độc lập của một số người.
Cuối cùng, một câu hỏi “meta” hiện ra: Liệu con người có thể thỏa mãn nhu cầu triết học với sự “trợ giúp” của trí tuệ nhân tạo với những cách diễn giải và hiểu biết khác nhau về thế giới? Con người không hiểu hết về máy móc, nhưng liệu cuối cùng chúng ta có làm hòa với chúng và thay đổi thế giới? Immanuel Kant bắt đầu lời nói đầu cho cuốn Phê bình lý trí thuần túy với điểm này:
Lý trí của con người có số phận đặc biệt này, đó là trong một trong những nhánh của toàn bộ kiến thức của nó, nó bị bao vây bởi những vấn đề không thể coi thường vì nó được áp đặt lên chính nó bởi chính bản chất của lý trí, nhưng bởi vì nó vượt qua mọi khả năng của lý trí. , nó không thể được giải quyết.
Trong nhiều thế kỷ kể từ đó, con người đã khám phá sâu hơn những câu hỏi này, một số câu hỏi liên quan đến bản chất của tâm trí, lý trí và thậm chí cả thực tế. Nhân loại đã có những bước đột phá vĩ đại, nhưng nó cũng gặp phải nhiều hạn chế mà Kant đã đặt ra: một lĩnh vực của những câu hỏi mà nó không thể trả lời, một lĩnh vực của những sự thật mà nó không thể hiểu đầy đủ. Sự xuất hiện của trí tuệ nhân tạo mang lại khả năng học hỏi và xử lý thông tin mà con người không thể đạt được chỉ bằng lý trí, có thể cho phép chúng ta đạt được tiến bộ đối với những câu hỏi đã được chứng minh là vượt quá khả năng trả lời của chúng ta. Nhưng thành công sẽ đặt ra những câu hỏi mới, một số trong đó chúng tôi đã cố gắng làm sáng tỏ trong cuốn sách này. Trí tuệ con người và trí tuệ nhân tạo đang ở thời điểm mà cả hai sẽ hội tụ để theo đuổi ở quy mô quốc gia, lục địa hoặc thậm chí toàn cầu. Hiểu được sự thay đổi này và phát triển một quy tắc đạo đức hướng dẫn xung quanh nó, sẽ đòi hỏi trí tuệ tập thể, tiếng nói và cam kết chung của tất cả các thành phần xã hội, bao gồm các nhà khoa học và chiến lược gia, chính trị gia và triết gia, giáo sĩ và CEO . Cam kết này không chỉ nên được thực hiện trong nội bộ các quốc gia mà còn giữa các quốc gia với nhau. Chúng ta có thể có loại quan hệ đối tác nào với trí tuệ nhân tạo và loại thực tế nào sẽ xuất hiện từ đó? Bây giờ, đã đến lúc xác định điều này.
Tác giả: / [Mỹ] Henry Kissinger / [Mỹ] Eric Schmidt / [Mỹ] Daniel Huttenlocher
Trích đoạn / Liu Yaguang
Biên tập viên/Liu Yaguang
Hiệu đính / Zhao Lin