От Google AlphaGo, побеждающего шахматистов-людей, до ChatGpt, вызывающего горячие дискуссии в технологическом сообществе, каждое достижение в области технологий искусственного интеллекта действует на нервы людей. Нет сомнений в том, что искусственный интеллект глубоко меняет наше общество, экономику, политику и даже внешнюю политику, и традиционные теории прошлого часто не могут объяснить влияние всего этого. В книге «Эра искусственного интеллекта и будущее человечества» Киссинджер, известный дипломат, Шмидт, бывший генеральный директор Google, и Хаттенлохер, декан Шварцмановской школы компьютерных наук при Массачусетском технологическом институте, вроде из прошлой жизни искусственного интеллекта с разных точек зрения, этой жизни, и всесторонне обсудили различные последствия, которые его развитие может оказать на отдельных лиц, предприятия, правительства, общества и страны. Некоторые ведущие мыслители считают, что по мере того, как возможности искусственного интеллекта становятся все сильнее и сильнее, вопрос о том, как позиционировать роль человека, станет вопросом, над которым мы должны долго думать в будущем. Следующий контент взят из книги «Эра искусственного интеллекта и будущее человечества» с разрешения издателя, с удалениями и исправлениями, субтитры добавлены редактором.
Автор оригинала | [США] Генри Киссинджер / [США] Эрик Шмидт / [США] Дэниел Хаттенлохер
**Что принесет общий искусственный интеллект? **
Могут ли люди и искусственный интеллект подойти к одной и той же реальности с разных точек зрения, и могут ли они дополнять друг друга и дополнять друг друга? Или мы воспринимаем две разные, но частично перекрывающиеся реальности: одну, которую люди могут объяснить рационально, а другую, которую искусственный интеллект может объяснить алгоритмически? Если ответ — последний, то искусственный интеллект может воспринимать вещи, которые мы еще не воспринимали и не можем воспринять — не только потому, что у нас нет достаточно времени, чтобы рассуждать о них по-своему, но и потому, что они существуют в месте, доступном нашему разуму. не может осмыслить в поле. Стремление человечества к «полному пониманию мира» изменится, и люди поймут, что для получения определенных знаний нам может потребоваться поручить искусственному интеллекту добывать знания для нас и отчитываться перед нами. Независимо от ответа, по мере того, как искусственный интеллект преследует все более всеобъемлющие и обширные цели, он будет все больше и больше казаться людям «существом», переживающим и понимающим мир — комбинацией инструментов, домашних животных и разумов.
По мере того, как исследователи приближаются к искусственному общему интеллекту или достигают его, загадка будет только углубляться. Как мы обсуждали в главе 3, ОИИ не будет ограничиваться обучением и выполнением конкретных задач; вместо этого, по определению, ОИИ сможет учиться и выполнять чрезвычайно широкий спектр задач, как и люди. Разработка общего искусственного интеллекта потребует огромных вычислительных мощностей, что может привести к тому, что лишь несколько хорошо финансируемых организаций смогут создать такой ИИ. Как и в случае с нынешним ИИ, несмотря на то, что ОИИ можно легко развернуть децентрализованно, учитывая его возможности, его применение обязательно будет ограничено. Ограничения могут быть наложены на AGI, позволяя использовать его только утвержденным организациям. Тогда возникает вопрос: кто будет контролировать AGI? Кто разрешит его использование? Возможна ли еще демократия в мире, где несколько «гениальных» машин управляются несколькими организациями? Как в этом случае будет выглядеть сотрудничество человека и ИИ?
Если искусственный общий интеллект действительно появится в мире, это будет крупным интеллектуальным, научным и стратегическим достижением. Но даже если ему это не удастся, искусственный интеллект также может совершить революцию в человеческих делах. Стремление и способность ИИ реагировать на чрезвычайные ситуации (или неожиданные события) и предлагать решения отличают его от предыдущих технологий. Если его не регулировать, ИИ может не соответствовать нашим ожиданиям и, соответственно, нашим намерениям. Решение о том, ограничивать ли его, сотрудничать с ним или подчиняться ему, будет приниматься не только людьми. В некоторых случаях это будет определяться самим ИИ, в других — зависеть от различных сопутствующих факторов. Люди могут участвовать в «гонке на выживание».
Поскольку ИИ автоматизирует процессы, позволяет людям исследовать огромные объемы данных, а также организует и реструктурирует физическую и социальную сферы, те, кто делает первые шаги, могут получить преимущество первопроходцев. Конкурентное давление может вынудить стороны спешить с развертыванием ОИИ без достаточного времени для оценки рисков или просто игнорировать их. Этика в отношении искусственного интеллекта имеет важное значение. Каждое отдельное решение — ограничить, сотрудничать или подчиниться — может иметь, а может и не иметь драматические последствия, но в совокупности воздействие многократно увеличивается.
Эти решения не могут приниматься изолированно. Если человечество хочет формировать будущее, оно должно согласовать общие принципы, которыми руководствуется каждый выбор. Это правда, что коллективные действия сложны, а иногда даже невозможны, но индивидуальные действия без руководства общим моральным кодексом приведут только к еще большему смятению и хаосу для человечества в целом. Те, кто разрабатывает, обучает и работает с ИИ, смогут достичь целей масштаба и сложности, которые до сих пор были недостижимы для людей, таких как новые научные открытия, новая экономическая эффективность, новые формы безопасности и новое измерение социального наблюдения. А в расширении ИИ и его использовании те, у кого нет полномочий, могут чувствовать, что за ними наблюдают, изучают и воздействуют на них силы, которых они не понимают, и которые не являются их собственным замыслом или выбором. Эта сила действует непрозрачным образом, что во многих обществах недопустимо для традиционных человеческих акторов или институтов. Разработчики и разработчики ИИ должны быть готовы к решению этих проблем, начиная с объяснения нетехническим людям, что делает ИИ, что он «знает» и как он это делает. Динамичная и развивающаяся природа ИИ создает двусмысленность как минимум в двух отношениях. Во-первых, искусственный интеллект может работать так, как мы ожидаем, но давать результаты, которые мы не можем предвидеть. Эти результаты могут привести человечество в такое положение, которого его создатели не ожидали, точно так же, как политики в 1914 году не смогли осознать, что старая логика военной мобилизации в сочетании с новыми технологиями втянет Европу в войну. Искусственный интеллект также может иметь серьезные последствия, если он развертывается и используется без тщательного рассмотрения.
Кадры из фильма Алита: Боевой ангел.
Эти последствия могут быть небольшими, например, опасное для жизни решение, принятое беспилотным автомобилем, или чрезвычайно значительными, например, серьезный военный конфликт. Во-вторых, в некоторых областях приложений ИИ может быть непредсказуемым, действовать совершенно неожиданно. Взяв в качестве примера AlphaZero, он разработал стиль игры, который люди никогда не могли себе представить за тысячи лет истории шахмат, просто в соответствии с инструкциями «победы в шахматах». В то время как люди могут быть осторожны, предписывая цели ИИ, поскольку мы даем ему большую свободу действий, его путь к этой цели может удивить нас и даже вызвать панику. Следовательно, как цели, так и мандат ИИ должны быть тщательно разработаны, особенно в тех областях, где его решения могут быть смертельными. ИИ не следует рассматривать как автономный, оставленный без присмотра, и ему нельзя позволять совершать необратимые действия без надзора, наблюдения или прямого контроля. Искусственный интеллект был создан людьми, поэтому он также должен контролироваться людьми. Но одна из проблем ИИ в наше время заключается в том, что люди, обладающие навыками и ресурсами для его создания, не обязательно имеют философскую точку зрения, чтобы понять его более широкие последствия. Многие создатели искусственного интеллекта сосредотачиваются в первую очередь на приложениях, которые они пытаются реализовать, и проблемах, которые они хотят решить: они могут не останавливаться, чтобы подумать, приведет ли решение к исторической революции или как их технология повлияет на другие массы. Век искусственного интеллекта нуждается в своих Декарте и Канте, чтобы объяснить, что мы создали и что это значит для людей.
Нам необходимо организовать рациональные дискуссии и переговоры с участием правительств, университетов и новаторов из частной промышленности, и цель должна состоять в том, чтобы установить ограничения для практических действий, подобных тем, которые сегодня определяют индивидуальные и организационные действия. У ИИ есть атрибуты, которые имеют некоторые общие черты, но отличаются от них в некоторых важных аспектах регулируемых в настоящее время продуктов, услуг, технологий и объектов, поскольку у него отсутствует собственная полностью определенная концептуальная и правовая основа. Например, постоянно развивающийся, провокационный характер ИИ создает проблемы регулирования: кто и как он работает в мире, может различаться в разных областях и развиваться с течением времени, и не всегда предсказуемым образом. Управление людьми руководствуется этическим кодексом. ИИ нужен собственный моральный компас, отражающий не только природу технологии, но и вызовы, которые она ставит.
Часто устоявшиеся принципы здесь не действуют. В эпоху веры, когда подсудимым инквизиции выносился боевой приговор, суд мог решить преступление, но Бог решал, кто побеждал. В век разума люди определяли вину в соответствии с предписаниями разума, судили о преступлениях и наказывали за них в соответствии с такими понятиями, как причинность и преступный умысел. Но искусственный интеллект не оперирует человеческим разумом и не имеет человеческой мотивации, намерения или саморефлексии. Таким образом, внедрение ИИ усложнит существующие принципы справедливости, применимые к людям.
Когда автономная система действует на основе собственного восприятия и решений, берут ли на себя ответственность ее создатели? Или не следует путать действия ИИ с действиями его создателей, хотя бы с точки зрения виновности? Если ИИ должен использоваться для обнаружения признаков преступного поведения или для определения виновности кого-либо, должен ли ИИ «объяснять», как он пришел к своим выводам, чтобы чиновники-люди могли ему доверять? Кроме того, в какой момент и в каком контексте технологического развития ИИ должен стать предметом международных переговоров? Это еще одна важная тема для обсуждения. Если провести исследование слишком рано, развитие технологии может быть остановлено, или может возникнуть соблазн скрыть свои возможности; слишком долгое откладывание может иметь разрушительные последствия, особенно в вооруженных силах. Эта проблема усугубляется трудностью разработки эффективных механизмов проверки для технологии, которая является эфемерной, малоизвестной и легко распространяемой. Официальными участниками переговоров обязательно будут правительства, но также потребуется голос технологов, специалистов по этике, компаний, которые создают и эксплуатируют ИИ, и других сторон.
Кадры из американской драмы "Мир Запада".
Дилеммы, которые ставит ИИ, имеют далеко идущие последствия для разных обществ. Большая часть нашей социальной и политической жизни сегодня происходит на онлайн-платформах с поддержкой ИИ, и демократии, в частности, полагаются на эти информационные пространства для дебатов и общения, формирования общественного мнения и придания им легитимности. Кто или какое агентство должно определять роль технологий? Кто должен это регулировать? Какую роль должны играть люди, использующие ИИ? А как насчет компаний, которые производят искусственный интеллект? А как насчет социальных правительств, использующих его? В рамках решения этих проблем мы должны попытаться сделать его поддающимся аудиту, то есть его процессы и выводы поддаются проверке и исправлению. В свою очередь, возможность внесения исправлений будет зависеть от возможности уточнения принципов формы восприятия и принятия решений ИИ. Мораль, воля и даже причинно-следственная связь плохо вписываются в мир автономного искусственного интеллекта. Подобные проблемы возникают на большинстве уровней общества, от транспорта до финансов и медицины.
Рассмотрим влияние искусственного интеллекта на социальные сети. Благодаря недавним инновациям эти платформы быстро стали важным аспектом нашей общественной жизни. Как мы обсуждали в главе 4, функции, которые Twitter и Facebook используют для выделения, ограничения или прямого запрета контента или отдельных лиц, зависят от искусственного интеллекта, что свидетельствует о его мощи. Использование ИИ для одностороннего и часто непрозрачного продвижения или удаления контента и концепций является проблемой для всех стран, особенно демократических. Можем ли мы сохранить господство, поскольку наша социальная и политическая жизнь все больше смещается в области, управляемые искусственным интеллектом, и мы можем полагаться только на такое управление, чтобы ориентироваться в них?
Практика использования искусственного интеллекта для обработки больших объемов информации также представляет собой еще одну проблему: искусственный интеллект увеличивает искажение мира, чтобы удовлетворить инстинктивные предпочтения человека. Это та область, где искусственный интеллект может легко усилить наши когнитивные искажения, но мы все равно найдем с ними отклик. С этими голосами, столкнувшимися с разнообразием выбора и имеющими право выбирать и просеивать, люди получат поток дезинформации. Компании социальных сетей не продвигают крайнюю и насильственную политическую поляризацию через свои новостные ленты, но ясно, что эти сервисы также не ведут к максимизации просвещенного дискурса.
Искусственный интеллект, бесплатная информация и независимое мышление
Итак, как должны выглядеть наши отношения с ИИ? Следует ли его ограничивать, наделять полномочиями или рассматривать как партнера в управлении этими областями? Несомненно, что распространение определенной информации, особенно заведомо созданной ложной информации, может привести к ущербу, разделению и подстрекательству. Поэтому необходимы некоторые ограничения. Однако осуждение, нападки и замалчивание «вредной информации» сейчас слишком расплывчаты, и это тоже должно навести на размышления.
В свободном обществе определение вреда и дезинформации не должно ограничиваться компетенцией корпораций. Однако, если такие обязанности возложены на правительственную группу или агентство, эта группа или агентство должны действовать в соответствии с установленными общественными стандартами и с помощью поддающихся проверке процедур, чтобы избежать эксплуатации со стороны тех, кто находится у власти. Если это поручено алгоритму ИИ, целевая функция алгоритма, обучение, решения и действия должны быть четкими и подлежать внешнему контролю и, по крайней мере, в какой-то форме человеческой привлекательности.
Конечно, разные общества придут к разным ответам на этот вопрос. Некоторые общества могут придавать особое значение свободе самовыражения, возможно, в разной степени в зависимости от их относительного понимания индивидуальных выражений, и, таким образом, могут ограничивать роль ИИ в модерировании контента. Каждое общество выбирает, какие идеи оно ценит, что может привести к сложным отношениям с многонациональными операторами сетевых платформ. ИИ впитывает, как губка, учится у людей, даже когда мы его проектируем и формируем.
Кадры из американской драмы "Мир Запада".
Следовательно, не только выбор каждого общества различен, но и отношение каждого общества к ИИ, восприятие ИИ и то, как ИИ подражает людям и учится у учителей-людей. Но одно можно сказать наверняка: человеческий поиск фактов и правды не должен заставлять общество воспринимать жизнь через плохо определенный и непроверяемый фильтр. Спонтанное переживание реальности, несмотря на все ее противоречия и сложности, является важным аспектом человеческого существования, даже если оно ведет к неэффективности или ошибкам.
Искусственный интеллект и международный порядок
Бесчисленное количество вопросов по всему миру ждут ответа. Как можно регулировать онлайн-платформы искусственного интеллекта, не вызывая напряженности между странами, обеспокоенными их безопасностью? Подорвут ли эти онлайн-платформы традиционные представления о национальном суверенитете? Принесут ли в результате перемены поляризацию в мире, невиданную со времен распада Советского Союза? Маленький Конгресс возражает? Будут ли попытки опосредовать эти последствия успешными? Или есть надежда на успех?
Поскольку возможности искусственного интеллекта продолжают расти, то, как позиционировать роль людей в сотрудничестве с искусственным интеллектом, будет становиться все более важным и сложным. Мы можем представить себе мир, в котором люди все больше уважают мнение искусственного интеллекта по вопросам, имеющим все большее значение. В мире, где наступательные противники успешно внедряют ИИ, могут ли лидеры обороняющихся решить не развертывать собственный ИИ и взять на себя ответственность за это? Даже они не уверены, как будет развиваться это развертывание. И если ИИ обладает превосходной способностью рекомендовать план действий, есть ли у лиц, принимающих решения, основания принимать его, даже если этот курс действий требует определенных жертв? Как может человек знать, необходима ли такая жертва для победы? Если это необходимо, действительно ли политики готовы наложить на это вето? Другими словами, у нас может не быть другого выбора, кроме как развивать искусственный интеллект. Но мы также обязаны формировать его таким образом, чтобы он был совместим с будущим человечества. Несовершенство — одна из норм человеческого опыта, особенно когда речь идет о лидерстве.
Часто политики охвачены невыносимыми опасениями. Иногда их действия основаны на ложных предположениях, иногда они действуют из чистых эмоций, а иногда идеология искажает их видение. Какие бы стратегии ни использовались для структурирования партнерских отношений между человеком и ИИ, они должны быть адаптированы к людям. Если искусственный интеллект демонстрирует сверхчеловеческие способности в определенных областях, его использование должно быть совместимо с несовершенной человеческой средой.
В области безопасности системы с поддержкой ИИ реагируют так быстро, что злоумышленники могут попытаться атаковать еще до того, как системы заработают. Результатом может стать изначально нестабильная ситуация, сравнимая с той, что создается ядерным оружием. Тем не менее, ядерное оружие оформлено в рамках концепций международной безопасности и контроля над вооружениями, которые были разработаны за последние несколько десятилетий правительствами, учеными, стратегами и специалистами по этике путем постоянного уточнения, дебатов и переговоров. Искусственный интеллект и кибероружие не имеют подобных рамок.
На самом деле правительства могут неохотно признавать их существование. Страны — и, возможно, технологические компании — должны договориться о том, как сосуществовать с военным искусственным интеллектом. Распространение ИИ через правительственные оборонные функции изменит международный баланс и компьютеры, на которых он поддерживается в наше время. Ядерное оружие стоит дорого, и его трудно скрыть из-за его размера и структуры. Напротив, искусственный интеллект может работать на компьютерах, которые можно найти повсюду. Поскольку для обучения модели машинного обучения требуются специальные знания и вычислительные ресурсы, для создания искусственного интеллекта требуются ресурсы на уровне крупной компании или страны, а поскольку применение искусственного интеллекта выполняется на относительно небольших компьютерах, он обречен на широкое распространение. , в том числе так, как мы не ожидали. Сможет ли кто-нибудь с ноутбуком, подключением к Интернету и стремлением проникнуть в темную сторону ИИ, наконец, получить доступ к оружию на базе ИИ? Позволят ли правительства субъектам, имеющим тесные связи с ними или не связанным с ними, использовать ИИ для преследования своих противников? Будут ли террористы планировать атаки ИИ? Смогут ли они приписать эту деятельность государствам или другим субъектам?
В прошлом дипломатия проходила на организованной и предсказуемой арене, сегодня ее доступ к информации и сфера действия будут значительно расширены. Четкие границы, которые раньше образовывались географическими и языковыми различиями, постепенно исчезнут. Перевод ИИ облегчит диалог, не требуя не только лингвистической, но и культурной смекалки, как это делали предыдущие переводчики. Онлайн-платформы на базе ИИ облегчат трансграничное общение, а хакерские атаки и дезинформация продолжат искажать восприятие и оценки. По мере усложнения ситуации становится все труднее разрабатывать юридически исполнимые соглашения с предсказуемыми результатами.
Возможность сочетания возможностей ИИ с кибероружием усугубляет эту дилемму. Человечество обходит ядерный парадокс, проводя четкое различие между обычным оружием (рассматриваемым в соответствии с обычной стратегией) и ядерным оружием (рассматриваемым как исключение). Когда разрушительная сила ядерного оружия высвобождается, она становится неизбирательной и независимой от цели, в то время как обычное оружие может распознать цель. Но кибероружие, которое может как идентифицировать цели, так и сеять хаос в огромных масштабах, стирает это различие.
В сочетании с искусственным интеллектом это оружие станет еще более непредсказуемым и потенциально более разрушительным. В то же время, когда это оружие бродит по сети, определить его атрибуцию невозможно. Их нельзя обнаружить, потому что они не такие громоздкие, как ядерное оружие, их также можно носить на USB-накопителях, что способствует распространению. В некоторых формах это оружие трудно контролировать после развертывания, тем более учитывая динамичный и развивающийся характер искусственного интеллекта.
Эта ситуация бросает вызов предпосылкам мирового порядка, основанного на правилах. Кроме того, необходимо разработать концепции, связанные с контролем над вооружениями ИИ. В эпоху искусственного интеллекта сдерживание больше не будет соответствовать историческим нормам и не будет. На заре ядерной эры концептуальная основа контроля над ядерными вооружениями была разработана на основе результатов дискуссий между ведущими профессорами и учеными (с опытом работы в правительстве) в Гарварде, Массачусетском технологическом институте и Калифорнийском технологическом институте, что, в свою очередь, привело к созданию системы ( и институты для его реализации в США и других странах).
Каким бы важным ни было академическое мышление, оно реализуется отдельно от соображений Пентагона в отношении обычного ведения войны — новое дополнение, а не модификация. Но потенциальное военное использование искусственного интеллекта шире, чем ядерное оружие, и различие между нападением и обороной неясно, по крайней мере, на данный момент. В столь сложном, непредсказуемом мире искусственный интеллект становится еще одним возможным источником непонимания и ошибок, и рано или поздно великим державам, обладающим высокотехнологичными возможностями, придется вступить в постоянный диалог.
Такой диалог должен быть сосредоточен на одном фундаментальном вопросе: как избежать катастрофы и выжить в ней. Искусственный интеллект и другие новые технологии, такие как квантовые вычисления, похоже, делают реальность за пределами человеческого восприятия более доступной. В конечном счете, однако, мы можем обнаружить, что даже эти методы имеют свои ограничения. Наша проблема в том, что мы не уловили их философского значения. Мы движемся вперед ими невольно, не сознательно.
В последний раз крупный сдвиг в человеческом сознании произошел во времена Просвещения, и этот сдвиг произошел потому, что новые технологии породили новые философские идеи, которые, в свою очередь, были распространены с помощью технологий (в форме печатного станка). В наше время новые технологии разрабатываются без соответствующих руководящих философий. Искусственный интеллект — это огромное начинание с далеко идущими потенциальными преимуществами. Люди усердно работают над развитием искусственного интеллекта, но используем ли мы его, чтобы сделать нашу жизнь лучше или хуже? Он обещает более сильные лекарства, более эффективное и справедливое здравоохранение, более устойчивые экологические методы и другие видения прогресса. В то же время, однако, это также может искажать информацию или, по крайней мере, усложнять процесс потребления информации и установления истины, и тем самым ослаблять способность к самостоятельному рассуждению и суждению некоторых людей.
В конце концов возникает «мета» вопрос: могут ли люди удовлетворить потребность в философии при «помощи» искусственного интеллекта с различными интерпретациями и пониманиями мира? Люди не до конца понимают машины, но сможем ли мы в конце концов помириться с ними и изменить мир? Иммануил Кант начинает свое предисловие к своей «Критике чистого разума» с этого пункта:
Человеческий разум имеет ту особую судьбу, что в одной из областей всех своих знаний он сталкивается с проблемами, которые нельзя игнорировать, поскольку они навязаны самой природой самого разума, но которые превосходят все способности разума. , это не может быть решено.
С тех пор люди глубоко исследовали эти вопросы, некоторые из которых касаются природы разума, разума и даже реальности. Человечество совершило великий прорыв, но оно также столкнулось со многими ограничениями, которые постулировал Кант: царство вопросов, на которое оно не может ответить, царство фактов, которое оно не может полностью понять. Появление искусственного интеллекта, который дает возможность изучать и обрабатывать информацию, которую люди не могут получить с помощью одного только разума, может позволить нам добиться прогресса в вопросах, на которые мы не в состоянии ответить. Но успех поставит новые вопросы, некоторые из которых мы попытались осветить в этой книге. Человеческий интеллект и искусственный интеллект находятся на стыке, когда они сойдутся в поисках на национальном, континентальном или даже глобальном уровне. Чтобы понять этот сдвиг и разработать руководящий этический кодекс на его основе, потребуются коллективная мудрость, голос и общая приверженность всех слоев общества, включая ученых и стратегов, политиков и философов, духовенство и руководителей. Это обязательство должно быть принято не только внутри стран, но и между странами. Какое партнерство у нас может быть с искусственным интеллектом и какая реальность получится из него? Теперь пришло время определить это.
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
Киссинджер говорит об искусственном интеллекте: Как вы смотрите на международный порядок в эпоху искусственного интеллекта?
Оригинал: Пекинские новости
От Google AlphaGo, побеждающего шахматистов-людей, до ChatGpt, вызывающего горячие дискуссии в технологическом сообществе, каждое достижение в области технологий искусственного интеллекта действует на нервы людей. Нет сомнений в том, что искусственный интеллект глубоко меняет наше общество, экономику, политику и даже внешнюю политику, и традиционные теории прошлого часто не могут объяснить влияние всего этого. В книге «Эра искусственного интеллекта и будущее человечества» Киссинджер, известный дипломат, Шмидт, бывший генеральный директор Google, и Хаттенлохер, декан Шварцмановской школы компьютерных наук при Массачусетском технологическом институте, вроде из прошлой жизни искусственного интеллекта с разных точек зрения, этой жизни, и всесторонне обсудили различные последствия, которые его развитие может оказать на отдельных лиц, предприятия, правительства, общества и страны. Некоторые ведущие мыслители считают, что по мере того, как возможности искусственного интеллекта становятся все сильнее и сильнее, вопрос о том, как позиционировать роль человека, станет вопросом, над которым мы должны долго думать в будущем. Следующий контент взят из книги «Эра искусственного интеллекта и будущее человечества» с разрешения издателя, с удалениями и исправлениями, субтитры добавлены редактором.
Автор оригинала | [США] Генри Киссинджер / [США] Эрик Шмидт / [США] Дэниел Хаттенлохер
**Что принесет общий искусственный интеллект? **
Могут ли люди и искусственный интеллект подойти к одной и той же реальности с разных точек зрения, и могут ли они дополнять друг друга и дополнять друг друга? Или мы воспринимаем две разные, но частично перекрывающиеся реальности: одну, которую люди могут объяснить рационально, а другую, которую искусственный интеллект может объяснить алгоритмически? Если ответ — последний, то искусственный интеллект может воспринимать вещи, которые мы еще не воспринимали и не можем воспринять — не только потому, что у нас нет достаточно времени, чтобы рассуждать о них по-своему, но и потому, что они существуют в месте, доступном нашему разуму. не может осмыслить в поле. Стремление человечества к «полному пониманию мира» изменится, и люди поймут, что для получения определенных знаний нам может потребоваться поручить искусственному интеллекту добывать знания для нас и отчитываться перед нами. Независимо от ответа, по мере того, как искусственный интеллект преследует все более всеобъемлющие и обширные цели, он будет все больше и больше казаться людям «существом», переживающим и понимающим мир — комбинацией инструментов, домашних животных и разумов.
По мере того, как исследователи приближаются к искусственному общему интеллекту или достигают его, загадка будет только углубляться. Как мы обсуждали в главе 3, ОИИ не будет ограничиваться обучением и выполнением конкретных задач; вместо этого, по определению, ОИИ сможет учиться и выполнять чрезвычайно широкий спектр задач, как и люди. Разработка общего искусственного интеллекта потребует огромных вычислительных мощностей, что может привести к тому, что лишь несколько хорошо финансируемых организаций смогут создать такой ИИ. Как и в случае с нынешним ИИ, несмотря на то, что ОИИ можно легко развернуть децентрализованно, учитывая его возможности, его применение обязательно будет ограничено. Ограничения могут быть наложены на AGI, позволяя использовать его только утвержденным организациям. Тогда возникает вопрос: кто будет контролировать AGI? Кто разрешит его использование? Возможна ли еще демократия в мире, где несколько «гениальных» машин управляются несколькими организациями? Как в этом случае будет выглядеть сотрудничество человека и ИИ?
Если искусственный общий интеллект действительно появится в мире, это будет крупным интеллектуальным, научным и стратегическим достижением. Но даже если ему это не удастся, искусственный интеллект также может совершить революцию в человеческих делах. Стремление и способность ИИ реагировать на чрезвычайные ситуации (или неожиданные события) и предлагать решения отличают его от предыдущих технологий. Если его не регулировать, ИИ может не соответствовать нашим ожиданиям и, соответственно, нашим намерениям. Решение о том, ограничивать ли его, сотрудничать с ним или подчиняться ему, будет приниматься не только людьми. В некоторых случаях это будет определяться самим ИИ, в других — зависеть от различных сопутствующих факторов. Люди могут участвовать в «гонке на выживание».
Поскольку ИИ автоматизирует процессы, позволяет людям исследовать огромные объемы данных, а также организует и реструктурирует физическую и социальную сферы, те, кто делает первые шаги, могут получить преимущество первопроходцев. Конкурентное давление может вынудить стороны спешить с развертыванием ОИИ без достаточного времени для оценки рисков или просто игнорировать их. Этика в отношении искусственного интеллекта имеет важное значение. Каждое отдельное решение — ограничить, сотрудничать или подчиниться — может иметь, а может и не иметь драматические последствия, но в совокупности воздействие многократно увеличивается.
Эти решения не могут приниматься изолированно. Если человечество хочет формировать будущее, оно должно согласовать общие принципы, которыми руководствуется каждый выбор. Это правда, что коллективные действия сложны, а иногда даже невозможны, но индивидуальные действия без руководства общим моральным кодексом приведут только к еще большему смятению и хаосу для человечества в целом. Те, кто разрабатывает, обучает и работает с ИИ, смогут достичь целей масштаба и сложности, которые до сих пор были недостижимы для людей, таких как новые научные открытия, новая экономическая эффективность, новые формы безопасности и новое измерение социального наблюдения. А в расширении ИИ и его использовании те, у кого нет полномочий, могут чувствовать, что за ними наблюдают, изучают и воздействуют на них силы, которых они не понимают, и которые не являются их собственным замыслом или выбором. Эта сила действует непрозрачным образом, что во многих обществах недопустимо для традиционных человеческих акторов или институтов. Разработчики и разработчики ИИ должны быть готовы к решению этих проблем, начиная с объяснения нетехническим людям, что делает ИИ, что он «знает» и как он это делает. Динамичная и развивающаяся природа ИИ создает двусмысленность как минимум в двух отношениях. Во-первых, искусственный интеллект может работать так, как мы ожидаем, но давать результаты, которые мы не можем предвидеть. Эти результаты могут привести человечество в такое положение, которого его создатели не ожидали, точно так же, как политики в 1914 году не смогли осознать, что старая логика военной мобилизации в сочетании с новыми технологиями втянет Европу в войну. Искусственный интеллект также может иметь серьезные последствия, если он развертывается и используется без тщательного рассмотрения.
Эти последствия могут быть небольшими, например, опасное для жизни решение, принятое беспилотным автомобилем, или чрезвычайно значительными, например, серьезный военный конфликт. Во-вторых, в некоторых областях приложений ИИ может быть непредсказуемым, действовать совершенно неожиданно. Взяв в качестве примера AlphaZero, он разработал стиль игры, который люди никогда не могли себе представить за тысячи лет истории шахмат, просто в соответствии с инструкциями «победы в шахматах». В то время как люди могут быть осторожны, предписывая цели ИИ, поскольку мы даем ему большую свободу действий, его путь к этой цели может удивить нас и даже вызвать панику. Следовательно, как цели, так и мандат ИИ должны быть тщательно разработаны, особенно в тех областях, где его решения могут быть смертельными. ИИ не следует рассматривать как автономный, оставленный без присмотра, и ему нельзя позволять совершать необратимые действия без надзора, наблюдения или прямого контроля. Искусственный интеллект был создан людьми, поэтому он также должен контролироваться людьми. Но одна из проблем ИИ в наше время заключается в том, что люди, обладающие навыками и ресурсами для его создания, не обязательно имеют философскую точку зрения, чтобы понять его более широкие последствия. Многие создатели искусственного интеллекта сосредотачиваются в первую очередь на приложениях, которые они пытаются реализовать, и проблемах, которые они хотят решить: они могут не останавливаться, чтобы подумать, приведет ли решение к исторической революции или как их технология повлияет на другие массы. Век искусственного интеллекта нуждается в своих Декарте и Канте, чтобы объяснить, что мы создали и что это значит для людей.
Нам необходимо организовать рациональные дискуссии и переговоры с участием правительств, университетов и новаторов из частной промышленности, и цель должна состоять в том, чтобы установить ограничения для практических действий, подобных тем, которые сегодня определяют индивидуальные и организационные действия. У ИИ есть атрибуты, которые имеют некоторые общие черты, но отличаются от них в некоторых важных аспектах регулируемых в настоящее время продуктов, услуг, технологий и объектов, поскольку у него отсутствует собственная полностью определенная концептуальная и правовая основа. Например, постоянно развивающийся, провокационный характер ИИ создает проблемы регулирования: кто и как он работает в мире, может различаться в разных областях и развиваться с течением времени, и не всегда предсказуемым образом. Управление людьми руководствуется этическим кодексом. ИИ нужен собственный моральный компас, отражающий не только природу технологии, но и вызовы, которые она ставит.
Часто устоявшиеся принципы здесь не действуют. В эпоху веры, когда подсудимым инквизиции выносился боевой приговор, суд мог решить преступление, но Бог решал, кто побеждал. В век разума люди определяли вину в соответствии с предписаниями разума, судили о преступлениях и наказывали за них в соответствии с такими понятиями, как причинность и преступный умысел. Но искусственный интеллект не оперирует человеческим разумом и не имеет человеческой мотивации, намерения или саморефлексии. Таким образом, внедрение ИИ усложнит существующие принципы справедливости, применимые к людям.
Когда автономная система действует на основе собственного восприятия и решений, берут ли на себя ответственность ее создатели? Или не следует путать действия ИИ с действиями его создателей, хотя бы с точки зрения виновности? Если ИИ должен использоваться для обнаружения признаков преступного поведения или для определения виновности кого-либо, должен ли ИИ «объяснять», как он пришел к своим выводам, чтобы чиновники-люди могли ему доверять? Кроме того, в какой момент и в каком контексте технологического развития ИИ должен стать предметом международных переговоров? Это еще одна важная тема для обсуждения. Если провести исследование слишком рано, развитие технологии может быть остановлено, или может возникнуть соблазн скрыть свои возможности; слишком долгое откладывание может иметь разрушительные последствия, особенно в вооруженных силах. Эта проблема усугубляется трудностью разработки эффективных механизмов проверки для технологии, которая является эфемерной, малоизвестной и легко распространяемой. Официальными участниками переговоров обязательно будут правительства, но также потребуется голос технологов, специалистов по этике, компаний, которые создают и эксплуатируют ИИ, и других сторон.
Дилеммы, которые ставит ИИ, имеют далеко идущие последствия для разных обществ. Большая часть нашей социальной и политической жизни сегодня происходит на онлайн-платформах с поддержкой ИИ, и демократии, в частности, полагаются на эти информационные пространства для дебатов и общения, формирования общественного мнения и придания им легитимности. Кто или какое агентство должно определять роль технологий? Кто должен это регулировать? Какую роль должны играть люди, использующие ИИ? А как насчет компаний, которые производят искусственный интеллект? А как насчет социальных правительств, использующих его? В рамках решения этих проблем мы должны попытаться сделать его поддающимся аудиту, то есть его процессы и выводы поддаются проверке и исправлению. В свою очередь, возможность внесения исправлений будет зависеть от возможности уточнения принципов формы восприятия и принятия решений ИИ. Мораль, воля и даже причинно-следственная связь плохо вписываются в мир автономного искусственного интеллекта. Подобные проблемы возникают на большинстве уровней общества, от транспорта до финансов и медицины.
Рассмотрим влияние искусственного интеллекта на социальные сети. Благодаря недавним инновациям эти платформы быстро стали важным аспектом нашей общественной жизни. Как мы обсуждали в главе 4, функции, которые Twitter и Facebook используют для выделения, ограничения или прямого запрета контента или отдельных лиц, зависят от искусственного интеллекта, что свидетельствует о его мощи. Использование ИИ для одностороннего и часто непрозрачного продвижения или удаления контента и концепций является проблемой для всех стран, особенно демократических. Можем ли мы сохранить господство, поскольку наша социальная и политическая жизнь все больше смещается в области, управляемые искусственным интеллектом, и мы можем полагаться только на такое управление, чтобы ориентироваться в них?
Практика использования искусственного интеллекта для обработки больших объемов информации также представляет собой еще одну проблему: искусственный интеллект увеличивает искажение мира, чтобы удовлетворить инстинктивные предпочтения человека. Это та область, где искусственный интеллект может легко усилить наши когнитивные искажения, но мы все равно найдем с ними отклик. С этими голосами, столкнувшимися с разнообразием выбора и имеющими право выбирать и просеивать, люди получат поток дезинформации. Компании социальных сетей не продвигают крайнюю и насильственную политическую поляризацию через свои новостные ленты, но ясно, что эти сервисы также не ведут к максимизации просвещенного дискурса.
Искусственный интеллект, бесплатная информация и независимое мышление
Итак, как должны выглядеть наши отношения с ИИ? Следует ли его ограничивать, наделять полномочиями или рассматривать как партнера в управлении этими областями? Несомненно, что распространение определенной информации, особенно заведомо созданной ложной информации, может привести к ущербу, разделению и подстрекательству. Поэтому необходимы некоторые ограничения. Однако осуждение, нападки и замалчивание «вредной информации» сейчас слишком расплывчаты, и это тоже должно навести на размышления.
В свободном обществе определение вреда и дезинформации не должно ограничиваться компетенцией корпораций. Однако, если такие обязанности возложены на правительственную группу или агентство, эта группа или агентство должны действовать в соответствии с установленными общественными стандартами и с помощью поддающихся проверке процедур, чтобы избежать эксплуатации со стороны тех, кто находится у власти. Если это поручено алгоритму ИИ, целевая функция алгоритма, обучение, решения и действия должны быть четкими и подлежать внешнему контролю и, по крайней мере, в какой-то форме человеческой привлекательности.
Конечно, разные общества придут к разным ответам на этот вопрос. Некоторые общества могут придавать особое значение свободе самовыражения, возможно, в разной степени в зависимости от их относительного понимания индивидуальных выражений, и, таким образом, могут ограничивать роль ИИ в модерировании контента. Каждое общество выбирает, какие идеи оно ценит, что может привести к сложным отношениям с многонациональными операторами сетевых платформ. ИИ впитывает, как губка, учится у людей, даже когда мы его проектируем и формируем.
Следовательно, не только выбор каждого общества различен, но и отношение каждого общества к ИИ, восприятие ИИ и то, как ИИ подражает людям и учится у учителей-людей. Но одно можно сказать наверняка: человеческий поиск фактов и правды не должен заставлять общество воспринимать жизнь через плохо определенный и непроверяемый фильтр. Спонтанное переживание реальности, несмотря на все ее противоречия и сложности, является важным аспектом человеческого существования, даже если оно ведет к неэффективности или ошибкам.
Искусственный интеллект и международный порядок
Бесчисленное количество вопросов по всему миру ждут ответа. Как можно регулировать онлайн-платформы искусственного интеллекта, не вызывая напряженности между странами, обеспокоенными их безопасностью? Подорвут ли эти онлайн-платформы традиционные представления о национальном суверенитете? Принесут ли в результате перемены поляризацию в мире, невиданную со времен распада Советского Союза? Маленький Конгресс возражает? Будут ли попытки опосредовать эти последствия успешными? Или есть надежда на успех?
Поскольку возможности искусственного интеллекта продолжают расти, то, как позиционировать роль людей в сотрудничестве с искусственным интеллектом, будет становиться все более важным и сложным. Мы можем представить себе мир, в котором люди все больше уважают мнение искусственного интеллекта по вопросам, имеющим все большее значение. В мире, где наступательные противники успешно внедряют ИИ, могут ли лидеры обороняющихся решить не развертывать собственный ИИ и взять на себя ответственность за это? Даже они не уверены, как будет развиваться это развертывание. И если ИИ обладает превосходной способностью рекомендовать план действий, есть ли у лиц, принимающих решения, основания принимать его, даже если этот курс действий требует определенных жертв? Как может человек знать, необходима ли такая жертва для победы? Если это необходимо, действительно ли политики готовы наложить на это вето? Другими словами, у нас может не быть другого выбора, кроме как развивать искусственный интеллект. Но мы также обязаны формировать его таким образом, чтобы он был совместим с будущим человечества. Несовершенство — одна из норм человеческого опыта, особенно когда речь идет о лидерстве.
Часто политики охвачены невыносимыми опасениями. Иногда их действия основаны на ложных предположениях, иногда они действуют из чистых эмоций, а иногда идеология искажает их видение. Какие бы стратегии ни использовались для структурирования партнерских отношений между человеком и ИИ, они должны быть адаптированы к людям. Если искусственный интеллект демонстрирует сверхчеловеческие способности в определенных областях, его использование должно быть совместимо с несовершенной человеческой средой.
В области безопасности системы с поддержкой ИИ реагируют так быстро, что злоумышленники могут попытаться атаковать еще до того, как системы заработают. Результатом может стать изначально нестабильная ситуация, сравнимая с той, что создается ядерным оружием. Тем не менее, ядерное оружие оформлено в рамках концепций международной безопасности и контроля над вооружениями, которые были разработаны за последние несколько десятилетий правительствами, учеными, стратегами и специалистами по этике путем постоянного уточнения, дебатов и переговоров. Искусственный интеллект и кибероружие не имеют подобных рамок.
На самом деле правительства могут неохотно признавать их существование. Страны — и, возможно, технологические компании — должны договориться о том, как сосуществовать с военным искусственным интеллектом. Распространение ИИ через правительственные оборонные функции изменит международный баланс и компьютеры, на которых он поддерживается в наше время. Ядерное оружие стоит дорого, и его трудно скрыть из-за его размера и структуры. Напротив, искусственный интеллект может работать на компьютерах, которые можно найти повсюду. Поскольку для обучения модели машинного обучения требуются специальные знания и вычислительные ресурсы, для создания искусственного интеллекта требуются ресурсы на уровне крупной компании или страны, а поскольку применение искусственного интеллекта выполняется на относительно небольших компьютерах, он обречен на широкое распространение. , в том числе так, как мы не ожидали. Сможет ли кто-нибудь с ноутбуком, подключением к Интернету и стремлением проникнуть в темную сторону ИИ, наконец, получить доступ к оружию на базе ИИ? Позволят ли правительства субъектам, имеющим тесные связи с ними или не связанным с ними, использовать ИИ для преследования своих противников? Будут ли террористы планировать атаки ИИ? Смогут ли они приписать эту деятельность государствам или другим субъектам?
В прошлом дипломатия проходила на организованной и предсказуемой арене, сегодня ее доступ к информации и сфера действия будут значительно расширены. Четкие границы, которые раньше образовывались географическими и языковыми различиями, постепенно исчезнут. Перевод ИИ облегчит диалог, не требуя не только лингвистической, но и культурной смекалки, как это делали предыдущие переводчики. Онлайн-платформы на базе ИИ облегчат трансграничное общение, а хакерские атаки и дезинформация продолжат искажать восприятие и оценки. По мере усложнения ситуации становится все труднее разрабатывать юридически исполнимые соглашения с предсказуемыми результатами.
Возможность сочетания возможностей ИИ с кибероружием усугубляет эту дилемму. Человечество обходит ядерный парадокс, проводя четкое различие между обычным оружием (рассматриваемым в соответствии с обычной стратегией) и ядерным оружием (рассматриваемым как исключение). Когда разрушительная сила ядерного оружия высвобождается, она становится неизбирательной и независимой от цели, в то время как обычное оружие может распознать цель. Но кибероружие, которое может как идентифицировать цели, так и сеять хаос в огромных масштабах, стирает это различие.
В сочетании с искусственным интеллектом это оружие станет еще более непредсказуемым и потенциально более разрушительным. В то же время, когда это оружие бродит по сети, определить его атрибуцию невозможно. Их нельзя обнаружить, потому что они не такие громоздкие, как ядерное оружие, их также можно носить на USB-накопителях, что способствует распространению. В некоторых формах это оружие трудно контролировать после развертывания, тем более учитывая динамичный и развивающийся характер искусственного интеллекта.
Эта ситуация бросает вызов предпосылкам мирового порядка, основанного на правилах. Кроме того, необходимо разработать концепции, связанные с контролем над вооружениями ИИ. В эпоху искусственного интеллекта сдерживание больше не будет соответствовать историческим нормам и не будет. На заре ядерной эры концептуальная основа контроля над ядерными вооружениями была разработана на основе результатов дискуссий между ведущими профессорами и учеными (с опытом работы в правительстве) в Гарварде, Массачусетском технологическом институте и Калифорнийском технологическом институте, что, в свою очередь, привело к созданию системы ( и институты для его реализации в США и других странах).
Каким бы важным ни было академическое мышление, оно реализуется отдельно от соображений Пентагона в отношении обычного ведения войны — новое дополнение, а не модификация. Но потенциальное военное использование искусственного интеллекта шире, чем ядерное оружие, и различие между нападением и обороной неясно, по крайней мере, на данный момент. В столь сложном, непредсказуемом мире искусственный интеллект становится еще одним возможным источником непонимания и ошибок, и рано или поздно великим державам, обладающим высокотехнологичными возможностями, придется вступить в постоянный диалог.
Такой диалог должен быть сосредоточен на одном фундаментальном вопросе: как избежать катастрофы и выжить в ней. Искусственный интеллект и другие новые технологии, такие как квантовые вычисления, похоже, делают реальность за пределами человеческого восприятия более доступной. В конечном счете, однако, мы можем обнаружить, что даже эти методы имеют свои ограничения. Наша проблема в том, что мы не уловили их философского значения. Мы движемся вперед ими невольно, не сознательно.
В последний раз крупный сдвиг в человеческом сознании произошел во времена Просвещения, и этот сдвиг произошел потому, что новые технологии породили новые философские идеи, которые, в свою очередь, были распространены с помощью технологий (в форме печатного станка). В наше время новые технологии разрабатываются без соответствующих руководящих философий. Искусственный интеллект — это огромное начинание с далеко идущими потенциальными преимуществами. Люди усердно работают над развитием искусственного интеллекта, но используем ли мы его, чтобы сделать нашу жизнь лучше или хуже? Он обещает более сильные лекарства, более эффективное и справедливое здравоохранение, более устойчивые экологические методы и другие видения прогресса. В то же время, однако, это также может искажать информацию или, по крайней мере, усложнять процесс потребления информации и установления истины, и тем самым ослаблять способность к самостоятельному рассуждению и суждению некоторых людей.
В конце концов возникает «мета» вопрос: могут ли люди удовлетворить потребность в философии при «помощи» искусственного интеллекта с различными интерпретациями и пониманиями мира? Люди не до конца понимают машины, но сможем ли мы в конце концов помириться с ними и изменить мир? Иммануил Кант начинает свое предисловие к своей «Критике чистого разума» с этого пункта:
Человеческий разум имеет ту особую судьбу, что в одной из областей всех своих знаний он сталкивается с проблемами, которые нельзя игнорировать, поскольку они навязаны самой природой самого разума, но которые превосходят все способности разума. , это не может быть решено.
С тех пор люди глубоко исследовали эти вопросы, некоторые из которых касаются природы разума, разума и даже реальности. Человечество совершило великий прорыв, но оно также столкнулось со многими ограничениями, которые постулировал Кант: царство вопросов, на которое оно не может ответить, царство фактов, которое оно не может полностью понять. Появление искусственного интеллекта, который дает возможность изучать и обрабатывать информацию, которую люди не могут получить с помощью одного только разума, может позволить нам добиться прогресса в вопросах, на которые мы не в состоянии ответить. Но успех поставит новые вопросы, некоторые из которых мы попытались осветить в этой книге. Человеческий интеллект и искусственный интеллект находятся на стыке, когда они сойдутся в поисках на национальном, континентальном или даже глобальном уровне. Чтобы понять этот сдвиг и разработать руководящий этический кодекс на его основе, потребуются коллективная мудрость, голос и общая приверженность всех слоев общества, включая ученых и стратегов, политиков и философов, духовенство и руководителей. Это обязательство должно быть принято не только внутри стран, но и между странами. Какое партнерство у нас может быть с искусственным интеллектом и какая реальность получится из него? Теперь пришло время определить это.
Автор: / [США] Генри Киссинджер / [США] Эрик Шмидт / [США] Дэниел Хаттенлохер
Отрывок / Лю Ягуан
Редактор/Лю Ягуан
Корректура / Чжао Линь