Кризис управления OpenAI: может ли модель DAO предотвратить это?
Недавно гигант в области искусственного интеллекта OpenAI столкнулся с серьезным внутренним кризисом управления. Этот скандал вызвал широкое обсуждение организационной структуры компании, в котором многие высказали мнение, что OpenAI следует принять модель управления децентрализованной автономной организации (DAO). Так сможет ли OpenAI действительно избежать возникновения этого кризиса, если он примет форму DAO?
На самом деле, OpenAI, как некоммерческая организация, посвященная созданию безопасного общего искусственного интеллекта (AGI) и равному благу для всего человечества, имеет цели, схожие с многими организациями DAO. Однако текущие проблемы OpenAI не связаны с самой организационной структурой, а вызваны неясностью и неразумностью правил управления.
Например, совет директоров OpenAI, являющийся высшим органом власти, изначально состоял из 9 человек, но в настоящее время осталось лишь 6. Постепенное сокращение числа членов совета приводит к чрезмерной концентрации власти, и даже может возникнуть ситуация, когда для принятия решения о судьбе компании достаточно согласия всего 2 человек. Более тревожно то, что такие серьезные решения, как замена CEO Сэма Олтмана, принимаются на закрытых заседаниях частью директоров, а не после полноценного обсуждения и рассмотрения всеми членами совета. Эта практика явно лишена прозрачности и инклюзивности, не учитывает мнения всех заинтересованных сторон.
В сравнении, даже прибыльные публичные компании привлекают независимых директоров для повышения прозрачности корпоративного управления. Для такой важной организации, как OpenAI, которая имеет отношение к развитию базовых технологий, социальной безопасности и судьбе человечества, очевидно, что ее механизмы управления имеют значительное пространство для улучшения.
Опираясь на модель управления DAO, OpenAI может рассмотреть возможность введения большего числа сдерживающих факторов, таких как представители сотрудников, и создания более эффективного механизма управления. Это не только повысит прозрачность и инклюзивность принятия решений, но и лучше сбалансирует интересы всех сторон, чтобы избежать повторения аналогичных кризисов управления в будущем.
Стоит отметить, что DAO изначально было предложено с основной идеей о том, чтобы реализовать автономное функционирование через код, максимально исключая человеческое вмешательство. Однако на практике DAO часто не может полностью реализовать эту идею и вместо этого рассматривает любые организации, занимающиеся коллективным управлением на основе блокчейн-сети, как DAO. Это означает, что люди приняли определенную степень человеческого управления, в то время как кодовые ограничения служат вспомогательным средством.
Интересно, что цель AGI также заключается в стремлении к автономии. OpenAI прямо упоминает в своей организационной структуре, что AGI — это высокоавтономная система, способная превосходить человека в большинстве работ с высокой экономической ценностью. С точки зрения основных принципов AGI и DAO обе направлены на создание по-настоящему автономных систем, в этом смысле между ними нет принципиальных различий.
Как нам эффективно управлять такими автономными системами? Должны ли мы больше полагаться на внутренние человеческие ценности и их согласование, или следует внедрять больше внешних ограничений? Эти вопросы актуальны не только для современных больших языковых моделей (LLM), но и являются важными темами для размышлений в процессе развития AGI в будущем.
Последние события, связанные с кризисом OpenAI, показывают, что до 90% сотрудников подписались за увольнение и уход за Сэмом Альтманом. Это явление отражает классическую дискуссию в области DAO за последние годы: что важнее, правила, ограниченные кодом, или ключевое значение коллективного согласия сообщества?
Хотя правила и ограничения могут сформировать множество консенсусов, поистине великий консенсус часто не создается правилами. Только общая цель и культурные ценности могут действительно достичь глубокого резонирования и согласованности. Мы уже знаем, как создавать это резонирование между людьми, так как же нам достичь этой цели в эпоху ИИ? Этот вопрос стоит нашего глубокого размышления и исследования.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Скандал с OpenAI вызывает размышления: может ли модель DAO оптимизировать управление гигантами ИИ
Кризис управления OpenAI: может ли модель DAO предотвратить это?
Недавно гигант в области искусственного интеллекта OpenAI столкнулся с серьезным внутренним кризисом управления. Этот скандал вызвал широкое обсуждение организационной структуры компании, в котором многие высказали мнение, что OpenAI следует принять модель управления децентрализованной автономной организации (DAO). Так сможет ли OpenAI действительно избежать возникновения этого кризиса, если он примет форму DAO?
На самом деле, OpenAI, как некоммерческая организация, посвященная созданию безопасного общего искусственного интеллекта (AGI) и равному благу для всего человечества, имеет цели, схожие с многими организациями DAO. Однако текущие проблемы OpenAI не связаны с самой организационной структурой, а вызваны неясностью и неразумностью правил управления.
Например, совет директоров OpenAI, являющийся высшим органом власти, изначально состоял из 9 человек, но в настоящее время осталось лишь 6. Постепенное сокращение числа членов совета приводит к чрезмерной концентрации власти, и даже может возникнуть ситуация, когда для принятия решения о судьбе компании достаточно согласия всего 2 человек. Более тревожно то, что такие серьезные решения, как замена CEO Сэма Олтмана, принимаются на закрытых заседаниях частью директоров, а не после полноценного обсуждения и рассмотрения всеми членами совета. Эта практика явно лишена прозрачности и инклюзивности, не учитывает мнения всех заинтересованных сторон.
В сравнении, даже прибыльные публичные компании привлекают независимых директоров для повышения прозрачности корпоративного управления. Для такой важной организации, как OpenAI, которая имеет отношение к развитию базовых технологий, социальной безопасности и судьбе человечества, очевидно, что ее механизмы управления имеют значительное пространство для улучшения.
Опираясь на модель управления DAO, OpenAI может рассмотреть возможность введения большего числа сдерживающих факторов, таких как представители сотрудников, и создания более эффективного механизма управления. Это не только повысит прозрачность и инклюзивность принятия решений, но и лучше сбалансирует интересы всех сторон, чтобы избежать повторения аналогичных кризисов управления в будущем.
Стоит отметить, что DAO изначально было предложено с основной идеей о том, чтобы реализовать автономное функционирование через код, максимально исключая человеческое вмешательство. Однако на практике DAO часто не может полностью реализовать эту идею и вместо этого рассматривает любые организации, занимающиеся коллективным управлением на основе блокчейн-сети, как DAO. Это означает, что люди приняли определенную степень человеческого управления, в то время как кодовые ограничения служат вспомогательным средством.
Интересно, что цель AGI также заключается в стремлении к автономии. OpenAI прямо упоминает в своей организационной структуре, что AGI — это высокоавтономная система, способная превосходить человека в большинстве работ с высокой экономической ценностью. С точки зрения основных принципов AGI и DAO обе направлены на создание по-настоящему автономных систем, в этом смысле между ними нет принципиальных различий.
Как нам эффективно управлять такими автономными системами? Должны ли мы больше полагаться на внутренние человеческие ценности и их согласование, или следует внедрять больше внешних ограничений? Эти вопросы актуальны не только для современных больших языковых моделей (LLM), но и являются важными темами для размышлений в процессе развития AGI в будущем.
Последние события, связанные с кризисом OpenAI, показывают, что до 90% сотрудников подписались за увольнение и уход за Сэмом Альтманом. Это явление отражает классическую дискуссию в области DAO за последние годы: что важнее, правила, ограниченные кодом, или ключевое значение коллективного согласия сообщества?
Хотя правила и ограничения могут сформировать множество консенсусов, поистине великий консенсус часто не создается правилами. Только общая цель и культурные ценности могут действительно достичь глубокого резонирования и согласованности. Мы уже знаем, как создавать это резонирование между людьми, так как же нам достичь этой цели в эпоху ИИ? Этот вопрос стоит нашего глубокого размышления и исследования.