Скандал с управлением OpenAI: размышления о модели DAO
Недавно внутри OpenAI разразился скандал управления, который вызвал широкий интерес в отрасли. С развитием событий все больше людей начинают задумываться: сможет ли OpenAI избежать этого скандала, если будет управляться в форме DAO (децентрализованной автономной организации)?
В качестве некоммерческой организации, которая стремится создать безопасный общий искусственный интеллект (AGI) и равномерно приносить пользу всему человечеству, OpenAI в некоторых аспектах уже очень похожа на многие DAO-организации, создающие общественные блага. Тем не менее, корень этого скандала не в самой организационной структуре, а в неясности и неразумности ее правил управления.
Основные проблемы, с которыми в настоящее время сталкивается OpenAI, включают недостаточное количество членов правления и непрозрачность процесса принятия решений. Например, изначально состоящее из 9 человек правление теперь сократилось до 6 человек, и ключевые решения (такие как замена CEO), похоже, не обсуждались и не рассматривались в полном составе правления. Такой подход не только недостаточно прозрачен, но и не учитывает мнения всех заинтересованных сторон.
В сравнении с этим, модель DAO может дать OpenAI некоторые полезные идеи. Например, введение большего количества сдерживающих факторов (таких как представители сотрудников), создание более прозрачного и инклюзивного механизма управления и так далее. Эти практики могут помочь OpenAI создать более прочную, открытую и инклюзивную структуру управления.
Стоит отметить, что DAO и AGI имеют схожие цели в стремлении к автономии. Оба стремятся создать системы, которые могут функционировать самостоятельно, не поддаваясь внешнему контролю. Однако на практике вопрос о том, как сбалансировать автономию и необходимое вмешательство человека, остается темой для глубокого обсуждения.
Последние события показывают, что около 90% сотрудников OpenAI готовы следовать за уходом Сэма Альтмана. Это явление отражает давний спор в области DAO: что важнее в организации управления — правила, основанные на коде, или согласие сообщества?
Хотя правила и ограничения могут создать много согласия, действительно великое согласие часто исходит от общего чувства миссии и культурных ценностей. Это глубокое чувство идентичности может вызвать сильный резонанс между людьми. Однако, когда мы обращаем свой взгляд на ИИ, вопрос о том, как воспитать этот резонанс в системах искусственного интеллекта, остается темой для глубокого обсуждения.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Кризис управления OpenAI вызывает размышления о модели DAO
Скандал с управлением OpenAI: размышления о модели DAO
Недавно внутри OpenAI разразился скандал управления, который вызвал широкий интерес в отрасли. С развитием событий все больше людей начинают задумываться: сможет ли OpenAI избежать этого скандала, если будет управляться в форме DAO (децентрализованной автономной организации)?
В качестве некоммерческой организации, которая стремится создать безопасный общий искусственный интеллект (AGI) и равномерно приносить пользу всему человечеству, OpenAI в некоторых аспектах уже очень похожа на многие DAO-организации, создающие общественные блага. Тем не менее, корень этого скандала не в самой организационной структуре, а в неясности и неразумности ее правил управления.
Основные проблемы, с которыми в настоящее время сталкивается OpenAI, включают недостаточное количество членов правления и непрозрачность процесса принятия решений. Например, изначально состоящее из 9 человек правление теперь сократилось до 6 человек, и ключевые решения (такие как замена CEO), похоже, не обсуждались и не рассматривались в полном составе правления. Такой подход не только недостаточно прозрачен, но и не учитывает мнения всех заинтересованных сторон.
В сравнении с этим, модель DAO может дать OpenAI некоторые полезные идеи. Например, введение большего количества сдерживающих факторов (таких как представители сотрудников), создание более прозрачного и инклюзивного механизма управления и так далее. Эти практики могут помочь OpenAI создать более прочную, открытую и инклюзивную структуру управления.
Стоит отметить, что DAO и AGI имеют схожие цели в стремлении к автономии. Оба стремятся создать системы, которые могут функционировать самостоятельно, не поддаваясь внешнему контролю. Однако на практике вопрос о том, как сбалансировать автономию и необходимое вмешательство человека, остается темой для глубокого обсуждения.
Последние события показывают, что около 90% сотрудников OpenAI готовы следовать за уходом Сэма Альтмана. Это явление отражает давний спор в области DAO: что важнее в организации управления — правила, основанные на коде, или согласие сообщества?
Хотя правила и ограничения могут создать много согласия, действительно великое согласие часто исходит от общего чувства миссии и культурных ценностей. Это глубокое чувство идентичности может вызвать сильный резонанс между людьми. Однако, когда мы обращаем свой взгляд на ИИ, вопрос о том, как воспитать этот резонанс в системах искусственного интеллекта, остается темой для глубокого обсуждения.