Новое предупреждение об опасности ИИ — на этот раз от всех лидеров сферы
На днях произошло громкое событие — практически все лидеры в области ИИ выступили наконец-то единым фронтом. Лучшие исследователи ИИ и руководители компаний предупреждают о «риске вымирания» в новом заявлении.
О чем говорится в документе
Авторы письма выражают свою озабоченность экзистенциальным риском для человечества из-за быстрого и неуправляемого развития ИИ. Документ опубликован некоммерческой организацией Center for AI Safety из Сан-Франциско.
«Заявление о риске ИИ» (Statement on AI Risk) было предельно коротким — всего 22 слова:
«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Ведущие исследователи, инженеры, руководители ИИ-компаний, политики и общественность все чаще обсуждают риски, связанные с ИИ. Опубликованное заявление направлено на то, что пора открыть дискуссии по этому вопросу, а не умалчивать все. Кроме того, документ указывает на то, что с каждым днем растет количество экспертов, обеспокоенных этим.
Кто подписал заявление
Приоритетность ИИ-рисков признали двое из трех «крестных отцов ИИ» — Джеффри Хинтон и Йошуа Бенжио — исследователи, которые в 2018 году получили премию Тьюринга (иногда называется «Нобелевской премией по вычислительной технике») за свои работы в области ИИ.
Среди подписавших заявление и другие топовые имена:
- генеральные директоры, президенты и СТО компаний-лидеров по разработке ИИ: Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind, Дарио и Даниела Амодеи из Anthropic, Кевин Скотт из Microsoft;
- ученые и исследователи: Эрик Хорвитц из Microsoft, Илья Суцкевер из OpenAI, Шейн Лэгг из Google DeepMind, Роджер Гросс из Anthropic;
- профессора ведущих университетов: Стюарт Рассел и Доан Сонг (Беркли, Калифорния), Я-Цинь Чжан и Сяньюань Чжан (Университет Пекина) и другие;
- руководители исследовательских центров: Center for Responsible AI, Human Centered Technology, Center for AI and Fundamental Interactions, Center for AI Safety.
Почему в списке отсутствует Ян Лекун
Среди звезд первой величины в сфере ИИ заявление не подписал Ян Лекун, третий из «крестных отцов ИИ», лауреат премии Тьюринга 2018 года. Он считает, что сильный ИИ (AGI) — не первый в списке рисков для человечества. Все потому, что его пока еще нет, а потому обсуждать, как сделать его безопасным, преждевременно, по мнению ученого.
Этот момент спорный. Во-первых, безответственно обсуждать регулирование сильного ИИ и его безопасность для людей уже после того, как он появится. Во-вторых, нейросети уже по некоторым задачам превосходят уровень людей.
Заключение
Заявление хоть и короткое, но совершенно недвусмысленное. Послание предельно понятно: пора продумать регулирование сферы ИИ. От открытого письма, подписанного Илоном Маском, Стивом Возняком и еще 1000 экспертов, оно отличается тем, что мартовский документ закликает приостановить развитие больших языковых моделей на полгода, а «Заявление о риске ИИ» направлено подчеркнуть приоритетность регулирования сферы. К тому же его подписали практически все лица, от которых зависит развитие ИИ в мире.
Полный текст статьи читайте на Компьютерра