Выступление Сэма Альтмана перед Сенатом США: какие будут последствия для сферы ИИ-технологий

Недавно Сэм Альтман (CEO OpenAI) выступил в Сенате США. Тема заседания — риски и регулирование AI. В статье рассуждаем, как это повлияет на сферу технологий на базе искусственного интеллекта.

О чем говорил Сэм Альтман

Чтобы не смотреть все выступление, мы предлагаем краткий обзор.

  • Биооружие. Генеральный директор OpenAI предупредил, что ИИ могут использовать для создания биологического оружия. И регулирование сферы нужно как раз, чтобы предотвратить такой сценарий.
  • Военные приложения с ИИ. Альтман признал, что технологию могут применять в военном деле (например, автономные дроны), а потому он призвал принять правила для регуляции их использования.
  • Изменения на рынке труда. Альтман выделил тезис о том, что ИИ может усилить неравенство из-за потери людьми работы.
  • Регулирование ИИ. Он предложил создать агентство, которое будет заниматься лицензированием и регулированием в сфере ИИ.
  • Стандарты безопасности. По мнению Альтмана, модели ИИ должны соответствовать им. Плюс нужны тесты на самовоспроизведение и эксфильтрацию данных.
  • Независимые аудиты. Эти меры помогут убедиться, что модели ИИ соответствуют установленным стандартам безопасности.
  • ИИ в качестве инструмента. CEO OpenAI подчеркнул, что продвинутые модели нужно рассматривать как инструменты для работы, а не видеть в них разумных существ.
  • Сознание ИИ. С другой стороны, несмотря на предыдущий тезис, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.
  • Неизбежность AGI. Альтман считает, что сильный ИИ на самом деле намного ближе к реальности, чем многие думают. А потому нужно быть готовым к этому и продумать превентивные меры.

Кроме того, он заикнулся, что проконтролировать работы Китая в сфере разработок ИИ однозначно не получится, поэтому лучше всего договориться.

Каким будет сотрудничество государства и игроков рынка ИИ-технологий

В первую очередь было вполне ожидаемо, что гендиректор OpenAI начнет появляться на подобных мероприятиях. В выступлении перед Сенатом он рассказывает о видении компании на дальнейшее развитии ИИ, какие могут быть риски и как это предотвратить.

В блоге OpenAI вышла статья Planning for AGI and beyond. Самый главный тезис в ней — это необходимость сотрудничества между крупными игроками рынка ИИ, а также их сотрудничество непосредственно с государством и прозрачная проверка всех моделей, которые в дальнейшем будут выпускать. Таким образом, выступая перед Сенатом, Сэм Альтман начинает воплощать план из этой публикации, то есть строит взаимоотношения его компании с государством.

Но тут возникает пугающий вопрос:, а как вообще будет проходить это сотрудничество. Если оно будет выглядеть как аналогичные публичные дискуссии и совместная проработка идей как сферу ИИ регулировать, то это одно. И совсем другое, если поступят так, как в Европе с ее AI Act — документом, который предлагает лицензировать все модели ИИ на территории ЕС. Если его примут, то это приведет к закрытию многих проектов в сфере ИИ. AI Act просто перекрывает кислород для всех Open Source разработок в ЕС.

Заключение

Важно, чтобы государственное регулирование было адекватным. Госорганы не должны закручивать гайки разработчикам. Кстати, на выступлении Сэма Альтмана в Сенате прозвучала мысль о том, что opensource-решения будут поддерживать, ну или, по крайней мере, не мешать им.

Кстати, если сравнивать стратегию ЕС и США в сфере регулирования ИИ-технологий, то можно заметить, что Европа беспокоится о безопасности, но там пока не придумали, как справиться и со страхом, и с экспоненциальным ростом ИИ-моделей. Что касается Америки, то она однозначно заинтересована больше в развитии экономики и особенно в финансовых средствах, которые принесут разработки ИИ-компаний.

Полный текст статьи читайте на Компьютерра