Почему открытое письмо против ИИ — не лучшая идея
В конце марта на сайте Future of Life появилось письмо, которое вызвало широкий общественный резонанс и дискуссии в СМИ. В письме авторы выражают свою обеспокоенность тем, что технологии искусственного интеллекта, особенно нейросети, могут быть использованы для создания вредоносного или обманного контента и влиять на общественное мнение. Они призывают к более ответственному и безопасному подходу к развитию и применению таких технологий.
Письмо подписали более 2600 независимых исследователей, а также Илон Маск — глава Tesla, SpaceX и Twitter, Эван Шарп — сооснователь Pinterest и Стив Возняк — сооснователь всеми известной компании Apple. Они хотят обратить внимание на то, что нейросети, которые в наше время очень много значат и многим людям облегчают жизнь, также могут иметь негативные последствия, если не контролировать их разработку и использование. Так ли это?
▍ С чего всё началось?
В прошлом месяце OpenAI представила GPT-4 — большую языковую модель, которая в состоянии решать сложные композиционные задачи и даже проходить стандартизированные тесты на уровне человека. Однако это расширение возможностей искусственного интеллекта вызвало опасения некоторых специалистов, которые считают, что мы развиваемся в сторону систем AGI быстрее, чем планировали ранее.
Институт будущего жизни предупреждает, что последние достижения в области ИИ привели к развитию «бесконтрольной гонки» за созданием и внедрением сложных нейросетевых моделей, которые трудно прогнозировать и контролировать. Отсутствие стратегического планирования и управления этими системами вызывает беспокойство, и разработка мощных ИИ-систем должна проходить лишь после тщательной оценки и контроля их воздействия. В письме авторы подчёркивают: «Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьёзные риски для общества и человечества, как показали обширные исследования и признания ведущих лабораторий ИИ. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его развитие следует планировать и управлять им с соответствующей осторожностью и ресурсами».
В общих чертах
- Авторы письма опасаются, что технологии искусственного интеллекта могут быть использованы для создания вредоносного или обманного контента и влиять на общественное мнение.
- Они утверждают, что не ставят своей целью полностью прекратить развитие технологии, а лишь хотят «выйти из опасной гонки», в которой участники рынка конкурируют за создание более мощных и сложных ИИ-моделей без должного учёта рисков.
- Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов с искусственным интеллектом.
- По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты на основе ИИ, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
Письмо вызвало большой интерес и поддержку от различных сторон. Под ним более тысячи подписей руководителей международных компаний, сотрудников отрасли, университетских профессоров и граждан разных стран мира. Письмо поддержали инженеры и исследователи Google и Microsoft — крупнейших компаний в области ИИ, а также учёные и профессора из многочисленных университетов — Йельского, Оксфордского, Гарвардского, Кембриджского, Стэнфордского, Массачусетского технологического и других. Они выразили свою готовность сотрудничать с другими заинтересованными сторонами для создания более безопасного и ответственного ИИ.
Однако не все считают письмо достаточно эффективным способом решения проблемы. Некоторые критики указывают на то, что оно не имеет юридической силы и не гарантирует выполнения предложенных мер. Также они сомневаются в том, что правительства и корпорации будут заинтересованы в ограничении своих возможностей по использованию ИИ для своих целей.
Ключевой аргумент
Авторы письма считают, что нейросети, которые способны конкурировать с человеческим интеллектом, могут нести «серьёзные риски для общества и человечества». Они утверждают, что «Мощные системы искусственного интеллекта не должны быть разработаны без уверенности, что их эффекты будут положительными, а их риски будут управляемыми».
«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию всё более мощных «цифровых умов», которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать».
Какие примеры потенциальных угроз они имеют в виду?
▍ Потеря рабочих мест из-за автоматизации
По прогнозам, между 2020 и 2025 годами 85 миллионов рабочих мест будут утрачены из-за замены человеческого труда ИИ-системами в различных отраслях, таких как маркетинг, производство и здравоохранение. Это может привести к социальным проблемам, неравенству и безработице. С другой стороны, это может создать новые рабочие места, но они будут требовать высокой квалификации и технических навыков, которыми не обладает большинство работников.
▍ Нарушение конфиденциальности
ИИ-системы способны собирать, анализировать и использовать огромные объёмы информации о людях для различных целей, таких как реклама, персонализация, предсказание поведения и т. д. Это может привести к дезинформации или злоупотреблению данными, а также к манипуляции или влиянию на общественное мнение.
▍ Алгоритмический биас
ИИ-системы обучаются на основе данных, которые собраны в интернете. Как всем известно, интернет — не всегда добрая и радужная штука. Если эти данные неполные, нефильтрованные или несбалансированные по каким-либо признакам, то ИИ может выдавать неправильные или дискриминационные результаты.
К чему призывают авторы письма?
Они предлагают, чтобы лаборатории ИИ, которые занимаются разработкой более мощных и сложных систем, чем GPT-4, остановили свою деятельность на шесть месяцев. За это время они должны разработать и внедрить протоколы безопасности, которые будут контролировать внешние независимые эксперты. Авторы письма считают, что это необходимо для того, чтобы сделать нейросети более качественными и безопасными. Они перечисляют ряд характеристик, которые должны быть улучшены у нынешних мощных нейросетей. Это точность, безопасность, интерпретируемость, прозрачность, надёжность, согласованность, доверие и лояльность.
Почему это далеко не лучшая идея?
- Во-первых, письмо не даёт чётких критериев и механизмов для оценки и контроля рисков, связанных с ИИ. Оно лишь призывает к шестимесячной паузе в экспериментах с ИИ, но не объясняет, как это поможет предотвратить или снизить потенциальные угрозы.
- Во-вторых, письмо игнорирует положительные эффекты и возможности, которые может дать ИИ для человечества. Оно фокусируется только на негативных сценариях и опасностях, не учитывая те области, где ИИ может помочь улучшить жизнь людей и решить глобальные проблемы.
- В-третьих, письмо может быть контрпродуктивным и вызвать обратный эффект. Оно способно спровоцировать сопротивление и недоверие к тем, кто подписал его, а также к тем, кто поддерживает его. Оно может также стимулировать скрытые или нелегальные эксперименты с ИИ, которые будут ещё более опасными и неконтролируемыми.
В исследовательских лабораториях сидят квалифицированные специалисты, которые уделяют огромное внимание безопасности и этике. Их работа основана на научных исследованиях, а не на голливудских фильмах, поэтому стоит оценивать реальные результаты. Обучение новых моделей не будет прекращено, так как это неэффективное предложение, которое не приведёт к улучшению ситуации. Необходимо продолжать развивать более оптимальные способы контроля, которые уже применяют большие компании. Несложно подметить что гонка ИИ становится всё жарче и останавливаться никто не намерен. Ставки слишком высоки. Временная остановка разработок ИИ может дать преимущество другим компаниям или странам, которые не подчиняются петиции или не согласны с ней.
Вывод
Важно помнить, что искусственный интеллект — это инструмент, который может быть использован как во благо, так и во зло, в зависимости от человека, который его контролирует.
Одним из основных приоритетов для создателей искусственного интеллекта является обеспечение того, чтобы эти системы работали в интересах человечества, а не против него. Это требует постоянного сотрудничества между учёными, инженерами, правительственными организациями и обществом в целом, чтобы создать регулирующую систему, которая будет обеспечивать безопасное и этичное использование ИИ.
Вместо остановки развития искусственного интеллекта, мы должны настаивать на инновациях и развитии новых методов, которые помогут нам обеспечить контроль и безопасность. Это может включать в себя создание механизмов для проверки и отслеживания его работы, а также разработку систем, которые позволят обнаруживать и устранять нежелательное поведение.
И да, вывод написан GPT-4.
Telegram-канал с розыгрышами призов, новостями IT и постами о ретроиграх