Илон Маск, Стив Возняк и другие против ИИ. Даже обращение подписали
Более 1000 экспертов в области искусственного интеллекта со всего мира, включая Илона Маска, подписали открытую петицию о прекращении разработки и исследования систем и программ ИИ, более мощных и продвинутых, чем GPT 4. В письме содержится просьба о шестимесячном перерыве во всей работе, связанной с продвинутыми системами ИИ, поскольку эксперты считают, что эта разработка может представлять потенциальную угрозу человеческому обществу.
Создать аналог мозга сложно, но технологии, которые выйдут из под контроля, могут сделать это сами.
Содержание
Письмо о запрете ИИ
Открытое письмо под названием «Приостановить эксперименты с искусственным интеллектом» было опубликовано Future Of Life Institue — некоммерческой организацией, работающей над снижением глобальных рисков, с которыми сталкивается человечество. В том числе рассматриваются риски, связанные с неслыханным развитием передового искусственного интеллекта.
Письмо подписано не просто какими-то там неравнодушными фанатами технологий, а первыми людьми в своих направлениях. Среди них бизнесмены, исследователи и другие видные деятели. В том числе, ученые и профессоры в области искусственного интеллекта. В число подписавшихся входят: лауреат премии Тьюринга Йошуа Бенджио, профессор компьютерных наук из Беркли Стюарт Рассел, соучредитель Apple Стив Возняк, автор Homo Sapiens Юваль Ноа Харари, генеральный директор Stability AI Эмад Мостак и многие другие. Даже Илон Маск отметился в этом послании миру.
Сооснователь Apple тоже опасается из-за ИИ
Чем опасен искусственный интеллект
В письме говорится, что системы искусственного интеллекта, возможности которого конкурируют с человеческими, представляют серьезную опасность для общества и человечества в целом. И ведущие лаборатории искусственного интеллекта также признали этот потенциальный риск. Так же в письме говорится, что в недавнем развитии ИИ наблюдалась гонка за разработкой и развертыванием более мощных цифровых умов, которые может быть трудно контролировать. Такие мощные системы ИИ, по мнению подписавших обращение, следует разрабатывать только после того, как их положительные эффекты и риски можно будет уверенно контролировать.
При этом письмо в прямую не призывает к полному прекращению разработки подобных систем. В частности, в нем говорится о 6-месячной паузе в обучении систем искусственного интеллекта, более мощных, чем GPT-4. Авторы просят все лаборатории искусственного интеллекта и независимых экспертов разработать общие протоколы, которые гарантируют полную безопасность систем. А еще разработчики систем ИИ должны работать с правительствами, чтобы выработать базу общественного взаимодействия с новыми мощными системами.
Гэри Маркус, профессор Нью-Йоркского университета, который также подписал письмо, сказал, что письмо хоть и не идеально, но верно по духу. Сейчас скорость развития ИИ слишком высока, и пока мы не поймем, насколько это безопасно, лучше притормозить. Он также добавил, что крупные игроки становятся все более скрытными в отношении того, что они делают. Вне всяких сомнений, это затрудняет защиту общества от огромного количества потенциальных рисков.
Технологии должны вести к рассвету, а не к закату человечества!
По всему миру многие учреждения и правительства выразили обеспокоенность этическими и юридическими проблемами, создаваемыми продвинутым искусственным интеллектом, таким как ChatGPT. Даже правоохранительные органы уже напрямую предупреждают об угрозах цифровых мозгов.
Ответственность для нейросетей
Так, недавно Европол предупредил о возможном использовании систем искусственного интеллекта, таких как ChatGPT, для киберпреступлений, попыток фишинга и распространения дезинформации. То есть для этой штуковины надо еще придумать законы, которые она должна соблюдать, как и любой человек. Ведь, как говорил знаменитый дядя Бэн: «Чем выше сила, тем выше и ответственность». Хотя в этом произведении речь была о другом, но сейчас эти слова применимы и к системам ИИ.
Даже Илон Маск — символ передовых технологий — опасается ИИ
Присоединяйтесь к нам в Telegram!
Использование ИИ в учебе
Многие образовательные учреждения и университеты также выразили обеспокоенность по поводу ChatGPT и аналогичных программ искусственного интеллекта. Например, несколько нью-йоркских колледжей решили запретить студентам использовать ChatGPT для выполнения домашних заданий. А ведь были даже случаи написания дипломной работы таким образом.
Чтобы обеспечить соблюдение запрета, университеты заблокировали доступ к веб-сайту ChatGPT через свои серверы. Департамент образования также поддержал этот шаг, ограничив доступ к ChatGPT из-за опасений по поводу его потенциального негативного влияния на обучение студентов, а также на точность и безопасность контента.
Системы ИИ развиваются настолько быстро, что просто не могут не пугать. С одной стороны, это заманчиво, но когда на другой чаше весов сценарии вроде тех, где Скайнет создала армию терминаторов и от человечества мало что осталось, приходится задуматься. Вот только получится ли нашим умом создать действенную систему безопасности, о которой говорят авторы письма? Ведь обходить ее будет (если решит это сделать) существенно более развитый искусственный интеллект, чем наш. В конце концов, потенциально у него нет предела развития.