Почему искусственный интеллект — это дорого

5a7f950a2337779875676173f42c1965.jpg

Сегодня технологии искусственного интеллекта находятся в фазе взрывного роста. Темпы его внедрения ускоряются во всем мире и охватывают все больше отраслей, включая здравоохранение, образование, финансы, средства массовой информации и маркетинг. Конкурентное преимущество искусственного интеллекта в автоматизации процессов и персонализации услуг вынуждает компании ускоренно интегрировать эти технологии в свои бизнес-процессы.

По прогнозам, в 2024 году объем рынка искусственного интеллекта достигнет 184 миллиардов $, что на 35% больше чем в 2023 году. Ожидается, что при ежегодных темпах роста 28,46% к 2030 году объем рынка превысит 826 миллиардов $.
Однако по более оптимистичным оценкам ежегодный рост составит 35,7% в период с 2024 по 2030 год, а объем рынка увеличится до 1,339 триллиона $ к 2030 году.
Но вместе с ростом технологий растут и затраты. И на это есть две ключевые причины: модели искусственного интеллекта становятся все более масштабными и дорогостоящими в разработке, а глобальный спрос на услуги искусственного интеллекта требует все большего числа дата центров и инфраструктуры для их поддержки.

По данным Epoch AI — института, исследующего тенденции развития искусственного интеллекта, 47–67% всех затрат приходится на чипы искусственного интеллекта, серверные компоненты и периферийное оборудование. Расходы на персонал, занимающийся исследованиями и разработками, составляют 29–49%, а оставшиеся 2–6% затрат — это потребление электроэнергии.

Давайте более детально рассмотрим из чего же состоят расходы на искусственный интеллект и попытаемся оценить величину этих расходов.

Большие языковые модели (LLM)

Самые известные на сегодняшний день приложения искусственного интеллекта, включая ChatGPT, основаны на больших языковых моделях (LLM) — системах, которые обрабатывают огромные объемы данных, включая книги, статьи и онлайн—комментарии, видео, чтобы выдавать наилучшие ответы на запросы пользователей. Ведущие компании-разработчики делают ставку на то, что путь к более сложному искусственному интеллекту — возможно, даже к системам искусственного интеллекта, которые могут превосходить людей, — заключается в том, чтобы сделать большие языковые модели еще больше.

И хотя в апреле 2023 года генеральный директор OpenAI Сэм Альтман говорил: «Я думаю, что мы подошли к концу эры, когда появляются гигантские модели. Мы сделаем их лучше в других отношениях», пока речь идет только об увеличении вычислительной мощности, объема используемых данных и экспоненциальном росте стоимости обучения.

По данным Стэнфордского университета передовые модели ИИ становятся все дороже, а затраты на обучение современных моделей с искусственным интеллектом достигли беспрецедентного уровня. Например, в GPT-4 от OpenAI для обучения были использованы вычислительные ресурсы стоимостью около 78 миллионов $ (по другим данным более 100 миллионов $), в то время как Gemini Ultra от Google обошлась в 191 миллион $.

Согласно исследованиям Epoch AI вычислительная мощность компьютеров, используемых для обучения последних моделей ИИ, ежегодно увеличивается в 4–5 раз.
Если тенденция роста затрат сохранится к 2027 году стоимость обучения передовых моделей ИИ превысит 1 миллиард $.

В интервью CNBC в начале апреля Дарио Амодей, генеральный директор ИИ стартапа Anthropic, сказал: «Я думаю, что в следующем году мы увидим, что расходы на обучение моделей составят около 1 миллиарда $. А затем, в 2025, 2026 годах, мы собираемся увеличить их до 5 или 10 миллиардов $. И я думаю, что есть шанс, что эта сумма может превысить 100 миллиардов $».

Чипы

В 2023 году рынок чипов для искусственного интеллекта достиг объема 53,6 миллиардов $. По прогнозам, к концу 2024 года эта цифра увеличится до 71,3 миллиардов $, поскольку ажиотаж вокруг приложений искусственного интеллекта продолжает расти, а более долгосрочные прогнозы предполагают, что в 2025 году объем рынка превысит 90 миллиардов $.

Бурный рост искусственного интеллекта сопровождается дефицитом чипов, что прямо отражается на их стоимости. Лидер рынка, компания Nvidia, на долю которой приходится от 60 до 70 процентов мировых поставок чипов для искусственного интеллекта, на днях стала крупнейшей компанией в мире с капитализацией более 3,3 триллионов $, опередив Microsoft и Apple

По данным аналитиков Raymond James, Nvidia в настоящее время продает графические процессоры H100 по цене от 25 до 30 тысяч $ за штуку, а графический процессор следующего поколения для искусственного интеллекта Blackwell будет стоить 30 — 40 тысяч $. При этом количество графических процессоров, требующихся для обучения искусственного интеллекта, уже исчисляется миллионами.

Лидеры отрасли Microsoft и OpenAI планируют создать уникальный суперкомпьютер «Stargate» для исследования искусственного интеллекта, использующий миллионы специализированных серверных чипов. Он станет центральным элементом пятиэтапного плана по созданию серии суперкомпьютеров, которые компании планируют построить в ближайшие шесть лет. Запуск «Stargate» планируется на 2028 год.

В январе этого года генеральный директор Meta Марк Цукерберг в своем сообщении в социальной сети Instagram* (*запрещена на территории РФ) заявил, что будущая дорожная карта компании в области искусственного интеллекта требует от нее создания «огромной вычислительной инфраструктуры», и к концу 2024 года она будет включать 350 000 графических процессоров H100 от Nvidia. Если бы Meta платила по нижней границе ценового диапазона затраты составили бы около 9 миллиардов $. Общее же количество разных моделей графических процессоров у Meta к концу 2024 года составит почти 600 тысяч.

Илон Маск сообщил инвесторам, что его стартап, занимающийся искусственным интеллектом xAI, планирует построить суперкомпьютер для работы со следующей версией своего чат-бота Grok с искусственным интеллектом. Для обучения модели Grok 2 потребовалось около 20 000 графических процессоров Nvidia H100, а для модели Grok 3 и более поздних версий потребуется 100 000 чипов Nvidia H100.

Помимо абсолютного лидера отрасли Nvidia, представившей в марте 2024 года графический процессор GH200, и традиционных производителей чипов Intel и AMD, в гонке ИИ чипов участвуют все крупные технологические компании, занимающиеся искусственным интеллектом.

2e6d412d00317ed57e5f11593b7074d7.png

Признаком того, что лидерам гонки нужны альтернативы дорогим графическим процессорам Nvidia, стало заявление Meta, OpenAI и Microsoft в декабре прошлого года об использовании более дешевого ИИ-чипа от AMD — Instinct MI300X.

Дата центры

Развитие искусственного интеллекта увеличивает потребность в вычислительных мощностях, хранилищах данных и облачных сервисах, что обеспечивает мощный импульс для модернизации и строительства новых дата центров. Сегодня во всем мире работают около 11000 дата центров, в тройку лидеров входят: США — 5381, Германия — 521, Великобритания — 514, а Россия занимает 9 место с 297 дата центрами.
В США, абсолютном лидере по количеству дата центров, в 2023 году их было построено на 46% больше, чем в 2022 году.

В августе 2023 года генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) прогнозировал, что через 4 года на модернизацию дата центров для ИИ будет потрачен 1 триллион $. «Стоимость центров обработки данных составляет около 1 трлн $, что составляет четверть триллиона $ капитальных затрат в год», — сказал он. Большая часть этих расходов, вероятно, ляжет на ведущих облачных провайдеров — гиперскейлеров Amazon, Microsoft и Google, к которым присоединится Meta, и другие крупные технологические компании.

Исследователи Dell’Oro Group подсчитали, что в 2024 году компании потратят на строительство и оснащение дата центров 294 миллиардов $ по сравнению со 193 миллиардами $ в 2020 году. Эти затраты включают и переход компаний на GPU accelerated servers — ускоренные серверы, оснащенные графическими процессорами и пользовательскими ускорителями. В 1 квартале 2024 года на долю GPU accelerated servers пришлось более половины всех продаж серверов. По прогнозам, в 2024 году рынок GPU accelerated servers увеличится более чем на 80%.

Помимо строительства новых дата центров в уже действующих будет увеличиваться плотность стоек с жесткими дисками, процессорами, системами охлаждения, с совокупным годовым темпом роста 7,8%. Ожидается, что к 2027 году средняя мощность стоек достигнет 50 кВт, превысив текущий средний показатель в 36 кВт.

Электроэнергия

В среднем для обработки запроса в ChatGPT требуется почти в 10 раз больше электроэнергии, чем для поиска в Google. И это одна из главных причин роста потребления электроэнергии во всем мире в ближайшем будущем. Все эти нейронные сети, тренирующиеся на данных Интернета, имеют ненасытный аппетит к электричеству, как и системы охлаждения, необходимые для предотвращения их перегрева.

Существующие дата центры способны потреблять в совокупности 508 тераватт-часов электроэнергии в год, если они будут работать постоянно. Это больше, чем общее годовое производство электроэнергии в Италии или Австралии. Ожидается, что к 2034 году мировое потребление энергии дата центрами превысит 1580 тераватт-часов, что примерно соответствует потреблению всей Индии.

По оценкам Goldman Sachs Research, к 2030 году:
— спрос на электроэнергию для дата центров вырастет на 160%.
— потребление электроэнергии в дата центрах вырастет с 1%-2% от общемирового до 3%-4%.
— в США, на долю которого приходится 49% дата центров, рост будет еще больше — с 3% до 8%.
— около 20% от общего энергопотребления дата центров будет приходиться на искусственный интеллект.

Такой рост энергопотребления требует нестандартных подходов для решения проблемы генерации электроэнергии.
В мае 2023 года Microsoft анонсировала соглашение о покупке электроэнергии с компанией Helion Energy, которая планирует начать генерировать ядерную энергию посредством термоядерного синтеза к 2028 году (уже построено несколько рабочих прототипов). Немного позже Microsoft опубликовала вакансию менеджера программы ядерных технологий, в обязанности которого входит разработка стратегии, «чтобы обеспечить питанием центры обработки данных, в которых находятся Microsoft Cloud и искусственный интеллект». Предполагается, что Microsoft сосредоточится на использовании микрореакторов и небольших модульных реакторов, которые намного дешевле в изготовлении и эксплуатации, чем большие ядерные реакторы.

Кадры

Борьба за таланты в области ИИ никогда не была более ожесточенной: каждая компания в этой области борется за очень небольшой круг исследователей и инженеров. Сегодня оплата труда специалистов по ИИ — это поле битвы. Понимая, что востребованные специалисты в области искусственного интеллекта могут получить несколько предложений о работе, многие компании, по словам рекрутеров, предлагают зарплаты, исчисляемые шестизначными цифрами, а также бонусы и фондовые гранты, чтобы привлечь более опытных работников.

Перед главами компаний стоит задача не только привлечь на свою сторону высококвалифицированного сотрудника, но и удержать его от перехода к конкуренту.
К примеру, широко известен случай, когда соучредитель Google Сергей Брин лично позвонил сотруднику, который рассматривал возможность ухода из компании в OpenAI. Телефонный звонок Брина, а также другие обещания и дополнительная компенсация убедили сотрудника остаться в Google.

По прогнозам, в период с 2022 по 2032 год число специалистов, занимающихся компьютерными и информационными исследованиями, вырастет на 23%, что намного больше, чем в среднем по всем профессиям.

По данным портала Glassdoor средняя годовая зарплата ML-инженера (инженер по машинному обучению) составляет 131 — 210 тысяч $. Самый распространенный диапазон зарплат для инженерных должностей, перечисленных на веб-сайте OpenAI, составляет от 200 до 370 тысяч $, а вакансии более квалифицированных специалистов представлены в диапазоне от 300 до 450 тысяч $. Помимо зарплаты есть еще и бонусы, которые называют «Единицами участия в прибыли» (Profit Participation Units, PPU). Например, при зарплате 300 тысяч они могут составить 500 тысяч $ в год.

Внедрение искусственного интеллекта привело к беспрецедентному росту потребности в специалистах в самых разных отраслях. Такие компании, как Netflix или Walmart, активно ищут сотрудников для разработки инновационных решений, улучшения качества обслуживания клиентов, оптимизации цепочек поставок и принятия решений, основанных на искусственном интеллекте. В 2023 году объявление о вакансии менеджера по продуктам для платформы машинного обучения в Netflix предлагало соискателям зарплату+бонусы в размере до 900 тысяч $ в год, что вызвало ажиотаж в социальных сетях.

Но размер зарплаты решает далеко не все. Насколько сложно нанять высококвалифицированного специалиста с навыками генеративного искусственного интеллекта рассказал Аравинд Шринивас (Aravind Srinivas), генеральный директор ИИ стартапа Perplexity: «Я пытался нанять старшего исследователя из Meta, и знаете, что он сказал? «Приходите ко мне, когда у вас будет 10 тысяч графических процессоров H100».

Юридические расходы

Говоря о стоимости искусственного интеллекта нельзя не упомянуть о юридических расходах. Не секрет, что для обучения ИИ используется вся доступная информация — новости, художественные произведения, сообщения на досках объявлений, статьи в Википедии, компьютерные программы, фотографии, подкасты и видеоролики. И при этом очень часто нарушаются авторские права.

Сегодня в судах находится целый ряд исков к ИИ стартапам и их инвесторам о нарушении авторских прав. Истцами выступают как ведущие новостные порталы, вроде New York Times, так и обычные писатели — авторы книг, художники, фотографы, считающие, что их произведения использовались для извлечения прибыли без какой-либо компенсации.
И хотя в исках не указан конкретный размер денежных требований, речь идет о «миллиардах $ установленного и реального ущерба», связанного с «незаконным копированием и использованием уникальных текстов».

И к уже поданным искам добавляются новые. На этой неделе крупнейшие мировые звукозаписывающие компании Sony Music, Universal Music Group и Warner Records подали в суд на два стартапа с искусственным интеллектом Suno и Audio за предполагаемое нарушение авторских прав. Они требуют компенсации в размере 150 тысяч $ за использование каждого произведения.

Чтобы не проиграть в судах ИИ стартапы вынуждены расширять свои юридические отделы, нанимая ведущих юристов из компаний BigTech, и привлекать крупные юридические фирмы, услуги которых стоят очень не дешево. При этом вопрос о том выиграют ли они суды пока остается открытым.

© Habrahabr.ru