Внедрение AI в поисковые системы может потребовать пятикратного увеличения вычислительных мощностей

5a1a79c2f6d5c0e4d99f20ba6b003328

Интеграция больших языковых моделей в поисковые системы может потребовать пятикратного увеличения вычислительных мощностей и повысить выбросы углерода. Потенциальные расходы энергии, вероятность их сокращения и последствия экономии изучили Insider и Wired.

Insider ссылается на мнение соучредителя QScale Мартина Бушара: тот уверен, что поиск с помощью генеративного AI требует как минимум в четыре-пять раз больше вычислительной мощности, чем стандартный поиск. Бушар считает, что существующая инфраструктура центров обработки данных не сможет удовлетворить спрос. Согласно данным UBS, сейчас к ChatGPT ежедневно обращаются около 13 млн пользователей, в то время как Microsoft Bing обрабатывает полмиллиарда поисковых запросов в день, а Google — 8,5 млрд. 

«Существуют огромные ресурсы, задействованные в индексировании и поиске интернет-контента, но включение AI требует другой огневой мощи», — цитирует Wired Алана Вудворда, профессора кибербезопасности в Университете Суррея (Великобритания). И хотя ни OpenAI, ни Google пока не раскрыли стоимость вычислений, необходимых для разработки их продуктов, эксперты считают, что обучение GPT-3 потребовало около 1287 МВтч и привело к выбросам более 550 тонн углекислого газа. Для сравнения Insider приводит свои данные: один среднестатистический автомобиль выбрасывает 4,6 тонны CO2 в год. 

Корпорации задумываются о сокращении энергозатрат. Например, Google собирается запускать «более лёгкую» версию Bard, которая потребует меньшей вычислительной мощности. Об этом говорится в заявлении компании для Insider. Представитель компании Джейн Пак напомнила об исследовании Google, подробно описывающем затраты энергии на создание современных языковых моделей, включая более раннюю версию LaMDA: «Наши результаты показывают, что сочетание эффективных моделей, процессоров и центров обработки данных с чистыми источниками энергии может уменьшить углеродный след системы машинного обучения в 1000 раз».

Комментируя благие намерения Google, Insider не исключает возможности, что именно желание облегчить вычислительную нагрузку Bard и использование «сокращённой версии» модели искусственного интеллекта LaMDA могли привести к ошибке в презентации, которая спровоцировала заметное падение акций технического гиганта.

По мнению журналистов, высокие вычислительные и энергетические затраты на AI могут сделать прибыльность основанных на нём продуктов и сервисов «неопределённой» и способствовать возникновению «порочного круга». Корпорации начнут запускать «урезанные» продукты для сокращения затрат, технология перестанет соответствовать ожиданиям, и это подорвёт доверие потребителей.

© Habrahabr.ru