Нейросети ошибаются: 10 недостатков генеративного искусственного интеллекта
Последний год можно точно назвать временем ИИ-хайпа. И ученые, и обычные пользователи Интернета с воодушевлением обсуждают возможности машинного обучения. Нейросети, такие как ChatGPT и Midjourney, представляют собой интересный и мощный инструмент для работы. Но и тут не без подвоха. В статье мы собрали все недостатки современных генеративных моделей ИИ.
1. ИИ слишком стремится услужить
Алгоритмы искусственного интеллекта напоминают собаку, которая хочет угодить хозяину и сделать его счастливым. Генеративный ИИ должен ответить на промт, даже если он не способен дать разумный комментарий по теме. Пользователи ChatGPT уже знают о чем речь: если в базе знаний ИИ недостаточно фактической информации, он заполняет пробелы тем, что, по его мнению, было бы правильным. Так работает алгоритм.
2. Устаревшие данные
Еще одна существенная проблема связана с наборами данных, на которых обучается искусственный интеллект. Генеративные модели ИИ получают огромное количество данных и на их основе формируют свои ответы. Но мир постоянно меняется, и спустя время обучающие данные уже устаревают. Обновление ИИ — это масштабный процесс, и чем дольше данные не обновляли, тем менее точными становятся ответы нейросетей.
3. ИИ нарушает авторские права
Плагиат — вполне реальная проблема, а результат работы генеративной модели ИИ не назовешь иначе. Нейросети не способны на то, что мы считаем оригинальной мыслью: они просто комбинируют существующие данные различными способами. Результат может быть новым и интересным, но не уникальным.
4. Предвзятость и дискриминация
Несколько лет назад был известен случай, когда камеры Hewlett-Packard с трудом распознавали лица афроамериканцев, а со светлокожими пользователями не имели подобной проблемы. Тогда обучение и тестирование программного обеспечения не было разнообразными. В итоге появилась проблема предвзятости. Неполные данные для обучения ИИ могут исказить результаты ответов нейросетей.
5. Неясность и сложность работы ИИ
В книге «Машина хаоса» Макса Фишера инсайдер компании Google комментирует поисковый алгоритм. Результаты поиска проходят через такое количество слоев алгоритмов машинного обучения, что человек уже не может заглянуть в код и проследить, почему программа сделала именно такой выбор. Подобная сложность и неясность касается и генеративного ИИ.
6. ИИ выдает поверхностные ответы
Машины прекрасно справляются с просеиванием огромного количества данных и поиском общих черт. Но заставить их глубже вникать в содержание и контекст почти всегда не удается.
7. ИИ выдает себя за реальных людей
Некоторые модели генеративного ИИ имеют ограничение, своеобразное средство защиты, которое не позволяет им выдавать себя за других людей. Но не все разработчики придерживались такого правила, а саму технологию легко взломать. В интернете полно озвученных разговоров между Дональдом Трампом и Джо Байденом о жульничестве в Minecraft. И при первом прослушивании все выглядит правдоподобно.
8. ИИ может лгать
Генеративная модель ИИ не может подтвердить, является ли что-то фактом. Она может получить данные только из того, что ей скормили. Если в этих данных указано, что небо зеленое, то нейросеть выдаст истории, где будет упоминать небо цвета лайма. Во время сеанса это можно исправить.
9. ИИ не несет ответственности
Неясно, кто несет ответственность за работы, созданные генеративным искусственным интеллектом. Это может быть человек, который написал алгоритмы, или люди, которые создали источники данных для его обучения. А может быть, все ложится на плечи пользователя, который составил промты. Вопрос не решен, и в будущем это может создать проблемы. Если генеративная модель ИИ выдает результат, который приводит к юридически значимым последствиям, то кого за это винить? Нужно создать кодекс этики в этой сфере.
10. ИИ — это дорого
Создание и обучение генеративных моделей ИИ — немалый подвиг, а стоимость бизнеса астрономическая. По оценкам аналитиков, обучение такой модели, как GPT-3, стоит до 4 миллионов долларов. Учитываем огромные расходы на аппаратное обеспечение: тысячи параллельно работающих графических процессоров, чтобы перерабатывать данные. Закон Мура уменьшит эту проблему, но финансовые затраты могут быть выше, чем большинство компаний смогут себе позволить.
Полный текст статьи читайте на Компьютерра