[Перевод] ИИ-самоучка демонстрирует сходство с тем, как работает мозг

Обучение с самоконтролем позволяет нейронной сети самостоятельно выяснить, что имеет значение. Этот процесс может быть тем, что делает наш собственный мозг таким успешным.

30584838b11ca747374de8ef34fd1fbe.jpg

Вот уже десять лет многие из самых впечатляющих систем искусственного интеллекта обучаются с использованием огромного количества размеченных данных. Изображение может быть помечено как «полосатый кот» или «тигр», например, чтобы «обучить» искусственную нейронную сеть правильно отличать полосатого кота от тигра. Стратегия оказалась одновременно впечатляюще успешной и прискорбно несовершенной.

Такое «контролируемое» обучение требует, чтобы данные были скрупулезно помечены людьми, и нейронные сети часто выбирают более короткие пути, учась ассоциировать метки с минимальной, а иногда и поверхностной информацией. Например, нейронная сеть может использовать наличие травы для распознавания фотографии коровы, потому что коров обычно фотографируют в поле.

«Мы воспитываем поколение алгоритмов, похожих на старшекурсников, которые не приходили на занятия весь семестр, а затем в ночь перед финалом зубрят, — сказал Алексей Эфрос, специалист по информатике из Калифорнийского университета, Бёркли. — Они не усваивают материал, но хорошо справляются с тестом».

Более того, для исследователей, интересующихся интеллектом животных и машин, это «контролируемое обучение» может быть интересно тем, что оно способно рассказать о биологическом мозге. Животные, включая людей, не используют помеченные наборы данных для обучения. По большей части они исследуют окружающую среду самостоятельно, и при этом они приобретают глубокое и надежное понимание мира.

Теперь некоторые вычислительные нейробиологи начали изучать нейронные сети, которые были обучены с небольшим количеством данных, помеченных человеком, или без них. Эти алгоритмы «обучения с самоконтролем» оказались чрезвычайно успешными в моделировании человеческого языка и, в последнее время, в распознавании изображений. В недавней работе вычислительные модели зрительной и слуховой систем млекопитающих, построенные с использованием моделей обучения с самоконтролем, показали более близкое соответствие функциям мозга, чем их аналоги с контролируемым обучением. Некоторым нейробиологам кажется, что искусственные сети начинают раскрывать некоторые из реальных приёмов, которые использует наш мозг в обучении.

Неправильный контроль

Модели мозга, вдохновлённые искусственными нейронными сетями, появились примерно 10 лет назад, в то же время, когда нейронная сеть под названием AlexNet произвела революцию в задаче классификации неизвестных изображений. Эта сеть, как и все нейронные сети, состояла из слоев искусственных нейронов, вычислительных единиц, которые образуют связи друг с другом и могут различаться по силе или «весу». Если нейронная сеть не может правильно классифицировать изображение, алгоритм обучения обновляет веса связей между нейронами, чтобы сделать эту неправильную классификацию менее вероятной в следующем раунде обучения. Алгоритм повторяет этот процесс много раз со всеми обучающими изображениями, настраивая веса, пока частота ошибок сети не станет приемлемо низкой.

fa25ba15f5438cb4c69dda7c63808618.jpg

Алексей Эфрос, специалист по информатике из Калифорнийского университета в Бёркли, считает, что большинство современных систем искусственного интеллекта слишком зависят от меток, созданных людьми. «В реальности они не усваивают материал», — сказал он.

Примерно в то же время нейробиологи разработали первые вычислительные модели зрительной системы приматов, используя нейронные сети, такие как AlexNet и его преемники. Они выглядели многообещающе: когда, например, обезьянам и искусственным нейронным сетям показывали одни и те же изображения, активность реальных нейронов и искусственных нейронов обнаруживала интригующее соответствие. Затем последовали искусственные модели слуха и обнаружения запахов.

Но по мере развития области исследователи осознали ограничения контролируемого обучения. Например, в 2017 году Леон Гэтис, учёный из Тюбингенского университета в Германии, и его коллеги сделали изображение Ford Model T, а затем наложили на фотографию рисунок леопардовой кожи, создав причудливое, но легко узнаваемое изображение. Ведущая искусственная нейронная сеть правильно классифицировала исходное изображение как Model T, но посчитала измененное изображение леопардом. Он был зациклен на текстуре и не понимал формы автомобиля (или леопарда, если уж на то пошло).

Стратегии обучения с самоконтролем предназначены для того, чтобы избежать таких проблем. При таком подходе люди не маркируют данные. Скорее, «метки исходят из самих данных», — сказал Фридеманн Зенке, вычислительный нейробиолог из Института биомедицинских исследований Фридриха Мишера в Базеле, Швейцария. Алгоритмы с самоконтролем, по сути, создают пробелы в данных и просят нейронную сеть заполнить их. Например, в так называемой большой языковой модели обучающий алгоритм покажет нейронной сети несколько первых слов предложения и попросит её предсказать следующее слово. При обучении на массивном объёме текстов, собранных в Интернете, модель, похоже, изучает синтаксическую структуру языка, демонстрируя впечатляющие лингвистические способности — и всё это без внешних меток или контроля.

Аналогичные усилия предпринимаются в области компьютерного зрения. В конце 2021 года Кайминг Хе и его коллеги представили свой «маскированный автокодировщик», который основан на технологии, впервые предложенной командой Эфроса в 2016 году. Алгоритм самоконтроля случайным образом маскирует изображения, скрывая почти три четверти каждого из них. Маскированный автокодировщик превращает немаскированные части в скрытые представления — сжатые математические описания, содержащие важную информацию об объекте. (В случае изображения скрытое представление может быть математическим описанием, которое фиксирует, среди прочего, форму объекта на изображении.) Затем декодер преобразует эти представления обратно в полные изображения.

Алгоритм обучения с самоконтролем обучает комбинацию кодер-декодер превращать замаскированные изображения в их полные версии. Любые различия между реальными изображениями и реконструированными передаются обратно в систему, чтобы помочь ей учиться. Этот процесс повторяется для набора обучающих изображений до тех пор, пока частота ошибок системы не станет достаточно низкой. В одном примере, когда обученному автокодировщику в маске было показано ранее невидимое изображение автобуса, почти 80% которого было скрыто, система успешно реконструировала структуру автобуса.

«Это очень, очень впечатляющий результат», — сказал Эфрос.

Скрытые представления, созданные в такой системе, по-видимому, содержат значительно более глубокую информацию, чем могли включать предыдущие стратегии. Система может узнать форму автомобиля, например, или леопарда, а не только их узоры. «И это действительно основная идея самоконтролируемого обучения — вы строите свои знания снизу вверх», — сказал Эфрос. Никакой зубрежки в последнюю минуту, чтобы сдать тесты.

Мозги с самоконтролем

Некоторые нейробиологи видят в подобных системах отголоски того, как мы учимся. «Я думаю, что нет никаких сомнений в том, что 90% того, что делает мозг, — это самоконтролируемое обучение», — сказал Блейк Ричардс, вычислительный нейробиолог из Университета Макгилла и Мила из Квебекского института искусственного интеллекта. Считается, что биологический мозг постоянно предсказывает, скажем, будущее местоположение объекта по мере его движения или следующее слово в предложении, точно так же, как алгоритм обучения с самоконтролем пытается предсказать пробел в изображении или сегменте текста. И мозг учится на своих ошибках тоже самостоятельно — лишь небольшая часть обратной связи нашего мозга исходит от внешнего источника, говорящего, по сути, «неправильный ответ».

8835a1111af9ba633e3920af4a9a40e8.jpg

Вычислительный нейробиолог Блейк Ричардс помог создать ИИ, который имитирует зрительные сети в живом мозгу. 

Например, рассмотрим зрительные системы человека и иных приматов. Из всех сенсорных систем животных они изучены лучше всего, но нейробиологи изо всех сил пытались объяснить, почему они включают два отдельных пути: вентральный зрительный поток, отвечающий за распознавание объектов и лиц, и дорсальный зрительный поток, отвечающий за движение (пути «что» и «где» соответственно).

Ричардс и его команда создали самоконтролируемую модель, которая намекает на ответ. Они обучили ИИ, который объединил две разные нейронные сети: первая, называемая архитектурой ResNet, была разработана для обработки изображений; вторая, известная как рекуррентная сеть, может отслеживать последовательность предыдущих входных данных, чтобы делать прогнозы относительно следующего ожидаемого входного сигнала. Чтобы обучить комбинированный ИИ, команда начала с последовательности, скажем, 10 кадров из видео и позволила ResNet обработать их один за одним. Затем рекуррентная сеть предсказала скрытое представление 11-го кадра, а не просто сопоставила первые 10 кадров. Алгоритм обучения с самоконтролем сравнил прогноз с фактическим значением и дал указание нейронным сетям обновить свои веса, чтобы сделать прогноз лучше.

Команда Ричардса обнаружила, что ИИ, обученный с одним ResNet, хорошо распознавал объекты, но не классифицировал движения. Но когда они разделили один ResNet на два, создав два пути (без изменения общего числа нейронов), ИИ разработал представления для объектов в одном и для движения в другом, что позволило классифицировать эти свойства — так же, как наш мозг, вероятно, поступает.

Для дальнейшего тестирования ИИ команда показала ему набор видеороликов, которые исследователи из Института наук о мозге Аллена в Сиэтле ранее показывали мышам. Как и у приматов, у мышей есть зоны мозга, специализирующиеся на статических изображениях и движениях. Исследователи Аллена записали нейронную активность в зрительной коре мыши, когда животные смотрели видео.

Здесь команда Ричардса также обнаружила сходство в том, как ИИ и живой мозг реагировали на видео. Во время обучения один из путей в искусственной нейронной сети стал больше похож на вентральные зоны мозга мыши, обнаруживающие объекты, а другой путь стал похож на дорсальные зоны, ориентированные на движение.

«Результаты показывают, что наша зрительная система имеет два специализированных пути, потому что они помогают предсказывать визуальное будущее», — сказал Ричардс. Одного пути мало.

Модели слуховой системы человека — аналогичная история. В июне этого года группа под руководством Жана-Реми Кинга, научного сотрудника Meta AI, обучила ИИ под названием Wav2Vec 2.0, который использует нейронную сеть для преобразования звука в скрытые представления. Исследователи маскируют некоторые из этих представлений, которые затем передаются в другой компонент нейронной сети, называемый преобразователем. Во время обучения преобразователь предсказывает замаскированную информацию. В процессе весь ИИ учится превращать звуки в скрытые представления — опять же, метки не нужны. Команда использовала около 600 часов речевых данных для обучения сети, «что примерно соответствует тому, что ребенок получит за первые два года жизни», — сказал Кинг.

dca6aae8739d64f5d1c3abc99f623a05.jpg

Жан-Реми Кинг помог обучить ИИ, обрабатывающий звук таким образом, который имитирует работу мозга, отчасти предсказывая, что должно произойти дальше.

После того как система была обучена, исследователи проигрывали ей отрывки из аудиокниг на английском, французском и китайском языках. Затем исследователи сравнили производительность ИИ с данными 412 человек — носителей трех языков, которые слушали одни и те же фрагменты аудио во время сканирования их мозга с помощью фМРТ-сканера. Кинг сказал, что его нейронная сеть и человеческий мозг, несмотря на зашумленные изображения фМРТ с низким разрешением, «не только коррелируют друг с другом, но и коррелируют систематическим образом». Активность в начальных слоях ИИ совпадает с активностью в первичной слуховой коре, тогда как активность самых глубоких слоев ИИ совпадает с активностью в более высоких слоях мозга, в этом случае в префронтальной коре. «Это действительно прекрасные данные, — сказал Ричардс. — Это не окончательный вывод, но это еще одно убедительное доказательство того, что мы действительно изучаем язык в значительной степени, пытаясь предсказать следующие вещи, которые будут сказаны».

Невылеченные болезни

Не все считают это направление верным. Джош Макдермотт, вычислительный нейробиолог из Массачусетского технологического института, работал над моделями зрительного и слухового восприятия, используя как контролируемое, так и самоконтролируемое обучение. Его лаборатория разработала то, что он называет «метамерами», синтезированные звуковые и визуальные сигналы, которые для человека являются просто неразличимым шумом. Однако для искусственной нейронной сети метамеры кажутся неотличимыми от реальных сигналов. Это говорит о том, что представления, которые формируются в более глубоких слоях нейронной сети, даже при самоконтролируемом обучении, не совпадают с представлениями в нашем мозгу. Эти подходы к обучению с самоконтролем «являются прогрессом в том смысле, что вы можете изучать репрезентации, которые могут поддерживать множество способов распознавания, не нуждаясь во всех этих ярлыках», — сказал Макдермотт. — Но у них всё ещё есть много болезней моделей с контролем». 

Сами алгоритмы также нуждаются в доработке. Например, в Wav2Vec 2.0 от Meta AI ИИ предсказывает скрытые представления только для звука длительностью в несколько десятков миллисекунд — меньше времени, чем требуется, чтобы произнести воспринимаемый звук, не говоря уже о слове. «Чтобы сделать что-то похожее на то, что делает мозг, нужно выполнить ещё много работы», — сказал Кинг.

Для истинного понимания работы мозга потребуется нечто большее, чем обучение под самоконтролем. Во-первых, мозг полон обратных связей, в то время как в современных моделях таких связей мало, если они вообще есть. Очевидным следующим шагом было бы использование обучения с самоконтролем для обучения часто повторяющихся сетей — сложный процесс — и посмотреть, как активность в таких сетях сравнивается с реальной активностью мозга. Другим важным шагом было бы согласование активности искусственных нейронов в моделях обучения с самоконтролем с активностью отдельных биологических нейронов. «Надеемся, что в будущем наши результаты будут подтверждены и записями одиночных клеток», — сказал Кинг.

Если наблюдаемое сходство между мозгом и моделями обучения с самоконтролем применимо и к иным сенсорным задачам, это будет еще более убедительным признаком того, что любое волшебство, на которое способен наш мозг, требует обучения с самоконтролем в той или иной форме. «Если мы обнаружим систематическое сходство между совершенно разными системами, это будет означать, что, возможно, существует не так много способов разумной обработки информации», — сказал Кинг. — По крайней мере, это своего рода красивая гипотеза, с которой мы хотели бы работать».

Автор перевода @arielf

НЛО прилетело и оставило здесь промокод для читателей нашего блога:

— 15% на все тарифы VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.

© Habrahabr.ru