Google разработала робота, который умеет себя программировать
Роботы, способные менять свой код, вызывают не только удивление, но и тревогу
В блоге компании Google описан робот, способный модифицировать собственный код. Разработчики описали его работу и перспективы использования.
Обычный подход, используемый для управления роботами, заключается в их программировании с помощью кода для обнаружения объектов, перемещения приводов и запуска контуров обратной связи. Это позволяет роботу выполнять поставленную задачу. Хотя эти программы достаточно эффективны, перепрограммирование робота для каждой новой задачи занимает много времени и требует знаний предметной области.
Хотелось бы, чтобы робот был достаточно «умен», чтобы самостоятельно изменять свой код и выполнять задачи, которым он не обучался. Оказывает, такие роботы уже есть.
Робот сам по себе
Языковые модели последнего поколения, такие как PaLM (Google Pathways Language Model) способны к сложным рассуждениям и обучены на миллионах строк кода. Учитывая инструкции на естественном языке (например, речь), современные языковые модели хорошо справляются с написанием кода, который может управлять действиями робота. При наличии нескольких примеров инструкций в сочетании с соответствующим кодом языковые модели могут обрабатывать новые инструкции и генерировать новый код. Этот код перекомпонует вызовы API, синтезирует новые функции и выражает циклы обратной связи для сборки новых моделей поведения. Это предполагает новый подход к использованию машинного обучения для роботов, который (i) обобщает типы поведения за счет модульности и (ii) использует обилие открытого исходного кода и данных, доступных в Интернете.
Разработанный Goggle перепрограммируемый робот понимает как конкретные команды («нарисуй шестиугольник со стороной 5 см»), так и относительные («быстрее»; «жди, пока не появится яйцо» — в этом случае испытатели подкладывали на рабочую площадку робота куриное яйцо).
Разработчики отмечают, что предложенный подход открывает принципиально новые горизонты в применении роботов. Но они признают и рост рисков, в первую очередь этических, если не будет должных механизмов защиты от возможной опасной «самодеятельности» устройства.