Запутанность упрощает масштабирование в квантовом машинном обучении
Область применения машинного обучения в квантовых вычислениях получила толчок на фоне нового исследования, устраняющего потенциальное препятствие для практической реализации квантовых нейронных сетей. Несмотря на имеющиеся представления теоретиков о том, что для обучения такой сети потребуется экспоненциально обширный датасет, квантовая теорема No-Free-Lunch (NFL), разработанная Лос-Аламосской национальной лабораторией, показывает, что квантовая запутанность устраняет эту экспоненциальную сверхнагрузку.
«Наша работа доказывает, что для квантового машинного обучения значимы как большие данные, так и большая запутанность. Более того, запутанность ведет к масштабируемости, избавляя нас от сложности в виде экспоненциального увеличения размера данных, необходимых для обучения». — говорит Эндрю Сорнборгер, компьютерный ученый лаборатории и соавтор работы, опубликованной 18 февраля в «Physical Review Letters». — Эта теорема дает нам надежду, что квантовые нейронные сети идут по пути ускорения квантовых вычислений, в которых они в конечном итоге превзойдут свою нынешнюю альтернативу, работающую на привычных нам компьютерах».
Классическая теорема No-Free-Lunch утверждает, что любой алгоритм машинного обучения не хуже и не лучше любого другого, когда их эффективность усреднена по всем возможным функциям, связывающим данные с метками. Прямым следствием этой теоремы, демонстрирующим силу влияния данных в классическом машинном обучении, является то, что чем больше у нас есть данных, тем выше средняя эффективность. Таким образом, данные в МО являются своеобразной валютой, по сути, ограничивающей эффективность его алгоритмов.
Новая же теорема No-Free-Lunch, выведенная Лос-Аламосской лабораторией, показывает, что в квантовых условиях запутанность также выступает валютой, причем такой, которую можно обменять на данные, тем самым сократив потребность в них.
Используя квантовый компьютер Rigetti для проверки новой теоремы, команда реализовала запутанность квантового датасета с эталонной системой.
«Мы продемонстрировали на квантовом оборудовании, что определенно можем нарушить стандартную теорему No-Free-Lunch с помощью запутанности. При этом наша новая ее формулировка в ходе эксперимента была подтверждена». — сообщил Кунал Шарма, один из авторов статьи.
«Наша теорема предполагает, что запутанность, наряду с большими данными, должна рассматриваться как ценный ресурс для квантового машинного обучения. — говорит Патрик Коулс, физик из Лос-Аламосской лаборатории и ведущий автор статьи. — Классические же нейронные сети зависят только от больших данных».
Перевод новости: Entanglement unlocks scaling for quantum machine learning