Запутанность упрощает масштабирование в квантовом машинном обучении

p5wyjvyq6o8lceiq2mv2ejskqqq.jpeg


Область применения машинного обучения в квантовых вычислениях получила толчок на фоне нового исследования, устраняющего потенциальное препятствие для практической реализации квантовых нейронных сетей. Несмотря на имеющиеся представления теоретиков о том, что для обучения такой сети потребуется экспоненциально обширный датасет, квантовая теорема No-Free-Lunch (NFL), разработанная Лос-Аламосской национальной лабораторией, показывает, что квантовая запутанность устраняет эту экспоненциальную сверхнагрузку.

«Наша работа доказывает, что для квантового машинного обучения значимы как большие данные, так и большая запутанность. Более того, запутанность ведет к масштабируемости, избавляя нас от сложности в виде экспоненциального увеличения размера данных, необходимых для обучения». — говорит Эндрю Сорнборгер, компьютерный ученый лаборатории и соавтор работы, опубликованной 18 февраля в «Physical Review Letters». — Эта теорема дает нам надежду, что квантовые нейронные сети идут по пути ускорения квантовых вычислений, в которых они в конечном итоге превзойдут свою нынешнюю альтернативу, работающую на привычных нам компьютерах».

Классическая теорема No-Free-Lunch утверждает, что любой алгоритм машинного обучения не хуже и не лучше любого другого, когда их эффективность усреднена по всем возможным функциям, связывающим данные с метками. Прямым следствием этой теоремы, демонстрирующим силу влияния данных в классическом машинном обучении, является то, что чем больше у нас есть данных, тем выше средняя эффективность. Таким образом, данные в МО являются своеобразной валютой, по сути, ограничивающей эффективность его алгоритмов.

Новая же теорема No-Free-Lunch, выведенная Лос-Аламосской лабораторией, показывает, что в квантовых условиях запутанность также выступает валютой, причем такой, которую можно обменять на данные, тем самым сократив потребность в них.

Используя квантовый компьютер Rigetti для проверки новой теоремы, команда реализовала запутанность квантового датасета с эталонной системой.

«Мы продемонстрировали на квантовом оборудовании, что определенно можем нарушить стандартную теорему No-Free-Lunch с помощью запутанности. При этом наша новая ее формулировка в ходе эксперимента была подтверждена». — сообщил Кунал Шарма, один из авторов статьи.
«Наша теорема предполагает, что запутанность, наряду с большими данными, должна рассматриваться как ценный ресурс для квантового машинного обучения. — говорит Патрик Коулс, физик из Лос-Аламосской лаборатории и ведущий автор статьи. — Классические же нейронные сети зависят только от больших данных».


Перевод новости: Entanglement unlocks scaling for quantum machine learning

oug5kh6sjydt9llengsiebnp40w.png

© Habrahabr.ru