Google программно повторила в Pixel технологию усиленного нажатия Apple 3D Touch
Google представила очередное функциональное обновление для своих смартфонов Android семейства Pixel с желанием убедить публику, что Pixel получают обновления раньше, чем другие аппараты Android, и что некоторые функции приходят на эти смартфоны эксклюзивно (хотя бы временно). И об этих обновлениях стоит поговорить.
Прежде всего, необходимо сказать, что обновления вчера только начали поступать на смартфоны Pixel. Развёртывание началось вчера и теоретически завершится для всех пользователей через пару недель. Это значительно лучше, чем в случае предыдущего функционального обновления, которое поступало владельцам Pixel гораздо медленнее.
Так что же нового? Добавлено несколько новых удобных настроек: расписание для активации тёмного режима; улучшенная работа адаптивной яркости; возможность выполнять некоторые действия автоматически в зависимости от подключённых сетей Wi-Fi; появился новый жест, использующий чип Pixel 4 Motion Sense; добавлены новые эмотиконы и эффекты AR для видеочатов Duo.
Но на странице поддержки Google появилась строчка, которая не может не привлечь внимание: «Помимо долгого нажатия, теперь вы можете нажимать с усилием, чтобы быстрее получить дополнительную помощь от своих приложений».
Описание звучит, как технология 3D Touch на iPhone, которая позволяет выполнять различные действия в зависимости от того, как сильно пользователь нажимает на сенсорный экран. Эта функция многим нравилась, потому что она, например, обеспечивала более быстрый доступ к режиму курсора на клавиатуре iPhone. Но в последних версиях iPhone компания Apple отказалась от неё — возможно потому, что аппаратное обеспечение оказалось слишком дорогим, сложным или просто лишним.
Но теперь, похоже, Google сделала то же самое для сенсорного экрана, что и со своей программной камерой: использовала программные алгоритмы, чтобы обычная начинка получила расширенные возможности. Вот как описывает эту функцию Google: «Долгое нажатие в настоящее время работает в ряде приложений и системных пользовательских интерфейсах, таких как Launcher, Photos и Drive. Это обновление ускоряет процесс нажатия, позволяя быстрее выводить меню. В ближайшем будущем мы также планируем расширить его применение в других наших приложениях».
По сути, эта новая функция позволяет нажимать сильнее, чтобы быстрее вызывать меню, которое обычно выводится при длительном нажатии. Сейчас в документации Google для Android Deep Press API явно говорится, что усиленное нажатие не должно делать ничего нового: это просто более быстрый способ осуществит долгое нажатие. Функция работает только в определённых приложениях потому, что многие разработчики Android не используют стандартные API для реализации долгого нажатия в своём ПО.
На первый взгляд сложно понять, как это работает без особого аппаратного слоя, чувствительного к силе нажатия. Оказывается, Google применила алгоритмы машинного обучения, чтобы выявлять сильные нажатия.
Работает всё достаточно просто: при лёгком прикосновении кончик пальца касается небольшого количества ёмкостных датчиков. Если же нажать сильнее, плоскость соприкосновения увеличится. Машинное обучение необходимо потому, что Google приходится моделировать тысячи размеров и форм пальцев, а также оценивать изменения за короткие периоды времени, дабы определить, насколько сильно прижат палец.
Не ясно, являются ли алгоритмы машинного обучения Google столь же точными, как 3D Touch на iPhone, но, поскольку они просто используются для более быстрого исполнения долгих нажатий, пока это не имеет большого значения. Но когда-нибудь, возможно, Pixel получит те же функции, что и iPhone с 3D Touch.
Кстати, у Apple в GarageBand есть своего рода программный детектор того, как сильно пользователь касается пальцами экрана, но он использует акселерометр.
Среди других новшеств можно также упомянуть автоматическое определение автомобильной аварии (эта функция буквально может спасать жизни), добавлены удобные возможности Apple Pay с быстрым доступом к кошельку.
Источник:
© 3DNews