Крутые функции Android 12, которые должны появиться в iOS 16
На прошлой неделе Google официально выпустила Android 12 в публичный доступ. Несмотря на то что установить её пока могут только владельцы совместимых смартфонов Google Pixel, это не помешало нам узнать обо всех новых функциях обновления. Большая часть из них, как водится, ничем не удивила, потому что уже была представлена в альтернативных оболочках, и притом довольно давно. Однако нашлись и такие нововведения, которые было бы не грех перенять не только производителям смартфонов на Android, но и Apple.
Часть функций Android 12 было бы неплохо перенять Apple
Содержание
Дизайн Android 12
Material You неплохо смотрелся бы и в iOS
В прошлом году Apple уже начала снимать ограничения на кастомизацию iOS, разрешив пользователям вносить изменения в оформление рабочего стола. Правда, этим дело и ограничилось. Но было бы куда круче, если бы Apple разрешила располагать иконки приложений в любой последовательности, а не упорядочивала их автоматически. Это позволило бы пользователям настраивать рабочий стол именно так, как им удобно, изменяя не только внешность ОС, но и практическую интуитивность. Но это только базовое изменение, которое требуется лишь постольку-поскольку.
Куда более важным нововведением, на мой взгляд, стало бы применение к iOS дизайнерской концепции по типу Material You из Android 12. Её особенность заключается в видоизменении цветовой схемы ОС с учётом оттенка рисунка рабочего стола. Несмотря на кажущееся неудобство такого исполнения, по факту всё выглядит очень даже гармонично. А поскольку в Safari уже действует примерно такой же интерфейсный механизм, который окрашивает адресную строку в оттенки веб-сайта, не будет ничего необычного в его распространении на всю ОС целиком.
Что значит оранжевая точка на Айфоне
Вот такой индикатор в правом верхнем углу на iOS сейчас абсолютно неинформативен
Сейчас в iOS уже есть индикация для обозначения работы камеры или микрофона. Однако они представлены только в виде оранжевой или зелёной точки, загорающейся в правом верхнем углу экрана — без каких-либо дополнительных пояснений. То есть неподготовленному пользователю понять, что они обозначают, будет довольно сложно. В Android 12 разработчики Google пошли дальше и организовали пояснения для пользователей.
Во-первых, сами индикаторы стали чуть больше, чем в iOS, а на них разместились силуэты камеры или микрофона, свидетельствующие о том, какой из системных механизмов в данный момент работает. А, во-вторых, для ещё большего удобства индикаторы сделали кликабельными. То есть вы всегда можете кликнуть на светящуюся точку на экране, и система перебросит вас в раздел с пояснениями о том, зачем вообще нужны эти индикаторы.
Настроить пункт управления iPhone
Пункт управления на Android 12 намного удобнее, чем в iOS
Пункт управления на iOS реализован довольно удобно, но всё-таки оказался не лишён недостатков. Как по мне, ему не хватает обширности настроек. Например, тут нельзя быстро переключиться между 5G, LTE или 3G. Нельзя отключить одну из сим-карт. Нельзя настроить Apple Pay. В общем, ограничений ещё довольно много.
В Android было примерно так же, но в Android 12 эти недостатки исправили. Мало того, что разработчики Google увеличили размер самих иконок, так что по ним стало проще попадать, что очень актуально для больших экранов, так ещё и расширили спектр доступных настроек. Теперь пользователи могут получать доступ к расширенным конфигурациям тех или иных параметров и изменять их по своему усмотрению.
Автоповорот экрана на Айфоне
Умный автоповорот экрана должен был сначала появиться именно на iOS
В Android 12 появилась очень классная функция, которую должны были придумать в Apple. Я говорю про умный автоповорот экрана, который работает не только на основе акселерометра, но и учитывает данные с фронтальной камеры. Благодаря этому, если вы лежите, система не перевернёт экран, потому что будет видеть, что ваше лицо располагается параллельно смартфону.
На iOS это можно было реализовать даже проще. Apple вполне могла задействовать не фронтальную камеру, как это сделала Google, а Face ID, который бы определял положение головы пользователя с большей точностью. Тем более, что датчики True Depth и так практически непрерывно отслеживают взгляд, определяя, гасить экран или нет, если пользователь, например, смотрит куда-то мимо.