Почему iPhone 12 Pro Max так странно обрезает фотографии?
Мне очень нравится камера iPhone 12 Pro Max. Так сильно, что я нередко использую её для предметной съёмки: кадров для обзоров техники, где композиция, направление линий и перспектива, расположение всех элементов формируют половину впечатления от материала.
Многие снимки в итоге попадают в статьи рядом с аналогичными, сделанными уже на цифрозеркалку за 2000 долларов. И это здорово.
Но каждый раз, когда применяю камеру айфона для таких задач, я замечаю её очень странное поведение —, а конкретнее то, как непредсказуемо ведет себя система постобработки кадра.
Айфон постоянно режет весь кадр так, как ему захочется, и снимок в библиотеке Фото смотрится совсем не таким, каким он был в видоискателе.
И это не здорово.
О чём речь?
Я расставил предметы, выставил композицию, навел камеру и нажал на спуск. Логично предположить, что фотография в библиотеке Фото будет такой, какой она выглядела в видоискателе.
Но часто происходит странное: сохранённый снимок обрезан то с левой, то с правой стороны.
Красными линиями показал, как предмет стоял в видоискателе в момент спуска затвора. Стрелка указывает, куда он сместился вместе со всем кадром на итоговом фото.
Причём эта самая обрезка может отнимать у меня до 20% площади изначального кадра, значительно портя всю композицию. Допустим, устройство было выставлено идеально по центру. А на итоговом кадре оно стоит справа. Или слева.
Происходит это абсолютно непредсказуемо: часть снимков могут получаться нормальными, а часть — вот такими вот кривыми. Тратишь время, а в итоге подстава встречает там, где не ожидал.
То же самое: красные линии — где предмет был по видоискателю при съёмке, а стрелка — в какую сторону сместился на получившейся фотографии.
Эта непредсказуемость результата накладывается на работу Deep Fusion в составе алгоритма Smart HDR 3, управлять работой которых фактически невозможно через встроенные параметры iOS. Получается целых два (толстых!) слоя рандомизации итоговой фотографии.
Я пробовал выключать и включать все доступные настройки съёмки. Например, вначале думал, что виновата опция Показ вне кадра. Но её отключение проблему не исправляет.
Самое странное, что при просмотре такого обрезанного кадра в режиме Live Photo снимок выглядит именно таким, каким был в видоискателе — включая кадрирование.
В конкретно этом снимке смещение небольшое, но есть. Live Photo показывает то, как предмет по факту стоял в кадре.
Чтобы исправить ситуацию, мне нередко приходится снимать с намеренным сдвигом кадра в сторону, которую решил обрезать айфон. То есть буквально подстраиваться под баг, в самом прямом смысле слова.
Неужели больше ни у кого нет такой проблемы? Сложно поверить, что Apple разрешила айфону в одностороннем порядке резать фото так, как алгоритму захочется. Или что такая особенность вообще не выключается в стандартной Камере. Но… что имею, о том и пишу.
В iPhone линейки Pro нужно больше настроек камеры
Независимо от того, столкнулся ли я с багом, бракованным смартфоном или намеренной «фичей», одно очевидно. В iPhone серий Pro должно быть ещё больше настроек съёмки, чем есть сейчас.
Особенно это касается всяческих алгоритмов. Пусть пользователь, понимающий суть, переключается в Pro-режим и выставляет там все параметры кадра ровно так, как ему кажется нужным.
Да, я знаю, что есть сторонние приложения — пользуюсь Halide иногда. Но им я не доверяю так, как встроенной камере. Не говоря уже о том, что странно предлагать решить явную проблему через сторонний софт. Это же не Android.
Так что вопрос: у вас тоже айфон режет снимки там, где его не просят? Как справляетесь?