Почему iPhone 12 Pro Max так странно обрезает фотографии?

Мне очень нравится камера iPhone 12 Pro Max. Так сильно, что я нередко использую её для предметной съёмки: кадров для обзоров техники, где композиция, направление линий и перспектива, расположение всех элементов формируют половину впечатления от материала.

Многие снимки в итоге попадают в статьи рядом с аналогичными, сделанными уже на цифрозеркалку за 2000 долларов. И это здорово.

Но каждый раз, когда применяю камеру айфона для таких задач, я замечаю её очень странное поведение —, а конкретнее то, как непредсказуемо ведет себя система постобработки кадра.

Айфон постоянно режет весь кадр так, как ему захочется, и снимок в библиотеке Фото смотрится совсем не таким, каким он был в видоискателе.

И это не здорово.

О чём речь?

Я расставил предметы, выставил композицию, навел камеру и нажал на спуск. Логично предположить, что фотография в библиотеке Фото будет такой, какой она выглядела в видоискателе.

Но часто происходит странное: сохранённый снимок обрезан то с левой, то с правой стороны.


Красными линиями показал, как предмет стоял в видоискателе в момент спуска затвора. Стрелка указывает, куда он сместился вместе со всем кадром на итоговом фото.

Причём эта самая обрезка может отнимать у меня до 20% площади изначального кадра, значительно портя всю композицию. Допустим, устройство было выставлено идеально по центру. А на итоговом кадре оно стоит справа. Или слева.

Происходит это абсолютно непредсказуемо: часть снимков могут получаться нормальными, а часть — вот такими вот кривыми. Тратишь время, а в итоге подстава встречает там, где не ожидал.


То же самое: красные линии — где предмет был по видоискателю при съёмке, а стрелка — в какую сторону сместился на получившейся фотографии.

Эта непредсказуемость результата накладывается на работу Deep Fusion в составе алгоритма Smart HDR 3, управлять работой которых фактически невозможно через встроенные параметры iOS. Получается целых два (толстых!) слоя рандомизации итоговой фотографии.

Я пробовал выключать и включать все доступные настройки съёмки. Например, вначале думал, что виновата опция Показ вне кадра. Но её отключение проблему не исправляет.

Самое странное, что при просмотре такого обрезанного кадра в режиме Live Photo снимок выглядит именно таким, каким был в видоискателе — включая кадрирование.


В конкретно этом снимке смещение небольшое, но есть. Live Photo показывает то, как предмет по факту стоял в кадре.

Чтобы исправить ситуацию, мне нередко приходится снимать с намеренным сдвигом кадра в сторону, которую решил обрезать айфон. То есть буквально подстраиваться под баг, в самом прямом смысле слова.

Неужели больше ни у кого нет такой проблемы? Сложно поверить, что Apple разрешила айфону в одностороннем порядке резать фото так, как алгоритму захочется. Или что такая особенность вообще не выключается в стандартной Камере. Но… что имею, о том и пишу.

В iPhone линейки Pro нужно больше настроек камеры

Независимо от того, столкнулся ли я с багом, бракованным смартфоном или намеренной «фичей», одно очевидно. В iPhone серий Pro должно быть ещё больше настроек съёмки, чем есть сейчас.

Особенно это касается всяческих алгоритмов. Пусть пользователь, понимающий суть, переключается в Pro-режим и выставляет там все параметры кадра ровно так, как ему кажется нужным.

Да, я знаю, что есть сторонние приложения — пользуюсь Halide иногда. Но им я не доверяю так, как встроенной камере. Не говоря уже о том, что странно предлагать решить явную проблему через сторонний софт. Это же не Android.

Так что вопрос: у вас тоже айфон режет снимки там, где его не просят? Как справляетесь?

©  iphones.ru