Инженеры Apple объяснили, как улучшили камеру iPhone 13. И почему не добавили ещё одну для макро
![fbimg.php?img=https%3A%2F%2Fwww.iphones.](https://www.iphones.ru/wp-content/plugins/wonderm00ns-simple-facebook-open-graph-tags/fbimg.php?img=https%3A%2F%2Fwww.iphones.ru%2Fwp-content%2Fuploads%2F2021%2F09%2F%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA-%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0-2021-09-28-%D0%B2-10.11.38-1.jpg)
На YouTube-канале Stalman Podcast вышло интервью с вице-президентами Apple Джоном Маккормаком и Грэмом Таунсендом, которые принимали участие в разработке камер iPhone 13 Pro. Ещё одним гостем был Кайенн Драни, вице-президент по мировому маркетингу iPhone.
Грэм Таунсенд о преимуществах системной разработки:
Благодаря тому, что Apple сама разрабатывает все алгоритмы, инженеры могут использовать преимущества «программно-аппаратного» комплекса. Например, новая система стабилизации камер позволила реализовать ежесекундную обработку видео при помощи нейросетей.
Маккормак о машинном обучении и новом процессоре A15 Bionic:
Да, действительно, мы сейчас продвинулись сильно вперёд в плане производительности iPhone. A15 позволил перенести много особенностей вычислительной фотографии в мир видео. То есть, фактически мы стали одними из первооткрывателей мобильной вычислительной видеографии.
Вы только представьте, iPhone 13 теперь может сегментировать объекты на видео и обрабатывать каждый из них по отдельности. Наше и без того лучшее качество съёмки в отрасли теперь ещё лучше.
Также Таунсенд похвалился новым режимом макросъёмки в iPhone 13 Pro, заявив, что это огромное инженерное достижение — использовать одну камеру для двух типов съёмки. [AppleInsider]