Портретный режим 2. Как я оказался прав :)

Остается пару часов до анонса новых iPhone 13, и где по слухам наконец-то будет портретный режим для видео, который уже есть пару лет у конкурентов на Android. В очередной раз Apple выступает не первой, но обходит конкурентов — пишут, что будет возможность редактировать силу размытия после съёмки, ну, что ж — посмотрим.

А этой заметкой я хочу зафиксировать как оказался прав с портретным режимом для фотографий в реализации Apple.

Блогеры неустанно расхваливают как хорош Google Pixel в портретном режиме:

Айфоны откровенно грубо размывают оправу очков. Для них это самое слабое место. Тем временем Pixel 4a отлично её отработал. Вот, подкрепляю свои слова снимками. А ещё обратим внимание на волосы. Как же Pixel их круто обрабатывает — они смотрятся реалистично и не превращаются в какую-то мазню, как на iPhone. Ещё обратим внимание на свет — картинка с 4a на мой взгляд смотрится реалистичнее.

Подробнее на rozetked: https://rozetked.me/reviews/16570-lichnyy-opyt-pereshel-s-iphone-11-na-google-pixel-4a-i-ne-zhaleyu

Или вот:

Pixel размывает фон аккуратнее и лучше обрабатывает область вокруг физиономии, тщательнее вырезая очки или уши, а заодно и волосы, если сравнить его со старыми iPhone.

https://wylsa.com/opyt-ispolzovaniya-google-pixel-3-xl/

С автором последнего я чуть-чуть подискутировал в твиттере

Дело в том, что я не сильный фотограф, но как-то стало интересно, а что значит «портретная фотография»? И выяснилось, что как раз Apple и сделала настоящий портретный режим. Но как мы видим — нашим блогерам это не интересно.

Вот ещё пример портретной съёмки на профессиональное оборудование с «плохими» ушами и волосами.

И как же я сильно порадовался когда мои догадки подтвердили в самой Apple 🙂 В прошлом году вышла статья о том как устроены инновации в компании, и как пример привели портретный режим — в двух словах: специалисты эппл изучили кучу профессиональных фото в портретном режиме, так и натренировали нейронку.

To get some agreement on quality standards, the engineering teams invited senior design and marketing leaders to meet, figuring that they would offer a new perspective. The design leaders brought an additional artistic sensibility to the debate, asking, “What makes a beautiful portrait?” To help reassess the zero-artifacts standard, they collected images from great portrait photographers. They noted, among other things, that these photos often had blurring at the edges of a face but sharpness on the eyes. So they charged the algorithm teams with achieving the same effect. When the teams succeeded, they knew they had an acceptable standard.

Another issue that emerged was the ability to preview a portrait photo with a blurred background. The camera team had designed the feature so that users could see its effect on their photos only after they had been taken, but the human interface (HI) design team pushed back, insisting that users should be able to see a “live preview” and get some guidance about how to make adjustments before taking the photo. Johnnie Manzari, a member of the HI team, gave the camera team a demo. “When we saw the demo, we realized that this is what we needed to do,” Townsend told us. The members of his camera hardware team weren’t sure they could do it, but difficulty was not an acceptable excuse for failing to deliver what would clearly be a superior user experience. After months of engineering effort, a key stakeholder, the video engineering team (responsible for the low-level software that controls sensor and camera operations) found a way, and the collaboration paid off. Portrait mode was central to Apple’s marketing of the iPhon
e 7 Plus. It proved a major reason for users’ choosing to buy and delighting in the use of the phone.

https://hbr.org/2020/11/how-apple-is-organized-for-innovation

 

PS. Кстати, было мнение, что якобы в iPhone 12 Lidar помогает в портретном режиме, но нет 🙂

На самом деле плотность точек у Apple лидаров не очень большая 🙂