Apple Новини

Apple обявява ARKit 4 с котви за местоположение, API за дълбочина и подобрено проследяване на лица

Понеделник, 22 юни 2020 г., 16:00 PDT от Хартли Чарлтън

Apple днес обяви ARKit 4 заедно с iOS 14 и iPadOS 14. Новата версия на ARKit въвежда Location Anchors, нов API за дълбочина и подобрено проследяване на лица.





ARKit 4
Котви за местоположение позволяват на разработчиците да поставят AR преживявания, като арт инсталации в реален размер или навигационни упътвания, на фиксирана дестинация. Закотвяването на местоположението използва данните с по-висока разделителна способност Apple Maps за поставяне на AR преживявания в определена точка на света, което означава, че AR преживяванията вече могат да бъдат поставени на определени места, като например в градове или до известни забележителности. Потребителите могат да се движат около виртуални обекти и да ги наблюдават от различни гледни точки, точно както реалните обекти се виждат през обектива на камерата.

ARKit 4 също се възползва iPad Pro LiDAR скенерът с чисто нов API за дълбочина с разширени възможности за разбиране на сцената, създавайки нов начин за достъп до подробна информация за дълбочината на пиксел. Когато се комбинира с 3D мрежови данни, тази информация за дълбочината прави оклузията на виртуалния обект по-реалистична, като позволява незабавно поставяне на виртуални обекти във физическата им среда. Това може да предложи нови възможности за разработчиците, като например извършване на по-прецизни измервания и прилагане на ефекти към околната среда.



И накрая, проследяването на лица е разширено в ARKit 4, за да поддържа предната камера на всички устройства с чип A12 Bionic или по-нов. До три лица вече могат да бъдат проследявани наведнъж с помощта на камерата TrueDepth, за да се захранват изживявания с предна камера като Memoji и Snapchat.