iOS 11 : Apple lance deux nouvelles API dédiées à la réalité augmentée et au machine learning
top of page

iOS 11 : Apple lance deux nouvelles API dédiées à la réalité augmentée et au machine learning


Ce lundi soir, Apple a profité de sa keynote, consacrée notamment au lancement de la première version bêta d'iOS 11, pour annoncer l'arrivée de deux nouvelles API. La première, baptisée ARKit, est dédie exclusivement à la réalité augmentée. Elle va permettre aux développeurs de pousser cette technologie dans leurs applications mobiles. Ces dernières pourront ainsi davantage tirer profit des données captées par les appareils photos, les systèmes-sur-puce et les capteurs de mouvements. ARKit fournit en effet un suivi des mouvements rapide et stable selon les promesses d’Apple, et le framework est aussi capable de repérer les surfaces, estimer la lumière ambiante et la taille des objets. L'objectif pour Apple est de pouvoir intégrer le plus naturellement du monde des univers virtuels au sein de son environnement, par exemple lorsqu'un objet est représenté virtuellement sur une table ou un sol, le tout en temps réel.

Le marché de la réalité virtuelle en pleine explosion

Rappelons que le marché de la réalité virtuelle est en train d'exploser. Une étude publiée en fin d'année dernière par Juniper Research estime que les ventes de casques de réalité virtuelle et de caméras 360° atteindront 50 milliards de dollars en 2021. Selon le cabinet d'études, cette croissance fulgurante, multipliée par dix en seulement cinq ans, sera due à l'adoption massive de la réalité virtuelle sur smartphone et le prix toujours conséquent du matériel (casque, PC et console). Apple a visiblement bien compris les enjeux de l'adoption massive de cette technologie et compte l'intégrer à large échelle dans ses produits. Avec iOS 11, le géant de l'informatique peut se targuer de disposer d’une force de frappe incomparable avec celle de fabricants comme Lenovo pour développer l’usage de la réalité virtuelle.

Être encore mieux informé... au bon moment

La deuxième API se nomme CoreML et a pour but de faciliter les développements requérant l'intelligence artificielle et le machine learning, soit la capacité du logiciel de pouvoir toujours mieux vous suggérer des informations ou des contenus au bon moment.

Des applications mobiles qui répondent encore mieux aux besoins de nos clients

Chez Underside, nous suivons de très près toutes les annonces faites par Apple à l'occasion de la Worldwide Developers Conference (WWDC). C'est le cas notamment pour ces deux nouvelles API qui touchent particulièrement le coeur de notre métier. Alors que le savoir-faire de notre entreprise est expérimenté dans le domaine de la réalité virtuelle et celui du machine learning, ces nouvelles API vont nous permettre de pouvoir développer des applications mobiles qui répondent encore mieux aux besoins de nos clients.

72 vues0 commentaire
bottom of page