Apple lance l’IA sur l’appareil dans iOS 18 et OpenELM

Apple lance l’IA sur l’appareil dans iOS 18 et OpenELM

Points clés

– Petits modèles de langage sur iOS 18 : Apple dévoile de petits modèles de langage pour l’IA sur l’appareil, améliorant la confidentialité et la fonctionnalité sans dépendance à l’égard du nuage.

– Lancement d’OpenELM : Apple lance OpenELM, une initiative open-source avec des modèles allant de 270 millions à 3 milliards de paramètres, disponibles sur Hugging Face.

 

Le 10 juin, la Worldwide Developers Conference d’Apple a marqué un tournant important vers l’intégration de l’intelligence artificielle générative dans son écosystème. Cet événement a été l’occasion de dévoiler plusieurs fonctions d’IA avancées qui devraient transformer la manière dont les utilisateurs et les développeurs interagissent avec les appareils Apple. L’introduction de modèles de petits langages pour les fonctionnalités d’IA sur les appareils dans le prochain iOS 18 et le lancement de modèles d’IA OpenELM dans la bibliothèque de modèles Hugging Face sont des étapes pionnières. Ces innovations sont conçues pour améliorer considérablement les capacités des appareils et élargir les outils à la disposition des développeurs, favorisant ainsi une suite d’applications plus intuitives et plus performantes.

 

Apple lance l’IA sur l’appareil dans iOS 18

Pour décentraliser le traitement de l’IA du nuage vers les mains des utilisateurs, Apple a introduit plusieurs petits modèles de langage spécialement conçus pour les opérations sur l’appareil. Intégrés à iOS 18, ces modèles visent à fournir des capacités d’IA puissantes et immédiates sans compromettre la vie privée de l’utilisateur. Apple a élargi son horizon en matière d’IA en lançant OpenELM, une initiative open-source proposant des modèles de langage efficaces. Ces modèles, qui comprennent des versions avec 270 millions à 3 milliards de paramètres, sont désormais disponibles dans la bibliothèque Hugging Face. Ils sont conçus pour diverses tâches, de la génération de texte à la composition de courriels, ce qui garantit leur accessibilité et leur utilité.

 

Modèles OpenELM d’Apple : L’IA efficace de 270M à 3B

La dernière aventure d’Apple dans le domaine de l’IA n’existe pas en vase clos. Par rapport à d’autres leaders du secteur comme Microsoft et Google, les modèles OpenGL d’Apple, qui comptent jusqu’à 3 milliards de paramètres, témoignent d’un choix délibéré en faveur de l’efficacité plutôt que de la puissance pure. Par exemple, le modèle Phi-3 de Microsoft affiche 3,8 milliards de paramètres, et le modèle Gemma de Google en compte 2 milliards. Ce positionnement stratégique suggère qu’Apple privilégie l’efficacité et l’accessibilité, en donnant peut-être la priorité à l’intelligence artificielle sensible sur l’appareil plutôt qu’aux modèles plus gourmands en données qui nécessitent un support solide dans le nuage.

 

Apple contre les géants de la technologie : Déploiement stratégique de l’IA

L’introduction de ces modèles d’IA témoigne de la volonté d’Apple de s’approprier une part substantielle du marché de l’IA, auparavant dominé par des géants de la technologie tels que Google et Microsoft. Selon Bloomberg en début de semaine, Apple « développe son grand modèle de langage (LLM) pour alimenter les fonctions d’IA générative sur les appareils de sa prochaine série d’iPhone ». Cette initiative pourrait ouvrir la voie à des collaborations potentielles ou à des dynamiques concurrentielles avec ces entreprises, d’autant plus qu’Apple cherche à améliorer ses outils d’IA basés sur le cloud grâce à des partenariats potentiels avec OpenAI, soutenu par Microsoft, et Google. De telles alliances pourraient considérablement étendre la portée et les capacités des offres d’Apple en matière d’IA, en particulier pour les applications plus exigeantes qui requièrent une puissance de calcul et des capacités de traitement des données plus élevées.