Lors de la WWDC 2025, Apple a révélé le nouveau cadre Foundation Models, permettant aux développeurs tiers d’accéder directement à l’intelligence artificielle sur appareil. Ces modèles, optimisés pour la rapidité et l’efficacité, promettent de transformer les applications, offrant des fonctionnalités sans nécessiter de connexion cloud ni frais API.
Comparaison des modèles d’IA locaux d’Apple et de Google
L’annonce d’Apple lors de la WWDC cette année a marqué un tournant avec le lancement du nouveau cadre Foundation Models. Pour la première fois, les développeurs tiers pourront exploiter directement l’IA sur appareil d’Apple. Cette avancée suscite des questions sur la performance de ces modèles par rapport à ceux déjà disponibles sur le marché, en particulier ceux de Google.
Nouveaux cadres d’IA d’Apple
Avec le cadre Foundation Models, les développeurs tiers ont désormais la possibilité de bâtir sur la même infrastructure d’IA sur appareil que celle utilisée par les applications natives d’Apple. Cela signifie qu’ils peuvent intégrer des fonctionnalités d’IA, telles que le résumé de documents, l’extraction d’informations clés à partir de textes ou même la génération de contenu structuré, entièrement hors ligne, sans coût d’API.
Performances des modèles d’Apple
La performance des modèles d’Apple est impressionnante, surtout lorsqu’on considère le compromis entre la taille, la rapidité et l’efficacité. Selon les évaluations humaines menées par Apple, son modèle d’environ 3 milliards de paramètres a surpassé des modèles légers similaires, comme InternVL-2.5 et Qwen-2.5-VL-3B, dans des tâches visuelles, remportant plus de 46 % et 50 % des requêtes respectivement.
Dans le domaine du texte, le modèle d’Apple a maintenu sa position face à des modèles plus grands comme Gemma-3-4B, le surpassant même dans certaines évaluations multilingues, notamment en anglais international, en portugais, en français et en japonais. Cela démontre que les nouveaux modèles locaux d’Apple sont capables de fournir des résultats cohérents pour de nombreuses applications réelles sans avoir besoin du cloud ni exiger que les données quittent l’appareil.
Comparaison avec les modèles de serveur
En ce qui concerne le modèle de serveur d’Apple, qui ne sera pas accessible aux développeurs tiers, il s’est montré compétitif face à LLaMA-4-Scout et a même surpassé Qwen-2.5-VL-32B dans la compréhension d’images. Cependant, GPT-4o reste le leader du marché.
Importance du fonctionnement hors ligne
L’élément crucial de cette annonce réside dans le fait que les modèles d’Apple sont intégrés dans les appareils. Grâce au cadre Foundation Models, les développeurs n’ont plus besoin d’inclure de lourds modèles de langage dans leurs applications pour un traitement hors ligne. Cela se traduit par des tailles d’application allégées et une dépendance réduite au cloud pour la plupart des tâches.
Cela conduit à une expérience plus privée pour les utilisateurs et à l’absence de coûts d’API pour les développeurs, des économies qui peuvent profiter à tous. Apple a précisé que les modèles sont optimisés pour produire des résultats structurés en utilisant un système de « génération guidée » natif en Swift, ce qui permet aux développeurs d’encadrer les réponses des modèles directement dans la logique de l’application. Pour les applications dans les domaines de l’éducation, de la productivité et de la communication, cela pourrait représenter un changement radical, offrant les avantages des modèles de langage tout en évitant les latences, les frais ou les compromis en matière de confidentialité.
Accessibilité et implications
Finalement, même si les modèles d’Apple ne sont pas les plus puissants au monde, ils n’ont pas besoin de l’être. Ils sont efficaces, rapides, et maintenant accessibles à tous les développeurs de manière gratuite, sur appareil et hors ligne.
Bien que cela ne fasse pas autant de bruit dans les médias que des modèles plus puissants, cela pourrait favoriser l’émergence de fonctionnalités d’IA réellement utiles dans les applications tierces pour iOS qui ne nécessitent pas d’accès au cloud. Cela pourrait bien être l’objectif principal d’Apple.
Mon avis :
Le nouveau cadre Foundation Models d’Apple permet aux développeurs d’intégrer des fonctionnalités d’IA en local, offrant ainsi des résultats solides et une amélioration de la confidentialité. Bien que les modèles ne soient pas les plus puissants, leur accessibilité et optimisation pour des tâches spécifiques, sans coûts d’API, sont des atouts significatifs. Toutefois, leur performance face à des modèles plus avancés comme GPT-4 reste inégalée.
Les questions fréquentes :
Quelle est la principale nouveauté des modèles de Fondation d’Apple ?
Apple a introduit les modèles de Fondation qui permettent aux développeurs tiers d’accéder directement à l’intelligence artificielle sur leurs appareils. Cela signifie qu’ils peuvent intégrer des fonctionnalités d’IA, comme la synthèse de documents et l’extraction d’informations clés, sans se connecter à Internet.
Comment se comparent les modèles d’Apple à ceux de la concurrence ?
D’après des évaluations humaines, les modèles d’Apple se distinguent par leur équilibre entre taille, vitesse et efficacité. Par exemple, le modèle local de 3 milliards de paramètres d’Apple a surpassé d’autres modèles similaires dans des tâches visuelles.
Pourquoi l’aspect "gratuit et hors ligne" est-il important ?
Les modèles d’Apple sont intégrés, ce qui permet aux développeurs de ne plus avoir besoin d’inclure de lourds modèles linguistiques dans leurs applications. Cela aboutit à des tailles d’applications plus compactes et favorise une expérience utilisateur plus privée sans coûts additionnels liés à l’utilisation d’API.
Quels sont les avantages pour les utilisateurs et les développeurs ?
Les modèles d’Apple offrent un équilibre entre performance et coût, sans nécessiter de connexion externe. Cela permet aux utilisateurs de bénéficier de fonctionnalités d’IA utiles dans des applications de productivité, d’éducation et de communication, tout en garantissant des économies pour les développeurs.