Apple a reporté le lancement de ses fonctionnalités Apple Intelligence AI dans l’UE, invoquant des préoccupations de sécurité et de confidentialité lors de la conformité à la loi sur les marchés numériques.
Mais cette dernière initiative en matière d’IA d’Apple soulève plusieurs questions. Pourquoi le fabricant d’iPhone a-t-il retardé le lancement d’Apple Intelligence dans un marché aussi important, ses préoccupations en matière de confidentialité et de sécurité sont-elles légitimes, et qu’est-ce qui a poussé à sa décision ?
Le 21 juin, Bloomberg a rapporté que le fabricant d’iPhone reporterait ses améliorations iPhone Mirroring, SharePlay Screen Sharing et les fonctionnalités Apple Intelligence AI dans l’UE jusqu’en 2025. La raison avancée par Apple, selon sa déclaration, est que la stipulation de l’AMN en matière d’interopérabilité compromettrait la sécurité et la confidentialité de l’iPhone.
Disponible sur l’iPhone 15 et les nouveaux appareils qui seront lancés dans quelques mois, les fonctionnalités d’IA seront toujours lancées aux États-Unis cet automne. « Nous craignons que les exigences d’interopérabilité de l’AMN puissent nous obliger à compromettre l’intégrité de nos produits de manière à risquer la confidentialité et la sécurité des données des utilisateurs », a déclaré Apple.
Pourquoi Apple a-t-il retiré ses fonctionnalités AI dans l’UE ?
Apple affirme que l’interopérabilité avec d’autres produits mettrait en danger les utilisateurs d’iPhone. Les craintes d’Apple concernant les règles d’interopérabilité imposées par l’AMN semblent légitimes, selon le chercheur en sécurité Tommy Mysk. « Il est clair qu’Apple Intelligence favorisera les produits Apple. Il devrait être plus intégré à Apple Music, par exemple. »
Mais que dire de la réglementation sur la protection des données ?
D’autres géants de la technologie, notamment Meta et Google, ont également retardé le lancement de leurs offres en matière d’IA dans l’UE, affirmant que le règlement sur la protection des données, le GDPR, ne permet pas le niveau de fonctionnalités qu’ils nécessitent. Les modèles d’IA requièrent d’énormes quantités de données pour fonctionner, ce qui pourrait être en violation de la réglementation européenne stricte en matière de protection des données.
Apple a souligné les compétences en matière de confidentialité et de sécurité de son offre en IA, en affirmant que son modèle de traitement des données en cloud privé (PCC) est unique en son genre. Cependant, les outils en IA sont « délicats » en matière de protection des données. « Google et X ont retardé le lancement de leurs outils en IA dans l’UE, il était donc prévu qu’Apple soit également prudent », explique Mysk. « Les technologies d’IA génératives nécessitent des données pour l’entraînement et l’acquisition de données supplémentaires pour l’entraînement des utilisateurs. Le GDPR soulèvera de nombreuses questions à ce sujet, notamment le droit à l’oubli. »
Beaucoup de gens seront déçus par ce retard, en particulier les utilisateurs de l’UE qui veulent mettre à niveau leurs iPhone pour profiter des nouvelles fonctionnalités. Apple veillera certainement à ce qu’ils puissent accéder à ces fonctionnalités, mais le fabricant d’iPhone doit s’assurer d’être supérieur à ses concurrents en matière de sécurité et de confidentialité. Après tout, c’est ce que Apple affirme être sa promesse et son argument de vente unique en matière d’IA.
Source : forbes.com