Apple, le Gafam membre du Forum économique mondial a annoncé la suspension temporaire de son outil de résumés d’actualités, intégré à son IA générative Apple Intelligence, après des erreurs notables et une plainte déposée par la BBC, média membre du FEM, en décembre 2024.
Apple avait commencé à déployer Apple Intelligence cet hiver sur ses appareils récents, notamment l’iPhone 16, avec pour ambition de concurrencer OpenAI et Google, deux autres multinationales membres du forum, dans le domaine de l’IA générative. Parmi les fonctionnalités phares, un système permettant d’agréger et résumer les notifications d’applications d’actualités pour offrir un condensé d’informations aux utilisateurs.
Cependant, une mise à jour publiée jeudi dernier a désactivé cet outil, Apple précisant qu’il reviendrait après des améliorations. Cette suspension fait suite à un incident survenu en décembre 2024, où l’IA avait attribué à BBC News des informations apparemment erronées sur une affaire criminelle aux États-Unis.
Un faux résumé qui fait polémique
L’outil d’Apple Intelligence avait généré un résumé affirmant que Luigi Mangione, arrêté pour le meurtre du patron d’un géant américain de l’assurance santé à New York, s’était suicidé. Ce faux résumé, affiché comme une notification de la BBC, mentionnait également des informations sur la Syrie et la Corée du Sud sous forme de titres fragmentés :
« Luigi Mangione se tire une balle ; Une mère syrienne espère qu’Assad paiera le prix ; la police sud-coréenne perquisitionne le bureau de Yoon Suk Yeol. »
Or, la BBC n’avait jamais publié une telle information, et Luigi Mangione, arrêté en Pennsylvanie, était toujours en vie. Face à cette désinformation, la BBC a officiellement protesté, forçant Apple à revoir son système.
Apple tente de rassurer ses utilisateurs
Avec la dernière mise à jour, Apple a introduit un avertissement pour les utilisateurs qui souhaitent continuer à recevoir des résumés de notifications, précisant que la fonctionnalité est toujours en développement et peut contenir des erreurs. De plus, le texte des résumés sera désormais affiché en italique, afin de le distinguer des notifications officielles des médias.
Cet incident est toutefois étonnant sachant que tout spécialiste de l’IA générative sait que cette technologie peut-être extrêmement utile dans la rédaction d’article, mais qu’elle nécessite une relecture humaine, pour surveiller les hallucinations, un phénomène au cours duquel l’Intelligence artificielle qui a horreur du vide, comble avec des informations inventées, lorsqu’elle ne sait pas.
Difficile à croire, que personne n’était préposé à la relecture chez une grande multinationale comme Apple, ou que le service a failli.
Depuis le lancement de ChatGPT par OpenAI, les géants de la tech comme Google, Microsoft et Meta se livrent une bataille pour imposer leurs modèles d’IA et l’Intelligence artificielle est au coeur des discussions des réunions du Forum économique mondial et de Davos. De nombreuses institutions ou personnalités politiques, comme l’OMS, dirigée par le contributeur de l’agenda 2030 du FEM, Tedros Adhanom Ghebreyesus, ou le contributeur du FEM, Emmanuel Macron, préconisent une régulation « by Design », c’est à dire des l’élaboration des modèles et applications d’IA.
Source : Science et Avenir