
Le mois d’avril 2025 a été particulièrement riche en actualités en matière d’intelligence artificielle. De Meta à OpenAI en passant par MidJourney, Adobe ou Google, tous les grands noms du secteur se sont livré à une véritable foire d’annonces. Avec un peu de recul, nous vous proposons un retour sur les informations les plus marquantes du mois.
Apple Intelligence arrive enfin en Europe (1er avril 2025)
Attendu de longue date sur le Vieux Continent, Apple Intelligence a officiellement fait son apparition pour les utilisateurs européens au début du mois d’avril. Déployée avec les mises à jour iOS 18.4, iPadOS 18.4 et macOS Sequoia 15.4, cette suite de fonctionnalités d’intelligence artificielle est désormais accessible en français et dans d’autres langues européennes. Les utilisateurs d’iPhone et d’iPad compatibles, ainsi que de Mac équipés de puces Apple Silicon peuvent ainsi bénéficier des outils d’écriture améliorés (réécriture, résumé), d’un Siri plus contextuel et capable de comprendre le langage naturel, de la création de Genmojis personnalisés, ou encore de nouvelles capacités intelligentes de recherche et d’édition dans l’application Photos. L’intégration de ChatGPT reste une option que les utilisateurs peuvent activer pour des requêtes plus compliquées.

Meta lance LLaMA 4 (5 avril 2025)
Voilà une véritable annonce d’envergure. En début de mois, Meta a levé le voile sur LLaMA 4, une toute nouvelle génération de modèles d’IA multimodaux. Cette suite open source se décline en trois versions distinctes : Scout (17 milliards de paramètres), Maverick (72 milliards) et Behemoth (400 milliards). D’après Meta, LLaMA 4 afficherait des performances supérieures à celles de GPT-4.5 sur certains tests de référence STEM. Ces nouvelles IA sont par ailleurs capables de traiter simultanément le texte, les images, les vidéos et l’audio. Elles intègrent également des mesures antihallucination et une meilleure compréhension contextuelle. L’objectif affiché est ici d’offrir aux développeurs indépendants des outils comparables aux solutions propriétaires d’OpenAI et Anthropic, et de conforter la position de Meta dans l’écosystème des modèles open source.
MidJourney V7 est là (7 avril 2025)
Après plus d’un an d’attente, MidJourney a enfin déployé la version 7 de son générateur d’images. Sans surprise, l’éditeur promet une qualité en nette hausse par rapport aux itérations précédentes. Parmi les améliorations promises, on note une meilleure cohérence anatomique, des textures annoncées comme ultraréalistes et une compréhension plus fine des prompts complexes. De plus, la personnalisation est désormais activée par défaut, simplifiant la création de styles cohérents. Par ailleurs, un nouveau mode Brouillon très intéressant permet de générer des images dix fois plus vite pour faciliter l’itération des concepts en consommant moins de ressources. Enfin, MidJourney a également introduit en bêta des outils de génération vidéo et 3D, ce qui transforme de fait sa plateforme en un studio créatif bien plus complet, même si ces deux nouvelles fonctions sont encore balbutiantes.
Google : un prototype de lunettes connectées avec Gemini (9 avril 2025)
Lors d’une conférence TED, Google a créé la surprise en présentant un prototype fonctionnel de lunettes de réalité augmentée. Intégrant Android XR et l’IA Gemini, ce dispositif ultraléger (45 g) projette des informations contextuelles, traduit instantanément des textes en 40 langues et numérise des documents. À la différence des Google Glass originelles, ces lunettes s’appuient sur la connexion avec un smartphone pour les traitements lourds, préservant ainsi leur autonomie. Aucune date de commercialisation n’a été communiquée, mais ce retour sur le marché des lunettes intelligentes illustre l’ambition de Google de combiner AR et IA dans un format grand public.
ChatGPT lance sa fonction shopping (10 avril 2025)
OpenAI a intégré une fonction d’achat directement dans ChatGPT. L’assistant conversationnel peut désormais agir comme un conseiller d’achat personnalisé, permettant aux utilisateurs de rechercher et comparer des produits, puis d’accéder aux sites marchands à partir de recommandations basées sur leurs préférences. Le système s’appuie sur les modèles de langage de l’entreprise pour analyser les caractéristiques produits et les avis clients.

IA prédictive pour anticiper les meurtres au Royaume-Uni (11 avril 2025)
Le ministère britannique de la Justice a confirmé tester un programme d’IA prédictive controversé, destiné à évaluer la probabilité qu’un individu commette un homicide. Le système analyse diverses données (policières, judiciaires, médicales, sociales) pour identifier les profils jugés à risque et permettre une intervention préventive. Rapidement comparé au film Minority Report, le projet n’a évidemment pas manqué de soulever d’importantes questions éthiques sur la présomption d’innocence, la surveillance et les biais algorithmiques. Des organisations de défense des droits civiques ont d’ailleurs vivement critiqué l’initiative.
Grok peut désormais voir en temps réel sur iPhone (12 avril 2025)
Grok, l’intelligence artificielle d’Elon Musk, s’est dotée d’une fonctionnalité de vision en temps réel, pour l’instant réservée aux utilisateurs d’iPhone. Baptisée Grok Vision, elle permet d’analyser l’environnement avec la caméra du smartphone pour identifier des objets, des textes, des personnes ou des contextes. Particulièrement utile pour les traductions instantanées ou l’aide au shopping, cette fonction est gratuite sur iOS. En revanche, les utilisateurs Android doivent souscrire l’abonnement SuperGrok pour en bénéficier.
Dire “merci” à ChatGPT coûte cher (14 avril 2025)
Lors d’une conférence sur l’efficacité énergétique, le PDG d’OpenAI, Sam Altman, a révélé que le fait d’être poli avec ChatGPT avait un coût non négligeable pour son entreprise. Les formules de politesse telles que « merci » ou « s’il vous plaît » engendreraient des coûts annuels de plusieurs dizaines de millions de dollars en électricité pour les data centers. Chaque mot supplémentaire augmente en effet la consommation énergétique, et donc l’impact carbone. D’autant plus qu’une requête IA peut consommer jusqu’à dix fois plus d’énergie qu’une recherche Google.
Gemini se met à la vidéo avec Veo 2 (15 avril 2025)
Quatre mois après son annonce, le générateur vidéo Veo 2 de Google a enfin été intégré à Gemini Advanced. Les abonnés au service peuvent donc désormais créer des vidéos de 8 secondes en 720p (format 16:9) à partir de descriptions textuelles, directement dans l’interface de Gemini. D’après Google, ce modèle Veo 2 serait particulièrement performant pour représenter de manière fluide des scènes naturelles, des interactions humaines et des animations abstraites. Veo 2 est d’ores et déjà accessible à tous les abonnés payants de Gemini en France, contrairement à la fonction d’animation d’images Whisk.
OpenAI lance o3 et o4-mini (16 avril 2025)
OpenAI a présenté ses nouveaux modèles o3 et o4-mini, désormais accessibles aux abonnés ChatGPT Plus, Pro et Team. Sur le papier, le modèle o3 constitue une belle évolution avec sa capacité à gérer plusieurs modalités et à ajuster dynamiquement son niveau de « réflexion » selon la complexité des tâches, afin d’optimiser les performances et les coûts. Fort de 170 milliards de paramètres, o3 se montrerait particulièrement à l’aise avec le raisonnement mathématique et l’analyse de données complexes. De son côté, o4-mini (22 milliards de paramètres) offre une alternative plus économique et rapide pour les tâches courantes, avec des temps de réponse réduits de 40 % comparés à GPT-4o.

Meta IA s’intègre à WhatsApp en Europe (17 avril 2025)
Voilà une nouvelle qui a fait grincer des dents. Meta a déployé son assistant IA dans WhatsApp et Messenger pour les utilisateurs européens. L’intégration se matérialise par une icône bleue persistante, compliquée à désactiver. Ce qui n’a pas manqué de provoquer de vives réactions et attiré l’attention des régulateurs, dont la Cnil. Toutefois, contrairement à sa version américaine, l’IA européenne de Meta est pour l’instant limitée aux fonctions textuelles, sans accès aux images ou fichiers partagés, en raison des contraintes du RGPD et de l’AI Act. Meta justifie ce déploiement par la nécessité de combler son retard sur ses concurrents.
Les Ray-Ban x Meta “voient” et traduisent pour vous (24 avril 2025)
Meta a déployé une mise à jour importante pour ses lunettes connectées Ray-Ban en Europe. Les utilisateurs européens bénéficient enfin de fonctionnalités déjà disponibles outre-Atlantique : traduction en direct (anglais, français, italien, espagnol), analyse d’environnement par la caméra, intégration avec Instagram et WhatsApp. Cette mise à jour apporte aussi une fonction de recherche visuelle assistée par IA et de nouveaux coloris. Meta indique avoir collaboré avec les régulateurs européens pour assurer la conformité au RGPD.

Perplexity annonce que Comet exploitera les données personnelles (25 avril 2025)
La communication n’est pas le fort de Perplexity. On en veut pour preuve les déclarations très polémiques de son fondateur et PDG Aravind Srinivas, qui a annoncé que son futur navigateur web Comet collectera et analysera les données de navigation pour personnaliser les publicités et les résultats de recherche. Dans une interview, l’homme a justifié cette collecte comme nécessaire pour rivaliser avec Google Chrome, tout en promettant une expérience utilisateur améliorée. Contrairement à d’autres acteurs plus discrets sur le sujet, Perplexity assume donc cette stratégie d’exploitation des informations personnelles. Mais ce cap clair soulève des interrogations sur la conformité au RGPD en Europe et l’équilibre entre personnalisation et vie privée du futur navigateur.
OpenAI et Perplexity intéressés par Chrome (26 avril 2025)
Dans le cadre du procès antitrust américain de Google, OpenAI et Perplexity ont officiellement manifesté un intérêt pour l’acquisition du navigateur Chrome, si un démantèlement était ordonné par la justice. Leur objectif évident est d’intégrer leurs assistants IA directement dans l’expérience de navigation, sans dépendre des extensions ou API de Google. Les deux entreprises auraient même déjà esquissé des plans pour transformer Chrome en une plateforme centrée sur l’IA conversationnelle. Sans surprise, Google a vivement réagi, affirmant qu’une telle mesure déstabiliserait l’ensemble de l’écosystème du Web. Rien que ça.
Anthropic fait progresser la compréhension du fonctionnement des IA (28 avril 2025)
La start-up Anthropic a publié des travaux encourageants sur la compréhension interne de son modèle Claude. Car, oui, vous ne rêvez pas, en 2025, l’ensemble des chercheurs spécialisés en IA de tout bord ne savent toujours pas exactement comment fonctionnent les intelligences artificielles génératives. En utilisant une approche de « circuit tracing », les scientifiques d’Anthropic ont cartographié des circuits neuronaux et identifié des groupes de neurones associés à des concepts humains abstraits. Cela a permis d’observer comment l’IA planifie ses réponses, gère le mensonge ou génère des hallucinations. Anthropic a également découvert des structures émergentes non programmées, suggérant que les grands modèles développent spontanément des mécanismes de raisonnement.
Adobe Firefly intègre les modèles d’OpenAI et Google (28 avril 2025)
Adobe a fait évoluer Firefly en une plateforme plus ouverte en intégrant nativement les modèles de génération d’images d’OpenAI et de Google. Il devient ainsi possible de comparer les résultats des différents modèles pour choisir le rendu le plus intéressant. L’intégration s’accompagne d’une interface unifiée pour la gestion des prompts et d’un historique partagé. Le but pour l’éditeur est de permettre à ses utilisateurs d’accéder à plusieurs technologies d’IA générative sans quitter l’écosystème Adobe. Une stratégie qui ressemble à un coup de génie de la part de l’éditeur, qui renforce ainsi sa position dans l’industrie créative, tout en se laissant le temps d’éventuellement proposer mieux que ses concurrents à l’avenir.

Adobe Content Authenticity en bêta publique (29 avril 2025)
Adobe a également lancé la version bêta publique de Content Authenticity, une application gratuite qui permet en théorie d’authentifier l’origine des contenus numériques. Les créateurs peuvent ajouter à leurs projets des « Content Credentials », des métadonnées sécurisées agissant comme une signature numérique, qui persistent même après modification ou capture d’écran. En plein essor avec les IA génératives, ce système cherche à établir une traçabilité vérifiable pour lutter contre la désinformation visuelle. Il se montre de plus compatible avec les principaux réseaux sociaux et plateformes d’information. Enfin, Adobe collabore avec plus de 2 000 organisations dans le cadre de la Content Authenticity Initiative.
NotebookLM : les résumés audio désormais disponibles en français (30 avril 2025)
Google a annoncé il ya quelques jours à peine une mise à jour très attendue pour son assistant de recherche et de prise de notes, NotebookLM. Sa fonctionnalité Audio Overviews (ou Aperçus audio), qui transforme les documents en podcasts, est désormais disponible dans plus de 50 langues, dont le français. Cette extension permet aux utilisateurs francophones d’importer leurs documents (PDF, Google Docs, etc.) et d’obtenir des résumés audio générés par IA dans leur langue. L’outil analyse le contenu, identifie les points clés et les présente sous forme d’une discussion audio d’environ 20-25 minutes, avec un choix de voix de synthèse.