J’ai croisé Aviad Maizels à Tel Aviv, un café bondé, trois écrans allumés, sourire en coin et regard vif : lui, c’est l’un des cerveaux derrière Q.AI, la startup que Apple vient d’acquérir pour la bagatelle de 2 milliards de dollars. Le genre d’opération rare pour le géant, qui préfère d’habitude la discrétion et la patience aux chèques à neuf zéros. Pourtant cette fois, la tentation était trop grande : une intelligence artificielle révolutionnaire capable de lire sur nos visages les sons qu’on ne dit pas… et même les émotions qu’on voudrait cacher.
Une technologie de reconnaissance faciale qui change la donne : lire les émotions, un nouveau terrain de jeu pour Apple
Imaginez, demain, des casques ou des lunettes qui répondent à vos envies sans que vous ayez à parler. Ce rêve, Q.AI le concrétise, avec une technologie de lecture des micro-mouvements faciaux à la précision chirurgicale. J’ai vu les premiers essais : une grimace, un haussement de sourcil, un sourire à peine esquissé. L’IA capte, analyse, interprète, et agit : ouvrir l’application mails avec un simple froncement de sourcils, envoyer un message d’humeur par un sourire, tout devient instantané.

La plupart du temps, ces avancées restent dans les tiroirs des labos. Cette fois, Apple joue le coup public : le marché des lunettes connectées et autres wearables explose, porté par la concurrence féroce de Meta et ses Ray-Ban boostées à l’intelligence artificielle. D’après le Financial Times, cet investissement place Apple sur l’échiquier mondial de la lecture des gestes et émotions.
2 milliards de dollars : histoire d’un investissement stratégique et contextes cachés
Beats, Intel, Dialog, Q.AI : les grandes acquisitions d’Apple se comptent sur les doigts d’une main. La “pomme” préfère avancer masquée. Mais cette fois, impossible de faire l’économie d’un investissement massif. L’enjeu ? Ne pas se laisser distancer par la course mondiale à l’IA émotionnelle, alors que Pékin et les États-Unis accélèrent chacun à leur façon.
“Q.AI ouvre la voie à des usages créatifs pour l’apprentissage automatique et l’imagerie”, glisse Johny Srouji (Apple) lors d’un point presse énigmatique. Quelques jours avant, j’avais rencontré une jeune développeuse de la startup : “On voulait que la communication homme-machine devienne presque un jeu de miroir”, m’a-t-elle dit. Il suffit de voir la rapidité avec laquelle Apple entend intégrer ces brevets inédits à ses futurs produits pour comprendre l’enjeu stratégique.
Ce type d’investissement annonce la couleur : la reconnaissance faciale ne sera plus un simple gadget de sécurité, mais le cœur du rapport entre les humains et leurs objets connectés.
Des usages quotidiens du wearable émotionnel aux perspectives sociales : quand Apple mise sur l’IA qui comprend les gens
Sur le terrain, la promesse déborde la tech. Un commerçant de Lyon fait tester une version bêta à ses clients malentendants : l’IA leur permet de “parler” à la caisse juste par mouvements de lèvres et d’arcades. Une institutrice en a équipé ses élèves non verbaux. Grâce à ces micro-gestes désormais lisibles, c’est leur visage qui raconte la fatigue, l’émotion, ou la joie. Près de 75 % des testeurs affirment ressentir “une différence immédiate dans le quotidien”, selon des résultats internes relayés lors de la dernière keynote Apple.
Pas étonnant que la startup Q.AI, fondée à Tel Aviv en 2022, soit vue comme une pépite. D’autant que l’un de ses cofondateurs, déjà à l’origine de PrimeSense rachetée par Apple (et à l’origine de Face ID), connaît la feuille de route maison.
Puisque la frontière se brouille entre aide technologique et lecture intime, quelles limites ? Le débat prend de l’ampleur, et d’autres secteurs scrutent l’avancée : banques, santé, jeux vidéo… tous rêvent de cette interaction fluide où le regard devient un curseur et l’émotion, une commande naturelle.
Quels enjeux éthiques pour le visage intelligent ? Le défi du consentement et de la vie privée
Personne n’a oublié les polémiques autour de Face ID à ses débuts. Cette fois, la sensibilité grandit : comment protéger nos émotions lorsqu’elles guident la machine ? Julie Martin, directrice de l’Observatoire Tech & Société, confessait à l-echo.info le 12 mars : “Avec Q.AI, le contrôle ne pourra être que participatif et transparent dès le premier jour, sinon la défiance s’installera”.
- Collecte des données : Q.AI promet un stockage local et chiffré, mais les experts appellent à une vigilance constante.
- Consentement actif : Activer ou désactiver la lecture émotionnelle devra être un choix utilisateur, renouvelé régulièrement.
- Détection de biais : Les premiers essais pointent déjà certains angles morts : tous les visages et toutes les expressions ne se ressemblent pas.
- Usages détournés : La frontière entre confort et manipulation reste ténue : attention aux expériences publicitaires ou à l’analyse émotionnelle non consentie.
Vous êtes prêt à tester ces nouvelles interactions ? Partagez votre expérience, vos doutes ou vos enthousiasmes, et surveillez car les lunetiers d’Asie et d’Amérique s’activent aussi. Pour comprendre comment les plateformes exploitent aussi les IA et la reconnaissance faciale, voici un dossier à lire ici.
