J’ai vu l’ascension rapide d’une application qui change la donne: Neon est devenue l’une des plus téléchargées dans la section Social de l’App Store américain en proposant de payer ses utilisateurs pour enregistrer leurs conversations téléphoniques. Le modèle est simple et troublant: vous acceptez que vos échanges audio soient captés — et vendus à des entreprises d’IA pour l’entraînement de modèles. Ce choix commercial soulève des questions juridiques, techniques et éthiques que j’ai voulu déplier pour comprendre ce que cela signifie en 2025.
Neon sur l’App Store : comment l’application a grimpé les classements
J’ai entendu parler de Neon au moment où elle passait de la 476e place à la 10e, puis jusqu’à la 2e position dans la catégorie Social de l’App Store aux États‑Unis, selon des données d’Appfigures. L’application promet aux utilisateurs des gains — jusqu’à des centaines voire « des milliers de dollars par an » selon sa communication — en échange de l’accès à leurs appels.
Sur son site, Neon détaille une rémunération de 0,30 $ par minute pour les appels entre utilisateurs Neon et un plafond de 30 $ par jour pour les appels vers d’autres numéros. L’axe commercial (paiement + parrainage) explique en partie l’engouement, observable aussi chez des profils attirés par des revenus complémentaires, comme ceux décrits dans des articles consacrés aux métiers et à la monétisation en ligne.
Ce succès marque une tendance: face à la concurrence d’acteurs comme Meta, Google ou Microsoft, des applications cherchent à monétiser les données vocales directement auprès des fournisseurs d’IA. Insight : l’appétit pour des revenus rapides peut conduire à des arbitrages lourds sur la vie privée.
Ce que Neon enregistre et ce qu’elle revend
J’ai lu les conditions d’utilisation: l’application peut capturer les appels entrants et sortants. Dans sa communication, Neon affirme ne conserver que le côté de l’utilisateur sauf si l’autre correspondant utilise Neon aussi. Les contrats précisent que ces enregistrements sont vendus à des entreprises d’IA « pour développer, entraîner, tester et améliorer des modèles d’apprentissage automatique ».
Les conditions accordent à Neon une licence extrêmement large et mondiale pour utiliser, modifier, distribuer et monnayer les enregistrements — y compris la possibilité de sous‑licencier ces données à plusieurs niveaux. Cette formulation ouvre la porte à des usages multiples, parfois imprécis pour l’utilisateur qui signe sans discuter. Référence pratique : la manière dont les données audio sont traitées renvoie aussi à des questions de propriété intellectuelle et droit d’auteur liées aux contenus produits par des IA.
Dans la pratique, la promesse de rémunération rend tangible le compromis: de l’argent immédiat contre des données vocales qui alimentent des systèmes d’IA. Insight : la formulation contractuelle laisse une marge de manœuvre large pour l’entreprise et ses partenaires.
Risques juridiques et techniques autour de l’enregistrement « d’un seul côté »
J’ai consulté des spécialistes: pour Jennifer Daniels (Blank Rome), l’approche de Neon — n’enregistrer qu’un côté de la conversation — ressemble à une tentative d’éviter les lois sur l’écoute électronique qui exigent parfois le consentement de toutes les parties. Peter Jackson (cabinet Greenberg Glusker) alerte sur le langage des « transcriptions unilatérales » qui pourrait masquer des enregistrements complets dont on effacerait ensuite la voix du tiers.
Les risques techniques sont concrets: même annoncées comme « anonymisées », les voix peuvent permettre de créer des voix synthétiques et servir à l’usurpation d’identité, à la fraude téléphonique ou à des deepfakes audio. Un enregistrement vendu aujourd’hui à un fournisseur d’IA peut être réutilisé demain par un acteur tiers sans que l’utilisateur sache exactement qui y a accès.
J’ai aussi vérifié un test terrain: l’application n’a pas prévenu le correspondant qu’il était enregistré et s’est comportée comme un service VoIP classique, d’après une enquête journalistique. Insight : la mise en œuvre pratique peut réduire la transparence pour les interlocuteurs non inscrits sur Neon.
Un enjeu sociétal : pourquoi certains acceptent de vendre leur voix
Imaginez Léa, consultante qui cherche à arrondir ses fins de mois: accepter 30 cents la minute peut sembler logique si l’on croit que les données sont déjà partout. J’ai entendu ce raisonnement chez des utilisateurs de services qui monétisent des données personnelles — la logique de « si c’est vendu, autant en tirer profit ».
Pourtant, l’échange n’affecte pas que le signataire: il met en jeu la confidentialité d’autres personnes, familiales ou professionnelles, qui ne se sont pas portées volontaires. Les précédents sont là: scandales d’apps payant des données en 2019, pratiques d’analytique mobile en 2020, et l’irrésistible présence d’agents IA dans nos réunions. Les entreprises comme OpenAI, Microsoft, ou des services de messagerie comme WhatsApp et Snapchat observent et intègrent souvent des fonctionnalités vocales — le contexte technologique favorise cette marchandisation des voix.
Sur le plan réglementaire et citoyen, la question devient : accepter des revenus à court terme vaut‑il le risque d’exposer sa voix à des chaînes de revente incontrôlées ? Insight : le réflexe de monétiser ses données individuelles s’inscrit dans un marché où la transparence sur l’usage ultime reste insuffisante.
Qui se cache derrière Neon et quelles garanties pour l’utilisateur ?
J’ai cherché des traces: le fondateur apparaît sous le nom d’Alex Kiam, opéré depuis un appartement à New York selon des registres, et une levée de fonds a été mentionnée sur LinkedIn impliquant Upfront Ventures. La société n’a pas répondu aux sollicitations des journalistes, ce qui laisse des zones d’ombre sur les partenaires qui reçoivent les données.
Même si Neon affirme retirer noms et numéros avant la vente, elle ne précise pas la nature des « partenaires » ni les droits qu’ils obtiennent ensuite. Le risque de fuite de données ou de piratage demeure réel : toute base réunissant des voix est un actif convoité, et les garanties techniques/budgetaires peuvent varier grandement entre startups et géants comme Google ou des acteurs du cloud.
Pour les utilisateurs, la règle reste de lire attentivement les conditions et d’évaluer le rapport gains/risques. Insight : l’opacité entourant les partenaires et la licence accordée aux enregistrements demeure le point le plus alarmant.
Que retenir et où aller pour en savoir plus
Ce dossier illustre combien la révolution IA pousse des modèles économiques nouveaux — et parfois agressifs — autour de la donnée vocale. Si vous cherchez des repères juridiques ou des ressources pratiques, certains articles et guides publics peuvent aider à comprendre ses droits et démarches, de la saisie d’un expert‑comptable aux démarches juridiques. Pour approfondir les aspects pratiques, consultez des ressources locales sur l’aide juridictionnelle, la propriété intellectuelle, ou des guides sur la monétisation (liens utiles ci‑dessous).
Liens utiles : https://l-echo.info/comment-faire-une-demande-daide-juridictionnelle/ — https://l-echo.info/propriete-intellectuelle-et-droit-dauteur-en-france-tout-ce-quil-faut-savoir/ — https://l-echo.info/deezer-annonce-lidentification-des-albums-comprenant-des-titres-crees-par-intelligence-artificielle/ — https://l-echo.info/abonnes-gagner-argent-tiktok/ — https://l-echo.info/les-principaux-changements-qui-entreront-en-vigueur-au-1er-janvier-2025-en-france/
Fenêtre ouverte : continuez la discussion — partagez votre expérience si vous avez déjà testé une application qui monétise vos données vocales ou si vous avez des inquiétudes particulières sur la protection contre la fraude vocale.