Imaginer un texte sans le dicter, sans le taper, sans bouger les lèvres : la pensée verbale se transforme directement en caractères sur un écran. Cette promesse, longtemps cantonnée à la science-fiction, est aujourd’hui portée par Sabi, une startup californienne qui sort du mode furtif avec un casque BCI non invasif. Son ambition déclarée : concurrencer Neuralink sur le terrain grand public, sans chirurgie ni microphone, en pariant sur une EEG haute densité couplée à un modèle de fondation neuronale. La question reste ouverte : véritable rupture technologique ou promesse marketing de plus dans un marché qui en a beaucoup vu passer ?
Qu’est-ce que Sabi et son casque BCI non invasif
Sabi est une jeune pousse basée à Palo Alto qui vient de sortir de la période stealth. Fondée par une équipe issue des neurosciences computationnelles et du hardware semi-conducteur, elle est notamment soutenue par Vinod Khosla, investisseur emblématique de la Silicon Valley. Son produit phare ne prend pas la forme d’un implant, mais d’un simple bonnet en tissu technique, comparable à une casquette de sport, bourré de capteurs miniaturisés.
L’objectif affiché est radicalement différent de celui des implants cérébraux : lire la parole interne, c’est-à-dire ces mots que l’utilisateur articule mentalement sans les prononcer, puis les convertir en texte en temps quasi réel. Le tout sans ouvrir la boîte crânienne, sans électrodes intracorticales, sans passer par un bloc opératoire. Sabi vise d’emblée un marché massif : salariés pressés, développeurs, créateurs de contenu, personnes en situation de handicap moteur léger et, à terme, quiconque trouve le clavier ou la voix inadaptés dans certains contextes.
Le premier dispositif commercial est annoncé pour fin 2026, avec un objectif initial d’environ 30 mots par minute. C’est moins que la dictée vocale moderne, mais considérablement plus que la majorité des BCI non invasives actuelles, qui plafonnent généralement à quelques mots par minute dans des conditions de laboratoire très contrôlées.
Comment ça marche techniquement
La chaîne de traitement de Sabi repose sur trois piliers : une surface de capture dense, une électronique propriétaire et une couche d’intelligence artificielle calibrée sur d’importants volumes de données neuronales. Sur le papier, la combinaison de ces trois éléments doit compenser la faiblesse intrinsèque du signal EEG capturé à travers le cuir chevelu.
Capteurs EEG haute densité et fNIRS
Sabi revendique l’intégration de 70 000 à 100 000 capteurs miniaturisés sur l’ensemble de son bonnet, soit plusieurs ordres de grandeur au-dessus des EEG cliniques classiques qui tournent entre 32 et 256 électrodes. Une partie de ces capteurs reprend le principe de l’électroencéphalographie, captant les champs électriques générés par l’activité corticale. D’autres s’inspirent de la spectroscopie proche infrarouge fonctionnelle (fNIRS), capable de mesurer les variations d’oxygénation sanguine dans les couches superficielles du cortex.
ASICs personnalisés et modèle de fondation
Chaque grappe de capteurs est reliée à des ASICs développés en interne, chargés de numériser le signal, de débruiter et de compresser les données avant qu’elles ne remontent vers le modèle de décodage. Cœur du système, ce dernier est décrit comme un « modèle de fondation cérébrale », entraîné sur 100 000 heures de données neuronales issues d’une centaine de volontaires. Il s’agit donc d’un réseau de neurones profond, analogue dans sa philosophie aux grands modèles de langage, mais spécialisé dans la cartographie signal cérébral ↔ phonème ↔ mot.
Latence, calibrage et expérience utilisateur
Le défi opérationnel n’est pas seulement celui de la précision brute, mais aussi celui de la latence et du confort d’usage. Une interface utilisable au quotidien doit répondre en quelques centaines de millisecondes, tolérer les mouvements, la transpiration, le port prolongé, et surtout réduire au minimum la phase de calibrage individuel. Sabi n’a pas encore publié de résultats évalués par des pairs, ce qui rend toute vérification indépendante impossible à ce stade.
Sabi vs Neuralink : invasif contre non invasif
La comparaison avec Neuralink est inévitable, mais elle doit être nuancée. L’implant N1 de la société d’Elon Musk mise sur 1024 électrodes intracorticales insérées directement dans le tissu cérébral par un robot chirurgical. Cette approche livre un signal d’une fidélité incomparable, permettant aujourd’hui à des patients tétraplégiques de contrôler un ordinateur par la pensée. C’est la voie « signal maximal, complexité clinique maximale ».
Sabi emprunte un chemin opposé. La fidélité par canal est bien inférieure, mais la surface de capture explose et la couche logicielle compense statistiquement le bruit. Cette stratégie est également à contre-courant de celle de la Chine, qui parie sur les implants avec Beinao-1 pour rattraper Neuralink d’ici 2030. La différence fondamentale n’est donc pas seulement technique, elle est également commerciale :
- Neuralink vise quelques milliers de patients cliniques à fort besoin médical.
- Sabi vise potentiellement des dizaines de millions d’utilisateurs grand public, sans parcours hospitalier.
- Synchron occupe une position intermédiaire, avec un stentrode endovasculaire qui évite la chirurgie crânienne ouverte.
Autrement dit, Sabi et Neuralink ne se livrent pas vraiment le même combat : l’une veut devenir le prochain casque audio, l’autre, le prochain stimulateur cardiaque. Mais toutes deux partagent le même horizon : faire de l’interface cérébrale une nouvelle catégorie informatique.
Cas d’usage annoncés par Sabi
Sur son site et dans ses premières interventions publiques, Sabi met en avant plusieurs cas d’usage concrets, classés par ordre de maturité technique estimée.
- Accessibilité : offrir un canal d’entrée alternatif aux personnes atteintes de sclérose en plaques, de maladie de Parkinson légère ou de fatigue chronique, pour qui taper au clavier devient progressivement douloureux.
- Productivité : dicter mentalement un e-mail, un message Slack ou une ligne de code sans déranger ses voisins en open space ou dans les transports.
- Assistants vocaux silencieux : dialoguer avec un agent d’IA sans prononcer un mot, y compris dans des environnements où la reconnaissance vocale classique échoue (bruit, anonymat, confidentialité).
- Gaming et réalité immersive : introduire de nouvelles modalités de commande dans les casques XR, en complément du regard et des gestes.
- Sécurité et défense : communication discrète sur le terrain, un segment que Sabi évoque sans trop s’y attarder.
Le discours est habile : en commençant par l’accessibilité, la startup ancre son produit dans un usage à forte valeur sociale et évite les critiques qui pleuvent rapidement sur les dispositifs perçus comme « gadgets ». Mais la réalité économique poussera probablement vers la productivité et les agents d’IA, là où se trouve le volume.
Les limites scientifiques et éthiques
La prudence s’impose pour plusieurs raisons. D’abord, d’un point de vue scientifique, la littérature sur le décodage de la parole imaginée par EEG est beaucoup moins mûre que celle de la parole articulée ou intendée par implant cortical. Les signaux sont plus faibles, noyés dans le bruit musculaire, oculaire et électromagnétique, et la variabilité inter-sujets reste élevée. Sans publication révisable par les pairs, les 30 mots par minute annoncés par Sabi doivent être considérés comme un objectif de design plutôt que comme un résultat vérifié.
Ensuite, sur le plan éthique et juridique, lire la parole interne soulève des questions radicalement nouvelles. La notion de « vie privée mentale » ou neurorights fait déjà l’objet de débats dans plusieurs juridictions, du Chili à la Californie. Un appareil capable de décoder l’intention verbale, même imparfaitement, ouvre un spectre de risques : inférences non consenties, usage par l’employeur, pression publicitaire ciblée, exploitation judiciaire des données neuronales. Sabi devra construire un argumentaire très solide sur le consentement explicite, la conservation locale des données et la réversibilité du traitement.
Enfin, la fiabilité en conditions réelles restera la pierre de touche. Les démonstrations en laboratoire, avec sujets entraînés et environnement contrôlé, ne prédisent pas toujours bien les performances en usage nomade, sur cheveux longs, en présence de chargeurs à induction, de prothèses auditives ou simplement de stress quotidien.
Perspectives du marché BCI 2026-2030
Les analystes du secteur convergent sur un point : le marché des interfaces cerveau-ordinateur va connaître une croissance à deux chiffres au cours des prochaines années, portée principalement par le segment médical. Les estimations les plus courantes placent la valorisation du marché BCI autour de 3 à 5 milliards de dollars en 2026, avec une projection pouvant dépasser 12 milliards à l’horizon 2030 selon les hypothèses les plus optimistes.
Dans ce paysage, trois tendances se dessinent clairement pour la période 2026-2030 :
- Maturation clinique des implants : Neuralink, Paradromics, Synchron et Precision Neuroscience multiplieront les essais de phase 2, passant progressivement de la preuve de concept à un usage clinique routinier pour les patients paralysés.
- Convergence avec l’IA générative : les BCI deviendront une nouvelle modalité d’entrée pour les assistants conversationnels, au même titre que la voix ou le texte. Les « agents » déployés en entreprise intégreront ces canaux silencieux.
- Déferlante non invasive grand public : Sabi, Neurable, Emotiv et quelques autres tenteront de créer une catégorie de neural wearables, s’adressant au marketing du bien-être, de la productivité et du gaming.
Dans ce triptyque, Sabi joue une carte singulière : la seule startup non invasive à revendiquer explicitement la conversion de pensée en texte généraliste. Si elle réussit, même partiellement, elle ouvrira une brèche stratégique que les GAFAM ne laisseront pas longtemps inoccupée — Meta et Apple travaillent déjà sur des bracelets EMG et des casques avec capteurs biométriques. Si elle échoue, elle risque de rejoindre le cimetière des promesses BCI non tenues, très encombré.
Questions fréquentes
Sabi est-elle véritablement concurrente de Neuralink ?
Pas frontalement. Neuralink vise un usage médical avec un implant intracortical pour patients paralysés, tandis que Sabi cible un marché grand public non invasif avec un simple bonnet EEG. Elles partagent la catégorie BCI, mais pas le segment client ni le niveau de risque chirurgical.
Quand le casque BCI de Sabi sera-t-il disponible à la vente ?
La startup annonce un premier produit commercial pour fin 2026, avec une version initiale limitée à environ 30 mots par minute. Aucun prix officiel n’a été communiqué, ni de calendrier précis pour les marchés européens.
Le dispositif peut-il lire toutes les pensées ?
Non. Sabi cible spécifiquement la parole interne, c’est-à-dire les mots articulés mentalement par l’utilisateur. Les pensées non verbales, images mentales ou émotions ne sont pas l’objectif du système et ne sont pas, en l’état, décodables de manière fiable par EEG de surface.
Faut-il une formation pour utiliser un BCI non invasif ?
Oui. Toutes les interfaces cerveau-ordinateur actuelles nécessitent une phase de calibrage et un apprentissage mutuel entre l’utilisateur et le modèle. Sabi promet de réduire cette phase grâce à son modèle de fondation, mais ne l’élimine pas complètement.
Quels sont les risques pour la vie privée ?
Le principal risque concerne la conservation et l’exploitation des signaux neuronaux. Ces données sont particulièrement sensibles et, dans la plupart des juridictions, mal encadrées par les lois actuelles sur la protection des données. Les débats sur les neurorights s’annoncent déterminants pour encadrer l’usage commercial de ces technologies.