Aucun cookie n’est collecté. Nous respectons le RGPD. / No cookies are collected. We comply with GDPR. https://deepbci.io
DEEPBCI®
Nous apportons l’interface cerveau‑ordinateur (BCI) aux aéronefs habités et non habités — pour le contrôle du cockpit et au‑delà. / We bring brain‑computer interface (BCI) to manned and unmanned aircraft — for cockpit controls and beyond.
Imaginez contrôler un aéronef avec vos pensées – par exemple, un jetpack qui réagit à vos intentions comme dans le film Iron Man, offrant un champ de vision 360° et un retour sensoriel en temps réel. Imaginez maintenant que tout cela soit possible dans la vraie vie, grâce à un casque d’interface cerveau‑ordinateur (BCI) qui lit vos signaux cérébraux et les traduit en commandes de vol. / Imagine controlling an aircraft with your thoughts – for example, a jetpack that operates based on your thoughts like in the movie Iron Man, offering 360° visual passthrough and real‑time sensory feedback. Now imagine this is all possible in real life, using a brain‑computer interface (BCI) headset that reads your brain signals and translates them into flight commands.
N’est‑ce pas trop risqué de connecter directement les données BCI aux commandes de vol ? / Isn't it too risky to directly interface BCI data to flight controls?
Bien sûr, vous pourriez penser que connecter directement nos données de motor imagery aux commandes de vol serait trop dangereux ou trop sensible au bruit et aux artéfacts. D’abord, notre modèle entraîné par apprentissage par renforcement est conçu pour filtrer le bruit et les artéfacts, de sorte que seuls les signaux les plus pertinents soient utilisés pour le contrôle. Ensuite, nous ne nous connectons pas directement aux commandes de vol : nous utilisons un large modèle d’actions (LAM) pour interpréter les données BCI et envoyer les commandes au drone. En ajoutant une couche intermédiaire – que nous appelons un système Fly‑by‑Large Action Model (LAM) (une sorte de fly‑by‑wire 2.0) – qui gère toutes les commandes de vol entre l’aéronef et l’entrée BCI, nous introduisons un moyen sûr et fiable de piloter via des données BCI. / Of course, you might think that directly interfacing our motor imagery data to flight controls would be too dangerous or too sensitive to noise or artifacts. First, our reinforcement‑learning‑trained model is designed to filter out noise and artifacts, ensuring that only the most relevant signals are used for control. Second, we are not directly interfacing with flight controls. Instead, we use a large action model (LAM) to interpret the BCI data and issue commands to the drone. By introducing a middle layer – what we call a Fly‑by‑Large Action Model (LAM) system (fly‑by‑wire 2.0!) – that handles all the flight controls between the aircraft and the BCI input, we provide a safe and reliable way to control the aircraft using BCI data.
Que fera le Large Action Model (LAM) ? / What will the Large Action Model (LAM) do?
Les Large Action Models (LAM) sont conçus pour comprendre les intentions humaines et les traduire en actions appropriées dans un environnement ou un système donné. Au lieu de contrôler directement l’aéronef à partir des données de motor imagery, le LAM traitera l’entrée BCI comme un « prompt » et déterminera la meilleure action à exécuter. En situation d’urgence, le LAM enverra des commandes à l’appareil pour le stabiliser et éviter un crash. En vol normal, il interprétera l’entrée BCI et transmettra au système de vol les actions souhaitées. Notre objectif est d’apporter au domaine aéronautique un niveau d’automatisation comparable à celui de Crew Dragon de SpaceX ; mais si un contrôle manuel est nécessaire, notre interface cerveau‑ordinateur permettra aux pilotes de « prompt-er » leurs actions souhaitées au calculateur de vol. / Large action models (LAMs) are designed to understand human intentions and translate them into appropriate actions within a given environment or system. Instead of directly controlling the aircraft using motor imagery data, the LAM will treat the BCI input as a “prompt” and determine the best course of action. In an emergency, the LAM will issue commands to stabilize the aircraft and prevent crashes. In normal flight, it will interpret the BCI input and issue commands for the desired maneuvers. Our goal is to bring SpaceX's Crew Dragon‑level automation to the aircraft itself, but when manual control is needed, our brain‑computer interface will help pilots “prompt” their intended actions to the flight computer.
3D Head Scan for Custom Helmet Design
L’un des éléments clés d’un système BCI non invasif réussi est un ajustement parfait à l’utilisateur : chaque électrode du casque doit être en contact avec le cuir chevelu pour obtenir des mesures fiables. Pour y parvenir, nous développons un système de numérisation 3D de la tête qui nous permettra de concevoir un casque sur‑mesure pour chaque personne. Notre première application de démonstration a été rendue possible grâce au capteur TrueDepth de l’iPhone, qui nous permet de générer en temps réel un modèle 3D de la tête de l’utilisateur. Notre fondateur technique John a développé une application iOS avec une bibliothèque C++ capable d’assembler les nuages de points issus des capteurs frontaux de l’iPhone afin de créer un modèle 3D complet de la tête. / One of the key components of a successful non‑invasive BCI system is a perfect fit to the user: every probe on the BCI headset must contact the scalp to get accurate readings. To achieve this, we are developing a 3D head‑scan system that lets us create a custom‑fit helmet for each user. Our first demo app was made possible by the iPhone's TrueDepth sensor, which allows us to build a 3D model of the user's head in real time. Our technical founder John built an iOS app with a C++ library that stitches together point‑cloud data from the iPhone's front‑facing sensors to create a complete 3D model of the head.
Vous pouvez simplement scanner votre tête avec un iPhone équipé du LiDAR, exporter le modèle 3D au format OBJ et, à terme, vérifier des dimensions comme la distance interpupillaire et le tour de tête (fonctionnalité à venir). / You can simply scan your head using an iPhone with LiDAR, export the 3D model in OBJ format, and soon check dimensions like interpupillary distance and head circumference.