Table of Contents
La neurotecnología anti-bot está dando un paso sorprendente en la lucha contra el fraude digital y los deepfakes. Una nueva solución experimental que propone algo que hasta hace poco parecía ciencia ficción: identificar si quien sostiene un smartphone es un ser humano real, leyendo señales neuronales en tiempo real, sin interacción del usuario, sin depender de la nube y sin almacenar datos biométricos.
La propuesta ya puede probarse en dispositivos Android y promete abordar uno de los grandes retos de la era de la inteligencia artificial: distinguir entre personas reales, bots automatizados o contenido sintético generado por IA.


Neurotecnología anti-bot: ¿cómo un smartphone puede detectar señales del cerebro?
El principio detrás de esta tecnología es sorprendentemente simple, pero potente. El cerebro humano envía constantemente señales a través del sistema nervioso, y esas señales generan microvibraciones musculares imperceptibles en la mano.
Los sensores IMU del smartphone -los mismos que permiten girar la pantalla o contar pasos (giroscopio y el acelerómetro, respectivamente)- son lo suficientemente sensibles para detectar esas microvibraciones.
Según explica Mohammad Gharib, CSO de Aerendir A-Live, desarrolladores de la solución:
El cerebro envía señales constantemente a través del sistema nervioso, y esas señales se manifiestan como pequeños movimientos musculares: vibraciones micrométricas en la mano.
Cuando una persona sostiene su teléfono, la aplicación captura esa señal física en segundo plano. No se requiere presionar botones ni completar pruebas visuales.
El usuario simplemente sostiene su teléfono. Eso es todo. Agrega Gharib.
Lo interesante es que la señal capturada no es una plantilla biométrica, ni un patrón almacenado. Se trata de una señal neuronal aleatoria y en vivo, diferente cada vez.
El sistema clasifica entonces la señal como proveniente de:
- Un cerebro humano real
- Una fuente no humana
- o algo generado sintéticamente
Un enfoque diferente frente a los deepfakes
La mayoría de herramientas actuales para detectar fraude digital analizan imágenes o video para encontrar inconsistencias visuales.
Pero este enfoque tiene un problema evidente: los modelos de IA generativa evolucionan constantemente.
Mohammad Gharib, lo explica así:
Las herramientas disponibles actualmente analizan principalmente imágenes o vídeos, intentando detectar artefactos visuales o inconsistencias.
En cambio, esta tecnología no mira imágenes ni videos. Lee una señal física del cuerpo. Y ahí está la clave.
Un deepfake puede engañar a una cámara. Pero no puede reproducir un sistema nervioso humano vivo. Añade el ejecutivo.
Además, los bots automatizados tampoco pueden replicar esta señal porque no tienen cuerpo.


Precisión superior al 99,8 %
Uno de los datos más llamativos del sistema es su nivel de precisión.
Las pruebas realizadas hasta ahora muestran resultados superiores al 99,8 % de exactitud al distinguir entre humanos reales y fuentes artificiales.
Según Mohammad Gharib:
Nuestras pruebas muestran una precisión superior al 99,8 %. Cuando encontramos algo que el clasificador no procesa correctamente, lo reajustamos y seguimos adelante.
El equipo también asegura que el sistema se ha diseñado para eliminar cualquier forma reproducible de engañar al algoritmo.
Privacidad: todo ocurre dentro del dispositivo
En un momento donde el uso de datos biométricos genera debates sobre privacidad, el sistema apuesta por un enfoque radicalmente distinto.
Todo el procesamiento ocurre directamente en el smartphone. No hay servidores externos, ni bases de datos biométricas.
Los datos del sensor se introducen en el clasificador local y el resultado es un único resultado: humano o no.
Y agrega Ghariib:
No se envía nada a ninguna parte, no se almacena nada. No hay ningún servidor que reciba datos biométricos ni ninguna base de datos que pueda ser vulnerada.
Además, al no existir una plantilla biométrica permanente, tampoco hay información que pueda ser robada o reutilizada.
Dónde podría aplicarse esta tecnología
Los desarrolladores ven esta solución como una capa adicional de seguridad, no como un reemplazo de sistemas existentes.
Entre los escenarios donde podría implementarse primero destacan:
- Autenticación bancaria
- Plataformas de comercio electrónico
- Prevención de ataques DDoS
- Verificación de identidad digital
- Seguridad empresarial
Como nos explica Ghariib:
El sector bancario es una opción obvia, ya que añade una verificación humana pasiva a la autenticación existente sin cambiar la experiencia del usuario.
Limitaciones técnicas y escalabilidad
La tecnología tiene una limitación clara: depende de sensores IMU.
Eso significa que funciona en smartphones y wearables, pero no en computadores de escritorio o portátiles.
Sin embargo, los sensores IMU están presentes en prácticamente todos los teléfonos modernos.
Por eso, según el equipo, escalar la solución no sería un problema.
Los sensores IMU están presentes en prácticamente todos los smartphones fabricados en los últimos años, por lo que la base de clientes potenciales ya es enorme. Concluye el CSO.
Una nueva frontera en la seguridad digital
A medida que los deepfakes y los bots se vuelven más sofisticados, las estrategias de defensa también deben evolucionar.
Leer señales neuronales desde un smartphone puede sonar futurista, pero abre una línea de investigación fascinante: verificar la presencia humana a partir de señales biológicas reales, en lugar de confiar únicamente en análisis visuales o comportamientos digitales.
Si esta tecnología supera las pruebas independientes que se planean realizar pronto, podría convertirse en una herramienta clave para reforzar la seguridad digital en un mundo cada vez más dominado por la inteligencia artificial.


🌎 Punto de encuentro
¿Crees que tecnologías como esta serán necesarias para demostrar que somos humanos en Internet en los próximos años?















