Seguimiento ocular y control cerebral: la accesibilidad de Apple entra en una nueva era

Apple presenta funciones de accesibilidad que permiten controlar iPhones con la mirada o mediante señales cerebrales, gracias a una alianza con Synchron.
Apple ha anunciado nuevas funciones de accesibilidad que incluyen el seguimiento ocular y una interfaz cerebro-computadora, desarrollada en colaboración con la empresa Synchron. Las innovaciones permitirán a personas con discapacidades motoras severas controlar dispositivos como iPhones, iPads y visores Apple Vision Pro solo con la mirada o con el pensamiento. El anuncio se realizó en mayo de 2025 como parte del compromiso de Apple con una tecnología más inclusiva. El sistema comenzará a implementarse a finales de este año con una infraestructura ya integrada en iOS, iPadOS y visionOS.
Una mirada que controla el mundo digital
El seguimiento ocular permitirá que los usuarios manejen interfaces táctiles con solo mover los ojos, sin necesidad de periféricos físicos ni comandos de voz. Basada en algoritmos avanzados de visión por computadora y aprendizaje automático, esta función identifica el punto exacto donde el usuario está mirando y permite acciones como desplazarse, seleccionar íconos, o escribir.
La función se habilitará directamente desde la configuración de accesibilidad en dispositivos compatibles, y requiere solo la cámara frontal estándar del dispositivo, lo que elimina la necesidad de hardware externo. Apple ha señalado que el seguimiento ocular fue diseñado específicamente para usuarios con movilidad limitada, como quienes viven con parálisis cerebral, distrofia muscular o lesiones medulares.
Más allá de su utilidad práctica, este avance redefine la interfaz usuario-dispositivo: la mirada se convierte en cursor, en clic, en intención. Y lo hace sin sacrificar privacidad, ya que el procesamiento ocurre en el dispositivo, en línea con la política de privacidad diferencial de Apple.
Pensamientos que se convierten en comandos
Aún más revolucionaria es la integración de tecnología de interfaz cerebro-computadora (BCI) a través de una alianza con Synchron, pionera en el campo. Su dispositivo Stentrode se implanta de forma mínimamente invasiva a través de la vena yugular y se posiciona sobre la corteza motora del cerebro, capturando señales neuronales relacionadas con la intención de movimiento.
Estas señales se traducen en comandos digitales gracias al nuevo protocolo BCI Human Interface Device (BCI HID), lo que convierte al pensamiento en un canal de entrada oficialmente reconocido por Apple. En otras palabras, los dispositivos Apple reconocen los impulsos cerebrales como clics, toques, desplazamientos o selecciones. Es una forma de control digital sin necesidad de hablar, moverse ni tocar.
Mark Jackson, paciente con ELA, ya ha probado esta tecnología para explorar entornos en realidad virtual a través del visor Apple Vision Pro. Sin moverse de su silla, pudo “asomarse a una cima en los Alpes suizos”. Un ejemplo concreto de cómo la tecnología puede restituir la agencia digital a quienes han perdido el control físico.
Una plataforma accesible, nativamente cerebral
Apple no se limita a permitir el control cerebral: lo integra profundamente en su ecosistema, a través de la expansión de su marco de accesibilidad Switch Control. Este sistema ya permitía el ingreso de comandos mediante hardware adaptado (como pulsadores o joysticks) y ahora se actualiza para aceptar señales neuronales como nueva categoría de entrada oficial.
Con esta actualización, los usuarios con BCI podrán realizar tareas esenciales como escribir mensajes, activar electrodomésticos inteligentes, navegar por internet o controlar una Roomba, únicamente con el pensamiento. En las demostraciones, los pacientes activaron luces, ajustaron ventiladores o enviaron textos sin mover un solo músculo.
El protocolo BCI HID también estandariza la conexión de estas interfaces, de forma análoga a cómo Apple facilitó en 2014 la conectividad entre audífonos y iPhones. Ahora, el cerebro puede integrarse al ecosistema Apple como cualquier otro dispositivo de entrada, con reconocimiento oficial del sistema operativo y soporte en sus APIs.
Un futuro sin barreras, y sin manos
Estas innovaciones no solo representan avances técnicos, sino una declaración ética sobre el diseño inclusivo. Apple demuestra que la accesibilidad no es una función añadida, sino un eje de innovación. Al integrar control ocular y neuronal como entradas nativas, está diciendo que todos los cuerpos, incluso los más limitados físicamente, tienen derecho a interactuar con la tecnología de forma completa.
Y lo hace sin esperar un futuro lejano. El seguimiento ocular estará disponible en iOS y iPadOS a partir de finales de 2025, y el soporte para BCI ya está activo en pruebas clínicas. A medida que dispositivos como el Stentrode superen fases regulatorias, podrán integrarse al ecosistema sin necesidad de software intermedio.
Para muchas personas con discapacidades severas, este anuncio no es solo técnico: es una puerta a la autonomía digital, una oportunidad para comunicarse, participar, crear o simplemente navegar por el mundo sin barreras.
En un momento donde la IA y la tecnología redefinen los límites de lo posible, Apple apuesta por algo más humano: una tecnología que escuche los ojos, y responda al pensamiento.
Comentarios cerrados