La batalla entre gafas inteligentes y smartphone ya no es ciencia ficción: grandes marcas han movido ficha y apuntan hacia una informática más natural, que vive en nuestra mirada y en nuestros oídos sin encadenarnos a una pantalla en la mano. El debate es serio porque el móvil lleva una década sin dar saltos disruptivos, mientras que las gafas abren formas nuevas de interacción y contextos de uso continuos.
Desde el lanzamiento del iPhone en 2007, los teléfonos inteligentes han dominado la informática personal. Siguen siendo el centro del ecosistema digital, pero su propuesta de valor reciente se ha quedado en cámaras mejores, pantallas más finas y, últimamente, funciones IA que muchas veces son más eslogan que cambio real. En paralelo, las gafas inteligentes han pasado de prototipos torpes a productos que, aunque inmaduros, ya resuelven casos de uso cotidianos.
Contexto: del móvil ubicuo a la informática que mira al frente

Miramos el móvil con la cabeza gacha en casa, en la calle y en el trabajo; y no es precisamente sano. La alternativa lógica es que la información aparezca donde miramos, sin desviar la atención del entorno. Aquí entran las gafas, no los cascos voluminosos de realidad mixta pensados para ratos contados o escenarios complejos como juegos y cine.
El formato ganador apunta a monturas pequeñas que pasan por gafas reales. Lo demás son visores para sesiones limitadas por peso y ergonomía. Incluso el proyecto de Apple de sustituir al PC con un casco premium no va todo lo bien que esperaban: la propuesta es deslumbrante, pero el uso continuado se atraganta por coste y comodidades.
En este giro hacia lo cotidiano destaca Meta con sus Ray‑Ban y, sobre todo, Google con Android XR. La idea que defienden es cristalina: si quieres que un dispositivo lo lleves todo el día, debe parecer y sentirse como gafas normales. Cero disfraces.
Sumemos a esto un cambio de paradigma en IA: los modelos conversacionales quieren ver y oír lo que tú ves y oyes. Que un asistente perciba cámara y pantalla abre experiencias manos libres y contextuales que no encajan igual en un móvil.
Google, Android XR y la apuesta por gafas ligeras
Google mostró en su I/O más reciente que Android XR no es solo para cascos: su objetivo es llevar el sistema a monturas convencionales y colocar un asistente en tu campo visual. La visión es ambiciosa: liberarte del móvil, permitir interacciones más naturales con el entorno y que la IA actúe de copiloto.
La compañía asegura llevar más de una década trabajando en este concepto y que ahora la tecnología madura de verdad. ¿Qué hace falta? Cámara, micrófono, altavoces y enlace con el teléfono. Con esa base, Android XR ya puede tirar de tus apps y servicios sin convertir las gafas en un ladrillo tecnológico. Los modelos más avanzados añaden una pantalla en la lente para mostrar datos en privado.
¿Qué se puede hacer ya? Enviar mensajes, pedir indicaciones de Google Maps, hacer fotos que van directas a Google Fotos, o traducir conversaciones en tiempo real mientras hablas con otra persona. El patrón es claro: el sistema ve y oye lo mismo que tú para asistirte sin interrumpir.
La clave del éxito no es solo técnica, sino de ecosistema y estilo. Google ha anunciado colaboraciones con Gentle Monster y Warby Parker para crear monturas con diseño, y su alianza con Samsung aspira a ir más allá de los visores y aterrizar también en gafas tradicionales.
Entre visores y gafas: Vision Pro, Quest 3, XREAL y VITURE
Si pensamos en la experiencia más cercana al ideal de realidad mixta que todo el mundo imagina, las Apple Vision Pro están arriba del todo: objetos virtuales que se anclan al espacio, oclusión con elementos reales, sombras realistas y una interacción que se siente natural.
Pero hay peajes importantes: la Vision Pro funciona con vídeo de paso de cámara, así que hay un ligero desfase que hace que actividades como montar en bici o jugar al tenis sean mala idea. Además, es cara, voluminosa y pesada para llevar horas.
El visor Meta Quest 3 es más ligero y asequible, pero no llega a la finura de Vision Pro. El entorno se ve con menor resolución y con distorsión: los objetos del mundo real no siempre quedan donde deberían según tu percepción.
Otra liga son las gafas que se conectan a un móvil o PC y actúan como pantalla externa, como XREAL o VITURE. El contenido se proyecta mediante prismas, queda centrado en tu campo de visión, y puedes ajustar la opacidad para ver más o menos el entorno real. El brillo también es regulable, y la distorsión del mundo real es básicamente inexistente porque lo ves directamente.
- Dispositivos destacados: Samsung Gear VR (aprovecha un Galaxy como pantalla), HTC Vive XR Elite (VR de alto nivel con PC), Oculus Quest 2 y Quest Pro (autónomos sin cable), Sony PlayStation VR (para PS4), Microsoft HoloLens 2 (realidad mixta profesional) y Pico 4 VR (enfoque empresarial y educativo).
- En el frente de Apple, además de lo ya comprobado, su ecosistema gira en torno a pantallas de alta resolución, seguimiento ocular y de gestos, audio espacial, ArKit/RealityKit, una constelación de cámaras y sensores tipo LiDAR y control por voz con Siri.
Gafas de consumo: Ray‑Ban, Oakley Meta y una pulsera que lee tus gestos
Meta ha dado con la tecla en consumo al combinar moda y tecnología. Las Ray‑Ban de Meta parecen unas gafas normales, pero integran cámaras, micro y altavoces para grabar vídeo y audio, hacer fotos por voz, escuchar música o podcasts de forma discreta y hasta traducir conversaciones al vuelo. En algunos mercados se conectan a asistentes IA avanzados como Meta AI.
También se han visto propuestas como las Oakley Meta, que abrazan ese mismo enfoque de diseño deportivo con funciones de captura manos libres, control por voz y sincronización con asistentes. Ya se usan como apoyo en eventos, sustituyendo teleprompters y sistemas de traducción, aunque conviene recordar que estas herramientas están para potenciarnos, no para reemplazar nuestras habilidades.
Meta ha enseñado además unas gafas con pantalla en la lente muy discreta: proyectan notificaciones, mensajes de WhatsApp, indicaciones giro a giro o traducciones justo bajo el campo principal de visión, y desaparecen cuando no hacen falta. Para controlarlas han creado la Neural Band, una pulsera que interpreta impulsos musculares de la muñeca para convertirlos en gestos.
La batería apunta a unas 6 horas de uso continuo, con un estuche que suma hasta 24 horas. La demo no estuvo libre de fallos de conexión, pero la hoja de ruta es clara: lanzamiento en Estados Unidos primero y expansión internacional más adelante. En ciertos países algunas funciones IA tardarán en llegar por soporte regional.
Interacción, sonido y pantallas: hablar, gesticular y ver sin distraerte
Las gafas inteligentes exploran formas de interacción más naturales: voz para comandos rápidos, gestos sutiles leídos desde la muñeca, y cámaras para entender el contexto visual. La curva de aprendizaje es menor que en un casco porque el dispositivo no te aísla; complementa lo que miras.
En audio, el uso de conducción ósea permite escuchar sin auriculares, transmitiendo vibraciones a través del cráneo. No es Hi‑Fi de audiófilo, pero resuelve llamadas, indicaciones y respuestas del asistente sin bloquear el oído.
La pantalla delante de los ojos recuerda al HUD de un coche: datos esenciales flotando en el borde de tu atención, sin monopolizar tu mirada. Sorprende que, tras las Google Glass, esta tecnología haya evolucionado más despacio de lo esperado, pero el salto de integración y autonomía está en marcha.
Aplicaciones concretas: paseando por la ciudad podrías ver valoraciones de restaurantes, la historia de un edificio o la disponibilidad de una tienda cercana. En ocio, una pantalla privada siempre contigo para vídeos y juegos abre usos que un móvil no puede replicar igual de cómodo.
Conectividad, comodidad y aceptación social
Con 5G y eSIM, las gafas pueden tener conexión permanente sin depender tanto del móvil, lo que facilita trabajar, aprender o socializar en cualquier parte. La diferencia con el smartphone es que la distracción se reduce: no hay que sacar nada del bolsillo ni bajar la cabeza.
Además, las gafas son un objeto culturalmente aceptado. Para quien ya usa montura, llevar tecnología en las patillas resulta más natural que sujetar un teléfono todo el día. En deporte y actividades físicas, pesan menos y estorban menos que mirar una pantalla.
Mercado y cadena de suministro: tres rutas de producto y una carrera feroz
Hoy coexisten tres grandes categorías de gafas con IA según su complejidad: 1) Audio AI, con altavoces para entrada por voz y salida de audio; 2) Cámara AI, que añaden sensado óptico a lo anterior; y 3) AI + AR, con pantallas para salida visual además del audio.
Los precios también siguen un gradiente: las de audio AI se mueven en la franja de 1.000–1.500 yuanes, las de cámara AI entre 1.500–2.000 yuanes, y las AI + AR por encima de 3.000 yuanes. Esta estratificación refleja la dificultad técnica y los costes de óptica, sensores y energía.
La cadena de valor añade piezas al mundo de la óptica tradicional: chips, módulos de guía de ondas, audio, sensores, fuentes de energía y gestión térmica, además de integradores hardware‑software, proveedores de modelos IA y soluciones de sistema y aplicaciones.
Quien domine el rendimiento y la fabricación se llevará el gato al agua. Por cada 1% de mejora en el rendimiento de la guía de ondas, el coste total del dispositivo puede caer entre 3 y 5 dólares. Cuando la transferencia masiva de Micro‑LED madure, el motor óptico podría bajar de 80 a 40 dólares.
El mercado chino va lanzado: solo entre enero y febrero de 2025, las ventas online de gafas con cámara IA domésticas crecieron un 188,5% interanual. Si 2024 fue el primer año de las gafas AI, 2025 apunta a la batalla de las cien monturas, con capacidad asegurada por ODM/OEM como Goertek, Luxshare, Huaqin o Longcheer para encargos millonarios.
En tecnología AR, los actores clave incluyen a los ‘cuatro grandes’ (Rokid, RayNeo, XREAL e INMO), gigantes del móvil que ven una segunda curva de crecimiento (Xiaomi, Huawei, Samsung), y grandes de internet (Baidu, ByteDance, Alibaba) que empujan modelos IA y servicios en la nube. Las marcas ópticas tradicionales, con miles de tiendas, serán clave en optometría y ajuste.
Si los envíos domésticos de gafas AI alcanzan 3,5 millones en 2025 con un 30% de reemplazo, le comerán terreno a los millones de gafas convencionales. Cuando óptica, chips y modelos IA crucen el punto crítico, no habrá un único ganador, sino una migración de hábitos: más del 50% de la captación de información podría mudarse a esos pocos centímetros cuadrados delante de los ojos.
La evolución de capacidades también se puede clasificar en niveles de L1 a L5 (entidad súper inteligente). La industria ha completado lo básico (L1) y avanza hacia L2, con previsión de llegar a L4 alrededor de 2027. Como señala la propia XREAL, el gran reto en L4 es equilibrar cómputo, funciones y batería en un diseño que sigues queriendo llevar.
Modelos de negocio: hardware, servicios y verticales
Hoy el grueso del ingreso viene de ventas de hardware, con márgenes condicionados por la cadena de suministro (la guía de ondas óptica se come buena parte del coste) y primas de marca. La optimización de proveedores será clave para bajar precios.
En B2B, florecen soluciones verticales: inspección en aviación civil con gafas de IA y servicios empaquetados de hardware + software; navegación quirúrgica o laboratorios virtuales con tarifas por alquiler o uso; y retail con pruebas virtuales y recorridos guiados, cobrando integración y mantenimiento.
También hay espacio para ingresos en la nube: almacenamiento de fotos y contenidos con cuotas de servicio (por ejemplo, cobros por guardar material en servidores). A futuro, una tienda de apps para gafas AI permitiría ingresos por reparto con desarrolladores, como ya pasa en el móvil.
Marketing y producto tienen tarea: integrar la AR en experiencias de cliente y operaciones. Los Códigos QR AR acercan contenido 3D de forma ubicua desde cualquier superficie; hoy se escanean con el móvil, mañana con las propias gafas, habilitando demostraciones, tours virtuales y nuevas vías de fidelización.
Desafíos: privacidad, energía y madurez del ecosistema
La privacidad es prioritaria. En la UE, las cámaras en gafas están catalogadas como alto riesgo bajo GDPR, con sanciones que pueden llegar al 4% de los ingresos globales por violaciones. En China, la ley de protección de información personal delimita con detalle el uso de wearables.
La energía es otro muro. Un uso intensivo puede dejar las baterías temblando: las Ray‑Ban de Meta aguantan alrededor de 30 minutos a tope, y aunque soluciones de doble chip alargan a 2 horas, disparan el coste de la lista de materiales unos 15 dólares. Aquí el ingenio en eficiencia manda.
El tercero en discordia es el ecosistema de aplicaciones. Sin casos de uso ancla, hay riesgo de repetir la curva de algunos relojes inteligentes que la gente aparcó tras 3 meses. Por eso Meta y Huawei, entre otros, integran a fondo con su sistema operativo y ofrecen continuidad de tareas entre dispositivos para retener al usuario.
En seguridad y ergonomía, los retardos del vídeo en visores con passthrough marcan límites claros: caminar, vale; bicicleta o deportes rápidos, mejor no. Que las gafas no estorben ni llamen la atención en exceso es fundamental para que quieras llevarlas todo el día.
El rumbo del sector está claro: un puente gradual desde las gafas de audio y cámara hacia modelos con pantalla AR, mientras maduran óptica, chips y modelos IA. Los smartphones no van a desaparecer, pero muchas consultas y micro‑interacciones que hoy hacemos bajando la cabeza se irán desplazando a monturas que miran al frente.