La idea de escanear objetos en 3D con el móvil para luego imprimirlos en una impresora 3D ya no es ciencia ficción: está al alcance de cualquiera con un smartphone mínimamente decente y algo de paciencia. El gran cambio ha venido con los sensores de profundidad, especialmente los sensores ToF (Time of Flight) y, en el caso de Apple, el sensor LiDAR de los iPhone Pro, que facilitan muchísimo la captura de volumen y distancias.
Aun así, hay matices importantes: no todos los móviles y no todas las tecnologías de escaneo 3D rinden igual. Algunos usuarios se quejan, por ejemplo, de que móviles de gama alta como ciertos Samsung no integren LiDAR mientras los iPhone Pro sí, lo que complica las cosas a quien quiere un flujo de trabajo rápido para impresiones 3D. La buena noticia es que, combinando bien el sensor de tu móvil (ToF o cámara normal), aplicaciones específicas y fotogrametría, se pueden conseguir modelos muy decentes para imprimir en 3D sin gastar un dineral en un escáner profesional.
Sensor ToF, LiDAR y lectura de profundidad: qué está pasando en los móviles
En los últimos años, los fabricantes de móviles se han lanzado a la carrera de las cámaras múltiples, no solo para presumir de fotos con desenfoque bonito (bokeh), sino también para ofrecer funciones avanzadas basadas en la lectura de profundidad. Tradicionalmente, ese bokeh se simulaba con una segunda cámara o directamente vía software e inteligencia artificial, pero en paralelo ha llegado una tecnología concreta a los teléfonos: los sensores de tiempo de vuelo o ToF.
Un sensor ToF es, en esencia, un sistema que mide la profundidad de la escena usando luz infrarroja modulada. El móvil emite pulsos o haces de infrarrojos (habitualmente en torno a 20 MHz para distinguirlos de la luz ambiente) y calcula cuánto tardan en rebotar en los objetos y volver al sensor. Es un principio muy similar a un sonar de submarino, solo que en vez de ondas de sonido se usan ondas de luz, así que todo ocurre a la velocidad de la luz.
La gran ventaja es que con un solo disparo el sensor ToF puede obtener un mapa completo de profundidad de la escena que está delante de la cámara, sin tener que andar combinando múltiples planos o basarse en trucos de software. Cada “punto” que ve el sensor se convierte en una medición de distancia, y la suma de todos esos puntos permite construir una representación tridimensional del entorno.
Cada sensor ToF tiene una resolución determinada, que se puede expresar como número de puntos de visión. Algunos modelos han llegado a rondar los 300.000 puntos para describir la escena, como ciertos teléfonos de marcas asiáticas (Vivo, OPPO, Honor, etc.). Lo común en todos ellos es que cada uno de esos puntos se escanee de manera independiente para formar una matriz 3D que luego puede aprovechar la cámara o el software para desenfoques, realidad aumentada o, lo que nos interesa aquí, escaneos 3D de objetos.
Otro detalle importante es que estos sensores permiten medir distancias a gran velocidad y, en teoría, a distancias muy amplias. Se habla de capacidades de lectura hasta unos 200 metros, aunque en la práctica, en un móvil, el interés está en distancias cortas y medias para retratos, objetos cercanos o habitaciones. Para que te hagas una idea, la luz tarda del orden de 2 nanosegundos en ir y volver desde un objeto situado a unos 2 metros. Si se combina con un procesador potente, la toma de datos de profundidad es prácticamente instantánea.
El principal inconveniente de los ToF en móviles es físico: no reutilizan la cámara principal, necesitan su propio módulo emisor y receptor de infrarrojos. Eso obliga a reservar espacio en el cuerpo del terminal, algo que no todos los fabricantes están dispuestos a hacer en todas sus gamas. Algunos modelos han apostado fuerte por el ToF 3D y lo combinan con otras cámaras; otros han decidido prescindir de él para ahorrar espacio y costes, lo que afecta directamente a las posibilidades de escaneo 3D nativo.
LiDAR de iPhone vs Android con ToF: qué móvil elegir para escaneo 3D
Muchos aficionados a la impresión 3D se plantean comprar un iPhone Pro únicamente por su sensor LiDAR, precisamente porque Apple ha apostado fuerte por integrar este hardware en sus modelos de gama alta (iPhone 12 Pro, 13 Pro, 14 Pro, etc.) y el ecosistema de apps que lo aprovechan es bastante maduro. El LiDAR ofrece una lectura de profundidad muy estable y bien optimizada para realidad aumentada y escaneo de objetos, lo que hace que el flujo de trabajo sea cómodo.
El problema, claro, es el precio: para muchos bolsillos, un iPhone Pro simplemente no entra en presupuesto. Aquí entran en juego los Android con sensores ToF o con buenas cámaras para fotogrametría. Aunque es cierto que ningún Android ha calcado exactamente el LiDAR de Apple, sí hay modelos (nuevos y de segunda mano) por debajo de cierto precio que permiten escanear objetos pequeños e incluso estancias completas con resultados razonables.
A la hora de buscar un Android por debajo de unos 400 € (o 400 $) para escaneo 3D, lo importante no es solo el hardware de profundidad, sino también la calidad de la cámara, el soporte de apps de escaneo y la potencia del procesador para mover esos cálculos. Teléfonos como algunas variantes del Samsung S20 o sucesores con sensor ToF pueden ser una opción interesante, pero no son los únicos: cualquier Android con buena cámara, buena estabilización y un chip decente es válido si vas a tirar de fotogrametría pura basada en fotos.
En resumen, si tu prioridad máxima es la precisión y la comodidad del escaneo directo, un iPhone Pro con LiDAR sigue siendo la referencia en móvil. Si tu prioridad es el presupuesto y estás dispuesto a dedicar algo más de tiempo y procesado, un Android medio-alto con un sensor ToF (o simplemente una cámara de calidad) te servirá para escanear en 3D con fotogrametría y apps específicas.
Escanear en 3D con el móvil: dos caminos principales
Cuando hablamos de escanear objetos en 3D con un smartphone, en la práctica hay dos enfoques que se mezclan o se usan por separado:
- Escaneo directo con sensor de profundidad (ToF o LiDAR) mediante apps que capturan geometría en tiempo real.
- Fotogrametría clásica: haces muchas fotos desde distintos ángulos y un software genera la malla 3D a partir de esas imágenes.
El primer enfoque es más cómodo y rápido, pero el segundo suele dar más calidad geométrica si se hace bien, además de ser compatible con casi cualquier móvil, incluso sin sensor ToF. La clave está en entender qué te ofrece cada sistema y cómo integrarlo con la impresión 3D.
¿Qué es la fotogrametría y por qué es tan útil para impresión 3D?

La fotogrametría, también conocida como Structure From Motion (SfM), es una técnica que estima la posición en 3D de numerosos puntos de la superficie de un objeto a partir de fotografías hechas desde distintos puntos de vista. El proceso no es trivial, pero la idea básica se entiende fácil: tomas muchas fotos alrededor del objeto, el software identifica patrones repetidos en varias imágenes y, a partir de eso, calcula la posición de la cámara y reconstruye el volumen.
El resultado ideal sería una malla 3D completa lista para usar. En la práctica, lo habitual es que el software genere primero una nube de puntos densa y, a partir de ella, una malla que luego conviene retocar para mejorar el resultado, sobre todo si quieres imprimir el modelo en 3D con una base plana y sin errores de geometría.
Una de las grandes ventajas de este sistema es que no necesitas un escáner 3D dedicado. Basta con un móvil con buena cámara (o una DSLR si la tienes), un ordenador razonablemente potente y un software de fotogrametría. Esto permite digitalizar objetos muy grandes, como estatuas o incluso edificios, que serían imposibles o muy incómodos de capturar con un escáner de sobremesa.
Software de fotogrametría y herramientas gratuitas recomendadas
El ecosistema de fotogrametría es amplio, con muchos programas profesionales que son bastante caros o con versiones gratuitas limitadas. Sin embargo, hay alternativas sin coste o con planes gratuitos que dan muy buen juego para proyectos de impresión 3D doméstica o semiprofesional.
Entre las opciones gratuitas o con versión limitada destacan:
- COLMAP (Windows/Mac/Linux): muy potente para reconstrucción SfM y nubes de puntos densas, ideal si no te importa toquetear más el proceso.
- 3DF Zephyr Free (Windows): versión gratuita con límite de unas 50 fotos, suficiente para objetos no muy complejos.
- VisualSFM (Windows/Mac/Linux): otra alternativa libre bastante usada en entornos académicos y de hobby.
Además, para el postprocesado de los modelos es casi obligatorio usar herramientas como Meshlab o Meshmixer, que permiten limpiar nubes de puntos, generar mallas, suavizar superficies, cerrar agujeros y exportar en formatos imprimibles como STL.
Ten en cuenta que la fotogrametría es muy exigente en recursos de hardware. En un portátil antiguo el cálculo puede alargarse hasta lo desesperante, y muchos programas tiran de GPU NVIDIA con CUDA. Si tu ordenador tiene una gráfica AMD o integrada, revisa bien la compatibilidad antes de lanzarte con grandes proyectos.
Cómo tomar buenas fotos para fotogrametría con tu móvil
La calidad final del escaneo 3D depende muchísimo de cómo haces las fotos. Incluso con un móvil normalito, si cuidas la toma puedes lograr resultados bastante sorprendentes. Estas son las pautas principales:
En primer lugar, necesitas una cámara mínimamente decente. Un smartphone actual va sobrado para empezar, aunque si tienes una DSLR, mejor: podrás controlar mejor apertura, velocidad y enfoque. Con cámaras de objetivos intercambiables suele ser recomendable cerrar diafragma a valores como f/7-f/8 para aumentar la nitidez y la profundidad de campo.
En cuanto al número de capturas, conviene disparar al menos 20 fotos, aunque para obtener detalles finos se suele trabajar con 50-80 imágenes o incluso más. También hay que contar con que algunas tomas se desecharán si salen movidas o el software no consigue encontrar suficientes puntos comunes.
Al moverte, imagina que estás orbitando en círculos alrededor del objeto. No lo toques ni cambies de sitio nada de su entorno entre disparos: cualquier variación complica la reconstrucción. Lo ideal es dar varias vueltas a distinta altura (algo más baja, a la mitad y algo más alta) para cubrir todas las zonas visibles.
La superposición entre fotos es clave: cada parte del objeto debería aparecer al menos en dos imágenes, y mejor si llegas a un 60-80 % de solapamiento entre disparos consecutivos. Esto facilita que el software identifique patrones y reconstruya la geometría con precisión.
La iluminación manda muchísimo. Intentar escanear con sombras duras, contraluces fuertes o brillos exagerados es receta segura para problemas. Lo ideal es una luz difusa y uniforme: un día nublado suave en exterior, o luz artificial repartida (softboxes, lámparas rebotadas, etc.). Cuanta menos variación de sombras entre fotos, más fácil será para el software.
Procura que el objeto ocupe una parte importante del encuadre, sin estar hiper pegado al borde, y evita sujetos en movimiento (personas, mascotas inquietas, hojas de árboles moviéndose demasiado cerca, etc.). Las superficies muy brillantes o transparentes también son problemáticas; más adelante veremos trucos para tratarlas.
Para usuarios más avanzados existe la opción de grabar un vídeo rodeando el objeto y luego extraer fotogramas como si fueran fotos. En ese caso, configura una velocidad de obturación alta (por ejemplo, 1/80 o más rápida) para minimizar el desenfoque por movimiento entre frames.
Proceso básico de reconstrucción 3D con COLMAP
Si optas por fotogrametría “seria”, COLMAP es una de las herramientas más completas. El flujo de trabajo típico sería algo tal que así (muy resumido, pero manteniendo los puntos clave que necesitas saber):
Lo primero es organizar bien tus archivos. Créate una carpeta para cada proyecto y dentro otra llamada “Fotos” donde meterás todas las imágenes de ese objeto. Echa un vistazo rápido y borra sin piedad las que estén borrosas o mal encuadradas; es mejor calidad que cantidad.
Después arrancas COLMAP (en Windows suele haber un Colmap.bat) y en el menú seleccionas la opción de “Reconstruction – Automatic reconstruction”. Ahí puedes indicar la carpeta de trabajo, que será donde se guarden todos los datos intermedios y el resultado final.
En la configuración deberás seleccionar:La carpeta de Workspace (espacio de trabajo) que acabas de crear para el proyecto, distinta de la de las fotos.
La carpeta de imágenes, apuntando a “Fotos”.
El tipo de datos: normalmente “Individual images”; solo usarías la opción de cuadros de vídeo si has generado las imágenes desde un vídeo.
La calidad del proceso: suele recomendarse ponerla en “Medium” porque en “High” hay más riesgo de cuelgues, sobre todo en equipos justitos.
El “vocabulary tree” puedes dejarlo vacío o descargar alguno predefinido desde la web de COLMAP si quieres afinar, pero no es imprescindible para empezar.
Cuando lances el proceso con Run, ármate de paciencia: puede tardar desde unos minutos hasta muchísimo tiempo en función del número de fotos y la potencia de tu PC. Al finalizar, verás una vista en 3D de la escena reconstruida y la posición estimada de cada cámara, lo cual te da una idea clara de si la captura fue buena.
Archivos de salida: nubes de puntos y mallas PLY
COLMAP genera varios archivos, pero los que más interesan para impresión 3D son habitualmente fused.ply y meshed.ply, que suelen encontrarse en una subcarpeta tipo “workspace/dense/0/”.
El archivo meshed.ply contiene ya una malla triangulada lista para visualizar y editar. COLMAP no es precisamente el rey de la generación de mallas, pero como punto de partida es perfectamente utilizable. Este PLY se puede convertir a STL en programas como Meshlab o Meshmixer. Sin embargo, no es buena idea mandar a imprimir directamente este fichero sin toquetearlo, porque los modelos derivados de fotogrametría suelen tener bastantes fallos: caras degeneradas, agujeros, superficies sin base plana, etc.
El archivo fused.ply es incluso más interesante desde el punto de vista técnico. En lugar de una malla, contiene una nube de puntos densa que representa la geometría reconstruida. A partir de esa nube, tú mismo puedes generar una malla de manera controlada en Meshlab, lo que casi siempre da resultados superiores si te tomas tu tiempo.
Crear y limpiar una malla en Meshlab a partir de fused.ply
Meshlab es una herramienta gratuita muy potente para pasar de nube de puntos a malla y dejar el modelo listo para uso. El proceso básico consta de varios pasos que conviene entender, aunque luego cada uno lo adapte a su gusto y necesidad.
Primero, abres Meshlab y seleccionas “File – Import Mesh” para cargar el archivo fused.ply. Verás en pantalla el conjunto de puntos 3D que representan tu objeto y parte del entorno.
Lo siguiente es limpiar todo lo que sobra. Para ello puedes usar la herramienta “Select Vertices” de la barra superior y marcar todos los puntos que no te interesan (fondo, peana improvisada, ruido, etc.). La selección se hace dibujando un rectángulo con el ratón, y puedes ir añadiendo más regiones manteniendo pulsada la tecla Ctrl. Cuando tengas área sobrante marcada, pulsas en “Delete vertices” para eliminarlos. Repites el proceso hasta quedarte solo con los puntos que conforman el objeto que quieres imprimir.
Una vez limpia la nube, llega el momento de reconstruir la superficie. En Meshlab esto suele hacerse a través del filtro “Filters – Remeshing, Simplification and Reconstruction – Screened Poisson Surface Reconstruction”. Ahí hay muchos parámetros, pero el que más influye en la calidad/tiempo es “Reconstruction Depth”. Valores entre 13 y 15 suelen dar buen equilibrio entre detalle y tiempo de cálculo, pero puedes probar diferentes ajustes según tu máquina y la complejidad del modelo.
Cuando apliques este filtro, Meshlab generará una malla nueva. Los bordes suelen quedar raros, con rebabas o incluso vueltas sobre sí mismos formando una especie de “burbuja” extra. Para limpiar estas zonas defectuosas, se usan herramientas similares a las de los vértices, pero con caras: “Select in triangular region” para seleccionar y “Delete Faces” para borrar triángulos indeseados de la malla.
Cuando estés satisfecho con la geometría, ya puedes exportar tu modelo con “File – Export Mesh”. Si lo que quieres es imprimirlo en 3D, el formato típico será STL, aunque si deseas conservar textura o mostrarlo en visores online (Sketchfab, etc.), puedes optar por formatos como PLY, 3DS u OBJ, que soportan información de color y materiales.
Trucos para mejorar el modelo: suavizado, reducción y limpieza avanzada
A partir de aquí entran los ajustes finos que marcan la diferencia entre un modelo simplemente aceptable y uno muy apañado para imprimir o compartir. En Meshlab puedes aplicar varios filtros adicionales:
Para empezar, suele ser buena idea suavizar un poco la superficie con “Filters – Smoothing, Fairing and Deformation – Laplacian Smooth”. Ajustando el número de “Smoothing steps” a valores entre 8 y 15 obtendrás un suavizado razonable sin cargarte los detalles finos. Siempre puedes repetir el filtro alguna vez más si lo ves necesario, vigilando de no dejar el modelo demasiado “lavado”.
Otro problema frecuente son las caras gigantes o deformadas que se crean a veces en zonas con menos información. Un truco útil es usar “Filters – Selection – Select Faces with edges longer than…” y, con la vista previa activada, ir ajustando el umbral de longitud de arista hasta que queden seleccionadas mayoritariamente las caras problemáticas. Luego las puedes borrar, cerrar agujeros y volver a reconstruir pequeñas partes si hace falta.
Si el modelo resultante tiene un número obsceno de caras (por ejemplo, millones de polígonos), trabajar con él se vuelve un suplicio y el laminado para impresión puede eternizarse. En estos casos, aplica “Filters – Smoothing, Fairing and Deformation – Quadric Edge Collapse Decimation” para reducir el número de polígonos. Para impresión FDM normal, cualquier cosa por debajo de ~100.000 caras suele ser suficiente, y raramente necesitas más de 1 millón incluso en proyectos muy detallados.
Ejemplos prácticos de fotogrametría para imprimir en 3D
Hay objetos que son especialmente agradecidos para practicar. Uno de los mejores candidatos son las estatuas con superficie rugosa: el material mate, lleno de texturas y sin brillos, permite al software detectar muchos puntos de referencia. Además, suelen ser piezas grandes que un escáner 3D de sobremesa no podría captar de una sola vez.
Eso sí, si la estatua está al aire libre, hay que lidiar con personas que pasan, árboles en movimiento y cambios de luz. Lo ideal es elegir un momento del día con luz suave (cielo nublado, por ejemplo) y tener paciencia para disparar cuando no haya gente obstruyendo la vista. Si tienes un dron, incluso podrías rodear la escultura desde alturas distintas y luego reconstruirla para acabar imprimiendo una versión en miniatura.
Otro experimento muy útil es escanear una pieza que ya tengas en STL e impresa. Puede sonar un poco absurdo, porque ya tienes el archivo original, pero es un excelente banco de pruebas: puedes comparar directamente la geometría reconstruida con el modelo digital de partida y ver dónde se pierden detalles, cómo se comporta la textura, etc. Si además has pintado la pieza a mano, la fotogrametría te permitirá obtener un modelo texturizado con tu pintura, que luego puedes compartir en plataformas online.
Cómo lidiar con superficies brillantes y transparentes
Uno de los escollos típicos al escanear objetos para impresión 3D son las superficies muy brillantes o totalmente transparentes. Los algoritmos de fotogrametría se basan en encontrar patrones consistentes entre fotos, y con un espejo o un cristal liso, lo que ve la cámara cambia según el ángulo, así que no hay casi nada “fijo” que el software pueda usar.
Con superficies brillantes (por ejemplo, las gomas lisas de una pala de ping pong), la solución práctica es añadir textura y matar los reflejos. Un truco barato es pegar tiras de cinta de carrocero (cinta de pintor) sobre la zona brillante. La cinta aporta un acabado mate con textura suave que el algoritmo sí puede rastrear, y al retirarla no dañará el objeto. El antes y el después en la reconstrucción suele ser muy evidente.
En el caso del vidrio u otros materiales transparentes, el problema es aún mayor: simplemente no hay superficie visible desde la que extraer puntos. A menudo solo se capturan bien los bordes o los marcos, mientras que las partes grandes de cristal se ignoran, dejando huecos en la nube de puntos. Aquí la solución es parecida: cubrir con cinta de pintor, rociar una capa de pintura temporal soluble en agua o aplicar un polvo fino (harina, talco, spray matificante) que deje la superficie opaca y texturizada durante el escaneo.
Escaneo 3D con apps móviles: ventajas e inconvenientes
Además de la fotogrametría “de escritorio”, existen muchas aplicaciones móviles que permiten escanear objetos en 3D directamente desde el teléfono. Algunas tiran de fotos (fotogrametría en la nube) y otras aprovechan sensores de profundidad (ToF, LiDAR) para reconstruir la geometría en tiempo real. Entre las conocidas se encuentran Qlone, Scandy Pro, Trnio y un largo etcétera.
La dinámica suele ser similar: preparas el objeto en una superficie bien iluminada, lo colocas de forma que puedas rodearlo cómodamente y sigues las instrucciones de la app: o bien ir moviendo la cámara alrededor mientras el software va generando el modelo, o bien hacer un número de fotos según te va pidiendo la aplicación. En algunos casos, se usan tapetes con marcadores o plataformas giratorias para ayudar a la reconstrucción.
Una vez capturado el objeto, las apps permiten refinar un poco el escaneo: recortar el fondo, rellenar agujeros básicos, alisar algo la superficie y, lo más importante, exportar el resultado en formatos como OBJ o STL para llevarlo a un programa de modelado o directamente a un laminador de impresión 3D.
Ahora bien, hay que tener claros los límites: la precisión de un móvil nunca va a igualar a la de un escáner 3D dedicado profesional. El alcance es más limitado, el campo de visión puede dificultar el escaneo de objetos grandes o muy complejos, y la dependencia de la iluminación es alta. Sufren especialmente con sombras marcadas, reflejos y entornos de interior con luces mixtas.
Por otro lado, el móvil tiene tres ventajas brutales: coste prácticamente cero, portabilidad total y sencillez de uso. Casi todo el mundo lleva siempre encima un smartphone, no necesitas una formación profunda para usar las apps, y para muchos proyectos de hobby o de prototipado rápido, esa calidad “suficiente” compensa de sobra las limitaciones.
Si lo que necesitas es un servicio profesional de escaneado con máxima precisión, control de escala y limpieza técnica de los modelos, siempre puedes recurrir a empresas especializadas que trabajan con escáneres de alta gama y te entregan el archivo listo para producción. Pero para experimentar, aprender y preparar modelos curiosos para imprimir, el móvil y la fotogrametría son una combinación muy potente.
Con todo lo anterior en mente, se entiende mejor por qué algunos usuarios echan en falta que ciertos móviles de gama alta no incluyan sensor LiDAR o ToF dedicado para escaneo 3D: la experiencia con dispositivos que sí lo integran, como los iPhone Pro, muestra que un buen sensor de profundidad integrado en el móvil puede marcar la diferencia a la hora de capturar objetos y espacios para impresión 3D, realidad aumentada o modelado. Aun así, con las técnicas y herramientas adecuadas, un smartphone de hoy, incluso sin ese sensor, sigue siendo una puerta muy potente y asequible al mundo del escaneo 3D. Comparte la información y ayuda a otras personas a conocer sobre este tema.