La red social X ha dado un paso inusual en la industria al hacer público el código de su algoritmo de recomendación, el sistema que determina qué publicaciones aparecen en el feed de cada usuario. La compañía, propiedad de Elon Musk, ha colgado en GitHub la arquitectura de machine learning que alimenta la sección “Para ti” y las recomendaciones de contenidos, tanto orgánicos como publicitarios.
Con este movimiento, X intenta responder a las crecientes exigencias de transparencia sobre cómo funcionan los algoritmos que moldean la conversación pública. En un contexto marcado por la expansión de la inteligencia artificial, la polémica por contenidos sensibles y el escrutinio regulatorio —especialmente intenso en Europa—, la plataforma apuesta por abrir sus “tripas” técnicas y permitir que terceros analicen cómo se construye su sistema de recomendaciones.
Un algoritmo abierto, en evolución constante y sin precedentes en grandes redes
Según ha explicado la compañía, el código ahora disponible recoge la arquitectura central del sistema de recomendación, incluida la parte que predice qué publicaciones tienen más opciones de recibir interacciones. Musk ha insistido en que el algoritmo actual “es tonto” y necesita “mejoras masivas”, pero considera que enseñar sus limitaciones de cara al público es una forma de ganar credibilidad y de invitar a la comunidad técnica a colaborar.
La liberación del código no se plantea como un gesto puntual, sino como un proceso vivo. Musk y el equipo de ingeniería de X se han comprometido a actualizar el repositorio cada cuatro semanas, acompañado de notas técnicas detalladas para que los desarrolladores puedan seguir qué ha cambiado en cada iteración. Esta cadencia regular de revisiones transforma el algoritmo en un proyecto en revisión permanente y auditable.
La compañía ya había dado un primer paso en 2023, cuando publicó parte del código del feed “Para ti”. Sin embargo, la nueva publicación amplía y detalla significativamente lo que hasta ahora se conocía, incorporando elementos clave del modelo actual con el que X quiere diferenciarse de otras plataformas que mantienen sus algoritmos en secreto.
Desde el sector tecnológico se interpreta esta medida como un intento de romper la “caja negra” algorítmica que ha caracterizado a las redes sociales durante años. Para muchos expertos, es la primera vez que una plataforma de este tamaño ofrece un nivel de acceso tan profundo al sistema que decide qué ve realmente el usuario cuando abre la aplicación.
Cómo construye X el feed “Para ti” y qué papel juega Grok
El código abierto muestra que el feed personalizado de X se nutre de dos grandes fuentes de contenido: por un lado, las publicaciones de las cuentas que el usuario ya sigue, y por otro, mensajes procedentes de perfiles que el usuario no conoce pero que el sistema considera potencialmente relevantes. A partir de ahí se pone en marcha una cadena de filtros, puntuaciones y ordenaciones.
En una primera fase, el algoritmo realiza una gran recopilación de candidatos. Revisa tanto la “red interna” (seguimientos del usuario) como una “red externa” en toda la plataforma, donde modelos de machine learning localizan publicaciones que puedan encajar con los intereses detectados en el historial de actividad del usuario.
Después se aplica un proceso de limpieza. El sistema elimina duplicados, descarta contenido procedente de cuentas bloqueadas o silenciadas, quita publicaciones que contengan palabras que el usuario haya decidido ocultar y filtra material ilegal, dañino o ya visto. De este modo, se intenta reducir el ruido y evitar que reaparezcan mensajes que el usuario ha rechazado de forma explícita.
Cada publicación candidata se enriquece con un conjunto de atributos: si incluye vídeo, imagen, enlaces externos, si el autor es suscriptor de pago, si pertenece a una temática concreta o si se relaciona con conversaciones en tendencia. Toda esta información alimenta la fase siguiente, en la que la inteligencia artificial asigna una puntuación de probabilidad de interacción.
En este punto entra en juego la arquitectura basada en Transformers y el modelo Grok, desarrollado por xAI. A través de aprendizaje de extremo a extremo, el sistema predice la probabilidad de que el usuario dé “me gusta”, responda, comparta o pase más tiempo con cada publicación. Sobre esa base se calcula una puntuación global que permite ordenar los contenidos de más a menos interés estimado.
Arquitectura técnica: de Rust y Python a la puntuación de engagement
Los detalles técnicos publicados en GitHub indican que el sistema de recomendaciones de X está construido con una arquitectura modular que combina distintos lenguajes y componentes. La parte de recuperación y ranking se apoya principalmente en Rust y Python, con módulos especializados para la selección de candidatos, el cálculo de puntuaciones y la aplicación de filtros de seguridad.
El núcleo del algoritmo se basa en un modelo Transformer alineado con Grok, que aprende directamente de las interacciones de los usuarios sin depender tanto de reglas manuales diseñadas a medida. Este enfoque de machine learning de extremo a extremo permite que el sistema se adapte a patrones cambiantes de uso y a nuevas formas de contenido, aunque a costa de ser más complejo de interpretar para el público general.
Entre los factores que, según el propio Grok, resultan más influyentes a la hora de decidir qué se muestra en el feed, destacan la predicción de engagement (me gusta, respuestas y republicaciones), la novedad y relevancia temporal de los contenidos, un mecanismo de diversidad que evita que un mismo autor monopolice el muro del usuario y el equilibrio entre publicaciones de cuentas seguidas y sugerencias descubiertas por el modelo.
El sistema también incorpora señales negativas: los bloqueos, los silencios y otras acciones de rechazo reducen la puntuación de determinados contenidos y autores, lo que en teoría debería limitar la exposición a mensajes no deseados. Una última capa de revisión automática intenta frenar el spam, el contenido violento o las imágenes inapropiadas que hayan logrado esquivar filtros anteriores.
Todo este entramado técnico, ahora visible, constituye la base sobre la que investigadores y desarrolladores pueden estudiar si existen sesgos sistemáticos, cómo se reparten realmente las oportunidades de alcance entre distintos tipos de cuentas y hasta qué punto la plataforma favorece ciertos formatos o temáticas.
Impacto para usuarios, creadores y profesionales del marketing
Para el usuario medio, la apertura del algoritmo no se traducirá en cambios inmediatos en la interfaz ni en nuevos botones, pero sí puede alterar gradualmente la forma en que se construye el feed. La diferencia clave es que, por primera vez, será posible que expertos externos auditen de forma continua qué contenidos se impulsan, cuáles quedan relegados y por qué.
Para creadores de contenido, medios y profesionales de la comunicación y el marketing digital, la publicación del código supone una oportunidad para entender mejor qué señales prioriza X: el peso relativo de la interacción temprana, la relevancia temática, la variedad de autores o la penalización de ciertos comportamientos. Dejarán de depender exclusivamente de intuiciones o rumores sobre “lo que le gusta al algoritmo” y podrán basar sus estrategias en evidencias técnicas.
Uno de los aspectos más llamativos es que X también ha decidido dar acceso a la lógica que rige la selección de anuncios. En un sector donde los sistemas de puja y segmentación suelen ser extremadamente opacos, permitir que terceros revisen cómo se muestran los contenidos patrocinados añade una capa adicional de escrutinio sobre el modelo de negocio publicitario de la plataforma.
Al mismo tiempo, el hecho de que la empresa se comprometa a documentar actualizaciones periódicas cada cuatro semanas reduce el margen para cambios bruscos en las reglas del juego sin que nadie se dé cuenta. Organizaciones de verificación de datos, académicos y periodistas especializados podrán seguir la pista a estos ajustes y señalar si tienen efectos desproporcionados sobre determinados grupos o temáticas.
Aun así, X continúa siendo una compañía privada con sus propios objetivos económicos. Abrir el código no implica renunciar a la publicidad ni entregar el control completo de la cronología a los usuarios, pero sí introduce un nivel de vigilancia técnica y social que antes resultaba prácticamente imposible.
Presión regulatoria europea y polémicas por la inteligencia artificial
La decisión de liberar el algoritmo llega en un momento en el que los reguladores europeos intensifican su presión sobre las grandes plataformas digitales. Normativas como la Ley de Servicios Digitales (DSA) obligan a explicar cómo funcionan los sistemas de recomendación, a proporcionar acceso a investigadores cualificados y a garantizar salvaguardas frente a la desinformación y los contenidos dañinos.
En los últimos meses, X se ha visto envuelta en polémicas por el uso de IA generativa, especialmente en lo relativo a la creación de imágenes sexualizadas no consentidas, incluidas las que afectan a menores. Estas prácticas han desencadenado investigaciones por parte de autoridades de distintos países, lo que ha empujado a la compañía a restringir ciertas funciones de generación y edición de imágenes de Grok, reservándolas para suscriptores de pago e incorporando barreras técnicas adicionales.
Además, la plataforma ha tomado medidas contra servicios externos que incentivaban el engagement artificial. Un ejemplo es la retirada de acceso a la API de proyectos que pagaban a usuarios por publicar y generar interacciones, justificada por X como una respuesta ante el aumento del spam generado mediante IA. Estas decisiones ilustran la tensión entre fomentar la participación y evitar abusos que distorsionen la conversación.
En este contexto, la publicación del algoritmo puede interpretarse como un movimiento preventivo para mostrar disposición a la transparencia antes de que las autoridades europeas impongan obligaciones aún más duras. Al exponer el funcionamiento del sistema de recomendación, X busca colocarse en una posición de mayor legitimidad cuando tenga que responder a requerimientos oficiales sobre su gestión de la IA y la moderación de contenidos.
Para el ecosistema europeo de investigación y sociedad civil, disponer de acceso a este código abre la puerta a auditorías independientes más sólidas sobre cuestiones como la amplificación de mensajes de odio, la posible discriminación algorítmica o la forma en que se recomiendan contenidos políticos en periodos sensibles, como campañas electorales.
Competencia entre plataformas y el papel de la transparencia
El movimiento de X se produce también en un entorno de competencia creciente entre redes sociales. Datos recientes apuntan a que aplicaciones como Threads, de Meta, y Bluesky, empiezan a recortar terreno en usuarios activos diarios en dispositivos móviles, mientras que X mantiene una posición sólida en tráfico web. En este escenario, la compañía de Musk intenta diferenciarse no tanto por nuevas funciones visibles, sino por una apuesta más radical por la apertura de su infraestructura algorítmica.
Mientras que otras grandes tecnológicas siguen tratándose los algoritmos como secretos industriales, X quiere presentarse como una especie de “plaza pública digital” donde las reglas son visibles y discutibles. Este enfoque podría seducir a desarrolladores, investigadores y comunidades técnicas europeas, como Mastodon, interesadas en experimentar con sistemas de recomendación a gran escala sin partir de cero.
Al mismo tiempo, la igualdad de condiciones no está garantizada solo por abrir el código. Hará falta tiempo para comprobar si los cambios que X introduciría en el futuro siguen documentándose con el mismo grado de detalle y si la comunidad puede realmente influir en la evolución del algoritmo o solo observarla desde fuera.
Para las demás plataformas, la jugada de X plantea una incógnita: mantener sus algoritmos cerrados podría empezar a percibirse como una señal de opacidad en un momento en que las autoridades —especialmente europeas— y buena parte de la opinión pública demandan más claridad sobre cómo se gestionan los contenidos.
Si la apertura del algoritmo de X demuestra ser compatible con la viabilidad económica y la seguridad del sistema, no se descarta que, a medio plazo, la presión social y normativa empuje a otros actores del mercado a adoptar modelos de transparencia similares o, al menos, a ofrecer explicaciones más detalladas de sus sistemas de recomendación.
En conjunto, la publicación en abierto del algoritmo de recomendación de X supone un cambio significativo en la relación entre plataforma, usuarios y reguladores: por un lado, habilita una auditoría externa continua de un sistema que hasta ahora funcionaba como una caja negra; por otro, coloca sobre la mesa nuevos interrogantes sobre el equilibrio entre transparencia, negocio publicitario y responsabilidad en el uso de la inteligencia artificial, especialmente relevantes para las autoridades y la comunidad tecnológica europea.