La pregunta que muchos se hacen es directa y pertinente: ¿puede la policía entrar en mis conversaciones con ChatGPT o con otros asistentes como Gemini en Android? Con millones de personas usando estos servicios como si fueran confidentes digitales para desahogarse, pedir consejo o incluso curiosear sobre temas delicados, no es raro que la inquietud se haya disparado.
El debate ha ido a más tras casos virales y anuncios de las propias tecnológicas. Por un lado, juristas españoles recuerdan qué se puede y qué no se puede hacer aquí conforme a la ley. Por otro, OpenAI ha detallado que monitoriza y revisa conversaciones ante riesgos graves y, en situaciones límite, podría alertar a las autoridades. En medio, queda la eterna balanza entre privacidad y seguridad.
El vídeo viral que encendió la mecha
En TikTok, la creadora @_mabelart contó un storytime en el que afirmaba que la policía la habría citado e interrogado por sus búsquedas y conversaciones en ChatGPT. Relataba que, como aficionada al true crime, había preguntado al chatbot cuestiones crudas como cuánto tarda un cuerpo en disolverse en ácido, cómo eliminar ADN de una escena o qué pasaría al enterrar un cadáver en un bosque. Según su narración, al poco le llegó una notificación del juzgado para declarar.
La historia encendió comentarios de todo tipo. Algunas personas se la tomaron al pie de la letra, otras la cuestionaron, y la propia protagonista matizó que podía ser parte de un juego con su comunidad. Más allá de la veracidad de ese caso concreto, el vídeo sirvió para plantear la duda clave: ¿tienen las autoridades acceso a lo que hablamos con una IA como ChatGPT o Gemini?
¿Qué puede y qué no puede hacer la policía en España con tus chat en ChatGPT?
El abogado Jesús P. López Pelaz, fundador y director de Bufete Abogado Amigo, es claro: las fuerzas y cuerpos de seguridad no pueden “entrar” directamente en tus chats con ChatGPT ni con otros modelos de lenguaje. Si quieren obtener información, deben seguir vías y garantías específicas.
Según este experto, hay dos caminos posibles para acceder a información relacionada con tus interacciones con una IA, siempre con soporte legal:
- Registros en tu propio dispositivo (ordenador o móvil): necesitarán tu consentimiento o una orden judicial de registro, y conviene saber cómo limitar el acceso a ciertos chats.
- Registros en los servidores del proveedor (el ISP o la empresa de IA): se requiere una orden judicial dirigida a la compañía para que facilite esos datos.
Importa subrayar que, en ambos supuestos, el acceso típico sería a registros o trazas (logs) vinculados a la actividad, no a una lectura sin más de “todas tus conversaciones íntegras” como si fuese un chat personal. Hace falta un permiso específico, y además, en la práctica, se exige reunir indicios suficientes de delito para justificar la medida ante un juez.
Cuando el proveedor está en el extranjero, la cosa se complica: no basta con una orden judicial española. Debe comunicarse a las autoridades del país correspondiente (a menudo Estados Unidos), que valorarán si la petición es procedente, está justificada, es proporcional y se basa en indicios sólidos. La cooperación internacional y los plazos son, por tanto, un factor relevante.

¿Esto es una “comunicación privada” como un chat entre personas?
La distinción jurídica es significativa. López Pelaz apunta que la interacción con una IA se parece más a una búsqueda en Internet que a una conversación protegida entre dos individuos. Es decir, no se encuadra del mismo modo que una comunicación privada entre personas a efectos de secreto de las comunicaciones. Lo que haces con un chatbot se considera un servicio de la sociedad de la información: envías una petición y recibes una respuesta de forma automatizada.
Modo incógnito y borrar historial: lo que sí y lo que no
Otra confusión habitual: usar el modo incógnito o borrar el historial no vuelve invisibles tus interacciones para un proveedor. Eso evita que la navegación se guarde en tu dispositivo, pero no borra registros en los servidores de la empresa. Con una orden judicial, los investigadores podrían solicitar esa información al proveedor, independientemente de que tú no veas rastro en tu navegador. Para mejorar tu protección, consulta guías sobre privacidad y seguridad.
¿Cuándo podrían revisar las autoridades tus interacciones?
Los escenarios teóricos son acotados y requieren camino legal. En esencia, caben dos supuestos mencionados por expertos cuando se habla de acceso por parte de la policía:
- Cuando exista una autorización judicial expresa que motive el acceso a esos datos.
- Para prevenir la comisión de un delito en ese mismo momento si se acredita un riesgo real e inminente, dentro del marco legal aplicable.
Incluso en esa casuística, no implica barra libre ni vigilancia masiva. Son diligencias concretas, justificadas y sometidas a control judicial, que pueden requerir además cooperación con autoridades extranjeras cuando la empresa que custodia los registros opera fuera de España.
¿Qué dice OpenAI sobre revisar conversaciones en ChatGPT y avisar a la policía?
De forma paralela al marco legal, OpenAI ha explicado en su web que, para gestionar riesgos graves y comportamientos dañinos, sus sistemas pueden analizar automáticamente los mensajes y derivar ciertas conversaciones a “canales” especializados. En ese flujo, un equipo humano reducido y entrenado en sus políticas revisa el contenido y puede tomar medidas.
La compañía describe que, si los revisores humanos aprecian una amenaza inminente de daño físico serio a terceros, podrían remitir el caso a las fuerzas del orden. Esto no significa que haya una línea directa y permanente a la policía, sino que hay un filtro humano previo antes de cualquier notificación. Además, la empresa contempla acciones como la suspensión o prohibición de cuentas cuando detecta violaciones graves de uso.
En esa política, OpenAI enumera que analiza y modera interacciones relacionadas con, entre otras, las siguientes áreas:
- Autolesiones o suicidio (con protocolos de contención y derivación a recursos de ayuda, sin remitir por ahora a la policía).
- Desarrollo o uso de armas y planificación de daños a terceros.
- Herir a otras personas o destruir propiedades.
- Actividades no autorizadas que vulneren la seguridad de servicios o sistemas.
OpenAI ha señalado que, “por ahora”, no está derivando a la policía los casos de autolesiones para respetar la privacidad de los usuarios en contextos especialmente sensibles. En su lugar, intentan ofrecer apoyo, mensajes de contención y referencias a líneas de ayuda y organizaciones especializadas. Esto muestra una clara distinción: la alarma máxima se centra en el daño inminente a terceros.
Cómo funciona la revisión: automatización, equipo humano y umbral de alerta
El proceso, según la empresa, empieza con un escaneo automatizado en busca de indicadores de riesgo. Si aparecen señales, la conversación se “enruta” internamente para que un pequeño equipo especializado valore si la situación es real, inminente y grave. En ese punto pueden, por ejemplo, interrumpir el servicio, bloquear la cuenta o, de forma excepcional, contactar con autoridades si el peligro hacia terceros es inminente.
OpenAI reconoce limitaciones: el rendimiento de estas salvaguardas se resiente en conversaciones largas y está en revisión permanente. La compañía también admite que sus criterios internos no siempre son públicos con detalle y que trabajan para reforzar estos protocolos sin convertir el producto en un mecanismo de vigilancia intrusivo.
Si un revisor humano concluye que existe una amenaza inminente y grave contra otras personas, la conversación podría elevarse a las autoridades competentes, explica la empresa en su documentación.
Privacidad vs. seguridad: tensiones, críticas y preguntas abiertas
Este enfoque es controvertido porque toca una fibra sensible: cómo proteger la vida y la integridad frente a planes de daño grave, sin convertir el uso de un chatbot en una cesión incontrolada de privacidad. Algunos analistas han señalado que el discurso tradicional de OpenAI sobre la confidencialidad de los chats choca con la idea de revisar y, llegado el caso, comunicar información a la policía de ChatGPT ante amenazas inminentes. Es una tensión que la compañía intenta justificar por criterios de proporcionalidad y seguridad.
Este giro llega, además, tras episodios mediáticos y denuncias relacionadas con salud mental. Se han publicado informes sobre usuarios que, influenciados por el tono persuasivo de las IA, habrían derivado en estados psicóticos, autolesiones e incluso suicidios (algunas crónicas lo llamaron “psicosis de IA”). En paralelo, se ha presentado una demanda por el caso de un adolescente de 16 años, cuyos padres acusan a la compañía de homicidio culposo al sostener que el sistema ofreció respuestas perjudiciales sin activar medidas de emergencia suficientes.
OpenAI, por su parte, ha ido ajustando sus herramientas desde 2023 para que no faciliten contenido de autolesión y, en su lugar, deriven a recursos de apoyo, muestren empatía y disuadan de cualquier conducta dañina. Aun así, no concreta públicamente todos los umbrales que disparan una revisión humana o la notificación a la policía, lo que deja dudas razonables sobre el alcance real y la frecuencia de estas actuaciones.
¿Y si confieso un delito en un chat con la IA?
Una pregunta recurrente es si la empresa está “obligada” a avisar automáticamente a la policía cuando un usuario admite un crimen o planea uno. La respuesta, tal y como la formula OpenAI, es más matizada: no hay un canal automático y ciego; existe monitorización, un paso de revisión humana y, solo si se aprecia amenaza inminente y grave a terceros, puede notificarse a autoridades. Fuera de ese umbral, la compañía se ampara en sus términos de uso y en la ley aplicable para decidir qué hacer con cada caso.
En su política de privacidad, OpenAI deja claro que puede compartir información con autoridades gubernamentales o terceros si la ley lo exige o cuando exista una buena fe para detectar o prevenir fraude u otras actividades ilegales, proteger la seguridad e integridad de sus productos, empleados, usuarios o del público, o protegerse frente a responsabilidades legales. Es decir, hay base normativa corporativa para colaborar cuando lo pida un juez o cuando concurran riesgos y obligaciones legales.
Trasladado a España, aunque exista una política corporativa de cooperación, las fuerzas de seguridad necesitan autorización judicial para requerir datos al proveedor, y si este está fuera del país, hace falta cooperación internacional. No basta con sospechas vagas: deben acreditarse indicios, proporcionalidad y necesidad de la diligencia.
¿Qué diferencia a ChatGPT de apps con cifrado de extremo a extremo?
Muchas aplicaciones de mensajería con cifrado de extremo a extremo presumen de que ni siquiera ellas pueden leer los contenidos. Aun así, con una orden judicial, pueden verse forzadas a proporcionar ciertos metadatos u otra información disponible. En el caso de ChatGPT y servicios similares, la particularidad es que la empresa reconoce una revisión previa por su personal para evaluar riesgos antes de, en su caso, suministrar datos a las autoridades. Esto no significa una vigilancia total, pero sí una política explícita de moderación y escalado basada en su evaluación interna.
El papel de los expertos y responsables del producto
Incluso dentro de la industria, hay voces que piden cautela. Se han citado posturas como la de Nick Turley, responsable de ChatGPT, reconociendo que todavía hay carencias de los modelos para tratar cuestiones emocionales complejas. Esa honestidad refuerza la idea de que no debemos usar la IA como sustituto de profesionales en temas de salud mental ni como consejero para asuntos que puedan ponernos o poner a otros en riesgo.
¿Asistente o vigilante? El ángulo de la vigilancia digital
Algunos tecnólogos, como Alan Daitch, han popularizado en redes la idea de que “ChatGPT llama a la policía” si le hablas de cometer ciertos delitos, aunque matizando que no haría lo mismo con el daño a uno mismo por una lógica de protección de la privacidad individual. También recuerdan que los modelos están entrenados desde 2023 para no dar guías de autolesión y que la empresa admite que sus salvaguardas aún son imperfectas. En este contexto, aparecen críticas por la posible deriva hacia la vigilancia y por los posibles “primeros casos” de crímenes graves en “complicidad” con chatbots, aunque rara vez se aporten ejemplos verificables.
OpenAI insiste en que sus acciones automatizadas y sus protocolos están en revisión continua, y que hay que mejorar especialmente en conversaciones largas, donde el sistema puede pasar por alto señales. La frontera entre acompañamiento y vigilancia se ha vuelto más delicada que nunca: la herramienta no solo responde, también observa patrones, interpreta señales y, a veces, actúa.
Preguntas prácticas y límites razonables
Más allá del ruido, conviene quedarse con lo práctico: en España, la policía no puede leer tus chats de ChatGPT “porque sí”, ni llamar directamente a OpenAI para que se los entreguen sin más. Necesitan autorización judicial, motivación suficiente, indicios claros y, en su caso, tramitación internacional. Por la parte del proveedor, la revisión existe, se activa ante ciertos riesgos y, ante peligro inminente para otros, puede dar lugar a una notificación a las autoridades.
¿Y el modo incógnito? Solo limpia rastros en tu dispositivo. ¿Y borrar el historial? Igual: no toca lo que queda en los servidores. ¿Y si confieso un delito? Dependerá del contenido, del riesgo que represente, de las políticas internas y de la ley. No hay botón rojo automático, pero tampoco tarjeta blanca: existen filtros humanos y umbrales de gravedad.
Claves para usuarios que quieren estar tranquilos al usar ChtGPT
No hace falta vivir con paranoia, pero sí con criterio y sentido común. Usa la IA para lo que mejor sabe hacer (información, redacción, apoyo productivo) y evita tratarla como un confesionario. Si te preocupa tu privacidad, revisa las opciones de historial del servicio que utilices, lee (aunque sea en diagonal) sus políticas de uso y evita solicitar o compartir contenido que rozaría lo delictivo. Y si lo que te trae es angustia emocional, busca acompañamiento humano profesional.
En el plano público y regulatorio, la conversación seguirá. Hace falta transparencia sobre umbrales, auditorías independientes y, sobre todo, coordinación entre tecnológicas, legisladores y expertos para que la balanza entre seguridad y privacidad no se incline siempre del mismo lado. Mientras tanto, conviene que los usuarios sepan qué se revisa, cuándo y por qué, y qué límites reales impone nuestro marco legal.
Mirado en conjunto, el panorama no es tan sencillo como algunos titulares; tampoco tan opaco como para rendirse: en España las autoridades necesitan un juez para pedir datos, y si hay proveedores extranjeros, entra en juego la cooperación internacional; del lado de OpenAI, existe monitorización y un filtro humano que solo desemboca en avisar a la policía cuando ven una amenaza inminente a terceros, mientras que los casos de autolesión se tratan con enfoque de ayuda y respeto a la privacidad.
Entre los mitos de redes y la letra pequeña de las políticas, la mejor brújula es saber cómo funciona realmente cada engranaje. Comparte esta información y más personas sabran las limitaciones ante la ley de España al usar ChatGPT.