La IA no es tu confesor: cuidado con lo que escribes
Un chat con IA puede dejar rastro, ser requerido judicialmente y comprometer decisiones empresariales sensibles. Al menos en Estados Unidos.
Durante mucho tiempo, muchas personas han usado la IA como si fuera un espacio privado para pensar “en voz alta”: probar ideas, pedir estrategias delicadas o explorar escenarios que jamás plantearían por correo. Ese supuesto de intimidad es, cada vez más, una mala idea.
El caso de Krafton, la compañía detrás de PUBG1 y propietaria del estudio de Subnautica2, lo ha dejado especialmente claro. En una resolución del Tribunal de Delaware, la jueza Lori Will describió cómo el CEO de Krafton recurrió a ChatGPT para idear una estrategia de “takeover” con la que evitar un pago adicional millonario ligado al rendimiento comercial de Subnautica 23. La propia sentencia recoge que, temiendo haber firmado un contrato “pushover”, el CEO4 acudió a un chatbot de IA para diseñar un plan corporativo de toma de control.
Según la resolución, la maniobra no se quedó en una consulta abstracta. La jueza concluyó que, tras acudir a ChatGPT, Krafton creó un grupo interno llamado Project X para negociar una rebaja del earnout o ejecutar directamente la toma de control del estudio. El plan incluía recomendaciones concretas: controlar la narrativa pública hablando de “calidad” y “confianza de los fans”, asegurar puntos de control operativos y bloquear el acceso de Unknown Worlds a Steam para impedir el lanzamiento de Subnautica 2. La sentencia afirma expresamente que Krafton siguió la mayor parte de esas recomendaciones.
El resultado judicial fue demoledor. La corte consideró que las justificaciones dadas por Krafton para cesar a los directivos de Unknown Worlds eran pretextuales, ordenó la restitución de Ted Gill5 como CEO del estudio y le devolvió la autoridad operativa sobre Subnautica 2. Además, la jueza extendió el periodo relevante del earnout hasta el 15 de septiembre de 2026 para compensar el tiempo en que Gill estuvo indebidamente apartado.
Lo relevante: la conversación con la IA fue parte del caso
Lo más relevante para cualquier directivo no es solo el tropiezo estratégico. Es que la conversación con la IA terminó formando parte del caso.
La sentencia cita el uso de ChatGPT, resume su contenido y añade incluso que Kim admitió en juicio haber borrado registros relevantes de esas conversaciones.
Es decir: aquello que pudo haberse percibido como un “borrador privado” o una consulta informal terminó convertido en material judicialmente relevante.
No existe una relación abogado-cliente entre un usuario y una IA
Y aquí está la lección de fondo: no debes asumir que tus conversaciones con una IA están protegidas por un privilegio equivalente al secreto profesional con un abogado.
En abril de 2026, Reuters informó de una decisión federal en Nueva York en la que el juez Jed Rakoff obligó a entregar documentos generados con Claude y dejó escrito que no existe, ni puede existir, una relación abogado-cliente entre un usuario y una plataforma de IA. Reuters también recoge que, a raíz de esa decisión, numerosos despachos están advirtiendo a sus clientes de que sus chats con herramientas como ChatGPT o Claude pueden ser reclamados por fiscales o por la parte contraria en litigios civiles.
El panorama jurídico no está claro
Es verdad que el panorama jurídico no está completamente cerrado: otro juez, en Michigan, trató ciertos chats con ChatGPT como “work product” personal en un caso distinto. Pero precisamente por esa falta de uniformidad, la conclusión práctica sigue siendo la misma: no hay base para comportarse como si una conversación con IA fuera confidencial por defecto.
Tampoco conviene simplificar en exceso el debate sobre conservación de datos. OpenAI explicó que la orden judicial que le obligaba a conservar indefinidamente contenido de consumidores terminó el 26 de septiembre de 2025 y que, desde entonces, volvió a sus prácticas estándar de retención6; además, indicó que conserva ciertos datos cuando existe una obligación legal, como una citación válida. En otras palabras: la retención puede cambiar por configuración, jurisdicción y por órdenes judiciales, pero eso no convierte el contenido en inmune a requerimientos legales.
La IA no es tu abogado, no es tu médico y no es tu confesor
La enseñanza para empresas y comités de dirección es bastante simple. La IA no es tu abogado, no es tu médico y no es tu confesor. Si introduces en un chatbot detalles sensibles sobre una estrategia agresiva, un conflicto societario, una negociación laboral o una operación de dudoso encaje legal, debes partir de una premisa básica: ese contenido podría terminar siendo revisado, solicitado o discutido en un procedimiento.
En 2026 ya no estamos hablando de una hipótesis teórica. Ya hay resoluciones judiciales, advertencias de despachos y un caso de alto perfil en el que una conversación con IA no solo no ayudó a proteger a un ejecutivo, sino que contribuyó a dibujar ante el juez cómo se diseñó una estrategia corporativa fallida.
No le cuentes a una IA pública lo que no compartirías fuera de la empresa
La regla prudente, desde ahora, debería ser esta: si no se lo contarías así a un tercero fuera de la empresa, tampoco deberías contárselo así a una IA pública.
Información basada en la publicación
- PUBG (PlayerUnknown’s Battlegrounds), el popular videojuego de tipo battle royale desarrollado por la compañía surcoreana Krafton.
En este género, decenas de jugadores compiten en una misma partida hasta que solo queda uno, o un único equipo, con vida. En PUBG, los jugadores aterrizan en un mapa grande, buscan armas, equipo y vehículos, y deben sobrevivir mientras la zona segura se va reduciendo.
Se hizo muy popular porque fue uno de los juegos que impulsó el boom del formato battle royale a nivel mundial. Lo desarrolló PUBG Studios y su editora es Krafton. ↩︎ - Subnautica es una popular saga de videojuegos de supervivencia y exploración submarina, desarrollada por Unknown Worlds, en la que el jugador recorre un océano alienígena, fabrica recursos y trata de sobrevivir mientras desentraña la historia del planeta. ↩︎
- Subnautica 2 es la segunda entrega de la popular saga de supervivencia submarina creada por Unknown Worlds, el estudio responsable de los juegos originales y propiedad de Krafton desde 2021. Es decir, Unknown Worlds desarrolla el juego, mientras Krafton actúa como empresa matriz del estudio. ↩︎
- Changhan Kim es el CEO de Krafton, la compañía surcoreana de videojuegos propietaria de PUBG y matriz de Unknown Worlds desde 2021 y fue quien impulsó la estrategia cuestionada por la justicia estadounidense. ↩︎
- Ted Gill es el máximo ejecutivo de Unknown Worlds, la empresa desarrolladora de Subnautica, y una de las figuras centrales del conflicto judicial con Krafton. Medios como Bloomberg también lo describieron así al cubrir la decisión judicial que obligó a Krafton a reincorporarlo. ↩︎
- El régimen habitual de OpenAI es el borrado en hasta 30 días, salvo exigencia legal o de seguridad:
🎓 Chats normales de ChatGPT: si el usuario los elimina, OpenAI indica que se eliminan permanentemente de sus sistemas en un plazo de hasta 30 días, salvo retención por motivos legales o de seguridad.
🎓 Temporary Chat: no aparece en el historial y se elimina automáticamente en hasta 30 días, incluso sin borrado manual. Además, no se usa para entrenar modelos.
🎓 Memories: las memorias guardadas funcionan aparte del historial de chats. Si se borra una memoria, OpenAI dice que puede conservar un registro de esa memoria borrada hasta 30 días por seguridad y depuración.
🎓 Workspaces / proyectos: en proyectos, los mensajes heredan la política de retención del workspace; y si se elimina un proyecto, sus chats, archivos e instrucciones se eliminan en hasta 30 días, salvo obligación legal o de seguridad.
🎓 Enterprise / compliance logs: en ese contexto concreto, la plataforma de logs de compliance retiene datos 30 días, salvo que el cliente exporte y conserve más tiempo por su cuenta. ↩︎
