Cuando la IA deja de ser privada: ¿qué implica que sus conversaciones puedan usarse para la publicidad?
La llegada de los anuncios a ChatGPT abre una era en la que las conversaciones con la IA se convierten en una fuente de datos de alto valor para el perfilado publicitario y potentes herramientas de persuasión
Tres años de ChatGPT: la máquina que no pudo quitarte el trabajo ahora va a por tus secretos
Tras la aparición de ChatGPT, el gran temor de muchos fue el empleo. Más de tres años después de aquel momento cero de la inteligencia artificial, el apocalipsis de la automatización no ha llegado y los cambios económicos que producirá esta tecnología son aún inciertos. La revolución de la inteligencia artificial es profunda, pero avanza en una esfera más íntima, mucho más personal que una cifra de paro.
Este 2026, millones de personas utilizan sistemas de inteligencia artificial como confidentes, asesores personales o apoyo emocional. Es esa compañera que la empresa se niega a contratar para aligerar la carga de trabajo, el profesor particular que la familia no se puede permitir y la psicóloga que está disponible las 24 horas. Un espacio percibido como seguro para expresar cualquier cosa, desde ideas políticamente incorrectas a la duda visceral de si merece la pena seguir viviendo.
Cada día se generan largas conversaciones entre máquina y persona, unas veces escritas y otras a través de herramientas de voz. Con lenguaje cuidado cuando se habla de un tema fiscal o con abreviaturas de chat al intentar entender la reacción de una pareja. Con voz agitada para preguntar la última duda antes de un examen final o apagada tras varias horas rumiando un problema en la cama.
La IA está abriendo una nueva era de intimidad automatizada. El problema es que, para las empresas que la desarrollan, íntimo no significa necesariamente lo mismo que privado.
El recurso de la publicidad
La amenaza de que esa cascada de datos sensibles que recibe la inteligencia artificial se usara para el perfilado publicitario siempre estuvo presente, pero se ha tornado muy real este 2026. Especialmente tras el anuncio de OpenAI de que ChatGPT, el detonante de esta revolución, incluirá anuncios en los próximos meses.
Las señales de este cambio de rumbo se acumularon durante todo 2025. Sam Altman, director ejecutivo de OpenAI, fue alterando su discurso a medida que el mercado publicitario se iba haciendo más inevitable para su empresa, que nunca ha tenido beneficios, pero se ha comprometido a invertir 1,4 billones de dólares en computación hasta 2033.
Así, la publicidad pasó de ser “el último recurso” de la empresa, debido a que “la combinación de anuncios con IA” le resultaba “especialmente inquietante”, a ser una posibilidad. “Me encantan los anuncios de Instagram”, dijo finalmente Altman en referencia al modelo de negocio Meta, la gran multinacional de la publicidad online junto con Google y propietaria tanto de esa red social como de Facebook o WhatsApp.
Me encantan los anuncios de Instagram
Meta también fue la primera en usar los datos recogidos por su IA para el perfilado publicitario, el mecanismo por el cual estas plataformas recopilan a partir del análisis del comportamiento digital (desde las búsquedas hasta al tiempo que se pasa leyendo cada tipo contenido) para generar una ficha de intereses. Una información que usan para vender a los anunciantes la posibilidad de mostrar su publicidad solo a aquellas personas que son más susceptibles a ella.
Con el giro de OpenAI y la evidencia de que Meta empleará la IA para potenciar su negocio actual, queda como Google como tercer gran actor involucrado. Su modelo Gemini es uno de los más avanzados del mercado y la multinacional coqueteó con la idea de incluir anuncios en él durante su última presentación de resultados. Preguntada al respecto por elDiario.es, una portavoz de Google se remite a su política actual: “No se están usando tus conversaciones con las aplicaciones de Gemini para mostrarte anuncios. Si esto cambia, te informaremos claramente”.
Sin embargo, la inclusión de la IA en el perfilado no es solo una vuelta de tuerca más en ese sistema. Su potencial es mucho mayor y la clave radica precisamente en el carácter íntimo que tiene para millones de usuarios. “Son conversaciones los usuarios poco reflexivos consideran privadas”, advierte Jorge García Herrero, abogado especialista en protección de datos. “Son una auténtica mina de datos de categoría especial, ya que están documentados los usos masivos de estos chats para obtener feedback propio de amigos, parejas amorosas, médicos o psicólogos”.
Esos datos de categoría especial que menciona el jurista son aquellos sobre la salud, la ideología o la condición de una persona. Cuentan con una protección reforzada en el Reglamento General de Protección de Datos (RGPD) de la UE e inferirlos sin consentimiento se considera ilegal. Sin embargo, al actuar como confidentes en conversaciones sobre estos temas, los chatbots pueden extraerlos fácilmente del contexto de las conversaciones y el análisis de patrones.
De la segmentación a la persuasión
Muchas de las críticas que reciben las redes sociales y las plataformas digitales por diseñar algoritmos adictivos, fomentar sentimientos extremos en los usuarios como la ira o la frustración o empujarlos a la radicalización, son consecuencias directas del modelo publicitario que ha imperado en Internet las últimas dos décadas. Más tiempo de uso implica más datos personales y para el perfilado publicitario y más oportunidades para mostrar anuncios. Las plataformas tienen todos los incentivos para mantener al usuario enganchado.
El riesgo del matrimonio entre la publicidad y la inteligencia artificial es la introducción de esos mismos incentivos en una tecnología tan potente como esta. Un contexto “mucho más sofisticado, porque permite una interacción conversacional y, por tanto, que las intenciones últimas del usuario se desnuden con mayor precisión”, avisa Ricard Martínez, director de la cátedra de Privacidad y Nuevas Tecnologías de la Universidad de Valencia.
Las compañías se van a mover en un contexto muy delicado ya la UE prohíbe cualquier técnica manipuladora o engañosa para alterar el comportamiento de una persona o colectivo
El profesor detalla que, aunque un impacto publicitario calibrado en el momento justo dispara la tasa de éxito, sigue siendo un anuncio. Pero la inteligencia artificial desdibuja esos límites. Imaginemos una conversación entre el usuario y el chatbot que termina con una recomendación de una aerolínea. Aunque se etiquete como publicidad, ¿cómo influye el contexto de confianza en el que se ha desarrollado la conversación?
“La humanización del producto puede hacernos traspasar una delicada frontera e irnos a un entorno más propio de la manipulación”, avisa Martínez. Una duda se dispara si son temas sociales o políticos los que se discuten, o cuando los usuarios son menores de edad, ya que cualquier capa publicitaria añadida en estos ámbitos trasciende cualquier contenido patrocinado en una red social.
En las plataformas digitales, la publicidad se inserta junto a lo que el usuario mira. En los chatbots, esos mismos anuncios se pueden insertar dentro de lo que el usuario razona. “Las compañías se van a mover en un contexto muy delicado, ya que el Reglamento de Inteligencia Artificial de la UE prohíbe cualquier tipo de técnicas manipuladoras o engañosas con el objetivo de alterar el comportamiento de una persona o un colectivo”, recuerda.
Este mismo conocimiento, una vez se obtiene para 'personalizar la experiencia publicitaria' puede emplearse para otras personalizaciones, como sesgar las respuestas para agradar o incluso para persuadir al usuario
Además, esas técnicas no solo sirven para vender anuncios. “Este mismo conocimiento, una vez se obtiene para 'personalizar la experiencia publicitaria' puede emplearse para otras personalizaciones, como la de las respuestas (ofreciendo respuestas leve o gravemente sesgadas para simplemente agradar o incluso para persuadir al usuario en determinado sentido)”, enfatiza Jorge García Herrero. “Esta capacidad de persuasión es una de las principales amenazas de la generalización del uso de ChatGPT para temas de interés general, en los que tener 'verdades objetivas' sigue siendo importante”, continúa.
OpenAI rechaza ese escenario y asegura que la integridad del chatbot está asegurada. “Puedes confiar en que las respuestas de ChatGPT se basan en lo que es objetivamente útil y nunca en la publicidad”, promete, negando que vaya a emplear tácticas ocultas para que los usuarios pasen más tiempo en ChatGPT. “Priorizamos la confianza del usuario y la experiencia de uso por encima de los ingresos”, afirman. La empresa, no obstante, está planeando cobrar el precio más alto de toda la industria por los anuncios en ChatGPT, ha anticipado el medio especializado en Silicon Valley The Information.
Nueva higiene digital
Esta situación no está pasando desapercibida para las instituciones. La Agencia Española de Protección de Datos (AEPD) ha publicado una guía sobre cómo interactuar con la IA con seguridad. El regulador de la privacidad recuerda que “cualquier información que se le suministra puede filtrarse en Internet o ser indexada por buscadores de manera indeseada, entre otros riesgos”.
Por ello, recomienda no facilitar nunca a estos sistemas datos como el nombre completo o el DNI. Para minimizar la huella digital, sugiere medidas de higiene como utilizar correos electrónicos alternativos o borrar periódicamente el historial de conversaciones.
La Agencia también hace especial hincapié en las imágenes, tanto propias como de terceros, que se introducen en estos sistemas. “Nunca utilices imágenes en las que aparecen otras personas para generar nuevo contenido a partir de ellas. Lo que comienza como una broma puede convertirse en una infracción de protección de datos o, incluso, en un delito”, afirma. Este 2026 ya se ha dado un gran escándalo en este sentido, con el uso de Grok, la IA de X y Elon Musk, para sexualizar imágenes de mujeres.
Son recomendaciones que la IA recomienda mantener también en el uso laboral de los chatbots, evitando en todo momento comunicar datos confidenciales. Además, recuerda que por potente que sea, son sistemas falibles: “Una herramienta de IA puede ofrecerte respuestas que parecen convincentes acerca de todo tipo de temas, aunque pueden ser erróneas. Evita que la IA decida por ti y mantén siempre una actitud crítica ante sus respuestas o consejos”.
En España, la respuesta institucional a este nuevo modelo no recae solo en la AEPD. La Comisión Nacional de los Mercados y la Competencia (CNMC), designada como coordinadora de servicios digitales, tiene ya poder para exigir transparencia sobre cómo funcionan los sistemas de recomendación y publicidad de las grandes plataformas, e incluso para sancionarlas si vulneran las leyes europeas. Una arquitectura se suma la nueva Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), llamada a aplicar el Reglamento europeo de IA y a evaluar el riesgo de los sistemas que, como los chatbots, empiezan a mediar en decisiones sensibles.
Un reto que tensionará la legislación
La guía de la AEPD pone el foco en el usuario, pero los expertos consultados para este reportaje coinciden en que uno de los riesgos es que la IA desborde la legislación, como ya ocurrió con las plataformas digitales o el primer Internet.
Ricard Martínez expone que en aquel momento las autoridades actuaron de forma reactiva ante prácticas como el escaneo de correos electrónicos para perfilado publicitario o la irrupción de la mensajería instantánea, sin realizar análisis de riesgo preventivos. El catedrático indica que si las instituciones siguen siendo “profundamente reactivas”, el resultado será que la IA traerá nuevos problemas que no se mitigan durante años, como ocurrió con las redes sociales.
La IA rompe muchas de las categorías de protección que las leyes han establecido a lo largo de los años. No es solo un sistema de recomendación, ni un espacio publicitario, ni una plataforma de contenido. “Lo que me gustaría es que no se volviera a repetir lo que ya vimos. Que las autoridades de protección de datos y las de inteligencia artificial fueran proactivas y actuasen de manera preventiva, permitiendo una disciplina de mercado que garantice los derechos de las personas y evite cualquier práctica lesiva”, enfatiza Martínez.
Un reto que será mayor que nunca, también por los desafíos que entraña la propia tecnología. Si la industria de la publicidad online se caracteriza por su falta de transparencia, su matrimonio con la IA añadirá el hecho de que estos sistemas son opacos incluso para sus creadores. No es posible discernir por completo los procesos lógicos que llevan a una IA a proporcionar una respuesta concreta.
Descubrir casos de manipulación u otras prácticas contrarias a la ley será doblemente complicado. “Estas acciones solo se podrán detectar mediante auditorías de terceros, en su caso, ya que recordemos que estamos hablando de cajas negras”, concluye Herrero.
El desafío está servido. La IA conversacional no es solo una herramienta nueva, es un cruce de caminos entre intimidad, negocio publicitario y derechos fundamentales. Cuanto más útil se vuelve para resolver problemas personales, más valiosos son los datos que genera y más incentivos hay para explotarlos. Si los guardarraíles llegan tarde, el matrimonio entre publicidad e IA no solo podría desbordar las categorías jurídicas actuales: también podría condicionar silenciosamente las decisiones de millones de personas antes de que nadie pueda auditar qué ha pasado dentro de la caja negra.