El uso personal de la IA choca con riesgos de privacidad no resueltos

Los consumidores recurren cada vez más a los chatbots como confidentes para todo tipo de temas. Les piden ayuda con las finanzas, dudas sobre salud, estrés emocional y decisiones privadas. Pero a medida que ese comportamiento se vuelve más común, también lo hace una realidad difícil: muchas personas podrían estar revelando información profundamente sensible a sistemas cuyos límites de privacidad a largo plazo siguen sin estar claros.

Un nuevo informe de ZDNET recoge la preocupación central. Investigadores que estudian las consecuencias de introducir información personal en sistemas de IA señalan que el problema no es solo lo que las empresas recopilan ahora, sino lo que los usuarios no pueden controlar con fiabilidad una vez que esa información entra en un ecosistema de modelos. Jennifer King, investigadora sobre privacidad y política de datos en el Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford, dijo a ZDNET que “simplemente no puedes controlar a dónde va la información”, advirtiendo que podría filtrarse de formas que los usuarios no anticipan.

Los chatbots están diseñados para mantener a la gente hablando

El riesgo se amplifica por el diseño. Las interfaces de los grandes modelos de lenguaje se construyen para ser conversacionales, receptivas y tranquilizadoras. Eso las hace útiles, pero también las vuelve inusualmente eficaces para sacar información que la gente podría dudar en compartir en otro lugar. ZDNET plantea el problema en términos cotidianos que son cada vez más realistas: la gente usa chatbots para interpretar resultados de laboratorio, ordenar sus finanzas personales u ofrecer consejo en momentos de ansiedad nocturna.

Ese tipo de uso ya no es de nicho. El artículo cita un estudio de la Universidad de Elon de 2025 que halló que poco más de la mitad de los adultos estadounidenses usan grandes modelos de lenguaje. Si ese nivel de adopción se mantiene, las preguntas de privacidad que antes se trataban como casos límite ahora afectan al comportamiento del mercado masivo. El problema no es simplemente si unos pocos usuarios intensivos comparten demasiado, sino si se está formando un hábito digital dominante alrededor de sistemas que el público sigue comprendiendo mal.

El resultado es una nueva desalineación. Los usuarios pueden percibir a los chatbots como herramientas con sensación de privacidad, incluso cuando las realidades legales, técnicas y organizativas que los sostienen son mucho más complejas. La interfaz se siente íntima. El entorno de datos puede no serlo.

Memorización, extracción y vigilancia siguen siendo preocupaciones abiertas

Una de las preguntas más difíciles es si los modelos pueden memorizar información sensible y si ese material puede recuperarse después, total o parcialmente. ZDNET señala que la memorización es una de las quejas centrales en la demanda del New York Times contra OpenAI, mientras que OpenAI dijo en 2024 que la “regurgitación es un fallo raro” que intenta eliminar.

El punto más amplio es que la incertidumbre en sí forma parte del riesgo. Los investigadores no necesitan demostrar que cada divulgación privada será reproducida textualmente para defender la cautela. Si no existe una comprensión pública fiable de con qué frecuencia ocurre la memorización, en qué condiciones podría reaparecer la información o cuán sólidas son realmente las salvaguardas, entonces los usuarios están tomando decisiones de privacidad a ciegas.

La advertencia de King, tal como la نقلa ZDNET, también apunta a otra capa: la dependencia de la custodia corporativa. En la práctica, los usuarios confían en que las empresas establezcan barreras que eviten que la información memorizada o sensible vuelva a filtrarse. Eso significa que los resultados de privacidad dependen no solo del diseño técnico, sino también de los incentivos, la gobernanza, la aplicación y una vigilancia continua mucho después de que la ventana de conversación se haya cerrado.

El cambio social puede ir más rápido que las protecciones

Lo que vuelve urgente el tema es la forma en que los chatbots están pasando de ser herramientas de tareas a sistemas parecidos a relaciones. ZDNET señala que hay personas que han formado relaciones románticas con chatbots o los usan como coaches de vida y terapeutas. Independientemente de si esos usos llegan a dominar, revelan una tendencia importante: cada vez más se les pide a los sistemas de IA que manejen el tipo de material que antes se reservaba para médicos, orientadores, amigos cercanos o diarios privados.

Ese cambio modifica lo que está en juego. Una consulta de compras filtrada es una cosa. Una divulgación sobre salud mental, una dificultad financiera o una preocupación médica es otra. Incluso cuando los datos no se exponen públicamente, los efectos posteriores de la retención, el acceso interno, el entrenamiento del modelo o los cambios de política pueden seguir importando. La privacidad en este contexto no se trata solo de vergüenza. Puede afectar la elaboración futura de perfiles, la segmentación comercial y la disposición de los usuarios a pedir ayuda con honestidad.

El artículo también subraya un problema cultural. Es posible que la gente no se detenga a evaluar estos riesgos porque los chatbots se están volviendo normales. Están disponibles a cualquier hora, producen respuestas fluidas y generan una sensación de inmediatez que favorece la revelación antes que la reflexión. Esa comodidad es una de las razones por las que la adopción crece. También es una de las razones por las que la cautela puede ir por detrás del comportamiento.

Una señal de alerta para la próxima fase de adopción de la IA

El debate actual no es un llamado a abandonar los chatbots. Es un recordatorio de que el uso social de la IA está creciendo más rápido que la comprensión pública de las compensaciones de privacidad que implica. La brecha entre ambas cosas puede volverse peligrosa si los consumidores asumen que la intimidad implica confidencialidad.

El enfoque de ZDNET es útil porque evita fingir que el problema está resuelto. Los investigadores aún tratan de determinar las implicaciones completas de compartir información personal con chatbots. Esa incertidumbre es precisamente por la que el tema merece más atención ahora, no más tarde. Una vez que una tecnología queda integrada en un hábito diario, cambiar el comportamiento de los usuarios es mucho más difícil que moldearlo al principio.

La lección práctica es sencilla. Cuanto más capaces y personales se vuelven los sistemas de IA, más probable es que la gente los trate como receptores de confianza para información sensible. A menos que las empresas, los reguladores y los usuarios enfrenten ese hecho directamente, la siguiente fase de adopción de la IA podría definirse no solo por lo que los chatbots pueden hacer, sino por cuánto asumieron demasiadas personas que era seguro contarles.

Este artículo se basa en reportajes de ZDNET. Leer el artículo original.