Alerta privacidad con la IA: cómo usan tus datos personales y por qué nadie te lo explica en la escuela ni en el trabajo

Usamos inteligencia artificial todos los días, pero entendemos muy poco qué pasa con la información que brindamos. Una conversación que se reactivó con el bloqueo de Magis TV.

Profesor y Licenciado en Sistemas y Computación. Docente e investigador en la UNCUYO. Especialista en educación digital e inteligencia artificial. Maestrando en Enseñanza en Escenarios Digitales. Cofundador de SCIENC3S

La mayoría de las veces, el uso de la inteligencia artificial empieza con un gesto casi automático. Instalamos una aplicación en el celular, descargamos un software o abrimos una nueva plataforma y, frente a una pantalla llena de texto, hacemos clic en "aceptar" o "continuar". No leemos. Lo cuentan mis estudiantes, lo comentan familiares, lo admiten colegas en el trabajo. Es parte del uso cotidiano de la tecnología.

Educar en tiempos de inteligencia artificial: el valor de la pregunta

Ese gesto, aparentemente inofensivo, se repite todos los días y a toda hora. No importa si estamos en casa, en la escuela o en una empresa. La lógica es la misma: avanzar rápido, no perder tiempo, seguir usando la herramienta. Leer las condiciones resulta tedioso y, muchas veces, difícil de entender. Sin embargo, ese clic tiene consecuencias que casi nunca discutimos en clave educativa.

Aunque cada vez se habla más de privacidad y datos, el tema sigue apareciendo como algo lejano o abstracto. Sin embargo, sus efectos son cada vez más concretos. Todos conocemos a alguien a quien le hackearon el WhatsApp. De un momento a otro, ese contacto cercano, un amigo, un familiar, un colega empieza a pedir dinero urgente o a ofrecer dólares a un precio tentador. Detrás de esas estafas no hay solo tecnología: hay falta de educación digital.

Lo gratuito, muchas veces, tiene un costo oculto. Y ese costo suele pagarse con datos personales.

En los últimos meses vimos otro ejemplo que volvió a instalar el tema en la conversación pública. Plataformas de streaming como Magis TV y Xuper TV fueron bloqueadas en Argentina por orden judicial, y miles de usuarios buscaron alternativas para volver a utilizarlas mediante redes privadas virtuales (VPN) o descargas externas. El debate giró en torno a cómo recuperar el acceso. Mucho menos se habló de los permisos que esas aplicaciones solicitaban, de los datos que podían recopilar o de los riesgos asociados a instalar archivos fuera de tiendas oficiales.

Cuando una aplicación no figura en los canales formales de descarga y requiere instalar archivos externos, el nivel de exposición cambia. Especialistas en ciberseguridad advierten que este tipo de prácticas puede habilitar accesos amplios al dispositivo: contactos, imágenes, ubicación, micrófono e incluso cuentas personales. Lo gratuito, muchas veces, tiene un costo oculto. Y ese costo suele pagarse con datos personales.

Luis Alfredo Villalba presenta su nuevo libro: "La gata en la ventana"

Lo que más preocupa no es que existan estos riesgos, sino que no se enseñe cómo prevenirlos. En la escuela, en la familia y en el trabajo se habla mucho de inteligencia artificial, pero poco de hábitos básicos de cuidado digital. El problema no es la tecnología en sí, sino cómo la usamos sin comprender qué entregamos a cambio.

Desde mi experiencia como profesional de sistemas y docente, el primer aprendizaje debería ser sorprendentemente simple: leer antes de hacer clic. Detenerse unos segundos, no avanzar automáticamente. Esa práctica mínima, sostenida en el tiempo, ya marca una diferencia enorme. A eso se suma algo igual de importante: aprender a desconfiar un poco más. Hoy cualquiera puede generar un video falso, un audio editado o una imagen creíble usando inteligencia artificial. Antes de reenviar o viralizar, conviene hacerse preguntas básicas: ¿es real?, ¿es útil?, ¿a quién beneficia que esto circule?

En la escuela, en la familia y en el trabajo se habla mucho de inteligencia artificial, pero poco de hábitos básicos de cuidado digital.

El engaño, además, no tiene un único responsable. Se construye en una mezcla compleja: discursos empresariales que minimizan riesgos, falta de formación sistemática, una cultura digital que prioriza la rapidez y la comodidad del usuario, y hábitos cotidianos que refuerzan el "aceptar sin leer". En ese entramado, la educación suele aparecer tarde, cuando el daño ya está hecho.

Tampoco ayuda la confusión entre herramientas. No es lo mismo usar inteligencia artificial que usar un buscador tradicional, aunque estos últimos ya incorporen IA. La diferencia es clave: la inteligencia artificial guarda, procesa y aprende de nuestros datos. Incluso cuando le pedimos que olvide, muchas veces sabe más de nosotros de lo que creemos. ¿Probaste alguna vez el siguiente prompt:

Decime todo lo que sabés de mí.

No se trata de tenerle miedo, sino de tenerle respeto.

En este contexto, educar en privacidad no significa convertir a docentes, familias o trabajadores en expertos técnicos. Significa algo mucho más profundo: recuperar el hábito de preguntar antes de aceptar. Preguntar qué datos se solicitan, para qué se usan, quién los almacena y durante cuánto tiempo. Preguntas incómodas, sí, pero necesarias.

En tiempos de inteligencia artificial, educar también es enseñar a cuidar lo que somos en el mundo digital. Y ese aprendizaje empieza, otra vez, con una pregunta incómoda:

¿Qué estamos enseñando sobre responsabilidad y cuidado cuando aceptamos sin leer, compartimos sin pensar y dejamos nuestros datos en manos de otros, en casa, en la escuela y en el trabajo?

¿Tenés más preguntas? Te leo en los comentarios.

Esta nota habla de: