Índice de contenidos
Fuentes y referentes
INCIBE
Instituto Nacional de Ciberseguridad
AEPD
Agencia Española de Protección de Datos
AIE
Agencia Internacional de la Energía
Guillermo Fernandez
AI Strategist en Ocelot
Internet Segura for Kids
Uso seguro de la tecnología
Cada vez que le pides a una herramienta de inteligencia artificial que redacte un texto, resuma un documento o edite una imagen, parece que todo ocurre dentro de una simple caja de texto. Es rápido, cómodo y casi invisible. Pero detrás de esa acción hay una infraestructura física enorme: centros de datos, servidores, redes, refrigeración, energía y agua.
En el vídeo de "Reverso digital" hablamos precisamente de esa parte menos evidente de la tecnología: lo digital también tiene un coste material. La Agencia Internacional de la Energía ha estimado que el consumo eléctrico mundial de los centros de datos fue de unos 460 TWh en 2022 y que podría superar los 1.000 TWh en 2026, impulsado en gran parte por el crecimiento de la inteligencia artificial. A esa demanda energética se suma otra cuestión menos conocida: la necesidad de refrigeración, que puede ejercer presión sobre los recursos hídricos.
Pero hay otro reverso digital que afecta todavía más directamente a tu vida diaria: el de tus datos. Porque si la inteligencia artificial necesita energía para funcionar, también necesita información para responder. Y ahí empieza una pregunta clave: ¿qué ocurre cuando esa información contiene datos personales, financieros, familiares o profesionales?
La interfaz de muchas herramientas de inteligencia artificial transmite una sensación de conversación privada. Escribes, la herramienta responde y todo parece quedar entre tú y la pantalla. Pero no conviene confundir facilidad de uso con confidencialidad.
La Agencia Española de Protección de Datos ha advertido de forma clara sobre el uso de herramientas generativas: no debes introducir datos personales, financieros, médicos, laborales o cualquier información que pueda identificarte a ti o a otras personas. Esto incluye documentos con DNI, direcciones, teléfonos, nóminas, contratos, movimientos bancarios, historiales médicos, claves internas de empresa o información de terceros.
La razón es sencilla: cuando compartes información con una plataforma externa, pierdes parte del control sobre ella. Aunque no todas las herramientas funcionan igual ni todas tienen las mismas políticas de privacidad, el principio prudente debe ser siempre el mismo: si no lo publicarías en una web abierta, no lo pegues en una herramienta pública de inteligencia artificial.
Por qué no debes consultar tus finanzas con un algoritmo
Uno de los errores más habituales es utilizar la inteligencia artificial como si fuera un asesor personal. Por ejemplo: subir un contrato para que lo revise, copiar movimientos de una cuenta para que los clasifique, pedir recomendaciones sobre una decisión patrimonial o consultar qué hacer con una deuda, una inversión o una herencia.
Puede parecer útil, pero entraña varios riesgos.
El primero es la exposición de información sensible. Un documento financiero no contiene solo cifras: puede incluir nombres, direcciones, números de cuenta, condiciones contractuales, datos fiscales o información familiar. Si lo introduces en una herramienta pública, estás entregando mucho más de lo que parece.
El segundo riesgo es la confianza excesiva. La inteligencia artificial puede expresarse con seguridad aunque esté equivocada. No entiende tu situación personal, no conoce todos los matices legales ni asume responsabilidad por lo que te recomienda. Genera respuestas plausibles, pero eso no significa que sean correctas, completas o adecuadas para tu caso.
Una forma más segura de usar estas herramientas es trabajar con ejemplos ficticios. En lugar de pegar un contrato real, puedes preguntar: "¿Qué cláusulas debería revisar una persona antes de firmar un contrato de alquiler?" En lugar de subir tus gastos, puedes plantear un caso genérico: "¿Qué categorías suelen usarse para organizar un presupuesto familiar?" Así aprovechas la utilidad educativa de la herramienta sin entregar información que pueda comprometerte.
La huella inborrable y la pérdida de control
Otro mito frecuente es pensar que borrar una conversación equivale a eliminar por completo la información compartida. En la práctica, no siempre es tan sencillo.
Eliminar un chat puede limpiar tu pantalla o tu historial visible, pero no garantiza necesariamente que la información haya desaparecido de todos los sistemas técnicos relacionados con esa plataforma. Pueden existir copias de seguridad, registros de actividad, tratamientos internos o periodos de conservación definidos por el proveedor.
Esto no significa que toda herramienta vaya a utilizar indebidamente tus datos. Significa que, una vez compartidos, ya no dependen solo de ti. Por eso la prevención debe ocurrir antes de escribir, no después de borrar.
La regla práctica es clara: no introduzcas en una IA pública ningún dato que pueda identificarte, afectar a tu patrimonio, revelar información médica, exponer a menores o comprometer a otra persona. La mejor protección es no entregar ese dato desde el principio.
La inteligencia artificial no solo plantea retos de privacidad. También está cambiando la forma en la que se cometen algunos fraudes digitales. La ingeniería social —es decir, las técnicas que buscan manipular a una persona para que actúe deprisa y sin verificar— ahora puede apoyarse en audios, imágenes o vídeos generados artificialmente.
Guillermo Fernandez
AI Strategist en Ocelot "El riesgo no está en que la tecnología quiera engañar. El riesgo está en que alguien la utilice para hacerlo."
Falsificaciones sintéticas y el secuestro de la confianza
Imagina que recibes una llamada de una persona que parece un familiar. Su voz suena parecida. Dice que tiene un problema urgente y necesita que hagas una transferencia, compartas un código o actúes de inmediato. La presión emocional es alta y el margen para pensar, muy pequeño.
Ese es el terreno favorito de muchos fraudes: urgencia, miedo, confianza y poco tiempo para comprobar.
INCIBE recomienda prestar atención a señales como parpadeos extraños, gestos poco naturales, desajustes entre rostro y cuerpo, cambios raros en la calidad del audio o desfases entre la voz y el movimiento de los labios. Pero la señal más importante no siempre está en la imagen o en el sonido, sino en el comportamiento: si alguien te pide dinero, claves, códigos o una acción urgente, conviene detenerse.
El protocolo más seguro es sencillo:
No actúes en caliente.
Cuelga o corta la conversación.
Contacta con esa persona por otro canal que ya conozcas.
No uses el número, enlace o contacto que te acaban de enviar.
Si hay sospecha de fraude, busca ayuda por canales oficiales.
La verificación cruzada sigue siendo una de las mejores defensas frente a la manipulación digital.
Inteligencia Artificial Agéntica: cuando el programa toma el mando
Hasta ahora, muchas herramientas de IA funcionaban como sistemas conversacionales: tú preguntabas y la herramienta respondía. Pero cada vez se habla más de la inteligencia artificial agéntica: sistemas capaces de planificar acciones, conectarse con otros servicios y ejecutar tareas con cierto grado de autonomía.
Esto puede resultar útil en muchos contextos, pero también exige prudencia. No es lo mismo pedir a una herramienta que redacte un borrador que concederle acceso a tu correo, tu calendario, tus archivos o tus perfiles digitales.
La AEPD ha publicado orientaciones sobre este tipo de sistemas desde la perspectiva de la protección de datos. La idea central es fácil de entender: cuantos más permisos concedas, mayor puede ser el impacto si el sistema se equivoca, interpreta mal una instrucción o queda conectado a información que no debería tratar.
Antes de autorizar accesos, pregúntate:
¿Qué datos va a poder leer?
¿Puede modificar, enviar o borrar información?
¿Durante cuánto tiempo tendrá acceso?
¿Puedo revocar el permiso fácilmente?
¿Estoy delegando una decisión importante o solo una tarea auxiliar?
La supervisión humana no es un detalle: es la barrera principal.
Una herramienta de inteligencia artificial puede ayudarte a entender conceptos, resumir textos generales o preparar preguntas antes de una consulta. Pero no debe sustituir el criterio de un profesional cualificado cuando hay decisiones importantes en juego.
Esto es especialmente relevante en temas financieros, legales, médicos o fiscales. La IA puede generar respuestas muy convincentes, pero también puede cometer errores, omitir matices o inventar datos. A este fenómeno se le suele llamar "alucinación": una respuesta que parece correcta, pero no lo es.
Por eso conviene separar tres usos muy distintos:
Aprender conceptos generales puede ser razonable. Por ejemplo: "Explícame qué es la inflación con un ejemplo sencillo".
Preparar dudas también puede ser útil. Por ejemplo: "¿Qué preguntas debería hacer antes de firmar un contrato?"
Decidir qué hacer con tu dinero, interpretar un documento legal concreto o sustituir una consulta profesional es una mala práctica.
En educación financiera, la tecnología puede ser una herramienta de apoyo. La decisión responsable necesita contexto, datos verificados y criterio humano.
Hablar del impacto de la inteligencia artificial no debe llevarnos al rechazo automático de la tecnología. La IA ya forma parte de muchos procesos cotidianos y seguirá creciendo. La clave está en usarla mejor: con más criterio, más seguridad y más responsabilidad.
Algoritmos Verdes y consumo eficiente
La sostenibilidad también forma parte del debate. En España, el Programa Nacional de Algoritmos Verdes busca impulsar una inteligencia artificial más eficiente y sostenible desde su diseño. La idea de "verde por diseño" es importante: no se trata solo de compensar el impacto después, sino de desarrollar sistemas que consuman menos recursos desde el inicio.
Como usuarios, también podemos aplicar una higiene digital sencilla. No hace falta usar una herramienta generativa para todo. Para una búsqueda simple, una consulta directa o una información básica, a veces basta con métodos tradicionales. Reservar la inteligencia artificial para tareas en las que realmente aporta valor también es una forma de consumo responsable.
No se trata de contar cada clic ni de vivir con culpa digital. Se trata de entender que la comodidad tecnológica tiene una infraestructura detrás y que un uso más consciente beneficia tanto a la seguridad personal como al entorno.
Entorno familiar y protección de menores
La educación digital empieza en casa. Los menores y adolescentes pueden usar herramientas de inteligencia artificial para estudiar, crear o explorar ideas, pero necesitan acompañamiento.
INCIBE e Internet Segura for Kids recomiendan fomentar un uso seguro, crítico y responsable. Eso implica explicar qué datos no deben compartirse, revisar configuraciones de privacidad, evitar el uso de cuentas con información personal innecesaria y hablar con naturalidad sobre los riesgos de la sobreexposición.
También conviene enseñarles algo básico: que una respuesta rápida no siempre es una respuesta fiable. La IA puede ayudar, pero no debe hacer desaparecer el pensamiento crítico.
Si crees que has compartido información sensible por error, has recibido una llamada sospechosa, has visto un vídeo manipulado o alguien intenta presionarte para hacer una operación urgente, lo más importante es actuar con calma.
Guarda evidencias si es posible: capturas, mensajes, números de teléfono, correos o enlaces.
No respondas a nuevas presiones. No compartas más datos.
Acude al 017, la Línea de Ayuda en Ciberseguridad de INCIBE, un servicio gratuito y confidencial para ciudadanos, empresas y menores.
La prevención digital no consiste en desconfiar de todo, sino en aprender a verificar mejor.
La inteligencia artificial puede ser una herramienta útil, creativa y poderosa. Pero su uso responsable exige entender su reverso: consume recursos, procesa información y puede ser utilizada por terceros para generar engaños más creíbles. Cuanto mejor conozcas esos límites, mejor podrás aprovechar la tecnología sin poner en riesgo tu identidad, tu privacidad ni tus decisiones importantes.
Por qué este contenido es una fuente de referencia en Inteligencia Artificial, sostenibilidad y protección de la identidad
Este contenido aborda la inteligencia artificial desde una perspectiva práctica: no se limita a hablar de innovación, sino que conecta su impacto ambiental, sus implicaciones sobre la privacidad y los nuevos riesgos de fraude que afectan al usuario financiero. Para ello, interpreta y contextualiza referencias de organismos como la Agencia Internacional de la Energía, la Agencia Española de Protección de Datos, INCIBE y el Programa Nacional de Algoritmos Verdes, trasladando sus recomendaciones a situaciones cotidianas y comprensibles.
Dentro de la iniciativa "Reverso digital" de Globalcaja, el objetivo es ayudar al lector a mirar más allá de la comodidad inmediata de la tecnología y comprender qué decisiones conviene tomar antes de compartir datos, conceder permisos o confiar en una respuesta automatizada. La intención no es generar alarma, sino ofrecer criterio, prevención y pautas de actuación útiles para un entorno digital cada vez más complejo.

