Imagina que recibes un email de la Agencia Tributaria Española. Durante el Covid accediste a una ayuda de 700 € por no poder salir de casa a trabajar, y un algoritmo ha decidido que no estaba justificada. El propio algoritmo ha calculado los intereses y dice que la cifra ahora son 2.500 €. Te ha mandado un email automático y te dice que tienes un mes para abonar la cantidad. De no hacerlo, se iniciará un "procedimiento de gestión recaudatoria" y se te embargará. No hay posibilidad de explicarle nada al algoritmo, ni contestar el email. Solo puedes reclamar por otra vía, una reclamación compleja que implicará presentar documentación abundante para demostrar que el algoritmo está equivocado.
¿Ciencia ficción? No. Es una situación real que se calcula ha afectado a 150.000 autónomos en España durante 2024 y 2025.
El segundo escenario tampoco es ficción: van a suspender tu anuncio en la plataforma Airbnb. El algoritmo ha detectado que has cancelado dos reservas. A pesar de que tu anuncio está puntuado con un 4,8 sobre 5 y todos los comentarios son positivos, no hay posibilidad de reclamar ni de explicar los motivos que te han llevado a realizar esas dos cancelaciones. No puedes hablar con nadie, no se puede revertir. El algoritmo ha tomado la decisión y ningún humano la puede modificar. Se ha programado así porque era más eficiente. Esta situación real ha afectado a unos 5.000 huéspedes de Airbnb durante 2025.
Estos dos ejemplos ilustran cómo la búsqueda obsesiva de eficiencia inmediata mediante algoritmos termina siendo paradójicamente ineficiente a largo plazo, ya que destruye la confianza y socava la dignidad de las personas. Los creadores de estos sistemas aplicaron la misma mentalidad del propietario de una fábrica del siglo XIX: reducir costes, acelerar procesos, eliminar variables consideradas "innecesarias" como la intervención humana, buscando ser más eficientes.
Sin embargo, en un mundo en el que los algoritmos ya generan textos, imágenes y decisiones, centrarse únicamente en criterios numéricos ignora lo que realmente garantiza la eficiencia sostenida: la confianza, la flexibilidad y la empatía. Los algoritmos, diseñados para minimizar costes y maximizar rapidez, no pueden captar la complejidad humana, las circunstancias excepcionales ni las sutilezas contextuales. Al eliminar la intervención humana y bloquear toda posibilidad de diálogo, estos sistemas generan frustración, indignación y resistencia.
En ambos casos, se ha puesto énfasis en lo que los algoritmos pueden hacer mejor que los humanos, pero se ha ignorado por completo en qué áreas somos superiores las personas. Olvidar estas habilidades esenciales significa desperdiciar una enorme oportunidad de aprovechar la tecnología más disruptiva desde la invención de Internet para mejorar verdaderamente nuestras vidas.
La colonización algorítmica de nuestras mentes
Delegar en los algoritmos la toma de decisiones críticas ha sido la culminación de un largo proceso. Todo empezó cuando dejamos que decidieran qué debíamos consumir en redes sociales (Facebook creó el newsfeed en 2006) y se aceleró cuando empezamos a usarlos para leer y escribir (ChatGPT llegó en noviembre de 2022).
Después de este tiempo, ¿podemos afirmar que la inteligencia artificial está haciendo mejor a la humanidad?
Veamos los datos. Desde que los algoritmos usan tecnología transformer para sugerir contenidos en redes sociales, su consumo se disparó. Para 2027, cerca del 80% de la población mundial estará en redes sociales, pasando de 1 hora diaria a casi 4 horas de uso.
Este auge ha traído transformaciones profundas, algunas positivas. Como ejemplos, las redes sociales democratizaron el a la información y conectaron comunidades antes aisladas: desde los movimientos de la Primavera Árabe que organizaron protestas masivas, hasta comunidades LGTB+ que encontraron apoyo y visibilidad global, pasando por pequeños emprendedores que accedieron a mercados internacionales o movimientos sociales como #MeToo que rompieron silencios históricos. Las redes sociales han permitido que voces marginadas alcancen audiencias masivas y que se organicen causas que antes carecían de plataforma.
Sin embargo, la era de redes sociales con contenidos sugeridos por algoritmos, de la mano de los cambios sociales y económicos, ha generado un nuevo ser humano que incorpora interesantes novedades:
Deterioro de la atención: Los estudios sitúan nuestra capacidad de atención sostenida en menos de 10 segundos (inferior al pez dorado).
Impacto educativo negativo: La OCDE advierte que el uso excesivo de tecnología en el aula puede reducir el rendimiento en matemáticas el equivalente a más de un curso escolar.
Crisis de salud mental: Los índices de suicidio han alcanzado cifras récord. En España durante 2022 se registró un aumento del 5,6%, la mayor cifra histórica, con especial impacto en adolescentes y mujeres jóvenes.
Colapso de la confianza: Según el Edelman Trust Barometer 2025, la confianza general en la sociedad —incluyendo políticos, periodistas, ONG y empresas— está en su nivel más bajo, creando una "crisis de confianza generalizada". Ya nadie se cree nada.
Y en este contexto, en diciembre de 2022 irrumpieron los LLMs con el lanzamiento de ChatGPT, que en pocos meses se convirtió en una de las aplicaciones más usadas del mundo, democratizando una vez más capacidades antes exclusivas de expertos: cualquiera puede ahora programar sin conocer código, traducir textos complejos, analizar datos o generar contenido creativo. Han multiplicado la productividad en sectores como educación, donde profesores crean materiales personalizados en minutos, o medicina, donde ayudan en diagnósticos y resúmenes de historiales. Para personas con discapacidades, representan herramientas de accesibilidad revolucionarias.
Pero su adopción masiva trae consecuencias menos visibles que están empezando a llamar la atención de expertos:
Los sesgos invisibles: Un estudio de las universidades de Gante y Navarra demuestra que la ideología de las IA influye sutilmente en nuestros puntos de vista.
Cada modelo tiene su sesgo: algunos más progresistas, otros más conservadores, algunos reflejan visiones gubernamentales específicas.
El debilitamiento cognitivo: Según la Dra. Mara Dierssen, presidenta del Consejo Español del Cerebro, usar IA excesivamente para tareas como redacción o resúmenes debilita la memoria y reduce nuestra capacidad de pensamiento crítico. Estamos externalizando funciones cognitivas fundamentales.
La homogenización del pensamiento: Investigadores de Toronto observaron que usar LLMs durante el aprendizaje reduce la capacidad de pensar creativamente. Aunque inicialmente generas más ideas, a largo plazo muestras menos originalidad.
Cuando la eficiencia no nos hace más eficientes
Seguimos funcionando como si los algoritmos no nos afectaran, mientras estas tendencias se intensifican. Los algoritmos optimizan para la eficiencia, pero la experiencia humana no se reduce a variables optimizables.
Necesitamos un nuevo modelo de persona capaz de convivir con la IA sin perder su esencia, que aproveche sus beneficios sin sucumbir a sus riesgos. Un ser humano que mantenga su capacidad crítica, su creatividad y, sobre todo, su humanidad.
Nuestras ventajas evolutivas irreemplazables
Mientras una IA necesita millones de datos para reconocer patrones, nosotros aprendemos intuitivamente: un niño comprende qué es un perro con una sola explicación. Poseemos sentido común y criterio ético que nos permite saber cuándo parar, a diferencia de un algoritmo que sugiere contenido sin cesar.
Nuestra capacidad para leer el subtexto —percibir cuando alguien dice "estoy bien" pero algo anda mal— representa una comprensión emocional que permanece exclusivamente humana. Nuestras experiencias personales, cargadas de emociones y perspectivas únicas, crean narrativas irreplicables que conectan con otros de manera auténtica.
La clave no es competir contra las máquinas, sino aprovechar lo que nos hace fundamentalmente humanos: nuestra autenticidad, intuición y la riqueza de nuestras vivencias.
La solución: educar el espíritu crítico
Para que la IA realmente nos haga mejores, necesitamos un cambio profundo en el sistema educativo. No podemos seguir preparando a las generaciones futuras con herramientas del pasado.
Uso consciente de la tecnología: Enseñar cuándo y cómo usar estas herramientas de manera productiva. No prohibir, sino educar el criterio.
Desarrollo de habilidades irreemplazables donde los humanos seguimos ganando: Empatía, creatividad, adaptación al momento presente, resolución de problemas complejos, inteligencia emocional. Estas capacidades nos permiten dirigir la IA, no ser dirigidos por ella.
Fortalecimiento del espíritu crítico: Promover la autonomía intelectual para convivir con la IA sin perder la capacidad de cuestionar, innovar y decidir. Esto incluye reconocer sesgos, evaluar fuentes y mantener el escepticismo saludable, dominando las falacias lógicas y otras técnicas de manipulación muy extendidas en las redes sociales.
Educación en metacognición: Enseñar a pensar sobre el propio pensamiento, a reconocer cuándo delegamos decisiones importantes y a mantener la conciencia sobre nuestros procesos cognitivos.
Espiritualidad: Poner en valor las herramientas de las diferentes tradiciones religiosas y espirituales para ganar consciencia y dominio de nosotros mismos.
El futuro que elegimos
La pregunta no es si la IA nos hará mejores, sino si seremos lo suficientemente sabios para elegir que nos haga mejores. La respuesta está en nuestras decisiones educativas, en nuestras políticas públicas y en nuestra capacidad de mantener la humanidad en el centro de la revolución tecnológica.
¿Queremos que en el futuro sean los algoritmos los que tomen decisiones y tengamos que demostrar los humanos por qué se equivocan? ¿Queremos un futuro donde perdamos nuestra capacidad de decidir?
Los casos de la Agencia Tributaria y Airbnb nos recuerdan que detrás de cada decisión algorítmica hay una vida humana, con complejidades y circunstancias únicas que ninguna máquina puede comprender del todo. Y también nos recuerdan que hay habilidades que los humanos tenemos y que son irreemplazables.
Cuando Steve Jobs estaba en su lecho de muerte fue visitado por Bill Gates y juntos esbozaron cómo debería ser la educación del futuro. Los dos estuvieron de acuerdo en que la mayoría de temas técnicos serían dominados por algoritmos y que la paradoja sería que se valorarían más las cualidades éticas y humanas más elevadas. Lo que hace más humanos a los humanos. Y los profesores del futuro habrían de ser a la vez ejemplos de esos valores, pero también mentores capaces de acompañar el desarrollo humano y ético de las personas.
Porque, como muestran el caso de Airbnb y la Agencia Tributaria, para ser realmente eficientes no bastará con delegar en los algoritmos, sino entender dónde los humanos somos mejores y dejar que hagamos nuestra magia.
El futuro no está escrito en código. Estamos ante la oportunidad más grande de nuestro tiempo para mejorar como personas y como sociedad, pero sólo lo lograremos si entendemos en qué son mejores los algoritmos y en qué somos mejores los humanos. Podemos elegir entre un mundo donde los algoritmos deciden por nosotros o un mundo donde los usamos para amplificar lo mejor de nosotros mismos. La elección es nuestra, pero el tiempo para decidir se está agotando.
Víctor Gay Zaragoza es profesor de IE Business School, director del Storytelling Innovation Lab de IE University, experto en data storytelling y autor de "Revoluciona el algoritmo: cómo potenciar tu storytelling con inteligencia artificial".