Prof. Santo Di Nuovo
ITALIA
El paradigma de la sostenibilidad
El término “sostenibilidad” se empleó por primera vez en la Conferencia de las Naciones Unidas sobre el Medio Ambiente Humano que se celebró en Estocolmo en 1972. En 2015 se publicó la Agenda de la ONU para Desarrollo Sostenible1 que incluía varios objetivos. Entre ellos destaca la capacitación de las personas vulnerables: “Aquellos cuyas necesidades se reflejan en la Agenda son: todos los niños, los jóvenes, las personas con discapacidad (de las cuales más del 80% viven en la pobreza), las personas que viven con el VIH/SIDA, las personas mayores, los pueblos indígenas, los refugiados y desplazados internos y los migrantes. Nos proponemos emprender nuevas medidas y acciones efectivas, con arreglo al derecho internacional, para eliminar los obstáculos y las limitaciones, fortalecer el apoyo y satisfacer las necesidades especiales de las personas que viven en zonas afectadas por emergencias humanitarias complejas y en zonas afectadas por el terrorismo” (n. 23).
El objetivo es proporcionar una educación de calidad inclusiva y equitativa a todos los niveles: Enseñanza infantil, primaria, secundaria, terciaria, técnica y profesional. Todos los individuos “han de tener acceso a oportunidades de aprendizaje permanente que les permitan obtener los conocimientos y competencias necesarios para explotar las oportunidades y participar plenamente en la sociedad” (n. 25).
El desarrollo sostenible entraña diseñar y aplicar programas, procesos y acciones que equilibren el desarrollo económico, la protección del medio ambiente y el bienestar social con el fin de satisfacer las necesidades de las generaciones presentes y futuras. Por ende, la sostenibilidad designa un objetivo de carácter social que debe ser implementado por las políticas sociales, consolidando el enfoque tradicional del campo de la educación, el desarrollo profesional y el comportamiento vocacional a nivel individual y social. (Ogryzek, 2023). La ampliación del desarrollo profesional hacia los sistemas sociales más extensos puede contribuir a promover la salud y el bienestar humanos, la igualdad, la educación de calidad y el trabajo digno para todos (Di Fabio & Cooper, 2023; Nota et al., 2020).
¿Qué papel desempeña la Inteligencia Artificial (IA)?
Los principios esenciales de los sistemas de IA útiles para la sostenibilidad son:
– Prevención de riesgos: La IA se debe diseñar y utilizar de forma que evite cualquier riesgo o daño.
– Respeto hacia la autonomía humana: las personas deben tener control sobre la forma en que la IA interactúa con ellas y sobre los datos que la IA recopila sobre ellas. La IA debe ser transparente y capaz de ofrecer explicaciones comprensibles de sus decisiones
– Equidad: La IA se debe diseñar y utilizar de forma justa. Esto quiere decir que la IA no debe discriminar ni favorecer a determinados grupos de personas. Asimismo, las ventajas de la IA se deben repartir de manera equitativa en la sociedad.
La Ley sobre IA del Parlamento Europeo, de junio de 2023)2 es el primer marco jurídico para la gestión de la inteligencia artificial en la Unión Europea. Los principales aspectos de esta Ley son:
1. Transparencia: Los sistemas de IA deben ser claros y comprensibles para los usuarios. Los usuarios deben ser capaces de entender la forma en que un sistema de IA toma sus decisiones.
2. Rendición de cuentas: el diseño de los sistemas de IA debe asegurar la rendición de cuentas y la trazabilidad, es decir, la capacidad de rastrear el proceso de toma de decisiones de un sistema de IA.
3. No discriminación: Los sistemas de IA no deben ser discriminatorios por razones de sexo, raza, etnia, religión, discapacidad, orientación sexual u otros criterios.
4. Seguridad: el diseño y la aplicación de los sistemas de IA deben velar por la seguridad de las personas frente a los riesgos causados por ellos.
5. Integridad y privacidad de los datos: Los sistemas de IA deben respetar la integridad y confidencialidad de los datos de carácter personal, sin violar la intimidad de las personas ni utilizar datos personales sin consentimiento.
6. Respeto hacia el medio ambiente. No se debe aplicar ningún peso adicional al sistema ecológico mundial, se deben fomentar todas las acciones destinadas a garantizar la sostenibilidad física y medioambiental.
Las reglas pueden sintetizarse en los criterios de “3S“: Servicial, Sincero, Sin Daños. La IA debe favorecer la inteligencia humana y su actividad, respetando su autonomía sin riesgos.
Cómo hacer frente a los riesgos de la IA
Nick Bostrom ya en 2014 subrayó los riesgos de que una “superinteligencia” supere a la inteligencia humana. Numerosos “padrinos” de la IA, entre ellos Faggin y el Premio Nobel Hinton, advirtieron de los riesgos que implicaba la rápida evolución de la IA3. Lindgren (2023) informó sobre los estudios críticos de la IA en diferentes campos aplicativos. Los riesgos se refieren a todas las tecnologías basadas en la IA, tales como la realidad virtual y aumentada, los chatbots y los robots.
Un ejemplo concreto de riesgos lo representa la IA Generativa (IAG), es decir, un sistema que utiliza la información existente para crear nuevos contenidos. Los Grandes Modelos del Lenguaje (LLM) son redes neuronales entrenadas en grandes cantidades de datos textuales para comprender y generar textos similares a los humanos, y utilizadas para la producción de textos e imágenes, la respuesta a preguntas y la traducción. Los agentes basados en LLM (por ejemplo, ChatGpt, Gemini Deep Mind, Character.AI, y similares) están muy difundidos, especialmente para el aprendizaje y la formación, pero también en contextos laborales (Sabesan et al., 2025).
Dichos instrumentos podrían entrañar riesgos sobre todo a nivel semántico, al inferir del lenguaje humano modalidades inexactas, sesgadas, engañosas o, en ocasiones, “tóxicas” (Weidinger et al. 2022; Shelby et al. 2023; Pan et al. 2023). “Entre los riesgos figuran los daños sociales a gran escala, los usos maliciosos y la pérdida irreversible del control humano sobre los sistemas autónomos de IA. Pese a que los investigadores han advertido de los riesgos extremos de la IA, existe una falta de consenso sobre cómo surgen exactamente esos riesgos y cómo gestionarlos” (Bengio, et al. 2024, p. 842). Hasta el momento, la literatura científica ha tenido poco en cuenta los perjuicios de los LLM, de las tensiones que surgen en la pragmática de la interacción social espontánea y situada (Kasirzadeh y Gabriel 2023).
Estudiaremos un aspecto concreto del posible riesgo, relacionado con la producción creativa.
¿Puede la IA generativa potenciar o reducir la creatividad?
La creatividad en los seres humanos no se limita a generar ideas o imágenes, o a reorganizar de forma diferente materiales precedentes. Exige la voluntad de un individuo de crear algo original (intencionalidad) y la capacidad de estimar la posible originalidad y eficacia del contenido generado (evaluación).
“Tanto la búsqueda de problemas como la estimación de la creatividad exigen auto-regulación y co-regulación social, mediante las cuales se desarrollan y refinan las ideas iniciales y los borradores de posibles resultados. La auto-regulación y la co-regulación aportan nuevas ideas a las ideas iniciales, las revisan a la luz de la reflexión y la retroalimentación, y apuestan por enfoques más o menos poco convencionales, todo lo cual es propio del ser humano, y todo lo cual contribuye a la creatividad global… Los resultados antes mencionados que produce la IAG sólo son valiosos y “excitantes” porque nosotros, los humanos, les atribuimos ese valor y sentimos esa emoción. La GAI de hoy desconoce tanto el valor como las emociones relacionadas” (Vinchon et al., 2023, p. 4).
La IA puede resultar una ayuda efectiva durante algunos tramos del proceso creativo; pero los humanos corren el riesgo de quedar totalmente eliminados del proceso, evitando decisiones de alto nivel sobre las preguntas a formular, las partes del texto o las imágenes a conservar y la producción final a elegir.
El impacto de las imágenes generadas por IA en la creatividad, sobre todo en la capacidad de pensamiento divergente, se ha estudiado de manera empírica, para estudiar cómo la exposición a contenidos visuales producidos por sistemas de IA generativa influye en la producción de ideas creativas durante tareas de ideación visual. El empleo de IA se relacionó con una producción creativa menos rica, caracterizada por un menor número de ideas y una menor variedad y originalidad. Si bien la IA generativa aporta un respaldo estructurado a la generación de ideas, también puede introducir restricciones cognitivas que inhiban la exploración libre y divergente del pensamiento creativo. (Wadinambiarachchi et al. 2024).
Los adolescentes suelen considerar la IA generativa como una herramienta útil para abordar tareas escolares complejas, y la perciben como una ayuda fácil y accesible. Esto constituye una ventaja para el acceso a recursos y apoyo inmediato, pero un uso excesivo o no mediado de estas tecnologías podría generar dependencia cognitiva, aumentando la dificultad para realizar procesamientos autónomos y desarrollar estrategias de resolución de problemas.
Se necesita asesoramiento educativo para impedir un uso pasivo y desarrollar una mayor autonomía en la toma de decisiones al interactuar con la IA (Klarin et al., 2024).
Necesidad de inteligencia “colaborativa”
Los sistemas que se basan en el LLM y la IA generativa se deben diseñar para estimular la variedad y la flexibilidad de las ideas, evitando el riesgo de fomentar la repetición de patrones pre-establecidos y la dependencia de la entrada inicial de la máquina. Precisamos una inteligencia artificial que no restrinja la inteligencia natural a patrones pre-establecidos, sino que fomente sus capacidades y amplíe sus posibilidades.
¿Puede la IA compartir con los humanos los métodos de “inteligencia colaborativa” utilizados en la vida real?
La inteligencia colaborativa consiste en la capacidad de cooperar activamente para mejorar el rendimiento común, compartiendo objetivos y resultados, entablando interacciones útiles para la tarea. Se necesita comunicación sincrónica.
Las aplicaciones que se basan en la IA pueden apoyar, implementar y mejorar la inteligencia humana, pero la verdadera inteligencia colaborativa requiere actividades y contenidos cognitivos compartidos de forma continua. Por ello, es necesario desarrollar una comunicación recíproca (no sólo instrumental) y sincrónica (no sólo secuencial) (Di Nuovo, 2023).
Es posible mejorar la creatividad humana mediante la IA colaborativa, modelada a partir de la inteligencia humana colaborativa, un esfuerzo en el que participan más o menos a partes iguales el ser humano y la IA generativa, con reconocimiento de las contribuciones de cada parte. Esto puede denominarse “Co-cre-AI-ción”: La creatividad se incrementa porque el producto es el resultado de una combinación que no pueden lograr ni los humanos ni la IA por sí solos. “Nos encontramos en una nueva era de ‘creatividad asistida’, es decir, la IA no es un creador independiente en este sentido, sino más bien un agente creativo colaborador” (Winchon et al., 2023, p. 4).
La IA respaldará todos los trabajos que se puedan automatizar. Los contenidos generados por la IA se basan en combinaciones de contenidos existentes generados previamente por seres humanos y luego se introducen en el sistema de IA durante una fase de entrenamiento. Esta ‘mezcla’ puede re-ordenarse originalmente, pero no es realmente creativa. La responsabilidad de la novedad auténtica del producto final se debe encomendar a la inteligencia humana.
Los procesos educativos y formativos deben evitar el ‘Plagio 3.0’, es decir, el deseo de parecer productivo y creativo “inspirándose” en gran medida en las producciones de la IA sin citar la fuente. Al mismo tiempo, hay que evitar el ‘Apagado’ la creatividad humana. Es posible que las personas se sientan menos motivadas para emprender acciones creativas por no poder crear al mismo nivel que la IA y, por tanto, externalicen la creación de contenidos a la IA generativa. “Herramientas de IA generativa como ChatGPT están remodelando el panorama educativo”, concluyen Küchemann et al. (2025).
Un ejemplo útil de herramienta educativa pone de manifiesto cómo las estrategias eficaces de interacción entre humanos e IA pueden influir significativamente en la participación y la toma de decisiones de los usuarios.
Yamamoto (2024) planteó una estrategia de chatbot innovadora, empleando finales sugerentes inspirados en la técnica narrativa del ‘cliffhanger’ (es decir, el suspenso sobre las conclusiones). Terminando las respuestas con pistas en lugar de conclusiones, el chatbot estimula la curiosidad de los usuarios y fomenta un compromiso más profundo. Un estudio en línea revela que los usuarios que interactúan con el chatbot sugestivo formulan más preguntas y participan en procesos de toma de decisiones más prolongados, lo que pone de relieve el potencial de la comunicación estratégica con IA para fomentar el pensamiento crítico.
Observaciones finales
Mollick (2024) se refiere a la “Co-inteligencia”, animando a relacionarse con la IA como compañeros de trabajo y profesores.
Para ser verdaderamente colaborativas, las aplicaciones
– de IA deben respaldar las motivaciones humanas, incluyendo los dominios emocionales, sin limitarse a una mera instrumentación pre-programada;
– cooperar activamente, mejorando el rendimiento conjunto, compartiendo objetivos y resultados, y entreteniendo con interacciones útiles para la tarea:
– reforzar la suplementariedad y la interacción dinámica, más allá de una simple división del trabajo o de una relación transaccional estática.
Tenemos que evolucionar hacia una IA colaborativa, no sólo de apoyo, ni sustitutiva.
La IA colaborativa en el arte, la industria, la sanidad, los servicios de emergencia y el trabajo educativo, mejora tanto la eficacia como la creatividad a la hora de resolver problemas humanos. Sirve para neutralizar motivaciones prejuiciosas, como el miedo a verse desbordado, o la tendencia contraria a delegar en la tecnología partes esenciales del trabajo humano.
Dicha cooperación permite una verdadera inteligencia conjunta natural y artificial. La IA debe ser un reflejo de los complejos procesos sociales y psicológicos humanos: comunicación sincrónica, motivación autónoma, emociones adaptativas.
Es posible que la IA sea útil para la sostenibilidad si se planifica (y se utiliza) para que sea realmente colaborativa, aceptable y no peligrosa para la humanidad y su desarrollo.
Un aspecto esencial para que la IA colabore de verdad con las culturas humanas es compartir valores. No se pueden deducir de una cultura globalizada, típica de los medios sociales de los que la GAI obtiene su contenido. En cada cultura específica, los valores deben ser escogidos de forma autónoma por los individuos y los grupos sociales, y la educación debe fomentar la elección de valores pro-sociales rechazando los anti-sociales. Asimismo, en este sentido, la GAI desafía el panorama educativo.
Por último, el ámbito cultural y político se ve implicado y cuestionado: El impacto de la IA no sólo afecta a los aspectos cognitivos de los individuos, sino a la sociedad en general.
El libro de Lindgren (2023) analiza en profundidad las implicaciones sociales, éticas y políticas de la IA, incluyendo el riesgo de prejuicios y discriminación, su impacto en la democracia y la gobernanza, y el uso de las tecnologías de IA en los procesos de toma de decisiones, en diferentes ámbitos de la vida social.
Tal y como se señala en la citada agenda de la ONU para el desarrollo sostenible, todas las personas, sin restricciones por cuestiones personales o sociales, deben poder acceder de forma equitativa a oportunidades de aprendizaje permanente que les ayuden a participar plenamente en la sociedad. La AI debe respaldar estos objetivos, superando (y no incrementando) las diferencias y restricciones dentro de las Naciones y entre ellas.
A tal fin, cada nación—más allá de reconocer la utilidad de las tecnologías de IA actuales—debería reglamentar el uso de las tecnologías de IA en función de sus propias condiciones específicas y valores prosociales, en particular en los sistemas educativo y laboral.
Por otra parte, considerando la naturaleza global de la mayoría de los servicios y sistemas de IA, también es necesaria una regulación supranacional, y la ONU debería comprometerse a ello.
Es preciso fomentar un debate sobre la forma en que pueden perseguirse los objetivos de la sostenibilidad -tanto en el ámbito nacional como en el internacional- para promover una vida laboral y social eficiente, creativa, segura y saludable para todos los habitantes de nuestro mundo.
Referencias
Askell, A., Bai, Y., Chen, A. et al. (2021). A general language assistant as a laboratory for alignment. arXiv:2112.00861. Doi: 10.48550/arXiv.2112.00861
Bansal, P. (2019). Sustainable development in an age of disruption. Academy of Management Discoveries, 5, 8–12. https:// doi.org/10.5465/amd.2019.0001
Bengio, Y., Hinton, G., Yao, A. et al. (2024). Managing extreme AI risks amid rapid progress. Science, 384(6698), 842-845.
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Di Fabio, A., Cooper, C. L. (Eds.). (2023). Psychology of sustainability and sustainable development in organizations. Routledge, Taylor & Francis.
Di Nuovo, S. (2023). Could (and should) we build “collaborative intelligence” with Artificial Agents? A social psychological perspective. QEIOS, LHEU38. https://doi.org/10.32388/LHEU38
Faggin, F. (2022). Artificial Intelligence Versus Natural Intelligence. Springer.
Faggin, F. (2024). Irreducible. Consciousness, life, computers, and human nature. Essentia Books.
Kasirzadeh, A., Gabriel, I. (2023). In conversation with artificial intelligence: Aligning language models with human values. Philosophy and Technology, 36(2):27. Doi: 10.1007/s13347-023-00606-x
Kenton, Z., Everitt, T., Weidinger, L., Gabriel, I., Mikulik, V., Irving. G. (2021). Alignment of language agents. arXiv: 2103,14659. Doi: 10.48550/arXiv.2103.14659
Klarin, J., Hoff, E. V., Larsson, A. (2024). Adolescents‘ use and perceived usefulness of generative AI for schoolwork: Exploring their relationships with executive functioning and academic achievement. Frontiers in Artificial Intelligence, 28(7):1415782. doi: 10.3389/frai.2024.1415782
Küchemann, S., Rau M, Neumann K., Kuhn J (2025) Editorial: ChatGPT and other generative AI tools. Frontiers Psychology, 16:1535128 doi: 10.3389/fpsyg.2025.1535128
Lindgren, S. (Ed.) (2023) Handbook of Critical Studies of Artificial Intelligence. Elgar.
Mollick, E. (2024). Co-Intelligence: The definitive, bestselling guide to living and working with AI. Allen.
Nota, L., Soresi, S., Di Maggio, I., Santilli, S., & Ginevra, M. C. (2020). Sustainable development, career counselling, and career education. Springer.
Ogryzek, M. (2023). The sustainable development paradigm. Geomatic and Environmental Engineering, 17, 5–18. https://doi.org/10.7494/geom.2023.17.1.5
Pan, L., Saxon, M., Xu, W., Nathani, D., Wang, X., Wang, W.Y. (2023). Automatically correcting Large Language Models: Surveying the landscape of diverse self-correction strategies. arXiv:2308.03188. DOI: 10.48550/arXiv.2308.03188
Sabesan, K., Sivagamisundari, Dutta, N. (2025). Generative AI for Everyone: Deep learning, NLP, and LLMs for creative and practical applications. BPB Publications, India.
Schleiger, E., Mason, C., Naughtin, C., Reeson, A., Paris, C. (2024). Collaborative Intelligence: A scoping review of current applications. Applied Artificial Intelligence, 38(1), n. 2327890. https://doi.org/10.1080/08839514.2024.2327890
Shelby, R., Rismani, S., Henne, K. et al. (2023). Sociotechnical harms of algorithmic systems: scoping a taxonomy for harm reduction. arXiv:2210.05791. Doi: 10.48550/arXiv.2210.05791
Sison, A. J. G., Daza, M. T., Gozalo-Brizuela, R., Merchán, G., César, E. (2023). ChatGPT: More Than a „Weapon of Mass Deception“ Ethical Challenges and Responses from the Human-Centered Artificial Intelligence (HCAI) Perspective. International Journal of Human–Computer Interaction, 40(17), 4853–4872. http://dx.doi.org/10.2139/ssrn.4423874
Winchon. F., Lubart, T., Bartolotta, S., et al. (2023). Artificial Intelligence & Creativity: A Manifesto for Collaboration. The Journal of Creative Behavior, 0, pp. 1–13. https://doi.org/10.1002/jocb.597
Wadinambiarachchi, S., Kelly, R. M., Pareek, S., Zhou, Q., Velloso, E. (2024). The effects of Generative AI on design fixation and divergent thinking. Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems (pp. 1–18). Association for Computing Machinery.
Wang, Y., Zhong, W., Li, L., et al. (2023). Large Language Models with Human: A Survey. arXiv:2307.12966. Doi: 10.48550/arXiv.2307.12966
Yamamoto, Y. (2024) Suggestive answers strategy in human-chatbot interaction: a route to engaged critical decision making. Frontiers in Psychology 15:1382234. 10.3389/fpsyg.2024.1382234
1 https://sdgs.un.org/2030agenda
2 https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206
3 https://safe.ai/work/statement-on-ai-risk










