Tiempo de lectura: 14 min.

Daniel Burgos. Rector de MIU City University Miami y vicerrector de Proyectos Internacionales de la Universidad Internacional de La Rioja (UNIR, España).


Avance

Daniel Burgos, catedrático de Tecnologías para la Educación y la Comunicación, se anticipa a los problemas que tendrán los ciudadanos sin conocimientos técnicos ante los avances de la inteligencia artificial (IA), cuyo impacto será «abrumador». Su previsión es que la repercusión real en nuestras vidas no será tan fructífera como nos venden y que, de hecho, las empresas que comercializan la IA buscarán sobre todo aumentar la penetración de su negocio en el mercado, como ya hicieron con otros avances tecnológicos: teléfonos móviles, internet, canales de televisión y un largo etcétera.

Es un futuro del que no podemos escapar, pero que habría que regular desde varios aspectos, como la ética y los derechos de propiedad intelectual y explotación. Las suplantaciones de identidad y otros peligros son una amenaza en un mundo donde cada vez será más difícil distinguir lo real. La IA también acabará abocada a una falta de originalidad debida a la producción masiva a través del consumo y análisis de datos. Distintos agentes ofrecerán «respuestas similares a preguntas similares» y se verá coartada la capacidad creativa del ser humano mediante una reutilización de fuentes similares. En el ámbito académico, dos estudiantes distintos podrían presentar trabajos sospechosamente parecidos.

Asimismo, el viejo problema de la pérdida de empleos por la automatización de procesos se verá agravado porque será más difícil discernir las verdaderas competencias de los trabajadores. Nuestros estudiantes se preparan para profesiones que aún no existen, lo que puede aumentar la inquietud y la incertidumbre. Todos estos temores no son nuevos. Ya los vivió la humanidad con la llegada del vapor y la electricidad, aunque ahora los efectos perniciosos puedan ser más dañinos por la comunicación planetaria e instantánea.

Pese a todo, el autor no se deja dominar por el pesimismo y defiende los inmensos beneficios que puede aportar la IA para el aprendizaje y la diversidad funcional. Hay riesgos, por supuesto; el reto es encontrar el equilibrio entre la herramienta y el ser humano.


Artículo

El término «inteligencia artificial» aglutina técnicas, instrumentos y algoritmos que se utilizan desde hace más de 70 años en multitud de campos (Poole & Mackworth, 2010). Desde los sistemas expertos iniciales a los últimos avances a través de la inteligencia artificial generativa y, más aún, a través de la inteligencia artificial razonadora (Reasoning AI) suponen un punto de inflexión en la evolución de esta disciplina. No tanto por el enfoque tecnológico, como por la integración en el día a día del ciudadano. La inteligencia artificial generativa no deja de ser una inferencia analítica que combina fuentes existentes para realizar resúmenes o interpretaciones de estas. Sin embargo, no crea nada desde cero, su capacidad innovadora e inventiva resulta cuestionable y no permite razonar para establecer un diálogo propio con el interlocutor (Wach et al., 2023). Encontrándonos a las puertas de esa capacidad de razonamiento, que en teoría podrá abordar un enfoque más avanzado, la inteligencia artificial actual parece prometer más que entregar. 

Decíamos que no tanto por la parte tecnológica sino por la divulgación entre el usuario no especializado. Vivimos un momento en el que, como con cualquier otro producto, se busca una penetración en el mercado. De esa penetración saltaremos posteriormente a una comercialización de servicios, llegando a ser invasiva y determinante para la realización de múltiples procesos. Esto no supone nada nuevo: ya lo hemos vivido como estrategia con los teléfonos móviles, internet, los portátiles, los ordenadores personales y un largo etcétera tecnológico, incluyendo la fotografía digital y la distribución de canales de televisión (Chandola & Fu, 2017). Resulta, por tanto, de vital importancia saber distinguir entre el desarrollo tecnológico, que conlleva un paso adicional a nivel de computación, y la repercusión social de dicho avance.

En este contexto cohabitamos la informática y los seres humanos. La algoritmia y las personas. El razonamiento digital y el razonamiento analógico. Supone un matrimonio indisoluble y casi de conveniencia del que no podemos escapar, independientemente de las cortapisas éticas, de conocimiento, sociales o de habilidades que podamos mostrar.

Desde el punto de vista tecnológico, no podemos obviar lo que supone la vulgarización de la automatización de procesos y la integración de servicios de protocolo entre la población no especializada. La posibilidad de optar a una base de conocimientos amplia, más allá del alcance de una persona o de un grupo, para uso personal, supone un compañero de producción o de aprendizaje con límites muy amplios. La incorporación de estos servicios generativos en el aprendizaje de idiomas, la escritura de correos, la generación de resúmenes, la integración de imagen, vídeo, audio, etcétera, supone una punta de productividad de manera inmediata para cualquier persona interesada (Sengar et al., 2024). El impacto en el ser humano y su vida diaria puede resultar abrumador.

La IA y sus limitaciones en los contextos individual y social

Dicho esto, no debemos obviar un par de consideraciones importantes y suficientemente significativas para conseguir una asimilación exitosa mutuamente satisfactoria. La primera es la delimitación del componente intangible de la inteligencia artificial, principalmente centrado en el aspecto ético, en la regulación comunitaria y en los derechos tanto de propiedad intelectual como de explotación. La posibilidad de suplantar la identidad, o de apropiación indebida de una producción, o de hacerse pasar por alguien que ha escrito o enunciado algo cuando en realidad no lo ha hecho supone incluso una categoría nueva de felonía, que podría enmarcarse en el autoplagio, pero ahorrando tiempo, esfuerzos y,
en definitiva, atribuyéndose creaciones ajenas, aunque inducidas por uno mismo, como propias (Samuelson, 1994).

Lo segundo a tener en cuenta es la falta de originalidad que supone la producción masiva a través del consumo y análisis masivos de datos. Según el agente con el que se hable, seguramente se produzcan respuestas similares a preguntas similares. Esto coarta la capacidad creativa del ser humano mediante una reutilización de fuentes similares, fruto de una base de datos compartida. Si añadimos el primer punto, es decir, la suplantación de identidad, podría resultar, y de hecho ocurre frecuentemente en la elaboración de ensayos dentro de un ambiente académico, que dos productos originados por dos personas distintas resulten sospechosamente similares dado que han recurrido al mismo generador con un enunciado también similar y un proceso de depuración laxo.

IA y riesgos de integración

En este contexto, siempre podemos adoptar una postura derrotista. Por ejemplo, hablando de todos esos puestos de trabajo que la IA quitará en virtud de la automatización de procesos. No es un discurso nuevo, aunque resulte igual de vigente. Ya se empleaba hace 100 años con la revolución industrial. Si bien es cierto que ahora puede implementarse de manera mucho más rápida, vista la capacidad exponencial de renovación y de incorporación de tecnologías nuevas (Moore, 1965).

También podemos indicar que a nivel de formación profesional y de formación universitaria corremos el riesgo de no acertar en nuestra estimación de las competencias tanto generales como específicas, así como de los conocimientos asociados, que serán necesarios en un futuro inmediato cuando nuestros estudiantes universitarios se gradúen (Hasanefendic, 2016). El hecho claro es que están formándose para profesiones y contextos específicos que todavía no existen y que serán los que tengan que cumplir en un futuro más o menos inmediato. Todo esto puede llevarnos a pensar que el presente resulta inquietante y que el futuro resulta incierto, pero no más que en cualquier otra época, no más que en cualquier otro contexto. Me cuesta pensar que con la llegada del vapor después de los caballos, con la llegada de la electricidad después del vapor y del mundo digital después de la electricidad, en estos contextos no se tuvieran las mismas consideraciones y los mismos recelos (Mohajan, 2019).

La principal diferencia es que ahora contamos con medios de mensajería instantánea y cualquier reflexión puede llegar a tener difusión inmediata y planetaria, lo que supone un posible efecto de eco entre los usuarios potenciales

IA y el lado positivo

Pero también podemos adoptar una postura positiva, e incluso realista, equilibrando todas esas amenazas más o menos fundadas con otros aspectos más constructivos. Por ejemplo, que la capacidad de aprendizaje de una persona se puede multiplicar gracias a todos esos agentes que nos permitirán incorporar habilidades, conocimientos y competencias específicas de manera más sencilla. Por ejemplo, para aprender idiomas, para entrenarnos para una oposición, para mejorar la escritura, la composición musical o la producción literaria.

También podríamos centrarnos en el beneficio que puede suponer para la diversidad funcional, por ejemplo, tanto motora como cognitiva, por citar dos bastante comunes de inclusión. Desde una persona mayor con presbicia u otra que necesite apoyo auditivo, hasta otra que requiera una asistencia concreta porque su mano dominante se encuentra temporalmente incapacitada. Pasando, por supuesto, por otros contextos más severos o más permanentes. Por ejemplo, la persona dentro del espectro autista que se enfrenta a retos de socialización que pueden facilitarse a través de aplicaciones específicas; o el perfil obsesivo-compulsivo que puede canalizar toda su energía a través de sistemas de entrenamiento basados en protocolos conductistas. La posibilidad de incorporar herramientas, mecanismos y otro tipo de ayudas a través de agentes personalizables supone una vía de integración potencial y de inclusión social que cae dentro de ese enfoque constructivo.

IA como circunstancia de la persona

Hablaba Ortega y Gasset acerca de la circunstancia que condiciona y define el ser humano y la identificación de la persona, de hecho (Ortega y Gasset, 1922). Pero no únicamente él. En la tradición sudafricana, de las tribus Tsonga y Zulú, existe el Ubuntu, que es el significado de uno mismo a través de los otros: yo soy yo gracias a vosotros y me desarrollo gracias a vosotros (Kamwangamalu, 1999). En este contexto, construir una circunstancia que permita mejorar el yo supone una oportunidad que, aunque con cierto riesgo, no podemos dejar pasar. Si a través de la utilización de un apoyo o de un asistente podemos mejorar de alguna manera tanto en habilidades, como en competencias, como en conocimiento; o en productividad, o en indicadores de cualquier otro tipo, merece la pena intentarse. Pero no únicamente desde un punto de vista académico y profesional, sino también desde la faceta personal. Existen multitud de aplicaciones basadas en inteligencia artificial generativa que se centran en el apoyo psico-emocional del usuario. Por ejemplo, para combatir e identificar el ciberacoso, para realizar terapia psicológica online, para la identificación de cualidades personales y un largo etcétera. El desarrollo de la persona acepta cualquier tipo de ayuda o apoyo que pueda encontrar a lo largo del camino con el objetivo de consolidarse, depurarse o mejorarse. No tiene por qué resultar distinto con la IA.

IA y el equilibrio

El reto, uno de ellos, se centra en encontrar el equilibrio. Hasta dónde llega la herramienta y hasta dónde el ser humano. Hasta dónde se reconoce que esa evolución es un apoyo para el desarrollo humano y no una sustitución, haciendo pasar por propio un resultado ajeno, aunque inducido por uno mismo. El ser humano que engaña lo seguirá haciendo con o sin IA. Quizás ahora resulte más fácil, pero no por ello resulta una sorpresa ni nada innovador. La persona que quiera aprender y desarrollarse lo hará también con o sin IA. Si esta inteligencia permite una mejor circunstancia y una mejor relación con la comunidad, esto significaría un avance sustancial en alguno de estos aspectos o en todos ellos.

El riesgo reside en acomodarse, utilizar la IA para reemplazar procesos complicados sin llenar el esfuerzo que queda vacante para hacer otras cosas. Es decir, relajarse en lugar de mejorar. Si esto fuera así, lo que conlleva es una rendición del libre albedrío incluso, dejando que un cachivache realice una actividad por nosotros arrebatando la toma de decisión. La voluntad de una persona, que resulta inalienable, no puede verse subrogada a un trozo de código, por muy inteligente que este pueda parecer. Pero el hastío, la explotación de los recursos, el presupuesto o, simplemente, la pereza humana, pueden poner en serio riesgo la mala utilización de una herramienta tan potente. El gran problema, entonces, no lo supone la IA en sí, que es servicio inánime, sino la utilización que hagamos de ella como personas.

Exactamente igual que con cualquier otra herramienta. Un arma puede servir para conseguir un título olímpico o para quitar la vida. Y seguirá siendo la misma arma. Dependerá del uso que hagamos de ella. En este sentido, la IA no deja de ser una herramienta más, algo mistificada. Pero, aun así, no olvidemos que la parte ética y personal de la utilización de la IA es solamente una de las caras del poliedro. El aspecto regulatorio, como comunidad, supone otro paso. En el caso de los móviles, y de internet, hemos pasado en muy poco tiempo de utilizarlos como una herramienta adicional a ser una extensión indispensable y, por último, a utilizarse como un medio obligatorio para ciertos trámites. Por ejemplo, al tramitar una hipoteca con el banco y firmar la solicitud; o al solicitar una cita con el médico de cabecera en el ambulatorio; o al pedir comida para llevar. Es decir, de facto, internet y el móvil han entrado como un caballo de Troya en nuestras vidas para apropiarse de parte de nuestra autonomía. No parece que vaya a resultar distinto con la IA. Nos encontramos en una fase de beta test donde, voluntariamente y de manera bastante ingenua, estamos alimentando a la bestia para que funcione mejor.

Ya vivimos exactamente lo mismo con el sistema operativo Windows, por citar algo bien cercano y omnipresente en la mitad de los ordenadores del mundo. Microsoft instalaba de manera dominante Windows en los ordenadores cuando todavía se encontraba no completamente finalizado, para que los usuarios reportaran todas las incidencias de manera gratuita a la compañía. Es más, el usuario pagaba con su tiempo, su esfuerzo y la adquisición del terminal por hacer un servicio que debería estar cobrando (Tahir, 2013).

Hoy día ocurre exactamente igual. Salen voces diciendo que la IA tiene alucinaciones y que introduce referencias que no existen en un artículo o nombres inventados de la Historia. En realidad, lo que quieren decir es que no funciona bien y que los usuarios están dando cuenta de ese funcionamiento imperfecto de manera gratuita. Es de prever que en nada pasemos a la fase de explotación comercial, donde el usuario de a pie irá pagando cada vez más por los servicios que hasta ahora se realizan de manera más o menos gratuita o mediante licencias freemium. Y el siguiente paso volverá a ser la apropiación de parte de nuestra vida a través de unos procesos que resultarán obligatorios si se quiere disfrutar de ellos. Por ejemplo, el reconocimiento biométrico obligatorio para el acceso al embarque de los vuelos, cosa que ya está ocurriendo en algunas partes del mundo, como en Estados Unidos (Azman & Sharma, 2022). O el carné de ciudadanía en China, a través del comportamiento que captan las cámaras mediante esos mismos detectores biométricos y que permite puntuar a la persona de cara a futuras operaciones como, por ejemplo, la solicitud de visados o préstamos bancarios. Todo esto que está ocurriendo de modo experimental supone al mismo tiempo una fase de prueba, de depuración de los sistemas y de sembrado de la idea, para comprobar cómo reacciona el ciudadano de cara a una imposición más amplia posteriormente.

El escenario puede resultar más intrusivo y contraproducente para la integridad del ser humano, si cabe. Es decir, si un usuario no quiere ceder sus datos biométricos para embarcar en un vuelo, seguramente no llegue a volar, pero no se aprecia un daño contra la integridad física del sujeto. Sin embargo, en el caso de la interpretación de imágenes médicas, se juega con la monetización de la atención sanitaria y de los seguros hospitalarios y de vida, o las bajas laborales. La IA hace posible un análisis en profundidad de las imágenes médicas, a día de hoy (Mihalache et al., 2024). Además, permite comparar esa imagen con un número incontable del mismo tipo para aprender de diagnósticos previos y similares, encontrar patrones y producir recomendaciones al respecto, que luego serán tomadas por el médico, último garante de la decisión. Este avance supone una mayor rapidez en el proceso y seguramente una mayor precisión en el diagnóstico. Sin embargo, resulta bastante probable que los desarrolladores de esta tecnología quieran amortizar la inversión de esfuerzo, tiempo, talento y presupuesto con hospitales y aseguradoras.

La pregunta es hasta qué punto llegará el equilibrio entre el bien social y la monetización; hasta qué punto la persona podrá beneficiarse de un avance tecnológico sin olvidar que requiere de una inversión también realizada por personas y con su circunstancia específica. No puede convertirse en un modelo polarizado y simplista, tan habitual estos días en casi todo. Se requiere un modelo de sostenibilidad que permita un desarrollo de un beneficio económico garantizando y al mismo tiempo un beneficio personal para el ser humano individual o social.

IA, ética y regulación

Por último, debemos pensar que la ética es individual y que las regulaciones son colectivas. Allí donde no llegue el sentido ético de la persona, debe alcanzar el mínimo que la colectividad requiere. Y si no se llega a ese mínimo colectivo, se debería actuar de oficio para recordar los límites y, en su caso, penalizar su ruptura o incumplimiento. La convivencia es un cúmulo de libertades individuales y de intereses colectivos.

La integración de la IA no debe ser distinta a ninguna de las otras herramientas que también han prometido o prometen ser transformadores radicales que, a costa del ser humano, prometen un avance transgresor, dejando a la persona. Dentro del aspecto ético nos encontramos sin duda con el enfoque que los diversos colectivos pueden realizar sobre el uso de la IA. Más allá de la sociedad, de una manera vertical o sectorial, la aplicación práctica de esa IA necesita una regulación transversal, a modo de paraguas normativo. Una guía donde se indique claramente qué se puede y qué no se puede realizar en según qué casos, en forma de principios, artículos, deberes y derechos. Uno de esos principios aludiría a la transparencia del uso de los datos personales; otro principio se podría centrar en su trazabilidad; otro en la disminución sistemática y determinada de cualquier tipo de sesgo; y así sucesivamente, hasta encontrar una serie de artículos comunes o principios de común acuerdo para que el colectivo correspondiente pudiera operar de forma consensuada.

La Universidad Internacional de La Rioja (UNIR) ha diseñado e implementado una declaración para el uso ético de la inteligencia artificial en la educación superior (UNIR, 2023), que funciona como ese paraguas para todas las universidades del Grupo Educativo Proeduca.

Posteriormente, esta declaración será aplicada de forma específica para según qué colectivo de la comunidad universitaria a través de guías prácticas. Por ejemplo, para profesores, para investigadores (ya en uso) o para personal de apoyo administrativo (Proeduca, 2024).

IA, derechos de propiedad y creatividad

Dentro de esos principios, cabe una especial referencia al uso de licencias y a la atribución de contenidos o productos generados mediante cualquier tipo de software. En este momento, el foco se encuentra en la inteligencia artificial generativa, pero lo mismo se podría indicar para cualquier otro software existente en el mercado actual o futuro, como la inteligencia artificial de razonamiento. Las licencias de uso suponen un reconocimiento explícito de los derechos de autoría y de explotación de una determinada creación. Para que esto ocurra, el autor debe ser siempre atribuido y este debe haber creado efectivamente el producto a registrar. Cualquier producto que ha sido plagiado, inspirado, replicado, atribuido inadecuadamente o, directamente, hurtado, no merece ese reconocimiento. Por ética personal y por regulación social (e.g., legislación) (Laux et al., 2024).

Con la inteligencia artificial generativa ocurre lo mismo. Si un usuario encarga un trabajo para que un determinado agente artificial o bot genere un producto, ese producto no podrá ser atribuido al usuario, a no ser que lo utilicemos de base para producir una versión suficientemente modificada. Y, aun así, en ese supuesto, habría que citar la referencia inicial de la creación, aunque sea únicamente por decoro.

En este contexto, la originalidad del trabajo, como indicamos previamente, supone un gran aliciente para todas aquellas mentes creativas, esos espíritus innovadores, que van a producir obras únicas, exactamente igual que ocurre hasta ahora mismo, independientemente del número de ayudas y de servicios de creación que existan en el mercado.

IA y el ser humano, a modo de conclusión

Sin duda, la última evolución de la IA puede suponer un avance para las capacidades y competencias de las personas. La posibilidad de amplificar, complementar y mejorar procesos y razonamientos resulta innegable. Dicho esto, el buen uso depende de la persona. Como herramienta inerte que es, no debemos delegar nuestra voluntad o nuestra capacidad de decisión de manera ligera, inconsciente o interesadamente perezosa. Debe servir para optimizar y ayudar al ser humano, no para remplazarlo, no para alienarlo. Si no, no sirve para nada realmente útil y debería reformularse su aplicación práctica, incluyendo el enfoque ético y el marco normativo y social. Como cualquier otra revolución posindustrial, los tiempos no juegan a favor de la persona, que necesita asentar conocimientos y evolución a su ritmo.

Un ritmo personal que se puede encontrar francamente sobrepasado en este mundo tecnológicamente exponencial e informativamente sobrexpuesto. Lograr un equilibrio útil y beneficioso para todos los actores implicados, donde la persona ostente el rol principal, supone un reto complicado, pero, a la vez, ilusionante y, a la postre, inevitable.


Referencias

Azman, M., & Sharma, K. (2022). «Smart Boarding System with e-Passports for Secure and Independent Interoperability». SN Computer Science, 3(1), 52.

Chandola, V. K., & Fu, H. (2017). «Market penetration strategy of smartphone companies from China for India market: a multiple-case study». International Journal of Business Marketing and Management, 2(4), 10-16.

Hasanefendic, S., Heitor, M., & Horta, H. (2016). «Training students for new jobs: The role of technical and vocational higher education and implications for science policy in Portugal». Technological Forecasting and Social Change, 113, 328-340.

Kamwangamalu, N. M. (1999). «Ubuntu in South Africa: A sociolinguistic perspective to a pan-African concept». Critical arts, 13(2), 24-41.

Laux, J., Wachter, S., & Mittelstadt, B. (2024). «Trustworthy artificial intelligence and the European Union AI act: On the conflation of trustworthiness and acceptability of risk». Regulation & Governance, 18(1), 3-32.

Mihalache, A., Huang, R. S., Popovic, M. M., Patil, N. S., Pandya, B. U., Shor, R.,…& Muni, R. H. (2024). «Accuracy of an artificial intelligence chatbot’s interpretation of clinical ophthalmic images». JAMA ophthalmology, 142(4), 321-326.

Mohajan, H. (2019). «The first industrial revolution: Creation of a new global human era». Journal of Social Sciences and Humanities, Vol. 5, No. 4 (17 October 2019), pp. 377-387.

Moore, G. (1965). «Moore’s law». Electronics Magazine, 38(8), 114.

Ortega y Gasset, J. (1922). Meditaciones del Quijote.

Poole, D. L., & Mackworth, A. K. (2010). Artificial Intelligence: foundations of computational agents. Cambridge University Press.

Proeduca (2024). Guide to the Responsible Use of Generative Artificial Intelligence in Research Tasks. Proeduca. DOI: https://doi.org/10.5281/zenodo.11609187, https://bit.ly/unir-ia.

Samuelson, P. (1994). «Self-plagiarism or fair use». Communications of the ACM, 37(8), 21-25.

Sengar, S. S., Hasan, A. B., Kumar, S., & Carroll, F. (2024). «Generative artificial intelligence: a systematic review and applications». Multimedia Tools and Applications, 1-40.

Tahir, F. (2013). Benchmarking & Penetration Testing of Windows XP, Windows 7, Windows 8. Doctoral dissertation: Universiti Teknologi Malaysia.

UNIR (2023). UNIR Declaration for an ethical use of Artificial Intelligence in Higher Education. Proeduca. DOI: https://doi.org/10.5281/zenodo.10686437, https://bit.ly/unir-ia.

Wach, K., Duong, C. D., Ejdys, J., Kazlauskaite, R., Korzynski, P., Mazurek, G., … & Ziemba, E. (2023). «The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT». Entrepreneurial Business and
Economics Review, 11(2), 7-30.


Foto: Imagen generada con ayuda de la inteligencia artificial generativa Adobe Firefly

Vicerrector de Proyectos Internacionales y director de UNIR iTED (UNIR). Titular de la cátedra UNESCO en eLearning.