El juego de la imitación

Por: Erick F. Salas Acuña,
Escuela de Idiomas y Ciencias Sociales
 

2 de Mayo 2025 Por: Visitante
Turing Test

Imagen con fines ilustrativos realizada con Gemini. 

En 1950, Alan Turing publicó el artículo “Maquinaria computacional e inteligencia”, en el que introdujo por primera vez “el juego de la imitación”, también conocido como “test de Turing”. En este, proponía un “juego” para distinguir cuando una entidad artificial exhibía comportamientos que denotaban “inteligencia”.

Así, por ejemplo, dado un individuo “A”, que dialoga remotamente con las entidades “B” y “C”, intercambiando información, el papel de “A” es identificar cuál de los dos interlocutores corresponde con el ente “máquina”. Más que medir la inteligencia propiamente, lo que se buscaba en realidad era distinguir la capacidad de una computadora de simular el pensamiento humano (Ríos, 2023).

Mucho tiempo ha pasado desde que Alan Turing propusiera su famoso test, al punto de que ya es un hecho que las computadoras son mejores que nosotros realizando múltiples tareas. Dos acontecimientos, uno en el siglo XX y otro en el XXI, son clave para constatarlo: el triunfo de la computadora Deep Blue sobre el campeón mundial de ajedrez Garry Kasparov (1997) y, más recientemente, la derrota del campeón mundial de Go, Lee Sedol, frente a AlphaGo (2017). Según este último, su retiro, anunciado en 2019, es decir dos años después de su pérdida, se debió justamente a que ya no podría ser el mejor del mundo debido al avance de la inteligencia artificial. 

Sin duda, la segunda mitad del siglo XX estuvo marcada por el desarrollo de la ingeniería computacional, esa que todavía hoy continúa transformando la manera en que nos comunicamos, estudiamos, trabajamos y divertimos. Ahora, a poco más de dos décadas de iniciado el siglo XXI, sin embargo, todo parece apuntar a que estamos frente a una nueva frontera relacionada con otro episodio de la historia de la computación y de la inteligencia artificial.    

El test de Turing, hasta hace poco una preocupación lejana para la mayoría de nosotros, se torna en una experiencia cada vez más común con la llegada de herramientas de inteligencia artificial generativa como ChatGPT que, desde su lanzamiento en noviembre de 2022, auguran nuevas maneras de relacionarnos con la tecnología (Salas, 2024). Si bien aún es pronto para entender el significado de estas transformaciones, ya es posible reconocer el reto que implica en muchos casos poder distinguir entre lo que es producto de la mente humana de aquello que fue generado por un procesador de computadora.

Estos avances tecnológicos suponen nuevos desafíos filosóficos y éticos en múltiples áreas del conocimiento, que van desde el debate en torno al plagio y los derechos de autor, hasta el impacto que pueden tener estas herramientas en el debilitamiento del desarrollo del pensamiento crítico.

En educación, por ejemplo, ámbito en el que la inteligencia artificial ha servido para cumplir múltiples propósitos, su uso parece poner cada día más en jaque la capacidad de muchos docentes de reconocer cuando alguno de sus estudiantes ha realizado una asignación por sus propios méritos o, por el contrario, ha recurrido –ya sea en todo o en parte– a alguna herramienta de inteligencia artificial.

En particular, en el caso de las asignaciones escritas, una plataforma como ChatGPT ha mostrado ser capaz de asistir la producción de textos con tal grado de precisión que para muchos docentes la evaluación de este tipo de trabajos ha terminado por parecerse más a un juego de la imitación que a un verdadero ejercicio evaluativo.

En la actualidad, la posibilidad de que un gran número de textos elaborados por estudiantes estén siendo producidos con la ayuda de alguna herramienta de inteligencia artificial es una situación que preocupa a muchos docentes. Y, si bien existen numerosos detectores creados para este fin, el problema es que muchas veces estas plataformas no resultan del todo eficaces. Por lo tanto, es el docente en quien recae la mayor responsabilidad de distinguir entre el ente humano y la máquina.

Por suerte, a la fecha, aún es posible reconocer algunas limitaciones que poseen estas herramientas, como su dificultad para brindar evidencias contextuales o de manejar adecuadamente las referencias. Así, la escasez de ejemplos y datos para respaldar afirmaciones, o la presencia de fuentes poco recientes, con una mayor presencia de libros o textos en inglés, pueden alertar sobre el uso de la inteligencia artificial.

También, los textos escritos con estos medios suelen mostrar una estructura basada en el ensayo de cinco párrafos (una introducción, tres párrafos de desarrollo y una conclusión), con un grado de coherencia y cohesión, que, aunque aceptable, resulta sospechoso dado que los principales problemas de redacción que evidencian la mayoría de los estudiantes involucran, justamente, estos dos aspectos. 

La puntuación, por ejemplo, uno de los elementos más necesarios para la cohesión –y uno de los de mayor dificultad– es clave dado que, a diferencia de muchos humanos, la inteligencia artificial ha demostrado estar en la capacidad de puntuar correctamente un texto, incluso mediante signos de uso poco común, como el punto y coma, que suelen tener poca presencia en las redacciones de estudiantes debido a la falta de claridad sobre su función (Salas y Amador, 2023).  

Todos estos, por supuesto, son solo indicios de que un texto pudo haber sido generado con ayuda de la inteligencia artificial. No significa, por defecto, que así sea.  Demostrarlo, de hecho, es un asunto complejo, y lo será aún más conforme estas herramientas evolucionen y las limitaciones antes mencionadas desaparezcan, lo que se vislumbra como algo posible en el futuro cercano.

Por supuesto, antes es de esperar que, conforme estos sistemas mejoren, también suceda lo mismo con los detectores de plagio y otras medidas relacionadas con la regulación de su uso. Sin embargo, más allá de esto, lo que parece cada vez más necesario es proponer usos responsables de la inteligencia artificial desde metodologías que aprovechen el potencial de esta tecnología sin renunciar al componente humano, centro del proceso educativo.

Por lo tanto, más que prohibir su uso, debemos mostrar a nuestros estudiantes cómo utilizar la inteligencia artificial para favorecer su aprendizaje, permitiéndoles usar, experimentar y reflexionar críticamente sobre el trabajo con estas herramientas, estableciendo incluso – por qué no- procesos de evidenciación y declaración de uso cuando sea necesario.

Todo parece indicar que nos encaminamos a un futuro cada vez más mediado por la inteligencia artificial, en el que gran parte de la información que consumimos podrá ser generada por medios no humanos, muchas veces sin darnos cuenta. Esto, si bien podría tener poca importancia en algunos casos, en otros se trata de un asunto que merece mayores consideraciones, como en el caso de la educación, dada la predominancia del componente humano.

La reflexión propuesta pretende sugerir que el creciente uso de la inteligencia artificial nos enfrenta ante el reto -en apariencia cada vez más difícil- de tener que distinguir entre la inteligencia artificial y la humana, al estilo del test Turing. Esto exige no solo regular el uso de estas herramientas, sino también fomentar enfoques novedosos que integren su uso responsable -como los sugeridos en torno a la escritura-, de tal manera que nuestro futuro no se reduzca a un mero juego de la imitación. La pregunta de Turing sobre si las máquinas pueden pensar, o si, como sugieren algunos, solo simulan pensar como el cerebro humano, aún está por verse. Mientras tanto, lo que realmente debemos preguntarnos es cómo podemos aprovechar estos avances para potenciar nuestro pensamiento, no para disminuirlo.

 

Declaración de uso de inteligencia artificial: Este artículo fue compartido con la versión gratuita de ChatGPT con el fin de conocer qué aspectos podían ser mejorados. Solo fueron considerados aquellos relacionados con la forma, no con el contenido.

Bibliografía

Salas Acuña, E.F. (2024). Implicaciones de la tecnología y la inteligencia artificial en la enseñanza de la escritura. Revista Ventana, 18(1), 40-42. https://revistas.tec.ac.cr/index.php/ventana/article/view/7121

Salas Acuña, E.F. (31 de julio, 2024). En defensa de la escritura. Hoy en el TEC. https://www.tec.ac.cr/hoyeneltec/2024/07/31/defensa-escritura

Salas Acuña, E. F., & Amador Solano, M. G. (2023). Uses of ChatGPT for the revision of academic texts: some considerations. Innovaciones Educativas25(Especial), 59–77. https://doi.org/10.22458/ie.v25iEspecial.4936

Ríos, R. H. (2023). El test de Turing y la filosofía de la inteligencia artificial. Acerca de la mente de las máquinas. Rev. Filosofía Univ. Costa Rica, 62(164), 47-57. https://doi.org/10.15517/revfil.2023.54439

 

Inteligencia Artificial, Turing