El juego de la imitación

Por: Erick F. Salas Acuña, Escuela de Idiomas y Ciencias Sociales
02 de Mayo 2025
Imagen ilustrativa
Imagen con fines ilustrativos realizada con Gemini.

En 1950, Alan Turing publicó el artículo “Maquinaria computacional e inteligencia”, en el que introdujo por primera vez “el juego de la imitación”, también conocido como “test de Turing”. En este, proponía un “juego” para distinguir cuando una entidad artificial exhibía comportamientos que denotaban “inteligencia”.

Así, por ejemplo, dado un individuo “A”, que dialoga remotamente con las entidades “B” y “C”, intercambiando información, el papel de “A” es identificar cuál de los dos interlocutores corresponde con el ente “máquina”. Más que medir la inteligencia propiamente, lo que se buscaba en realidad era distinguir la capacidad de una computadora de simular el pensamiento humano (Ríos, 2023).

Mucho tiempo ha pasado desde que Alan Turing propusiera su famoso test, al punto de que ya es un hecho que las computadoras son mejores que nosotros realizando múltiples tareas. Dos acontecimientos, uno en el siglo XX y otro en el XXI, son clave para constatarlo: el triunfo de la computadora Deep Blue sobre el campeón mundial de ajedrez Garry Kasparov (1997) y, más recientemente, la derrota del campeón mundial de Go, Lee Sedol, frente a AlphaGo (2017). Según este último, su retiro, anunciado en 2019, es decir dos años después de su pérdida, se debió justamente a que ya no podría ser el mejor del mundo debido al avance de la inteligencia artificial. 

Sin duda, la segunda mitad del siglo XX estuvo marcada por el desarrollo de la ingeniería computacional, esa que todavía hoy continúa transformando la manera en que nos comunicamos, estudiamos, trabajamos y divertimos. Ahora, a poco más de dos décadas de iniciado el siglo XXI, sin embargo, todo parece apuntar a que estamos frente a una nueva frontera relacionada con otro episodio de la historia de la computación y de la inteligencia artificial.    

El test de Turing, hasta hace poco una preocupación lejana para la mayoría de nosotros, se torna en una experiencia cada vez más común con la llegada de herramientas de inteligencia artificial generativa como ChatGPT que, desde su lanzamiento en noviembre de 2022, auguran nuevas maneras de relacionarnos con la tecnología (Salas, 2024). Si bien aún es pronto para entender el significado de estas transformaciones, ya es posible reconocer el reto que implica en muchos casos poder distinguir entre lo que es producto de la mente humana de aquello que fue generado por un procesador de computadora.

Estos avances tecnológicos suponen nuevos desafíos filosóficos y éticos en múltiples áreas del conocimiento, que van desde el debate en torno al plagio y los derechos de autor, hasta el impacto que pueden tener estas herramientas en el debilitamiento del desarrollo del pensamiento crítico.

En educación, por ejemplo, ámbito en el que la inteligencia artificial ha servido para cumplir múltiples propósitos, su uso parece poner cada día más en jaque la capacidad de muchos docentes de reconocer cuando alguno de sus estudiantes ha realizado una asignación por sus propios méritos o, por el contrario, ha recurrido –ya sea en todo o en parte– a alguna herramienta de inteligencia artificial.

En particular, en el caso de las asignaciones escritas, una plataforma como ChatGPT ha mostrado ser capaz de asistir la producción de textos con tal grado de precisión que para muchos docentes la evaluación de este tipo de trabajos ha terminado por parecerse más a un juego de la imitación que a un verdadero ejercicio evaluativo.

En la actualidad, la posibilidad de que un gran número de textos elaborados por estudiantes estén siendo producidos con la ayuda de alguna herramienta de inteligencia artificial es una situación que preocupa a muchos docentes. Y, si bien existen numerosos detectores creados para este fin, el problema es que muchas veces estas plataformas no resultan del todo eficaces. Por lo tanto, es el docente en quien recae la mayor responsabilidad de distinguir entre el ente humano y la máquina.

Por suerte, a la fecha, aún es posible reconocer algunas limitaciones que poseen estas herramientas, como su dificultad para brindar evidencias contextuales o de manejar adecuadamente las referencias. Así, la escasez de ejemplos y datos para respaldar afirmaciones, o la presencia de fuentes poco recientes, con una mayor presencia de libros o textos en inglés, pueden alertar sobre el uso de la inteligencia artificial.

También, los textos escritos con estos medios suelen mostrar una estructura basada en el ensayo de cinco párrafos (una introducción, tres párrafos de desarrollo y una conclusión), con un grado de coherencia y cohesión, que, aunque aceptable, resulta sospechoso dado que los principales problemas de redacción que evidencian la mayoría de los estudiantes involucran, justamente, estos dos aspectos. 

La puntuación, por ejemplo, uno de los elementos más necesarios para la cohesión –y uno de los de mayor dificultad– es clave dado que, a diferencia de muchos humanos, la inteligencia artificial ha demostrado estar en la capacidad de puntuar correctamente un texto, incluso mediante signos de uso poco común, como el punto y coma, que suelen tener poca presencia en las redacciones de estudiantes debido a la falta de claridad sobre su función (Salas y Amador, 2023).  

Todos estos, por supuesto, son solo indicios de que un texto pudo haber sido generado con ayuda de la inteligencia artificial. No significa, por defecto, que así sea.  Demostrarlo, de hecho, es un asunto complejo, y lo será aún más conforme estas herramientas evolucionen y las limitaciones antes mencionadas desaparezcan, lo que se vislumbra como algo posible en el futuro cercano.

Por supuesto, antes es de esperar que, conforme estos sistemas mejoren, también suceda lo mismo con los detectores de plagio y otras medidas relacionadas con la regulación de su uso. Sin embargo, más allá de esto, lo que parece cada vez más necesario es proponer usos responsables de la inteligencia artificial desde metodologías que aprovechen el potencial de esta tecnología sin renunciar al componente humano, centro del proceso educativo.

Por lo tanto, más que prohibir su uso, debemos mostrar a nuestros estudiantes cómo utilizar la inteligencia artificial para favorecer su aprendizaje, permitiéndoles usar, experimentar y reflexionar críticamente sobre el trabajo con estas herramientas, estableciendo incluso – por qué no- procesos de evidenciación y declaración de uso cuando sea necesario.

Todo parece indicar que nos encaminamos a un futuro cada vez más mediado por la inteligencia artificial, en el que gran parte de la información que consumimos podrá ser generada por medios no humanos, muchas veces sin darnos cuenta. Esto, si bien podría tener poca importancia en algunos casos, en otros se trata de un asunto que merece mayores consideraciones, como en el caso de la educación, dada la predominancia del componente humano.

La reflexión propuesta pretende sugerir que el creciente uso de la inteligencia artificial nos enfrenta ante el reto -en apariencia cada vez más difícil- de tener que distinguir entre la inteligencia artificial y la humana, al estilo del test Turing. Esto exige no solo regular el uso de estas herramientas, sino también fomentar enfoques novedosos que integren su uso responsable -como los sugeridos en torno a la escritura-, de tal manera que nuestro futuro no se reduzca a un mero juego de la imitación. La pregunta de Turing sobre si las máquinas pueden pensar, o si, como sugieren algunos, solo simulan pensar como el cerebro humano, aún está por verse. Mientras tanto, lo que realmente debemos preguntarnos es cómo podemos aprovechar estos avances para potenciar nuestro pensamiento, no para disminuirlo.

 

Declaración de uso de inteligencia artificial: Este artículo fue compartido con la versión gratuita de ChatGPT con el fin de conocer qué aspectos podían ser mejorados. Solo fueron considerados aquellos relacionados con la forma, no con el contenido.

Bibliografía

Salas Acuña, E.F. (2024). Implicaciones de la tecnología y la inteligencia artificial en la enseñanza de la escritura. Revista Ventana, 18(1), 40-42. https://revistas.tec.ac.cr/index.php/ventana/article/view/7121

Salas Acuña, E.F. (31 de julio, 2024). En defensa de la escritura. Hoy en el TEC. https://www.tec.ac.cr/hoyeneltec/2024/07/31/defensa-escritura

Salas Acuña, E. F., & Amador Solano, M. G. (2023). Uses of ChatGPT for the revision of academic texts: some considerations. Innovaciones Educativas25(Especial), 59–77. https://doi.org/10.22458/ie.v25iEspecial.4936

Ríos, R. H. (2023). El test de Turing y la filosofía de la inteligencia artificial. Acerca de la mente de las máquinas. Rev. Filosofía Univ. Costa Rica, 62(164), 47-57. https://doi.org/10.15517/revfil.2023.54439

 

Noticias Relacionadas

Conferencia de prensa feminista
Le invitamos a observar la actividad a través del Facebook Live de la Fundación Justicia...
Por: M.Sc. Laura QueraltCoordinadora Oficina de Equidad de GéneroTecnológico de Costa RicaLa Oficina de Equidad de Género del TEC, en conjunto con otras oficinas afines de la UCR, UNA y UNED, nos unimos para apoyar el Tribunal de Conciencia que analizará el tratamiento que hacen los medios de comunicación al abordar los temas...
  • Opinión
Sexismo
Por: MSc. Laura Queralt Camacho,Psicóloga, Máster en Género y Políticas de...
Por: MSc. Laura Queralt Camacho,Psicóloga, Máster en Género y Políticas de IgualdadCoordinadora de la Oficina de Equidad de Género TECEl sexismo es una forma de discriminación que se ejerce a través de la acción, pero también de la omisión; es decir, cuando no actuamos asumiendo un rol activo en su erradicación.Cada persona en...
  • Opinión
Ciclón
Por: Wilmer Casasola Rivera, Ph.D. Escuela de Ciencias Sociales
Para algunos, el asunto del poder, resulta simplemente burdo. Pero otros, lo anhelan, lo saborean; lamen el suelo donde ha quedado impregnado el olfato del poder.Aspirar al poder no tiene nada de malo. Pero existe una extraña coincidencia: la ausencia de genio e inteligencia es más notable en quienes aspiran con más...
  • Opinión
Pesca arrastre
Las opiniones aquí vertidas no representan la posición oficial de la Oficina de...
M.Sc. Carlos Alvarado QuesadaPresidente de la República de Costa RicaEstimado señor Presidente.La carta que le dirigimos a usted, en condición de funcionarios del Instituto Tecnológico de Costa Rica, es para comunicarle nuestra posición en relación con la ley que favorece reactivar la práctica de pesca de arrastre. A la fecha,...
  • Opinión
Bloqueo
Por Wilmer Casasola Rivera, Ph.D. Escuela de Ciencias Sociales, TEC.
En estos días han circulado una serie opiniones y posiciones en relación con las propuestas y la crisis social que atravesamos. Lo que aquí expongo es una observación crítica de ciertas posiciones ideológicas que promueven bloqueos y un acérrimo llamado a continuar con las protestas en las calles. Pero no solo esto, sino que,...
  • Opinión
Líder indígena Sergio Rojas Ortiz
Considerando que los pueblos indígenas de Costa Rica reforzaron su proceso de afirmación...
Considerando que los pueblos indígenas de Costa Rica reforzaron su proceso de afirmación territorial autónoma y el archivo de la causa por el asesinato de Sergio Rojas Ortiz, la Escuela de Ciencias Sociales del Tecnológico de Costa Rica (TEC), emitió un pronunciamiento que señala el rechazo y repudia el archivo de este suceso y...
  • Opinión