Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Evaluación de los aprendizajes en la educación media: características técnicas de las pruebas escritas en matemática

Equipo de Trabajo

Nombre completo
Participación
Escuela
Luis Gerardo Meza Cascante
Coordinador
Matemática
María Gabriela Roldán Villalobos
Investigadora
Matemática
Evelyn Agüero Calvo
Investigadora
Matemática

La investigación asumió como objetivo general “Determinar la calidad técnica de las pruebas escritas en matemática aplicadas en la educación secundaria de los colegios del Cantón Central de Cartago”. Se trata de una investigación cuantitativa realizada a partir de la recolección de pruebas escritas de matemática aplicadas en los colegios participantes. 

Como parámetros para la evaluación se utilizaron los establecidos en el documento “La prueba escrita” por ser el documento oficial del Ministerio de Educación Pública (MEP) en la materia. La pretensión original de realizar una tarea similar con base en planteamientos teóricos, resultó innecesaria por cuanto las directrices del MEP encajan perfectamente en el marco teórico asumido para ese propósito.

Los hallazgos indican que existe, en términos generales, un alto grado de cumplimiento de las directrices emitidas por el MEP para la formulación de las pruebas. Una situación similar se presenta con algunas de las directrices establecidas para el diseño de los ítems, mas también se detectaron algunas donde el cumplimiento no es satisfactorio. 

La investigación permitió constatar la existencia de pruebas que incluyen ítems de respuesta objetiva valorados con un punto y otros de desarrollo, con el mismo grado de dificultad o menor, con puntajes superiores. Además, también se encontraron conjuntos de ítems que en la misma prueba evalúan esencialmente el mismo conocimiento, situación que puede afectar negativamente al estudiante porque al fallar en ese conocimiento particular resulta castigado reiteradamente. ítems con serios problemas de contenido matemático o de redacción también fueron detectados en la investigación.

 

Conclusiones

  1. Hay un alto porcentaje de cumplimiento de las directrices emitidas por el MEP para la elaboración de las pruebas escritas, tanto en los aspectos formales como en la construcción de los ítems. 
  2. Los ítems de "Selección única "y los de "Respuesta corta "son los más utilizados en la modalidad de ítemes objetivos. Los otros tipos de ítems permitidos por los lineamientos del MEP, muestran una presencia muy poco significativa en comparación con estas dos opciones. 
  3. La "Resolución de ejercicios "y la "Resolución de problemas "son los ítemes de desarrollo más utilizados, aunque la segunda opción en menor cantidad que la primera. 
  4. Los ítemes de "Selección única "cumplen satisfactoriamente todos los criterios, salvo el referente a la homogeneidad de las opciones. No obstante, se encontraron ítems de esta modalidad con errores de contenido matemático. 
  5. Las pruebas incluyen ítems de "Selección única "o de "Respuesta corta", que deben tener una asignación de un punto, por así disponerlo las directrices del MEP, con similar dificultad que ítems de desarrollo con puntajes superiores. Este hallazgo revela una seria deficiencia en el diseño de las pruebas. 
  6. Existe un uso camuflado de ítems de "Falso o Verdadero ", los que no están autorizados por las directrices del MEP.
  7. Algunas pruebas evalúan reiteradamente el mismo conocimiento, lo que atenta contra la validez y la confiabilidad de los exámenes como instrumentos de medida. 

Determinar la calidad técnica de las pruebas escritas en matemática aplicadas en la educación secundaria de los colegios del Cantón Central de Cartago

  1. Establecer el nivel de aplicación de las directrices establecidas por el MEP para el diseño de pruebas.
  2. Identificar el nivel de aplicación de los lineamientos teóricos en el diseño de las pruebas.
  3. Establecer el nivel aplicación de las directrices establecidas por el MEP para el diseño de ítemes en matemática.
  4. Identificar el nivel de aplicación de los lineamientos teóricos en el diseño de los ítemes en matemática.
Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

Análisis de Componentes Principales en paralelo 1

Equipo de Trabajo

Nombre completo
Rol
Escuela
Geovanni Figueroa Mata
Coodinador
Matemática
Alejandra Jiménez Romero
Investigadora
Matemática
Luis Ernesto Carrera Retana
Investigador
Matemática

La computación paralela es una técnica de programación en la que muchas instrucciones se ejecutan simultáneamente. Se basa en el principio de que los problemas grandes se pueden dividir en partes más pequeñas que pueden resolverse de forma paralela. En los últimos años el interés en ella ha aumentado y se ha convertido en el paradigma dominante en la arquitectura de computadores, principalmente en los procesadores multinúcleo. 

Por otro lado, el Análisis de Componentes Principales (ACP) es una técnica multivariable utilizada para reducir la dimensionalidad de un conjunto de datos cuantitativos. Su objetivo es extraer la información importante de una tabla de datos y representarla mediante nuevas variables ortogonales, llamadas componentes principales, a fin de hallar la relación entre las variables originales y los individuos en estudio. 

En este proyecto se desarrolla una implementación mediante computación paralela para realizar el ACP a tablas de datos de gran tamaño.

Diseñar e implementar algoritmos en paralelo que realicen el análisis de componentes principales a grandes cantidades de datos, mediante programación en paralelo, tanto de CPU’s como de GPU’s.

  1. Diseño e implementación en paralelo del cálculo de la matriz de covarianzas y/o correlaciones.
  2. Diseño e implementación en paralelo del producto de matrices.
  3. Diseño e implementación de cálculo numérico de valores propios y de vectores propios para una matriz simétrica definida positiva.
  4. Diseño e implementación de la técnica de análisis de componentes principales.
  5. Representación gráfica de la solución de análisis de componentes principales.
Imagen con fines ilustrativos
Dic 2011
Unidad Coordinadora

El teorema de representación de Gromov. (La Representación Lineal de Gromov)

Equipo de Trabajo

Nombre completo
Rol
Escuela
José Bernardino Rosales Ortega
Coordinador
Matemática

En este apartado desarrollaremos algunos de los conceptos básicos que serán usados en la parte principal del proyecto. La mayoría de resultados, sobre acciones de tipo tame, se pueden encontrar en el muy interesante libro. Los resultados básicos que se necesitan tienen que ver con acciones de grupos sobre variedades. De hecho, toda mi labor en los últimos años ha girado en torno a las acciones de grupos sobre variedades pseudo-Riemannianas. 

En este estudio nos hemos visto en la necesidad de amalgamar una gran cantidad de teorías matemáticas las cuales por sí mismas son importantes, y algunas de ellas algo complicadas. En este sentido nuestro proyecto integra áreas como el análisis, el álgebra y la geometría, para citar los más relevantes. Nos interesa, del análisis, que nuestras medidas sean ergódicas, y es por eso que la primera sección se basa en generalidades sobre acciones ergódicas y acciones de tipo tame.

Este último tipo de acción ha sido popularizada por Zimmer. Otro tipo de acciones que usaremos son las llamadas acciones algebraicas. Este tipo de acciones pertenecen al área de la geometría algebraica. Por eso en la segunda sección damos los elementos básicos sobre conjuntos algebraicos y la llamada topología Zariski. En las dos secciones anteriores todo lo expuesto es conocido, es decir aparece en algún libro o en algún artículo. 

Sin embargo, en la sección tercera hablamos del famoso teorema de Densidad de Borel, y por primera vez enunciamos y probamos un nuevo teorema. Este nuevo teorema viene siendo la versión semisimple del teorema de Densidad de Borel. Al mismo tiempo usamos esta nueva versión para calcular la envoltura algebraica, un concepto el cual fue inventado por Zimmer, y calculamos tal envoltura algebraica en un caso muy particular y del cual haremos uso posteriormente. En la última sección, antes de probar el resultado principal del proyecto, enunciamos, sin prueba, el teorema del centralizador de Gromov. Se hace la advertencia que tal teorema implica varios puntos pero que sólo hemos puesto el que nos interesa para nuestra labor. 

 

Conclusiones

El proyecto en cuestión sirvió de plataforma para lograr una aplicación inmediata del celebrado teorema del centralizador de Gromov. Cabe señalar que se logró poner tal resultado en un contexto más general que lo encontrado en la literatura, a saber el contexto de grupos de Lie semisimples y acciones algebraicas. Se cumplieron los objetivos, tanto generales como específicos que se apuntaron en el inicio del proyecto. Dos aspectos importantes a señalar en esta parte tienen que ver con la bibliografía y el tiempo en ejecutar el proyecto. En primer lugar, quiero defender la compra de libros y artículos en el ´área de matemáticas y física teórica, ya que no tenemos en nuestra biblioteca del ITCR los libros para iniciarse en los orfrm[o]–genes de casi cualquier área de la matemática, y mucho menos revistas. Tampoco contamos con grupos amplios o al menos reducidos de investigadores con los cuales interactuar.

Considerar técnicas provenientes de diversas aéreas de la matemática, tales como el análisis, el algebra y la geometría, para dar una prueba de una versión semisimple de la llamada representación integral de Gromov.

 

  1. Establecer algunos resultados relativos al espacio cubriente de la variedad M y del grupo fundamental, π1(M). 
  2. Establecer una equivalencia entre el haz lineal asociado al espacio tangente a las órbitas y cierto espacio producto.
Imagen con fines ilustrativos
Dic 2012
Unidad Coordinadora
Unidad participante

iReal 2.0: Interfaces en Ambientes de Realidad Virtual (2011-2012)

Equipo de Trabajo

Nombre completo
Rol
Escuela
Jorge Mauricio Monge Fallas
Coordinador
Matemática
Franklin Hernández Castro
Investigador
Diseño Industrial
José Castro Mora
Investigador
Computación
Milton Enrique Villegas Lemus
Investigador
Computación
Luis Alexander Calvo Valverde
Investigador
Computación

Para el proyecto se tenía que definir una estrategia sobre el uso y el desarrollo de los elementos de la interface, del software y hardware necesarios para proyectar en tiempo real ambientes tridimensionales en los que se pueda experimentar fenómenos espaciales de forma que el usuario esté inmerso en el ambiente ya sea física o virtualmente.

Estas interfaces tridimensionales están muy poco desarrolladas en el mundo. Al inicio del proyecto varios integrantes del grupo eScience (incluyendo a los investigadores Franklin Hernández y José Castro) visitaron en marzo del 2010 el encuentro PRAGMA1 18 en San Diego California. En esta visita se pudo observar el estado del arte en varios países de los más avanzados en esta área, entre ellos Estados Unidos, Canadá, Japón, India y Corea entre otros.

La parte de hardware del área está muy adelantada, sin embargo, el problema que persiste radica en la visualización de información (en alta resolución) en forma de ambientes tridimensionales virtuales y aún más crítico: la manipulación de esos sistemas.

Los métodos

Uno de los aspectos importantes en este proyecto era la definición de la tecnología. Se decidió por un sistema Tiled Display Wall (TDW) para la visualización de datos científicos en forma de “cave” (cueva) y los display tipo Alioscopy tecnología autoesteroscópica (3D sin lentes).

El otro aspecto importante era el desarrollo de la interface. Para ello utilizamos las herramientas de desarrollo que utilizan las aplicaciones para OS X sistema operativo de Apple y el iOs5 sistema operativo de las iPads y iPhone. Esta decisión se basó principalmente en el hecho de que este sistema es el más maduro del mercado en el uso extensivo de gestos y por tanto la parte de la investigación que se desarrolló sobre estos sistemas touchscreens se vio beneficiada por esta condición. Además, el elemento base para el desarrollo de la interface fue el proyecto de eBridge.

Por último, tenemos el apartado que tiene que ver con el “cave”, configuración del cluster y el desarrollo de contenido 3D de Alioscopy. En este caso, la configuración final se realizó a través de Rocks 5.4 (una versión de linux) y se utilizó Chromium (una versión del sistema optiPortal) para desplegar los sistemas de visualizaciones complejas escritas en OpenGL para la presentación de la ilusión de tridimensionalidad en el “cave”.

Resultados

A nivel de hardware, se logró la instalación de un laboratorio de visualización científica” cave”, con tecnología de punta. A nivel de interface, se logró desarrollar una aplicación para iPhone y iPad disponible en App Store de Apple llamada iReal, para controlar el “cave”. Además, la aplicación incorpora la funcionalidad de comunicarse con el “cave” a través de un socket de forma inalámbrica. 

A nivel, específicamente del cluster y el desarrollo de contenido 3D. Se logró desarrollar un producto con contenido 3D, sobre Windows, utilizando un plug-in de Alioscopy para Cinema4D™. En el caso de contendido 3D de Alioscopy para Rocks 5.4, se logró incorporar los protocolos
necesarios para Alioscopy y generar una aplicación autoestereóscopica. Esta aplicación trabajo sobre el cave utilizando 4 displays simultáneamente. 

Conclusión

El objetivo de tener un laboratorio de visualización científica con el potencial de generar un ambiente inmersivo se logró. El desafío siguiente parece claro, desarrollar aplicaciones para la visualización de información en este ambiente, proveniente de resultados de otros proyectos.

Desarrollar la tecnología para dotar al TEC de una instalación de realidad virtual.

  1. Diseñar e implementar los circuitos de conexión del laboratorio.
  2. Desarrollar el software de procesamiento y comunicación de datos.
  3. Diseñar e implementar la interface para control del ambiente virtual.
  4. Desarrollar una aplicación específica para probar el funcionamiento
    del sistema.
Imagen con fines ilustrativos
Dic 2013
Unidad Coordinadora

Personas investigadoras

Nombre completoParticipaciónEscuela
Paulo García DelgadoInvestigadorMatemática
Randall Blanco BenamburgInvestigadorMatemática

Creencias de los docentes de Matemática, a nivel de secundaria, sobre la Evaluación en Matemática

 

El presente estudio se desarrolló con el objetivo de explorar las creencias que tienen los docentes de matemática de la provincia de Cartago acerca de la evaluación de los aprendizajes, con una muestra de 107 docentes que laboran en centros educativos de secundaria de esa provincia durante el curso lectivo 2013. Para el estudio se diseñó un cuestionario en el cual se solicitó información general del docente y algunos datos sobre su formación académica, además de escalas tipo Likert para medir sus creencias en cuanto a los instrumentos de evaluación, características y usos de la evaluación. Los datos obtenidos se analizaron utilizando la prueba de esfericidad de Bartlett y se determinó el coeficiente KMO para luego realizar un análisis de conglomerados K-medias. A partir de los datos obtenidos se lograron clasificar los docentes en cuatro grupos según las creencias manifestadas en el instrumento: los conformes con la práctica tradicional, los que más valoran la prueba escrita pero no los análisis de confiabilidad y validez, los más conformes con el sistema y más disconformes con el sistema

1. Diseñar y validar un instrumento que permita identificar las creencias de los docentes de matemáticaa nivel de secundaria sobre la evaluación en Matemática. 2. Categorizar las respuestas emitidas por los docentes sobre las creencias en evaluación. 3. Contrastar las respuestas de los docentes de matemática sobre sus creencias en evaluación conlos referentes teóricos de evaluación.

A pesar de que la investigación en el campo del pensamiento del profesor ha ido en crecimiento anivel internacional, contar con un instrumento que permita medir las creencias de los docentes enaspectos relacionados con la evaluación de los aprendizajes no es una tarea sencilla ni acabada.La presente investigación ha permitido obtener un cuestionario validado por expertos con elcual se obtuvo información confiable y podrá ser adaptado y mejorado para utilizarse en futurasinvestigaciones similares. 

Existe una diversidad de pensamiento en cuanto a evaluación de los aprendizajes en secundaria.Solo un grupo pequeño de los docentes que participaron en el estudio (19%) manifiestan discon-formidad con la manera tradicional de concebir la evaluación. 

No existe uniformidad entre las creencias acerca de las características de la evaluación, ni sobreel uso que se le debe dar a la información que provean las diferentes pruebas que se aplican a losestudiantes para medir conocimientos.•Las concepciones que muestran los docentes sobre las pruebas escritas y su relación con el apren-dizaje difieren de las indicadas por autores como Stufflebeam (1987), Conbrach (1963) e Imbernón(2000) citados por Giné y Parcerisa (2007)[6] quienes plantean una concepción de la evaluaciónmás integral y de ayuda en la toma de decisiones. 

La formación brindada por las universidades a los docentes encargados de enseñar Matemáticaen la educación secundaria podría no estar respondiendo a las necesidades reales que tienen estosprofesionales en su práctica, dado que un 59% de los participantes en el estudio manifiestan noestar conformes con su formación en esta área.

Imagen con fines ilustrativos
Dic 2013
Unidad Coordinadora

Heurísticas de optimización combinatoria para la clasificación de datos

Equipo de Trabajo

Nombre completo
Rol
Escuela
Juan José Fallas Monge
Coordinador
Matemática
Jeffrey Chavarría Molina
Investigador
Matemática

En el presente proyecto de investigación se realizó la implementación de las heurísticas de algoritmo genético, enjambre de partículas (EP) y búsqueda tabú (BT) para el estudio del problema de clasificación por particiones con datos cuantitativos. En total se implementaron cuatro algoritmos, dado que en el caso de búsqueda tabú se diseñaron dos variantes. Una de ellas constituyó en la generación de vecindarios mediante transferencias de individuos de una clase a otra; mientras que la otra consistió en la construcción de los vecinos mediante el movimiento de los centros de gravedad de las clases (BTCG).

Los algoritmos fueron aplicados a veinte tablas de datos tomadas de la literatura. Además, se diseñaron ocho tablas adicionales de mayor tamaño y complejidad, para verificar el rendimiento de los algoritmos. Se realizó, además, un análisis de la variabilidad de los resultados, en función de los parámetros de las diferentes heurísticas. Esto permitió determinar, para cada una de ellas, la combinación de parámetros que generó el mejor rendimiento posible en cada heurística. Además, se realizó una comparación de la eficiencia de las heurísticas implementadas, lo cual permitió generar una jerarquización de ellas como función del rendimiento, siendo BTCG y EP las que mostraron mejores resultados.

 

Resultados

  1. Se logró la implementación de tres heurísticas de optimización combinatoria para estudiar el problema de particionamiento de individuos en presencia de datos cuantitativos (algoritmo genético, enjambre de partículas y búsqueda tabú). Con la característica adicional que la heurística de búsqueda tabú fue implementada siguiendo dos estrategias diferentes para la generación de vecinos. Esto potenció el haber culminado con cuatro algoritmos heurísticos para el estudio del problema en cuestión (PRIMER OBJETIVO ESPECIFÍCO).  
  2. Del proceso de investigación se derivaron un conjunto de estrategias que potencializaron el rendimiento de las heurísticas. Como ejemplos particulares se pueden citar: la mejora de k−medias en todas las heurísticas, el método de paro en todas las heurísticas, la mejora de reinicio en las heurísticas de búsqueda tabú y la definición del operador de cruce y el operador de selección en el algoritmo genético. 
  3. Se realizó un análisis de los parámetros en cada uno de los algoritmos, del cual se desprendieron los valores que deben asignarse a los diferentes parámetros de las heurísticas para potenciar su rendimiento (SEGUNDO OBJETIVO ESPECÍFICO).  
  4. Se realizó una comparación del rendimiento, con respecto a los porcentajes de atracción y tiempos de ejecución, de las tres heurísticas implementadas en la investigación. Esto permitió jerarquizar a las heurísticas de búsqueda tabú mediante movimiento de centros gravedad (BT-CG) y enjambre de partículas en su versión EP-1, como las heurísticas de mejor rendimiento. Aportando evidencia que al aumentar significativamente la cantidad de individuos que conforman la tabla de datos, es la heurística BT-CG la que experimenta menos aumento en los tiempos de ejecución (TERCER OBJETIVO ESPECÍFICO).  
  5. Se diseñó una heurística híbrida entre las dos mejores heurísticas, a saber, entre enjambre de partículas y búsqueda tabú (CUARTO OBJETIVO ESPECÍFICO). Se advierte que a pesar de las diferentes aristas exploradas y que el algoritmo híbrido generó buenos porcentajes de atracción, no cumplió con la expectativa de mejorar las heurísticas previamente implementadas. Los altos tiempos de ejecución fue un punto que en cierta medida hace concluir que el proceso de hibridación no fue del todo exitoso. 

Implementar heurísticas de optimización combinatoria para estudiar el problema de la clasificación por particiones en presencia de datos cuantitativos y el diseño e implementación de una nueva heurística híbrida de optimización para el estudio de dicho problema.  

  1. Implementar las siguientes tres heurísticas para abordar el problema de clasificación por particiones en presencia de datos cuantitativos: algoritmo genético, enjambres de partículas y búsqueda tabú.  
  2. Explorar la variabilidad de los resultados en cada una de las heurísticas implementadas en función de sus parámetros.  
  3. Comparar la eficiencia de las heurísticas implementadas.  
  4. Diseñar e implementar un algoritmo híbrido que permita mejorar las soluciones. 
Imagen con fines ilustrativos
Jun 2014
Unidad Coordinadora

Técnicas de precondicionamiento en paralelo

Equipo de Trabajo

Nombre completo
Rol
Escuela
Luis Ernesto Carrera Retana
Coordinador
Matemática
Geovanni Figueroa Mata
Investigador
Matemática

El objetivo principal de la investigación fue diseñar e implementar en paralelo una teécnica de precondionamiento con el fin de resolver sistemas de ecuaciones lineales provenientes de la solución numérica de ecuaciones diferenciales parciales; la característica común de estos sistemas lineales es su gran tamaño y el hecho de que la matriz de coeficientes asociada es rala. Se diseño e implementó en paralelo una técnica de precondicionamiento, basada en la factorización incompleta LU (ILU), y se aplicó a problemas obtenidos de la colección de matrices ralas de la Universidad de Florida. El precondicionador fue probado en matrices no simétricas y matrices simétricas no definidas positivas. Los mejores resultados se obtuvieron en el caso de las matrices simétricas no definidas positivas. 

Diseñar e implementar técnicas de precondicionamiento en paralelo.  

 

  1. Investigar sobre la existencias de las diferentes técnicas de precondicionamiento.  
  2. Analizar cuáles de las técnicas de precondicionamiento estudiadas son suceptibles de ser paralelizadas y aplicadas a métodos iterativos para la resolución de sistemas lineales.  
  3. Diseñar un algoritmo en paralelo para alguna de estas técnicas de precondicionamiento.  
  4. Implementar utilizando programación en paralelo el algoritmo diseñado.  
  5. Probar y depurar la técnica de precondicionamiento desarrollada sobre algunos sistemas de ecuaciones lineales de prueba
Imagen con fines ilustrativos
Dic 2014
Unidad Coordinadora

Modelo de Visualización del Conocimiento en el uso de tecnologías y tecnologías digitales(ModelTec)

Equipo de Trabajo

Nombre completo
Rol
Escuela
Jorge Mauricio Monge Fallas
Coordinador
Matemática

La visualización del conocimiento es un campo de estudio reciente(2005) que aparece en el área de la administración del conocimiento, este juega un papel importante en la transferencia del conocimiento. La visualización del conocimiento alcanza el objetivo de transferir el conocimiento haciendo uso de distintos tipos de visualización. Por lo que los tipos de visualización que se utilizan, la intensidad con la que deben ser aplicados, la complementariedad que deben tener, la claridad y la estructura con la que se lleve a cabo su ejecución son factores importantes a considerar. El marco y el modelo de visualización del conocimiento fue desarrollado por el arquitecto suizo Remo Burkhard, este marco general de visualización orienta el uso de las representaciones visuales para la transferencia del conocimiento. Además han colaborado en este nuevo campo de investigación: Martín Eppler, y Michael Meier entre otros. 

En estos procesos de visualización la tecnología viene a convertirse en un muy buen aliado, nos da la posibilidad de tener múltiples representaciones de un concepto en pantalla y con la posibilidad de que por su naturaleza dinámica se puedan realizar generalizaciones sobre el mismo. Estos procesos de múltiples representaciones son fundamentales en la teoría de representaciones semióticas de Duval.

Con el marco general de visualización y la teoría de representaciones semióticas, parecía oportuno la búsqueda de un modelo para el uso de tecnologías digitales y no digitales que incorporaran la visualización del conocimiento. Este fue el objetivo principal de este proyecto. Partimos del campo de la visualización del conocimiento, pasamos por la teoría de representaciones semióticas de Duval, nos trasladamos al modelo para formación de profesor desarrollado por Shulman y denominado PCK, el cual posteriormente fue visto como un modelo integrador por Gew-Newsome y por último Mishra y Koehler incorporan la componente tecnológica dando origen al TCPK. Este acrónimo fue cambiado en el 2008 a TPACK por Thompson y Mishra. 

Es en este modelo donde consideramos oportuno pág. 4 de 59 incorporar la visualización del conocimiento y lo he denominado TPACK*. El reto parece ser muy claro, tomar el modelo e implementarlo en la enseñanza con tecnología por un periodo considerable y evaluar su ejecución. Lo considero un reto, dado que por su composición el profesor debe en principio tener el dominio sobre la parte disciplinar, a esto se le agrega el saber y las habilidades necesarias para la implementación de la tecnología y por último el conocimiento y competencias necesarias en el campo de la visualización del conocimiento.

Establecer un modelo de visualización del conocimiento para el uso de las tecnologías y tecnologías digitales 

  1. Crear un modelo prototipo a partir del modelo planteado por Burchard en la visualización del conocimiento y las investigaciones en el campo. 
  2. Diseñar los elementos del marco general de visualización que se utilizaran para la transferencia de conocimiento. 
  3. Implementar el modelo como guía para el uso adecuado de la tecnología y tecnologías digitales en la transferencia de conocimiento. 
  4. Validar el modelo en distintos contextos donde se utilice la tecnología y tecnologías digitales para la transferencia de conocimiento. 
Imagen con fines ilustrativos
Jun 2014
Unidad Coordinadora

Personas investigadoras

Nombre completoRol
Geovanni Figueroa MataCoordinador
Juan Pablo Prendas RojasInvestigador

Sistema automático de clasificación de abejas sin aguijón (Apidae: Meliponini) basado en el contorno y venación de sus alas

El proyecto desarrolla una aplicación para visualizar los datos se generan en el primer puente piloto del proyecto eBridge.  Los datos se obtendrán en forma inalámbrica desde la red de sensores remotos, tales datos servirán para monitorear el comportamiento del puente en diversas circunstancias (clima, condiciones del tránsito, condiciones telúricas, etc.) y con estos datos se podrá no solo monitorear la estabilidad  del puente, sino que se podrá predecir su comportamiento futuro.  La herramienta que se pretende desarrollar servirá para visualizar estos datos en el "cave" del laboratorio de eScience y desde ahí a través de una interfaz diseñada para esos datos, se podrá analizar en forma tridimensional la situación real del puente en ese momento.

En un sistema de discrimación se espera que el porcentaje de éxito sea cercano a 100. Con la discriminación de abejas nativas sin aguijón a nivel de género se ha cumplido con esta expectativa, sin embargo, es necesario mejorar el porcentaje de identificación de especie. Con la idea de mejorar el porcentaje de éxito para la discriminación de especies se consultó con los biólogos del CINAT, expertos en estudios apícolas, y se decidido que es necesario incorporar algunos discriminadores de especies que no están en el ala, tales como colores de otras partes del cuerpo, vellosidad, tamaño de patas o antenas u otras. Al igual que en otras abejas sin aguijón, como Paratrigona Schwarz y Plebeia sp., especies del género Nogueirapis se reconocen principalmente por las diferencias en el patrón de color de las obreras. Tales diferencias de color son a menudo apoyados por otros rasgos morfológicos incluidos el tamaño del cuerpo, así como la forma y proporciones de las diferentes estructuras membranosas. La propuesta es hacer que el sistema cuando tenga ‘duda’ sobre la especie, ya sea por la existencia de valores muy cercanos al máximo de coincidencias o por coincidencias múltiples, se torne en un sistema semi asistido. Por ejemplo, se ha determinado que las especies Trigona silvestriana y Trigona fulviventris tienen alas muy similares que podrían confundir al sistema, sin embargo estas especies se diferencian en la coloración del abdomen. Con algunas preguntas sencillas al usuario, sin necesidad de entrenamiento ni gasto excesivo en laboratorios, el sistema mejoraría sin duda el porcentaje de detección por especie. Otra posibilidad interesante es considerar la georreferencia de la imagen y que esta ingrese al sistema como un nuevo parámetro discriminador. Además, se ha pensado que a futuros el sistema podría ser llevado a ambientes menos controlados y ponerlo a disposición de los meliponicultores. Sería un gran avance la implementación del sistema en algún dispositivo móvil y que el preprocesado identifique el ala de la abeja incluso con la presencia del resto del cuerpo. Además, con el diseño de una interfaz para el usuario y el mantenimiento en un servidor los meliponicultores e investigadores apícolas tendrían una herramienta muy valiosa que podría ser usada incluso vía web. 

Imagen con fines ilustrativos
Dic 2014
Unidad Coordinadora

iReal 2.0: Interfaces en ambientes de realidad virtual (2013-2014)

Equipo de Trabajo

Nombre completo
Rol
Escuela
Jorge Mauricio Monge Fallas
Coordinador
Matemática
Franklin Hernández Castro
Investigador
Diseño Industrial
David Segura Solís
Investigador
Diseño Industrial

 Para el proyecto se tenía que definir una estrategia sobre el uso y el desarrollo de los elementos de la interface, así como el software y hardware necesarios para proyectar, en tiempo real, ambientes tridimensionales en los que se pueda experimentar fenómenos espaciales de forma que el usuario esté inmerso en el ambiente, ya sea física o virtualmente. 

Estas interfaces tridimensionales ya fueron exploradas inicialmente por varios integrantes del grupo eScience (incluyendo a los investigadores Franklin Hernández y José Castro), quienes visitaron en marzo del 2010 el encuentro PRAGMA 18 en San Diego California. En esta visita se pudo observar el estado del arte en varios países de los más avanzados en esta área, entre ellos Estados Unidos, Canadá, Japón, India y Corea.

Estas interfaces fueron investigadas y se desarrollaron varias iniciativas en el proyecto iReal 1.0., lo que claramente fue la base para el desarrollo de iReal 2.0. El proyecto iReal ha ido consolidando el laboratorio de visualización que se había planteado años atrás. El desafío consistía en la visualización de información (en alta resolución) en forma de ambientes tridimensionales virtuales y aun más retador: la manipulación de esos sistemas. Este último es el objetivo fundamental alanzado en iReal 2.0.

 

Métodos

 Uno de los aspectos importantes en este proyecto era contar con una configuración adecuada del sistema de visualización inmersiva “cave”. Esta configuración adecuada a la tecnología elegida en su momento (Alioscopy), nos permitió tener un sistema más robusto y estable, de tal forma que centramos nuestros esfuerzos en dos líneas: desarrollo de contenido 3D Aliocopy (autoestereoscopico lenticular) y el desarrollo de la interface.

En cuanto al contenido para visualizar en el “cave”, primero se hizo la configuración del cluster,
poniéndose a funcionar el sistema completo, para posteriormente iniciar pruebas en el desarrollo de contenido 3D de Alioscopy. En este caso, este fue el mayor desafío y el principal aporte de este proyecto.

La configuración final para controlar, vía software el clúster del “cave”, se realizó a través de la
implementación del framework de Realidad Virtual “CalVR”, un sistema desarrollado por la Universidad de California, San Diego. Proyecto que inicio en el año 2010 y el cual ha sido pionero en el campo de la investigación visual (http://ivl.calit2.net/wiki/index.php/CalVR).

Para la etapa relacionada con la interface, se utilizaron las herramientas de desarrollo que utilizan las aplicaciones para OS X sistema operativo de Apple y el iOS 7 sistema operativo de las iPads, iPods y iPhone. Esta decisión se basó principalmente en el hecho de que este sistema es el más maduro del mercado en el uso de gestos y por tanto la parte de la investigación que se desarrolló sobre estos sistemas touchscreens se vio beneficiada por esta condición. El grupo de datos base para el desarrollo de la interface fue el proyecto de eBridge.

 

Resultados

A nivel de hardware, se logró una configuración estable del laboratorio de visualización científica ”cave”, con 6 nodos que cuentan con GPUs de alto desempeño, con comunicación de red basada en fibra óptica. Por el lado del software se logró implementar el framework de visualización inmersiva CalVR, el cual nos permite por medio de algunos parámetros, definir las configuraciones para la autoestereoscopia que requiere los monitores Alioscopy.

A nivel de interface, se logró desarrollar una aplicación para iPhone y iPad para controlar el “cave” (disponible en App Store de Apple llamada iReal), basada en los requerimientos de visualización del proyecto eBridge. Además la aplicación incorpora la funcionalidad de comunicarse con el “cave” a través de un socket de forma inalámbrica.

A nivel del clúster y el desarrollo de contenido 3D, se logró sistematizar el desarrollo y despliegue de contenido Alioscopy en el “cave” que nos permitirá diversificar las aplicaciones de este sistema de visualización. Además, paralelamente se a instalado una nueva configuración para el control del TDW (sistema normal de visualización) a través de SAGE (“Scalable Adaptive Graphics Environment”) y OmegaLib. La idea de este trabajo en paralelo es contar con un sistema de visualización más robusto y complementario.

El SAGE es una arquitectura de transmisión de gráficos que habilita un acceso interactivo, una
visualización y la capacidad de compartir gran cantidad de datos, en una variedad amplia de
resoluciones, formatos, fuentes, con mucha facilidad de uso, permitiendo hacer pruebas de concepto con el objetivo de llevar todo el sistema a una nueva configuración del “cave”.

OmegaLib es un Framework de aplicaciones de multivista para ambientes de realidad híbrida (HREs), que consiste en una combinación de ambientes immersivos, con mosaicos de monitores de alta resolución. Un HREs logra crear un ambiente 2D/3D transparente que soporta un análisis rico en información, como también una simulación en realidad virtual.

 

Desarrollar una herramienta que permitiera visualizar y analizar los datos
generados por los sensores del proyecto eBridge en el laboratorio de visualización inmersiva del
programa de eScience.

  1. Diseñar la estrategia de visualización y control de los datos.
  2. Desarrollar las sub-rutinas necesarias para poner en práctica las estrategias diseñadas en el objetivo anterior.
  3. Implementar las sub-rutinas en una aplicación funcional que se pueda correr en forma autónoma.
  4. Validar con un focus group¿ la versión alfa de la herramienta.