Al enfrentarse a las adversidades para el acceso a equipo de computo de mayor capacidad –en comparación con los recursos en países desarrollados– el equipo BioMachina desarrolló un enfoque novedoso y eficiente, que no solo llama la atención de expertos internacionales, sino que además sirvió para quedar cuartos en el ranking mundial de la competencia de identificación automática de plantas PlantCLEF 2022 [2].
La investigación fue presentada en el artículo titulado "Extreme automatic plant identification under constrained resources [3]" (Identificación automática extrema de plantas con recursos limitados), con la autoría del doctor José Mario Carranza Rojas, docente de la Maestría en Computación con énfasis en Ciencias de la Computación [4] del TEC, y cinco estudiantes de ese posgrado: Rubén González Villanueva, Kelvin Jiménez Morales, Kevin Quesada Montero, Esteban Esquivel Barboza y Nicole Carvajal Barboza.
“Este artículo es clave para democratizar el acceso a investigadores que quieran participar en esta área de investigación, ya que no todos cuentan con los caros equipos que paulatinamente se van ocupando, dado que ahora sí estamos en vías de identificar cualquier especie de plantas en el mundo”, comenta Carranza.
El investigador se refiere a que cada vez se está más cerca de crear un sistema de inteligencia artificial capaz de reconocer todas las especies de plantas conocidas en el mundo, solo con el uso de imágenes. En esta edición de competencia de PlantCLEF se utilizó un set de 80.000 especies, y en el mundo hay unas 400.000 especies.
Sin embargo, estos avances tienen sus desafíos y es que los modelos cada vez son más complejos y requieren de mayor poder computacional. Limitando, como muchas veces sucede, la participación de científicos de diferentes partes del mundo en el desarrollo de técnicas de avanzada.
“Actualmente existen modelos de Machine Learning muy poderosos, como CNN y Transformers, que necesitan un alto nivel computacional para poder entrenarlos y esto es muy caro. El principal aprendizaje de nuestra investigación fue inventar una arquitectura con la cual se puede reducir el tamaño de los modelos en más de cinco veces, lo cual hace más factible entrenarlos ya que requiere menos poder computacional, y obtener resultados muy similares”, agrega Rubén González.