Go to Top

Director Ejecutivo del AMTC cuenta por qué en el área de la inteligencia artificial se vive un “boom” del uso del aprendizaje profundo

En la quinta sesión del curso de robótica e inteligencia artificial orientado a profesionales de la prensa, el profesor Javier Ruiz del Solar ahondó en los actuales sistemas computacionales diseñados para inteligencia artificial, con énfasis en las llamadas “redes neuronales”.

Dichas redes, que en rigor deberían tener el nombre específico de “redes neuronales artificiales”, emulan el entramado de células nerviosas de los organismos vivos, las cuales trabajan en paralelo. Funcionan destinando una tarea de aprendizaje y el almacenamiento de la información aprendida en múltiples procesadores que trabajan paralelamente. Esta redundancia, que unos pueden ver como un defecto al no emplear un único y poderoso procesador que haga todo el trabajo, es en realidad lo que hace eficiente al sistema. O para decirlo en lenguaje técnico, lo hace “robusto”.  Esto permite que si un procesador falla, el sistema sigue funcionando. “Con un solo procesador, el sistema entero cae si ese se descompone”, explicó el profesor Ruiz del Solar.

De allí deriva el concepto de “aprendizaje profundo” (deep learning) que significa, simplemente, que la red neuronal posee varias “capas” de procesadores que le dan su “profundidad” y que se mantienen ocultas a la vista del operador. Tal diseño otorga además más velocidad de procesamiento que a sistemas anteriores. Su uso principal es para aprendizaje en sistemas perceptuales. “Por ejemplo, reconocimiento de voz, reconocimiento de imágenes y navegación visual”, dice El profesor Ruiz del Solar.

El profesor explicó, además, por qué el aprendizaje profundo (o las redes neuronales artificiales) se ha vuelto un concepto tan recurrente en los proyectos de investigación sobre inteligencia artificial: Aclara que, entre otros factores, ahora existen mejores técnicas para “entrenar” a esas redes y hacer que aprendan; hay procesadores con mayores capacidades y más rápidos (como las GPU); y bases de datos más grandes, llenas de información para que la inteligencia artificial aprenda más. Asimismo, surge una comunidad global que aporta conocimiento y recursos para entrenar redes neuronales, ahorrando semanas, meses o años de trabajo en programar una red. En el fondo, porque ahora existen los recursos y las capacidades para desarrollar esa clase de redes. “Hace veinte años no teníamos los recursos técnicos ni el ecosistema para ello” aclara el especialista.

En relación a esto último, también remarcó una tendencia nueva en las disciplinas tecnológicas que consiste en compartir el conocimiento inmediatamente en sitios especializados. En lugar de esperar a que los nuevos hallazgos sean sometidos a la revisión de comités especializados para su publicación seis meses o un año después en revistas científicas de alto impacto, los científicos o investigadores autodidactas publican sus resultados de manera que son compartidos libre e inmediatamente alrededor del globo, lo cual agiliza el avance del conocimiento.

Como casos del poder del aprendizaje profundo, el profesor Ruiz del Solar presentó los desafíos de Deep Blue y AlphaGo: “El primero derrotó en 1997 al campeón mundial de ajedrez Garry Kasparov, pero no era una red de procesadores. No usaba deep learning. En 2015 el programa AlphaGo pudo derrotar a un maestro de go, un juego más complejo que el ajedrez, y eso solo pudo ser posible porque AlphaGo usaba deep learning”.



Imprimir esta noticia Imprimir esta noticia

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *