18 May, 2021 Revista Digital sobre Patentes, Marcas y Propiedad Intelectual

Perspectivas de la inteligencia artificial en México

AUTOR: Marytere Narváez

FUENTE: AGENCIA INFORMATIVA CONACYT

Mérida, Yucatán. 17 de mayo de 2016 (Agencia Informativa Conacyt).- El debate sobre los pros y contras que la inteligencia artificial representa para los seres humanos ha cobrado relevancia en los últimos años en diversas plataformas informativas, con opiniones reproducidas masivamente que van desde Stephen Hawking hasta el físico y empresario Elon Musk, pero ¿qué tanto se conoce acerca de lo que los científicos mexicanos han desarrollado en esta materia?

 

En el marco del Primer Simposio Internacional sobre Sistemas Computacionales Inteligentes (ISICS, por sus siglas en inglés), realizado recientemente en la ciudad de Mérida, Ángel Kuri Morales, investigador del Instituto Tecnológico Autónomo de México (ITAM), y Carlos Coello Coello, del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav IPN), compartieron para la Agencia Informativa Conacyt algunas perspectivas sobre el uso de la inteligencia artificial que han desarrollado en nuestro país y en el resto del mundo.

De acuerdo con Kuri Morales, la inteligencia computacional es un término acuñado hace relativamente poco tiempo (finales de la década de los cincuenta) para hablar de metodologías que ya no se consideran tan tradicionales como las que en un principio se desarrollaron. Dos fases claramente definidas han sido parte de este proceso. La primera corresponde a lo que se llamaba inteligencia artificial simbólica, que consistía básicamente en establecer una serie de reglas que, al ser vertidas en el contexto de una computadora, permitían que esta reemplace algunas de las funciones que realiza el ser humano.

En un principio, la inteligencia artificial simbólica se desarrolló con bastante éxito a partir de los sistemas expertos. “Le pido al sistema experto que diga lo que hace que el campo que estamos mirando se pueda manejar, porque él conoce las reglas; era exitoso pero tenía una limitante, pues por una parte era necesario tener el experto a la mano y, por otra, que las reglas que hacen que un experto sea un experto muchas veces no se pueden aplicar de manera secuencial. Si yo no puedo tomar una decisión, para tomar la que sigue después y tomar la que le sigue a esa, es posible que la primera decisión afecte a la cuarta y eso no se sabía a priori. Para evitar esa posible limitación de los sistemas expertos, a alguien se le ocurrió que en vez de hacer ese proceso lo que se debía hacer era aprender de los datos”, señaló.

Con este planteamiento, las reglas se desconocen y lo que se hace es alimentar los sistemas con una colección de datos suficientemente grande como para entender que estos expresan el sistema que se está observando y, una vez que se tienen estos datos, la computadora recibe esta información y mediante distintas metodologías, que constituyen lo que se conoce como inteligencia computacional, encuentran el comportamiento adecuado y pueden modelar los sistemas sin que se le deban especificar las reglas, que en muchos casos no se conocen.

“En ese sentido, es como un superconjunto de la inteligencia artificial simbólica, le llaman subsimbólica ya que no tiene símbolos como tales, las reglas las descubre. El término que se utiliza mucho es machine learning porque la máquina aprende”, indicó Kuri Morales.

Existe un sinnúmero de herramientas utilizadas para identificar patrones o métricas. Un ejemplo se encuentra en la lógica difusa, herramienta empleada para realizar razonamientos que no consideran que todo es negro o blanco, sino que permite razonamientos que comprenden la lógica aristotélica y van más allá de esta. Al automatizarse, permite tener un mayor entendimiento para la identificación de patrones considerando que los seres humanos siguen lógicas difusas. Por otra parte, las redes neuronales, el big data y la optimización multiobjetivo son actualmente algunas de las más implementadas en diversos campos del conocimiento.

Derrotando el big data

Big data es un término acuñado relativamente hace poco tiempo como resultado de la gran cantidad de información que se genera en distintos contextos, como por ejemplo, en las redes sociales de Facebook y WhatsApp. Por otro lado, la actividad científica moderna genera volúmenes de información enormes, como el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) de la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), donde se generan alrededor de cuatro mil millones de datos por segundo. Al mismo tiempo, los costos en el campo de la computación han disminuido cada vez más, por lo que es más factible almacenar grandes volúmenes de información, lo que trae consigo una serie de problemas tecnológicos nuevos.

inteligencia1716new“Es importante recalcar que big data es algo relativo. Solo la décima parte de lo que hoy es big data era big data hace diez años. Es un término relativo al estado de la tecnología con respecto a los problemas y a las oportunidades asociadas con el manejo de los grandes volúmenes de información”, indicó Kuri Morales.

Una tesis desarrollada por el investigador del ITAM defiende que para tomar decisiones de tipo estratégico no es necesario conocer los detalles de los datos. Este proyecto fue presentado en un congreso de minería de datos en Alemania hace aproximadamente diez años, donde ganó el premio al primer lugar. “Si yo quiero saber el comportamiento de una población, no necesito conocer los nombres y teléfonos de toda la población; lo que me interesa es identificar las tendencias de comportamiento, de tal manera que yo pueda aprovechar la información subsumida en esas grandes bases de datos. La idea es tener las ventajas de los grandes volúmenes de información sin las inconveniencias de manipular estos datos en detalle”, apuntó.

Un problema que se presentó fue determinar cuál es el subconjunto de datos que se desean manejar para que, en principio, la muestra pudiera determinar el entorno global desde el punto de vista estadístico. Al regresar a México, miembros de la banca se interesaron por este proyecto y el investigador los asesoró en el aprendizaje de su metodología. “Para los ejecutivos y altos empresarios era muy importante porque es un volumen de datos tan grande que la mera integración de la información de sus bases de datos puede tomar mucho tiempo: semanas o meses. Entonces resultaba que tenían información en la mano pero no podían aprovecharla sino hasta después de un lapso de tiempo prolongado. Lo que pidieron que hiciéramos fue determinar una estrategia para identificar los elementos suficientes para poder tomar sus decisiones sin necesidad de integrar todo ese gran volumen de información que tenían”, apuntó.

Esta estrategia fue finalizada entre el 2012 y el 2014, y su éxito redundó en el establecimiento de un estándar internacional de manejo de datos de la institución bancaria.

Optimización evolutiva multiobjetivo

La utilización evolutiva multiobjetivo consiste en resolver problemas de optimización donde hay dos o más objetivos que desean utilizarse al mismo tiempo pero que tienen algún tipo de conflicto entre sí. Por ejemplo, el objetivo de comprar un coche con el mejor motor y la mejor calidad de diseño, usualmente se opone al objetivo de que sea lo más barato posible.

De acuerdo con Carlos Coello, desde la perspectiva de las matemáticas, este problema se considera mal definido ya que no es una solución única la que posee. “Se producen varias soluciones que representan los diferentes compromisos entre los objetivos. Primero hay que tener en cuenta qué tanto se está dispuesto a sacrificar el objetivo uno con tal de resolver el objetivo dos, y lo que yo hago es resolver estos problemas con un tipo de técnicas de búsqueda estadísticas que se conocen como algoritmos evolutivos, con lo cual simulamos el proceso de la evolución natural en una computadora que produce las soluciones”, indicó.

En el algoritmo evolutivo se parte de una población, es decir, un conjunto de soluciones (cada una de las cuales es conocida como “individuo”), tal como se denomina en biología a una población de individuos de una especie determinada. Cada uno de estos individuos representa una solución al problema, y en la primera etapa, conocida como codificación, en cada individuo los valores de las variables del problema se generan de manera completamente aleatoria. Esto se agrupa en la función o funciones objetivo para obtener una solución.

De acuerdo con el investigador del Cinvestav, esta solución es evaluada para determinar su calidad a través de distintos valores. Por ejemplo, si la solución se está minimizando, el valor más pequeño es el mejor. A este valor que guía la búsqueda se le conoce como aptitud, término que se emplea en la descripción de la naturaleza. Los individuos con mejor aptitud son seleccionados para pasar a una segunda etapa en la que se recombinan entre sí. Esta recombinación implica que dos individuos producen usualmente dos hijos, y los dos hijos son los que pasan a la siguiente interacción conocida como “generación”. También existe otro operador llamado mutación, que provoca una pequeña alteración aleatoria en cada uno de los hijos que se han producido con la finalidad de simular lo que ocurre en la naturaleza. En resumen, la mutación corresponde a un error de copiado en los genes de los seres vivos, que se simula con un cambio aleatorio.

“Esto se ha utilizado muchísimo para aplicaciones en las que he estado involucrado, como la optimización de una red de distribución de potencia eléctrica en Chile; el diseño del marco de una motocicleta en Colombia; y el diseño de jetssupersónicos de negocios en Stanford, Estados Unidos. En general, ha sido usado mucho en problemas de ingeniería, aeronáutica, ingeniería estructural y recientemente ha tenido diversas aplicaciones en bioinformática, diseño de fármacos y en todas las áreas del conocimiento”, apuntó el investigador.v

Comparte tu opinión sobre este artículo

Comentarios

Related Posts

LFTI, investigación y desarrollo de nuevos fármacos

4 abril, 2016

4 abril, 2016

AUTOR: Carmen Báez FUENTE: AGENCIA INFORMATIVA CONACYT Ciudad de México. (Agencia Informativa Conacyt).- El Laboratorio de Farmacología, Toxicología e Inmunomoduladores (LFTI) de...

Patenta universidad mexicana algoritmo que eficienta la transmisión y almacenamiento de imágenes digitales

15 agosto, 2016

15 agosto, 2016

FUENTE: AGENCIA ID Se trata de la primera patente otorgada a la Universidad Autónoma de Ciudad Juárez, y ha despertado...

Destaca talento infantil en robótica

23 mayo, 2016

23 mayo, 2016

AUTOR: Israel Pérez FUENTE: AGENCIA INFORMATIVA CONACYT Santiago de Querétaro, Querétaro.  (Agencia Informativa Conacyt).- Con el objetivo de crear innovaciones tecnológicas que...

Crea IPN bebida fermentada de agave

14 agosto, 2017

14 agosto, 2017

Por Érika Rodríguez Zacatecas, Zacatecas. (Agencia Informativa Conacyt).- En la Unidad Profesional Interdisciplinaria de Ingeniería, campus Zacatecas, del Instituto Politécnico...

Centro de Diseño de Intel en México

7 abril, 2016

7 abril, 2016

AUTOR: Erika Socorro Rodríguez FUENTE: AGENCIA INFORMATIVA CONACYT   Zacatecas, Zacatecas. 28 de marzo de 2016 (Agencia Informativa Conacyt).- Jesús Palomino Echartea...

Diseña UAQ prótesis de bajo costo

2 agosto, 2016

2 agosto, 2016

AUTOR: Israel Pérez FUENTE: AGENCIA INFORMATIVA CONACYT Santiago de Querétaro, Querétaro.  (Agencia Informativa Conacyt).- Pensando en ofrecer alternativas económicas para personas de...

Premian a investigador del Cinvestav por sus avances en fármacos de nueva generación

13 febrero, 2018

13 febrero, 2018

Recibirá 2 millones 100 mil pesos para el desarrollo del proyecto que busca inhibir herpes y adenovirus Mediante el estudio...

Diseño digital para aprendizaje de la patología clínica veterinaria

7 octubre, 2018

7 octubre, 2018

Por Dalia Patiño González Puebla, Puebla.  (Agencia Informativa Conacyt).- Mónica Vigil Nader, alumna del noveno semestre de la carrera de diseño...

Convierten desperdicio de viñedos en cremas anti envejecimiento

16 junio, 2016

16 junio, 2016

FUENTE: AGENCIA ID El orujo tiene la capacidad de reparar células dañadas por la radiación solar y el cuidado de la...

Norma Orozco, una mente emprendedora en constante movimiento

11 febrero, 2016

11 febrero, 2016

AUTOR: YURELI CACCHO FUENTE:  Agencia Informativa CONACYT   México, DF. 9 de febrero de 2016 (Agencia Informativa Conacyt).- La ingeniera en...

Diseñan motor eléctrico para embarcaciones

18 julio, 2016

18 julio, 2016

Crédito: Wikicommons. AUTOR: Roxana de León FUENTE: AGENCIA INFORMATIVA CONACYT San Luis Potosí, San Luis Potosí.  (Agencia Informativa Conacyt).- El proyecto fue denominado Motor...

Con investigación integral, emprendedores de la UNAM dirigen empresas hacia el éxito

21 noviembre, 2016

21 noviembre, 2016

Ofrecen mejoras en propuestas de valor y la calidad del producto que frene el fracaso de negocios Según datos de...

LAMMB, un esfuerzo para impulsar el desarrollo de la biotecnología en México

31 marzo, 2016

31 marzo, 2016

AUTOR:  Carmen Báez FUENTE:AGENCIA INFORMATIVA CONACYT Ciudad de México. 23 de marzo de 2016 (Agencia Informativa Conacyt).- Creados a partir de...

Inscríbete al Programa de Becas Unesco/República Popular de China-La Gran Muralla

19 mayo, 2016

19 mayo, 2016

AUTOR: Mercedes López FUENTE:  AGENCIA INFORMATIVA CONACYT   Ciudad de México.  (Agencia Informativa Conacyt).- Promover que estudiantes universitarios y de posgrado realicen...

Identificarán derrames de hidrocarburos mediante análisis de imágenes satelitales

23 diciembre, 2016

23 diciembre, 2016

Tepic, Nayarit. 30 de noviembre de 2016 (Agencia Informativa Conacyt).- El doctor Juan Pablo Rivera Caicedo, especialista en percepción remota, del...