23.6 C
Puebla
jueves, abril 25, 2024

Cartas al Mercurio

Más leídas

Muy estimado editor, 

 

Muchas gracias por el número más reciente de la revista Mercurio Volante y, en particular, por el artículo de Mario de la Piedra Walter: ¿En qué piensan las máquinas? La diferencia entre conciencia e inteligencia artificial. 

Disfruté bastante la lectura del artículo, si bien creo que el autor omitió un par de puntos. El primero es histórico, aunque esta historia no es del todo conocida por la mayoría de los investigadores del área.

Como todas las ramas de la ciencia, la inteligencia artificial (IA) ha tenido sus altas y bajas. En particular, durante un debate en 1984, Roger Schank y Marvin Minsky bautizaron a las crisis de la IA con nombre bastante poético: “inviernos IA”, en similitud con la teoría del invierno nuclear tan de moda en esos tiempos. Así, la primera omisión fue el no comentar como la IA ha florecido después de sus crisis, pues en verdad ha sido una lucha cuesta arriba para recuperarse de las caídas.  

Tengo muy marcado en mi memoria el segundo “invierno IA”, pues ingresé a estudiar en el Cinvestav en plena crisis de la IA. De hecho, en 2005, John Markoff escribió para el New York Times el artículo: “Behind Artificial Intelligence, a Squadron of Bright Real People”, en donde comenta textualmente: “At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers. En particular, lo más controversial del segundo “invierno IA” fue el fracaso de los sistemas expertos para resolver muchos problemas de la IA. 

Solo para completar el tema, un sistema experto es un algoritmo que resuelve problemas comparando la información entrante contra un conjunto de instrucciones (guardadas en la memoria) que le guía a través de la toma de decisiones. La forma más simple de un sistema experto es un diagrama de flujo. Estos sistemas fallaron pues son difíciles de actualizar y no pueden aprender por si mismos. Por ejemplo, cuando se intentó programar traductores automáticos usando solamente las reglas gramaticales de los idiomas involucrados, el resultado fue desastroso. 

Aquí es en donde quiero comentar la segunda omisión hecha por el autor. El cuarto chino, tal y como lo describió John Searle, es un sistema experto, pues el libro que contiene el programa no puede ser reescrito. Si tal cuarto chino fuera una red neuronal dinámica, la persona dentro del cuarto podría reescribir el libro de reglas durante el proceso de aprendizaje de la red neuronal; y por ende, ¿la persona dentro del cuarto no empezaría a entender algunos aspectos del Mandarín al reescribir el libro de reglas durante el proceso de aprendizaje? 

 

Atentamente: 

 

° °°° ||°° ||||| |° 

Eduardo S. Zeron 

Depto. de Matemáticas 

Cinvestav del IPN

Más artículos

Últimas noticias