Artículo de Sampedro sobre Inteligencia Artificial y su desarrollo.
Destaco:
El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.
Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.
Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.
ARTÍCULO:
¿Cuándo deberemos considerar inteligente a un ordenador? ¿Cuando lo parezca? Ese es el famoso test de Turing para máquinas presuntamente pensantes, formulado en los años cincuenta por el matemático británico Alan Turing, uno de los grandes pioneros de las ciencias de la computación. Pero a todo el mundo le parecían inteligentes los jugadores de ajedrez hasta la aparición de Deep Blue. Y que este ingenio de IBM igualara a Gary Kaspárov ha hecho más por empeorar la imagen de los ajedrecistas que por mejorar la de los ordenadores.
Sin embargo, las máquinas ya hacen ciencia en varios sentidos. Un especialista en cáncer no podría seguir la literatura relevante para su campo ni aunque no hiciera otra cosa en todo el día: ahora mismo son dos millones de papers (artículos en revistas científicas revisadas por pares) y 200 millones de webs. Los ordenadores llevan tiempo siendo esenciales para analizar esos datos.
Pero los nuevos programas utilizan los avances de la inteligencia artificial y empiezan a trascender del análisis a la hipótesis. Las máquinas sí pueden leer toda la literatura relevante, y la integran con los datos experimentales, buscando pautas y relaciones lógicas.
Los científicos han utilizado estas ayudas computacionales en la investigación de fármacos, la asignación de funciones a los miles de nuevos genes que salen a diario de los secuenciadores de ADN, la identificación de todos los elementos de una ruta de reacciones metabólicas, y la detección de inconsistencias lógicas en un argumento.
Los ordenadores ya se hacen preguntas como: ¿qué idea no se les ha ocurrido a los especialistas en este campo? A veces el concepto clave está en otra disciplina científica distinta. Los últimos programas utilizan los avances de la inteligencia artificial para formular nuevas hipótesis sobre el sistema.
La mera idea de que las máquinas puedan formular hipótesis habría hecho derramar todos los cafés del Círculo de Viena, el selecto grupo de científicos y filósofos de la ciencia -Carnap, Gödel, Ayer, Reichenbach- que formuló en los años veinte el empirismo lógico, o neopositivismo. Su nombre completo era Círculo de Viena para la Concepción Científica del Mundo.
Según uno de sus miembros más destacados, el filósofo Hans Reichenbach -que murió cuando se descubrió la doble hélice-, se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla. Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.
Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema. Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?
"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago. "Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones".
Evans y su colega Andrey Rzhetsky publican en el último número de Science un análisis titulado Machine science (ciencia de máquina), que sostiene que los ordenadores van a generar pronto "muchas hipótesis útiles con poca ayuda de los humanos". La especialidad académica de Evans es investigar cómo la lógica institucional y sus redes con la industria y el Gobierno conducen a una evolución desigual de la frontera y los beneficios de la ciencia.
"Pero supongamos", prosigue el sociólogo de Chicago, "que al ordenador no solo le alimentamos con una serie de patrones -como el anillo del benceno-, sino también con la lógica para descubrir nuevos patrones. Por ejemplo, la persistencia del patrón dentro de un dominio, o su frecuencia a través de varios dominios. Entonces el ordenador puede identificar una amplia gama de tipos de patrones, muchos de ellos no previstos por el programador".
En este sentido, Evans cree que incluso Kekulé se quedó corto. "Imaginemos que Kekulé, después de descubrir el anillo del benceno, hubiera dedicado un esfuerzo similar para generalizar su descubrimiento. No solo a considerar otras clases de moléculas con una estructura similar, sino también cualquier tipo de estructuras arbitrarias de la que se conocen los ingredientes pero no la geometría".
Si los ordenadores están listos para trascender el sueño de Kekulé -y con él la última concesión de Reichenbach a la intervención humana en la investiga-ción-, ¿qué van a hacer los científicos a partir de ahora? "La generación de hipótesis por ordenador", dice Evans, "invita a los científicos a reconsiderar su filosofía de la ciencia: ver cuáles son las reglas de descubrimiento más fructíferas, y explotarlas a fondo si son robustas. Van a cambiar el papel del científico de buscar relaciones concretas a buscar cuáles son los métodos de descubrimiento más fructíferos, los que podrían revelar automáticamente dichas relaciones concretas".
¿Cómo puede una máquina encontrar una pauta que no está buscando? "Hay dos clases de generación automática de hipótesis", responde Evans. "El primero supone una lógica preestablecida de los conceptos y las relaciones dentro de un campo concreto. El científico conoce el patrón que busca (por ejemplo, un gen se activa o inhibe otro), y luego usa la computadora para ayudarle a rastrear a través de una gran base de datos en busca de descubrimientos. Este tipo de descubrimiento se asemeja a la búsqueda de un nuevo elemento para llenar los agujeros en la tabla periódica de Mendeléiev".
Las levaduras sintetizan tres compuestos esenciales (aminoácidos) mediante una red de 25 reacciones químicas interconectadas, cada una catalizada por una proteína. Cada proteína está codificada por un gen, y cada gen se puede inactivar mediante una mutación. Una levadura mutante es incapaz de multiplicarse en un medio de cultivo, a menos que se le facilite el producto de la reacción química que le falta (o de una reacción posterior).
Un robot programado por Ross King, de la Universidad de Gales, resuelve este tipo de rompecabezas con la misma eficacia que los mejores licenciados humanos en biología y ciencias de la computación. Basta suministrar al robot los reactivos, las 25 cepas mutantes y unos conocimientos básicos sobre el metabolismo de las levaduras para que la máquina descubra la función de los 25 genes.
"Huelga decir que ese enfoque puede descubrir muchas cosas nuevas", admite Evans, "pero por lo general es algo que los investigadores ya estaban buscando. Hay, sin embargo, un segundo tipo de generadores automáticos de hipótesis. Las estrategias de este segundo tipo han supuesto el descubrimiento -o invención- de conceptos nuevos de alto o bajo nivel. Por ejemplo, en vías metabólicas y sistemas sociales".
Evans explica que los nuevos conceptos trabajan juntos por la integración en un sistema más amplio, "y en su correlación con otras clases importantes de conceptos, como la enfermedad. El término más utilizado actualmente es el de grano grueso y las unidades descubiertas pueden ser bastante nuevas y a menudo inesperadas".
El grano grueso es un concepto tomado de la física. La temperatura de un cazo de agua es una descripción de grano grueso. La de grano fino consistiría en censar la agitación de todas las moléculas de agua que contiene el cazo (lo que tiene el inconveniente de ser imposible). La temperatura mide el promedio de todas esas agitaciones individuales: una descripción de grano grueso, no sólo posible sino también muy útil, y tan precisa como se quiera.
Los programas actuales pueden identificar la estructura de grano grueso de un sistema, o de cualquier conjunto de cosas. Por ejemplo, el conjunto de conceptos establecidos en medicina interna. De cerca, no es más que una lista de conceptos. Pero vistos con cierta perspectiva -a grano gordo-, la lista puede tener estructura, con grumos de conceptos, o "agregados que forman conceptos de mayor nivel", como escriben en Science los dos investigadores.
En patología y epidemiología, los nuevos programas han podido identificar parecidos regulares entre algunos de esos grumos de conceptos. Aun sin saber a qué se deben esas similitudes de grano grueso, su mera existencia ha resultado un criterio muy útil para restringir drásticamente el número de hipótesis viables sobre la causa de una enfermedad o la evolución de una epidemia.
Evans ve más interesantes "los enfoques automatizados para el descubrimiento de nuevas relaciones, a veces en forma de ecuaciones. Estos sistemas revelan las complejas relaciones que hay entre los elementos dentro de un sistema. Estos enfoques empiezan rastreando al azar las relaciones posibles, pero luego restringen las que deben considerarse más a fondo a aquellas relaciones que integran todo el sistema físico, biológico o social. Creo que el descubrimiento computacional de nuevos conceptos y relaciones pueden permitir a los científicos descubrir algo incluso cuando no lo están buscando".
El año pasado, la Asociación para el Avance de la Inteligencia Artificial reunió a una élite de científicos de la computación para discutir la necesidad de poner límites a la investigación en inteligencia artificial y robótica. Una de sus preocupaciones es que puedan conducir a la pérdida de control humano sobre las máquinas. Algunas son de guerra, como los zánganos predadores, unas avionetas autónomas que sobrevuelan y atacan por su cuenta; otras abren puertas y buscan enchufes para recargarse a sí mismas o rastrean un territorio como las abejas.
Otra preocupación es precisamente que el avance de la inteligencia artificial transforme de modo drástico el mercado laboral, dado que los robots ya no solo se encargan de tareas rutinarias, como las cadenas de montaje, sino también de quehaceres intelectuales como la ciencia.
Los robots actuales no solo incorporan dispositivos avanzados de visión, oído y tacto, sino que también pueden seguir un rastro olfativo, y ello pese a que las pistas olfativas del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena. Las trayectorias de estos rastreadores artificiales recuerdan mucho a una polilla buscando pareja. Las polillas buscan pareja siguiendo el rastro de las feromonas.
La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.
El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer). La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza.
En los dispositivos controlados por el cerebro -como las actuales prótesis mecánicas-, las señales emitidas por las neuronas deben ser interpretadas, o descodificadas, por un ordenador antes de poder ser leídas por el miembro artificial. La función del ordenador es predecir los movimientos que el usuario quiere ejecutar. Los fallos en esos sistemas de predicción suscitan problemas similares a los que se plantea la industria del automóvil respecto a los dispositivos automáticos de conducción, y que son una de las mayores barreras prácticas a su desarrollo industrial: en caso de accidente, ¿tuvo la culpa el hombre o la máquina?