Artículo de Salvador D. Escobedo
Actualmente estamos habituados al término “inteligencia artificial”, y hablamos de “ingeniería en inteligencia artificial”, “sistemas de inteligencia artificial”, etc. Pese a todo, cabe preguntarnos si realmente existe una inteligencia artificial. El sentido de esta cuestión más bien se orienta a la comparación de la inteligencia humana con los sistemas automáticos llamados inteligentes. ¿Es posible que una máquina sea más inteligente que un hombre? ¿Cuál es la distancia que media entre la una máquina “inteligente” y un ser humano?
Para abordar la cuestión de manera correcta, debemos tener primero una idea de qué es la inteligencia y en qué consiste la “inteligencia artificial”. Respecto a esto existen varias respuestas. Una de ellas es la llamada prueba de Turing. El doctor Carlos Gershenson, la expone de la manera siguiente: “Si no podemos comprender el funcionamiento de nuestra inteligencia, sólo podemos juzgar la inteligencia a partir de las acciones. Turing (1950) propuso una prueba para determinar la inteligencia en una máquina. Simplificando, sería esta: una persona interroga a un hombre y a una máquina, los cuales están aislados del interrogador. Si el interrogador confunde a la máquina con un hombre, esta máquina es inteligente. Nótese que no importa cómo funcione la máquina, con tal de que reproduzca el comportamiento humano” (Gershenson, 2001).
El problema con este punto de vista es que no nos dice qué es la inteligencia; si una máquina se comporta igual que un ser inteligente (un humano), es claro que o está guiada por una inteligencia o ella misma es inteligente, pero ello no responde a nuestra pregunta. En el criterio de Turing se nos dice cómo podemos saber si una máquina se porta de manera inteligente, pero no nos dice en qué consiste la inteligencia. Por lo demás, esta prueba implica que la persona que habla con la máquina, está evaluando –por lo menos de manera inconsciente– el nivel intelectual de su interlocutor, y que por lo tanto posee algún criterio para evaluarlo. Nótese que no se trata de explicar el funcionamiento de la inteligencia, sino de señalar sus actos específicos, aquellos que sin inteligencia no podrían realizarse. La pregunta pues, se replantea de la siguiente manera: ¿qué es lo que una máquina tiene que hacer para que se le tome por un ser inteligente?
Ahora bien, ¿existe un criterio universal para evaluar la inteligencia o se trata de algo relativo o incluso subjetivo? “…basándonos en las ideas del Dr. Mario Lagunez, podemos decir que para que un sistema (hombre, animal, máquina) sea considerado inteligente, éste tiene que realizar una acción. Después, una tercera persona juzga si la acción fue ejecutada de una forma inteligente o no. Como vemos, un sistema puede ser inteligente para algunos y para otros no. No importa. Lo que queremos dejar claro es que la inteligencia es percibible sólo en el comportamiento de los sistemas. La inteligencia no se tiene, se exhibe.” (Gershenson, 2001) Lo cual es bastante cierto, pues como de costumbre estaríamos conociendo la causa por medio de sus efectos.
El problema con este punto de vista es que no ofrece un criterio para distinguir cuándo un comportamiento inteligente nos revela la existencia de una inteligencia propia. Una marioneta puede comportarse inteligentemente, pero la marioneta no es inteligente. En gran medida muchos sistemas artificiales “inteligentes”, son como marionetas tecnológicas, y es a otro al que debemos atribuir esa inteligencia, y no al sistema mismo.
Por lo tanto, para que un sistema sea inteligente, no sólo debe realizar acciones inteligentes, sino también debe ser intelectualmente autónomo, es decir, debe “pensar” por sí mismo, no solamente ejecutar instrucciones.
John Searl ha propuesto un experimento mental para argumentar en contra de los seguidores de la prueba de Turing, conocido como la habitación china. “Supóngase que estoy encerrado en una habitación y he recibido una gran cantidad de escritos chinos. Supóngase además (como ciertamente lo es en este caso) que no sé chino, ni hablado ni escrito, y que ni siquiera puedo distinguir entre la escritura china de otra forma de escritura diferente, como digamos, japonés o dibujillos sin significado. Para mí, la escritura china es como dibujitos sin sentido. Ahora, supongamos que junto con el primer grupo de escritos en chino, recibo otro grupo de escritos, también en chino, junto con un conjunto de reglas que correlacionan a ambos grupos de escritos entre sí. Las reglas están en inglés, y yo entiendo estas reglas tan bien como cualquier otro cuyo idioma natal sea el inglés. Se me permite correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y lo que aquí significa “formal” es que puedo identificar los símbolos únicamente por su forma. Ahora supóngase que recibo un tercer grupo de escritos en chino, junto con algunas instrucciones, también en inglés, que me permiten correlacionar los elementos de este tercer grupo con los dos anteriores, y estas instrucciones me dicen cómo devolver ciertos símbolos chinos con cierto tipo de forma, en respuesta a ciertos símbolos con determinadas formas dados en el tercer grupo de escritos. Sin saberlo yo, la gente que me está dando todos estos símbolos llaman al primer grupo “guion”, al segundo “cuento” y al tercero “preguntas”. Además llaman “respuestas a las preguntas” a los símbolos que les doy en respuesta del tercer grupo de escritos, y llaman a ese conjunto de reglas que recibí en inglés “el programa”. Ahora, sólo para complicar un poco más la historia, imaginemos que esta gente también me da historias en inglés, que yo entiendo, y ellos entonces me hacen preguntas en inglés acerca de esas historias, y yo doy respuestas en inglés. Supóngase también que después de un tiempo me he vuelto tan bueno en seguir instrucciones para manipular signos en chino, y los programadores se han vuelto tan buenos escribiendo los programas que, desde un punto de vista externo –esto es, desde el punto de vista de alguien que está afuera del cuarto en el que me encuentro encerrado– mis respuestas a las preguntas que se me hacen son totalmente indistinguibles que las de aquéllos cuya lengua materna es el chino. Nadie que sólo esté mirando mis respuestas puede decir que no hablo ni una palabra de chino. Vamos a suponer también que mis respuestas en inglés son –como no hay duda que lo serían– indiscernibles de las de aquéllos cuya lengua materna es el inglés, por la simple razón que soy un hablante nativo del inglés. Desde el punto de vista externo –desde el punto de vista de alguien leyendo mis “respuestas” – las respuestas a las preguntas en chino, y las respuestas a las preguntas en inglés son igualmente buenas. Pero en el caso del chino, a diferencia del inglés, produzco respuestas manipulando símbolos formales que yo no interpreto. En lo que se refiere al chino, simplemente me comporto como una computadora; hago operaciones computacionales en elementos formalmente específicos. Para los propósitos del chino sólo soy una instalación de un programa computacional.” (Searle, 1980)
El recién citado filósofo ha puesto de manifiesto la diferencia entre pensar por sí mismo y sólo seguir una serie de instrucciones. Un sistema de inteligencia artificial puede mostrarse inteligente –eso no lo ponemos en duda–, muchos aparatos modernos nos lo han mostrado (recuérdese a Blue Deep de IBM que derrotó al campeón mundial de ajedrez Gary Kaspárov o a los actuales asistentes tipo Siri que pueden sostener una conversación y un diálogo con un interlocutor humano). El cuestionamiento sobre si la inteligencia artificial existe como verdadera inteligencia, lo debemos enfocar al aspecto de la autonomía. ¿Son esos sistemas tan autónomos que su comportamiento inteligente se lo podamos atribuir a ellos mismos y no a sus creadores? ¿En última instancia, las decisiones que toman, las toman ellos mismos, o son prejuzgadas por el fabricante del sistema? Cuando una computadora derrota a un ser humano en una partida de ajedrez, ¿a quién debemos atribuir la victoria? ¿a la máquina, que sólo sigue ciegamente instrucciones o a los programadores que previendo casos generales de jugadas dieron inteligentemente esas instrucciones?
Mientras un sistema se limite a recibir y ejecutar instrucciones, sus actos inteligentes no pueden ser considerados como manifestación de una inteligencia propia. Un sistema será realmente inteligente, cuando sea capaz de tomar decisiones inteligentes por sí mismo, sin necesidad de seguir a ciegas las instrucciones dadas por otro sistema.
Para comprender mejor este asunto, analizaremos un poco el proceso de la interpretación de los signos. Tal proceso se conoce con el nombre de semiosis. Nosotros distinguimos entre una semiosis “próxima”, realizada en el momento de encontrarse con el signo, y una semiosis “remota” que consistiría en la interpretación del signo anticipadamente, antes de que éste se presente (esta distinción no es estándar). Con base a la semiosis remota, una inteligencia puede interpretar signos a previsión y tomar decisiones que se realizarán cuando el signo se presente (Escobedo, 2012, pág. 149).
Así por ejemplo, un “edificio inteligente” que realiza una serie de procedimientos al reconocer los signos de un incendio (como emisiones de humo, aumento de temperatura, etc), no es en realidad quien interpreta esos signos, sino los ingenieros que crearon el sistema, quienes dieron a esos signos una interpretación anticipada (semiosis remota, según nuestra sugerida distinción), y en razón de ello determinaron que el edificio reaccionara de cierta manera.
En suma, un sistema es inteligente cuando sus acciones son inteligentes y además son, en última instancia, decididas por el sistema mismo, y no por un sistema externo. Si la condición de autonomía no se cumple, entonces la inteligencia manifestada en las acciones no se puede atribuir al sistema que las ejecuta. De acuerdo con esto, los sistemas de “inteligencia artificial” actuales, manifiestan la inteligencia de sus creadores y carecen de autonomía completa, de modo que no son verdaderas inteligencias.
Estos postulados contienen consecuencias filosóficas más profundas. Si una inteligencia verdadera debe ser autónoma, en el sentido de ser independiente de instrucciones recibidas del exterior, entonces ello implica que podrá decidir por sí misma, y que por lo tanto tendrá libre arbitrio. Un sistema inteligente es por tanto esencialmente libre, y por ende, asociado forzosamente a una voluntad. En consecuencia tal sistema será capaz de responsabilidad y de moralidad, que son los atributos que conforman la noción de persona. Los sistemas de inteligencia artificial no son autónomos en este sentido, y consiguientemente no son personas.
Referencias
Escobedo, S. D. (2012). Teoría de los entes. Guadalajara Jalisco: Temacilli.
Gershenson, C. (2001). Filosofía de la mente y de la Inteligencia artificial. Recuperado el 29 de 11 de 2013, de http://turing.iimas.unam.mx/~cgg/jlagunez/filosofia/FilosofiaDeLaMente.htm
Searle, J. R. (1980). Minds, Brains, and Programs en The Behavioral and Brain Sciences, vol 3. Cambridge University Press. [La traducción es mía]
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, LIX (236), pp. 433-460