¿Qué tan inteligente es la “inteligencia artificial”?

Artículo de Salvador D. Escobedo

Golden people robots

Foto de epSos (Flickr Creative Commons).

Actualmente estamos habituados al término “inteligencia artificial”, y hablamos de “ingeniería en inteligencia artificial”, “sistemas de inteligencia artificial”, etc. Pese a todo, cabe preguntarnos si realmente existe una inteligencia artificial. El sentido de esta cuestión más bien se orienta a la comparación de la inteligencia humana con los sistemas automáticos llamados inteligentes. ¿Es posible que una máquina sea más inteligente que un hombre? ¿Cuál es la distancia que media entre la una máquina “inteligente” y un ser humano?

Para abordar la cuestión de manera correcta, debemos tener primero una idea de qué es la inteligencia y en qué consiste la “inteligencia artificial”. Respecto a esto existen varias respuestas. Una de ellas es la llamada prueba de Turing. El doctor Carlos Gershenson, la expone de la manera siguiente: “Si no podemos comprender el funcionamiento de nuestra inteligencia, sólo podemos juzgar la inteligencia a partir de las acciones. Turing (1950) propuso una prueba para determinar la inteligencia en una máquina. Simplificando, sería esta: una persona interroga a un hombre y a una máquina, los cuales están aislados del interrogador. Si el interrogador confunde a la máquina con un hombre, esta máquina es inteligente. Nótese que no importa cómo funcione la máquina, con tal de que reproduzca el comportamiento humano” (Gershenson, 2001).

El problema con este punto de vista es que no nos dice qué es la inteligencia; si una máquina se comporta igual que un ser inteligente (un humano), es claro que o está guiada por una inteligencia o ella misma es inteligente, pero ello no responde a nuestra pregunta. En el criterio de Turing se nos dice cómo podemos saber si una máquina se porta de manera inteligente, pero no nos dice en qué consiste la inteligencia. Por lo demás, esta prueba implica que la persona que habla con la máquina, está evaluando –por lo menos de manera inconsciente– el nivel intelectual de su interlocutor, y que por lo tanto posee algún criterio para evaluarlo. Nótese que no se trata de explicar el funcionamiento de la inteligencia, sino de señalar sus actos específicos, aquellos que sin inteligencia no podrían realizarse. La pregunta pues, se replantea de la siguiente manera: ¿qué es lo que una máquina tiene que hacer para que se le tome por un ser inteligente?

Ahora bien, ¿existe un criterio universal para evaluar la inteligencia o se trata de algo relativo o incluso subjetivo? “…basándonos en las ideas del Dr. Mario Lagunez, podemos decir que para que un sistema (hombre, animal, máquina) sea considerado inteligente, éste tiene que realizar una acción. Después, una tercera persona juzga si la acción fue ejecutada de una forma inteligente o no. Como vemos, un sistema puede ser inteligente para algunos y para otros no. No importa. Lo que queremos dejar claro es que la inteligencia es percibible sólo en el comportamiento de los sistemas. La inteligencia no se tiene, se exhibe.” (Gershenson, 2001) Lo cual es bastante cierto, pues como de costumbre estaríamos conociendo la causa por medio de sus efectos.

El problema con este punto de vista es que no ofrece un criterio para distinguir cuándo un comportamiento inteligente nos revela la existencia de una inteligencia propia. Una marioneta puede comportarse inteligentemente, pero la marioneta no es inteligente. En gran medida muchos sistemas artificiales “inteligentes”, son como marionetas tecnológicas, y es a otro al que debemos atribuir esa inteligencia, y no al sistema mismo.

Por lo tanto, para que un sistema sea inteligente, no sólo debe realizar acciones inteligentes, sino también debe ser intelectualmente autónomo, es decir, debe “pensar” por sí mismo, no solamente ejecutar instrucciones.

chinese characters

Foto de Kevin Dooley (Flickr Creative Commons).

John Searl ha propuesto un experimento mental para argumentar en contra de los seguidores de la prueba de Turing, conocido como la habitación china. “Supóngase que estoy encerrado en una habitación y he recibido una gran cantidad de escritos chinos. Supóngase además (como ciertamente lo es en este caso) que no sé chino, ni hablado ni escrito, y que ni siquiera puedo distinguir entre la escritura china de otra forma de escritura diferente, como digamos, japonés o dibujillos sin significado. Para mí, la escritura china es como dibujitos sin sentido. Ahora, supongamos que junto con el primer grupo de escritos en chino, recibo otro grupo de escritos, también en chino, junto con un conjunto de reglas que correlacionan a ambos grupos de escritos entre sí. Las reglas están en inglés, y yo entiendo estas reglas tan bien como cualquier otro cuyo idioma natal sea el inglés. Se me permite correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y lo que aquí significa “formal” es que puedo identificar los símbolos únicamente por su forma. Ahora supóngase que recibo un tercer grupo de escritos en chino, junto con algunas instrucciones, también en inglés, que me permiten correlacionar los elementos de este tercer grupo con los dos anteriores, y estas instrucciones me dicen cómo devolver ciertos símbolos chinos con cierto tipo de forma, en respuesta a ciertos símbolos con determinadas formas dados en el tercer grupo de escritos. Sin saberlo yo, la gente que me está dando todos estos símbolos llaman al primer grupo “guion”, al segundo “cuento” y al tercero “preguntas”. Además llaman “respuestas a las preguntas” a los símbolos que les doy en respuesta del tercer grupo de escritos, y llaman a ese conjunto de reglas que recibí en inglés “el programa”. Ahora, sólo para complicar un poco más la historia, imaginemos que esta gente también me da historias en inglés, que yo entiendo, y ellos entonces me hacen preguntas en inglés acerca de esas historias, y yo doy respuestas en inglés. Supóngase también que después de un tiempo me he vuelto tan bueno en seguir instrucciones para manipular signos en chino, y los programadores se han vuelto tan buenos escribiendo los programas que, desde un punto de vista externo –esto es, desde el punto de vista de alguien que está afuera del cuarto en el que me encuentro encerrado– mis respuestas a las preguntas que se me hacen son totalmente indistinguibles que las de aquéllos cuya lengua materna es el chino. Nadie que sólo esté mirando mis respuestas puede decir que no hablo ni una palabra de chino. Vamos a suponer también que mis respuestas en inglés son –como no hay duda que lo serían– indiscernibles de las de aquéllos cuya lengua materna es el inglés, por la simple razón que soy un hablante nativo del inglés. Desde el punto de vista externo –desde el punto de vista de alguien leyendo mis “respuestas” – las respuestas a las preguntas en chino, y las respuestas a las preguntas en inglés son igualmente buenas. Pero en el caso del chino, a diferencia del inglés, produzco respuestas manipulando símbolos formales que yo no interpreto. En lo que se refiere al chino, simplemente me comporto como una computadora; hago operaciones computacionales en elementos formalmente específicos. Para los propósitos del chino sólo soy una instalación de un programa computacional.” (Searle, 1980)

Tesla Motors assembly line

Línea de ensamblaje automatizada en Tesla Motors. Foto de Steve Jurvetson (Flickr Creative Commons).

El recién citado filósofo ha puesto de manifiesto la diferencia entre pensar por sí mismo y sólo seguir una serie de instrucciones. Un sistema de inteligencia artificial puede mostrarse inteligente –eso no lo ponemos en duda–, muchos aparatos modernos nos lo han mostrado (recuérdese a Blue Deep de IBM que derrotó al campeón mundial de ajedrez Gary Kaspárov o a los actuales asistentes tipo Siri que pueden sostener una conversación y un diálogo con un interlocutor humano). El cuestionamiento sobre si la inteligencia artificial existe como verdadera inteligencia, lo debemos enfocar al aspecto de la autonomía. ¿Son esos sistemas tan autónomos que su comportamiento inteligente se lo podamos atribuir a ellos mismos y no a sus creadores? ¿En última instancia, las decisiones que toman, las toman ellos mismos, o son prejuzgadas por el fabricante del sistema? Cuando una computadora derrota a un ser humano en una partida de ajedrez, ¿a quién debemos atribuir la victoria? ¿a la máquina, que sólo sigue ciegamente instrucciones o a los programadores que previendo casos generales de jugadas dieron inteligentemente esas instrucciones?

Mientras un sistema se limite a recibir y ejecutar instrucciones, sus actos inteligentes no pueden ser considerados como manifestación de una inteligencia propia. Un sistema será realmente inteligente, cuando sea capaz de tomar decisiones inteligentes por sí mismo, sin necesidad de seguir a ciegas las instrucciones dadas por otro sistema.

Para comprender mejor este asunto, analizaremos un poco el proceso de la interpretación de los signos. Tal proceso se conoce con el nombre de semiosis. Nosotros distinguimos entre una semiosis “próxima”, realizada en el momento de encontrarse con el signo, y una semiosis “remota” que consistiría en la interpretación del signo anticipadamente, antes de que éste se presente (esta distinción no es estándar). Con base a la semiosis remota, una inteligencia puede interpretar signos a previsión y tomar decisiones que se realizarán cuando el signo se presente (Escobedo, 2012, pág. 149).

Así por ejemplo, un “edificio inteligente” que realiza una serie de procedimientos al reconocer los signos de un incendio (como emisiones de humo, aumento de temperatura, etc), no es en realidad quien interpreta esos signos, sino los ingenieros que crearon el sistema, quienes dieron a esos signos una interpretación anticipada (semiosis remota, según nuestra sugerida distinción), y en razón de ello determinaron que el edificio reaccionara de cierta manera.

L'espace internet

Espacio internet en el Museo de la Comunicación, Berlín. Foto de Jean-Pierre Dalbéra (Flickr creative Commons).

En suma, un sistema es inteligente cuando sus acciones son inteligentes y además son, en última instancia, decididas por el sistema mismo, y no por un sistema externo. Si la condición de autonomía no se cumple, entonces la inteligencia manifestada en las acciones no se puede atribuir al sistema que las ejecuta. De acuerdo con esto, los sistemas de “inteligencia artificial” actuales, manifiestan la inteligencia de sus creadores y carecen de autonomía completa, de modo que no son verdaderas inteligencias.

Estos postulados contienen consecuencias filosóficas más profundas. Si una inteligencia verdadera debe ser autónoma, en el sentido de ser independiente de instrucciones recibidas del exterior, entonces ello implica que podrá decidir por sí misma, y que por lo tanto tendrá libre arbitrio. Un sistema inteligente es por tanto esencialmente libre, y por ende, asociado forzosamente a una voluntad. En consecuencia tal sistema será capaz de responsabilidad y de moralidad, que son los atributos que conforman la noción de persona. Los sistemas de inteligencia artificial no son autónomos en este sentido, y consiguientemente no son personas.

Referencias

Escobedo, S. D. (2012). Teoría de los entes. Guadalajara Jalisco: Temacilli.

Gershenson, C. (2001). Filosofía de la mente y de la Inteligencia artificial. Recuperado el 29 de 11 de 2013, de http://turing.iimas.unam.mx/~cgg/jlagunez/filosofia/FilosofiaDeLaMente.htm

Searle, J. R. (1980). Minds, Brains, and Programs en The Behavioral and Brain Sciences, vol 3. Cambridge University Press. [La traducción es mía]

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, LIX (236), pp. 433-460

Advertisements

7 thoughts on “¿Qué tan inteligente es la “inteligencia artificial”?

  1. Muy interesante articulo para reflexionar sobre lo que es verdaderamente inteligente. Creo que el bombardeo de medios y el marketing nos esta dejando sin inteligencia; sin esa capacidad real de decision.

  2. Muy interesante la información que presentas, me queda una duda: ¿Porqué consideras que la inteligencia es una acción inteligente? de acuerdo a tu texto surge la necesidad de definir cuales o que es una acción inteligente ya que postulas que la inteligencia es eso. La verdad no creo que la inteligencia deba ser definida en esos términos, pero me encantaría saber de donde partes para pensar así.

    • En realidad yo no afirmo que la inteligencia sea una acción, sino que la inteligencia se revela en las acciones del sujeto inteligente. Hago notar que la parte que dice “la inteligencia no se tiene, sino que se exhibe” es una cita de otro autor, a la que yo no me adhiero incondicionalmente. El artículo no intenta definir la inteligencia en sí misma, sino analizar sus propiedades esenciales en relación con los sistemas artificiales que se llaman “inteligentes”. Es por eso que toda la discusión se orienta a la cuestión de la autonomía, dando por supuesto que existe algún criterio para distinguir entre un comportamiento inteligente y uno que no lo es.
      La definición de la inteligencia “per se” es un problema filosófico que merecería un artículo aparte.
      Espero que esto resuelva tus dudas.

  3. Saludos,
    Muy bueno el planteamiento del artículo. Aunque quizá los entusiastas de la IA, entre los que no me incluyo, podrían argüir que respecto a la autonomía se podría considerar el hecho de que las máquinas programadas puedan eventualmente ir aprendiendo y desarrollando niveles autonómicos tal como lo hace el ser humano durante su desarrollo, ya que la autonomía es un concepto complicado y si bien se considera como la capacidad para darse reglas a uno mismo sin influencia externas o internas, los comportamientos “autonómicos “ o se atribuyen a una carga genética (que vendrían a ser como los programas de la máquina) o a un aprendizaje adquirido, y en ese sentido, igualmente el ser humano carece entonces de “autonomía completa”.
    Quizá, más que en la autonomía, sería la capacidad de entender por qué se decide o escoge algo lo que vendría a establecer la diferencia, y creo que a ese punto es al que apunta la propuesta de John Searl mencionada en el artículo y lo mencionado al final del artículo con respecto a la voluntad y libertad.

    • Hola Mery, interesantes observaciones. Ya esperaba que alguien objetara eso. Yo respondería lo siguente:

      La diferencia entre un niño que aprende y un sistema de inteligencia artificial que aprende, es que el primero comenzó a aprender por sí mismo, sin necesidad de seguir instrucciones dadas por un programador, mientras que el segundo sólo sigue los pasos de un algoritmo de aprendizaje dado por otra inteligencia (la del programador).
      Para instruir a un niño sólo se necesita instruirlo (y él decidirá si recibe la educación que se le da o no), mientras que para instruir a un sistema de inteligencia artificial se requiere primero programarlo, para que sea capaz de aprender, y luego instruirlo. Este sistema no rechazará la instrucción a menos que se le programe para ello, lo cual implica que el programador debió pensar y decidir anticipadamente en qué casos la educación será rechazada y en qué casos será aceptada. Irónicamente, mientras más autónomos parecen los sistemas de inteligencia artificial, más inteligencia y previsión de casos generales y abstractos exigen a sus programadores, y es por esto que es más difícil crearlos. Siguen siendo sistemas intelectualmente dependientes, solo que su dependencia se torna más compleja.

      Ahora bien, respecto a la independencia de la inteligencia humana, el artículo se refiere a que, en última instancia, él es el origen de sus decisiones inteligentes, sin haber detrás un programador. Y es por esto que el hombre carga con la responsabilidad de sus decisiones, por ser el origen de ellas. Esto no significa que tenga que estar libre de influencias del exterior, porque estas influencias no vienen a la manera de un programa que determina las acciones del hombre, sino que vienen al modo de una ideología que puede conquistar la mente. Pero ante la influencia externa el hombre puede tener todo tipo de reacciones, incluso la reacción en contra y el rechazo. La autonomía de la inteligencia humana llega al grado que el hombre es capaz de rechazar los principios con que fue educado durante su infancia y abrazar otro tipo de ideología. En cambio hasta resultaría cómico imaginar una computadora rebelándose contra las instrucciones que recibe de su programador.

      La posición reduccionista que pretende explicar toda la actividad intelectual humana por su carga genética es muy cuestionable. El hombre no admite los principios básicos del razonamiento, por ejemplo, porque algo interna e inconscientemente lo obligue a ello, sino porque de alguna manera –no importa cómo- es capaz de percibir su validez lógica. Un sistema de inteligencia artificial, en cambio, no percibe validez o invalidez, sino simplemente sigue las instrucciones de un programa para determinar si un argumento es lógicamente válido o no, y esto se realiza según el criterio del programador. El programa en cuestión podría remplazarse por otro totalmente inconsistente y contradictorio, y el sistema de inteligencia artificial no tendría en sí nada para rechazarlo.

      En suma, la independencia es una propiedad esencial del intelecto humano y no se puede anular sin privar al hombre de su inteligencia y de su libertad, mientras que la dependencia es una propiedad escencial de los sistemas de inteligencia artificial, puesto que sus algoritmos básicos de funcionamiento siempre serán diseñados y decididos por un programador inteligente.

      Saludos cordiales.

      • Saludos Salvador,

        Muy acertados y esclarecedores tus comentarios, muchas gracias por tu análisis. Me gustaría complementar el punto con una idea del psiquiatra brasileño Augusto Cury, que me hizo recordar tu entrada de blog y que refleja la naturaleza de las diferencias entre la máquina y el ser humano en su proceso de aprendizaje:
        “La producción de un pensamiento tan pequeño como éste [el ejemplo habla del surgimiento de la idea de sed en un niño] puede parecer muy simple, pero representa un fenómeno tan complejo que jamás podría ser realizado por millones de ordenadores interrelacionados ya que las máquinas nunca tendrán conciencia de la existencia, estarán siempre muertas para sí mismas”. (Cambia tu vida. Augusto Cury, 2004, p. 55).
        De la imposibilidad de tener conciencia de su existencia se desprende esa imposibilidad de poder gozar de alguna independencia de las máquinas.

        ¡Éxitos y bendiciones!

Deja tu comentario por favor

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s