Showing posts with label John Searle. Show all posts
Showing posts with label John Searle. Show all posts

Monday, July 09, 2012

La prueba de Turing y Peña Nieto


A Alan Turing se le considera el padre de la computación. Sus contribuciones a una ciencia que ni siquiera existía en términos reales son extraordinarios. Bosquejó la idea de una computadora real y además, planteó problemas por demás importantes en lo que hoy llamamos la inteligencia artificial.

Uno de esos problemas es sobre qué es la inteligencia, término que hoy en día no se puede definir con precisión. Podemos suponer actividades que involucran inteligencia como bien podría ser el jugar ajedrez. Pero si es así, ¿podemos considerar a los programas de ajedrez como entes inteligentes? Lo dudo. Como un escritor dijo en una crítica sobre este tipo de software: "después de haber perdido una decena de partidas contra el programa, me di cuenta que no había nadie en casa. La máquina nunca supo que me ganó. No conoció la felicidad de la victoria. Vaya, no entiende siquiera que está jugando al ajedrez".

Turing se planteó esto y llegó a una prueba que se conoce como "la prueba de Turing". En ella, se pone a dos computadoras alejadas una de otra, de tal manera que quienes las manejan no pueden verse. Digamos que están en cuartos lejanos, separados. La comunicación que se da entre los dos operadores de las máquinas se hace a través de un "chat", de platicar uno con el otro. La idea es sentar a un ser humano en una máquina y tratar de discernir si quien está en la otra terminal es un humano o un programa de computadora. Si el ser humano no puede concluir, después de una conversación en la terminal con quien esté del otro lado, que se trata de una computadora con quien ha estado hablando, entonces se asume que el programa pasa la prueba de Turing y se debe considerar que es inteligente.

A mí la prueba de Turing no me ha convencido nunca, pero quizás no tenemos demasiadas herramientas para tratar de discernir si algo o alguien es inteligente. John Searle, filósofo norteamericano piensa como yo y ha inventado una prueba en contra de lo que Turing decía, lo cual se le conoce como la prueba del cuarto chino.

Consideremos, sin embargo, que la prueba de Turing puede servir para siquiera atisbar si algo puede ser inteligente. Año con año se hace un concurso, el Premio Loebner, en el Reino Unido, el cual promueve programas platicadores que son evaluados por humanos para ver si cumplen con el criterio que Turing estableció. El que ganó este año y que se acerca a pasar la prueba es éste. Más información sobre el mismo puede leerse aquí.

Todo esto, que por sí mismo es muy interesante, me vino a la mente cuando vi la entrevista que le hiciese un periodista norteamericano al presidente virtualmente electo, Enrique Peña Nieto. El periodista estaba en un lugar del mundo y Peña Nieto en otro. Y se ve que le estaban traduciendo las preguntas para poderlas contestar. Pero... ¿las estaba contestando Peña Nieto o le estaban dictando las respuestas? Vean el video y decidan por ustedes mismos:


En mi opinión, Peña Nieto solamente es la "máquina" que dice lo que alguien le dice por el chícharo (el dispositivo que se pone en el oído y por el cual le transmiten inalámbricamente lo que tiene que decir, como en las novelas de la televisión o los que leen noticias). Así pues, Peña Nieto, el muñeco del PRI es un títere que puede ser manipulado totalmente.

Me es claro que si el presidente virtual de este país contesta así, pues no pasa la prueba de Turing.

Thursday, June 16, 2011

¿Cómo es que somos conscientes de nosotros mismos?

Últimamente he estado pensando en dónde reside la conciencia. ¿Cómo es que sabemos quiénes somos? ¿Cómo es que somos conscientes de nosotros mismos? Quizás todo surgió por la lectura del último libro de Jorge Volpi (ver aquí), que de alguna manera, toca este tema un poco de lado, pero que lo deja a uno pensando.

Mi opinión actual sobre este tema es que el grado de conciencia, el darnos cuenta de nuestra propia existencia, tiene que ver con la complejidad de los sistemas. Así, bajo esta percepción es interesante preguntarse si una araña, por ejemplo, tiene conciencia de su propia existencia, o yendo más lejos, 168los organismos más simples de la Naturaleza saben de su propia existencia?

Pero no vayamos muy lejos, por ejemplo, la Pupa, la perrita snauzer que tuve sabía que era la Pupa. Sabía su nombre y entendía perfectamente muchísimas cosas. ¿Era consciente de sí misma? No puedo asegurarlo, pero si pensamos en cualquier niño de menos de 6 años quizás, la misma pregunta me parece válida. Dicho de otra manera, ¿el saberse a sí mismo se da cuando se va creciendo, con el paso de los años? Porque es claro que un bebé de pecho no sabe de su existencia. Y remotándome a mi pasado, ¿de qué cosas me acuerdo? ¿cuándo me di cuenta de mí mismo? ¿cuándo empecé este interminable diálogo que vivo conmigo mismo las 24 horas del día y que me hacen dar cuenta de mi existencia? No lo sé.

Creo que en la complejidad de los sistemas de pronto pasa algo y ¡zas! ese sistema se hace consciente de su propia existencia. Pero si vemos los sistemas de cómputo, que francamente cada vez son más complejos en hardware y software, no parece haber ningún indicio que nos diga que una máquina ya se percató de ella misma. No, parece ser que los sistemas complejos están lejos de la trivialidad del invento del microprocesador y de todos los subsistemas que hacen que las computadoras hagan las maravillas que ahora hacen.

Un crítico de la inteligencia artificial, John Searle, dice que la tesis de la Inteligencia Artificial fuerte es falsa, la cual indica que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que, si el cerebro genera conciencia, también las computadoras deben ser conscientes. Para refutar esta posición, Searle desarrolla el siguiente experimento mental.

Imaginemos que un individuo es colocado en una habitación cerrada al exterior en China. Por una rendija le son entregados papeles con símbolos chinos que desconoce absolutamente pues el individuo no conoce el idioma chino. Con unas instrucciones en inglés (o cualquiera que fuera su lengua madre) se le indica que debe sacar por la misma rendija una respuesta de acuerdo a un manual que se le ha entregado. En dicho manual sólo aparecen símbolos chinos de entrada y los correspondientes símbolos de salida. Así, el individuo puede localizar los símbolos que le son entregados y puede sacar papeles con símbolos diferentes. Los chinos que estén fuera de la habitación pensarán que el de la habitación conoce el chino pues han recibido respuestas satisfactorias. (Hay que reconocer que esto es un equivalente a la prueba de Turing, con otro disfraz, pero que finalmente busca decir lo mismo).

Searle considera que lo mismo ocurre con una computadora. Ésta manipula diferentes códigos sintácticos que nada tienen que ver con la comprensión semántica de los contenidos procesados. Evidentemente, el concepto de Intencionalildad está en el fondo del argumento de la Habitación china de Searle en contra de la inteligencia artificial.

Yo creo que Searle tiene razón en que la tesis de la inteligencia artificial fuerte es absurda. Una computadora, en mi opinión, crea modelos de la realidad. Por ejemplo, un programa que juega al ajedrez no lo hace como lo hace un ser humano. Los programadores de estos sistemas crean un modelo y lo aplican. Si tiene éxito el modelo no implica que sea idéntico a lo que los humanos hacen para resolver la misma problemática. Y esto no sólo pasa en cómputo. Las teorías más complejas de la mecánica cuántica, por ejemplo, son meros modelos de lo que suponemos pasa en lo intrincado de la materia, entre protones y neutrones, etc., pero no sabemos, ni podremos saberlo probablemente, qué es lo que ocurre en los fenómenos cuánticos. Como el modelo funciona, y funciona muy bien, asumimos que ésa es la realidad, pero esto está equivocado. ¿Suena un árbol cuando cae y no hay quien lo escuche? Pregunta aún difícil de satisfacer, amén de que ya sabemos que el hecho de observar algo altera lo observado y esta conclusión es francamente asombrosa.

Así, regresando al asunto que nos ocupa, Searle piensa que no importa que los sistemas sean o no muy complejos. La conciencia en ellos no va a brotar de la nada, como un milagro, como algo que se sale del curso natural. Y agrega Searle: la conciencia es un fenómeno neurobiológico causado por el cerebro. La solución neurológica es más complicada y debemos esperar a que los neurocientíficos hagan su tarea.

Searle se opone tanto al dualismo como al materialismo, en favor de una posición a la que llama naturalismo biológico. El dualismo comete el error de considerar a la conciencia como una sustancia separada y por encima de lo material. El materialismo comete el error de negar los hechos básicos de la conciencia, inclusiva su existencia misma. Ambos están equivocados desde la raíz cartesiana que les dio origen. Las categorías físico y mental están cargadas con un significado antagónico del cual debemos deshacernos.

Así entonces, mientras no exista un sistema creado por el hombre, artificial desde luego, que de pronto cobre conciencia de sí mismo, deberíamos creerle a Searle en su percepción de las cosas. Bajo el argumento de que ninguna máquina ha adquirido conciencia de sí misma, es claro que pueden estar pasando dos cosas: o Searle tiene razón o bien, nuestros sistemas artificiales son realmente simplones en el fondo, aunque para la mayoría de los seres humanos, nos parezcan demasiado complejos.


____

(*) La foto de este artículo corresponde a John Searle. Ver aquí para más información sobre este personaje.