Showing posts with label conciencia. Show all posts
Showing posts with label conciencia. Show all posts

Thursday, June 16, 2011

¿Cómo es que somos conscientes de nosotros mismos?

Últimamente he estado pensando en dónde reside la conciencia. ¿Cómo es que sabemos quiénes somos? ¿Cómo es que somos conscientes de nosotros mismos? Quizás todo surgió por la lectura del último libro de Jorge Volpi (ver aquí), que de alguna manera, toca este tema un poco de lado, pero que lo deja a uno pensando.

Mi opinión actual sobre este tema es que el grado de conciencia, el darnos cuenta de nuestra propia existencia, tiene que ver con la complejidad de los sistemas. Así, bajo esta percepción es interesante preguntarse si una araña, por ejemplo, tiene conciencia de su propia existencia, o yendo más lejos, 168los organismos más simples de la Naturaleza saben de su propia existencia?

Pero no vayamos muy lejos, por ejemplo, la Pupa, la perrita snauzer que tuve sabía que era la Pupa. Sabía su nombre y entendía perfectamente muchísimas cosas. ¿Era consciente de sí misma? No puedo asegurarlo, pero si pensamos en cualquier niño de menos de 6 años quizás, la misma pregunta me parece válida. Dicho de otra manera, ¿el saberse a sí mismo se da cuando se va creciendo, con el paso de los años? Porque es claro que un bebé de pecho no sabe de su existencia. Y remotándome a mi pasado, ¿de qué cosas me acuerdo? ¿cuándo me di cuenta de mí mismo? ¿cuándo empecé este interminable diálogo que vivo conmigo mismo las 24 horas del día y que me hacen dar cuenta de mi existencia? No lo sé.

Creo que en la complejidad de los sistemas de pronto pasa algo y ¡zas! ese sistema se hace consciente de su propia existencia. Pero si vemos los sistemas de cómputo, que francamente cada vez son más complejos en hardware y software, no parece haber ningún indicio que nos diga que una máquina ya se percató de ella misma. No, parece ser que los sistemas complejos están lejos de la trivialidad del invento del microprocesador y de todos los subsistemas que hacen que las computadoras hagan las maravillas que ahora hacen.

Un crítico de la inteligencia artificial, John Searle, dice que la tesis de la Inteligencia Artificial fuerte es falsa, la cual indica que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que, si el cerebro genera conciencia, también las computadoras deben ser conscientes. Para refutar esta posición, Searle desarrolla el siguiente experimento mental.

Imaginemos que un individuo es colocado en una habitación cerrada al exterior en China. Por una rendija le son entregados papeles con símbolos chinos que desconoce absolutamente pues el individuo no conoce el idioma chino. Con unas instrucciones en inglés (o cualquiera que fuera su lengua madre) se le indica que debe sacar por la misma rendija una respuesta de acuerdo a un manual que se le ha entregado. En dicho manual sólo aparecen símbolos chinos de entrada y los correspondientes símbolos de salida. Así, el individuo puede localizar los símbolos que le son entregados y puede sacar papeles con símbolos diferentes. Los chinos que estén fuera de la habitación pensarán que el de la habitación conoce el chino pues han recibido respuestas satisfactorias. (Hay que reconocer que esto es un equivalente a la prueba de Turing, con otro disfraz, pero que finalmente busca decir lo mismo).

Searle considera que lo mismo ocurre con una computadora. Ésta manipula diferentes códigos sintácticos que nada tienen que ver con la comprensión semántica de los contenidos procesados. Evidentemente, el concepto de Intencionalildad está en el fondo del argumento de la Habitación china de Searle en contra de la inteligencia artificial.

Yo creo que Searle tiene razón en que la tesis de la inteligencia artificial fuerte es absurda. Una computadora, en mi opinión, crea modelos de la realidad. Por ejemplo, un programa que juega al ajedrez no lo hace como lo hace un ser humano. Los programadores de estos sistemas crean un modelo y lo aplican. Si tiene éxito el modelo no implica que sea idéntico a lo que los humanos hacen para resolver la misma problemática. Y esto no sólo pasa en cómputo. Las teorías más complejas de la mecánica cuántica, por ejemplo, son meros modelos de lo que suponemos pasa en lo intrincado de la materia, entre protones y neutrones, etc., pero no sabemos, ni podremos saberlo probablemente, qué es lo que ocurre en los fenómenos cuánticos. Como el modelo funciona, y funciona muy bien, asumimos que ésa es la realidad, pero esto está equivocado. ¿Suena un árbol cuando cae y no hay quien lo escuche? Pregunta aún difícil de satisfacer, amén de que ya sabemos que el hecho de observar algo altera lo observado y esta conclusión es francamente asombrosa.

Así, regresando al asunto que nos ocupa, Searle piensa que no importa que los sistemas sean o no muy complejos. La conciencia en ellos no va a brotar de la nada, como un milagro, como algo que se sale del curso natural. Y agrega Searle: la conciencia es un fenómeno neurobiológico causado por el cerebro. La solución neurológica es más complicada y debemos esperar a que los neurocientíficos hagan su tarea.

Searle se opone tanto al dualismo como al materialismo, en favor de una posición a la que llama naturalismo biológico. El dualismo comete el error de considerar a la conciencia como una sustancia separada y por encima de lo material. El materialismo comete el error de negar los hechos básicos de la conciencia, inclusiva su existencia misma. Ambos están equivocados desde la raíz cartesiana que les dio origen. Las categorías físico y mental están cargadas con un significado antagónico del cual debemos deshacernos.

Así entonces, mientras no exista un sistema creado por el hombre, artificial desde luego, que de pronto cobre conciencia de sí mismo, deberíamos creerle a Searle en su percepción de las cosas. Bajo el argumento de que ninguna máquina ha adquirido conciencia de sí misma, es claro que pueden estar pasando dos cosas: o Searle tiene razón o bien, nuestros sistemas artificiales son realmente simplones en el fondo, aunque para la mayoría de los seres humanos, nos parezcan demasiado complejos.


____

(*) La foto de este artículo corresponde a John Searle. Ver aquí para más información sobre este personaje.

Thursday, June 02, 2011

"Leer la mente", Nuevo libro de Jorge Volpi


Hace menos de una semana me compré el libro más reciente de Jorge Volpi, "Leer la mente", de Editorial Alfaguara. No sabía realmente qué esperar de esta obra. En la cuarta de forros del libro dice: "¿Qué pasa en mi cerebro cuando leo una novela o un cuento? ¿Cómo y cuándo aparecieron? ¿Qué parte de nuestro cerebro inventa las anécdotas felices o los desenlaces trágicos? ¿Por qué sufrimos o gozamos con los personajes de los relatos y de qué forma nosotros, los lectores, nos transformamos en esos personajes? ¿No es acaso el yo la mayor invención de nuestra mente? En este brillante y provocador ensayo, Jorge Volpi destierra la vieja idea de la ficción como entretenimiento y sostiene, por el contrario, que las novelas y los cuentos han sido esenciales para la evolución de la especie humana".

Pues lo empecé y al principio no me convenció, pero seguí leyendo y hallé que la tesis fundamental del autor es tratar de desentrañar el asunto de la ficción y su relación con quien la recibe o produce. Volpi se embarca en un viaje hacia lo que es el "yo", la conciencia, y los mecanismos que el cerebro humano parece tener para lidiar con la ficción.

Curiosas son algunas conclusiones: el cerebro sabe que una ficción es eso, una ficción, pero puede -por decirlo de alguna manera- representar el papel que ocurre en dicha ficción. Así, podemos padecer como el prisionero de guerra o bien, como el aventurero en la selva. El cerebro parece que se adueña de o los papeles que se están representando en esta especie de "obra de teatro" que ocurre en cualquier novela o narración. Volpi sugiere que esto es parte del éxito de la raza humana, porque gracias a esto, el hombre ha podido sobrevivir y pudiese ser un mecanismo de la supervivencia. Para ponerlo en un ejemplo que en estos momentos se me ocurre: sabemos que si nos tiramos de un décimo piso de un edificio, probablemente terminemos muertos. Y aunque no faltará quien diga que ya más de uno ha sobrevivido a una caída así, nos es claro que las probabilidades de que no nos pase algo fatal son mínimas. Entonces el cerebro juega con la idea e imagina que uno se ha tirado de un décimo piso con las fatales consecuencias que eso implica. No tenemos que vivirlo para darnos cuenta de que no es buena idea lanzarnos al vacío. Así pues, el cerebro digamos, genera los diferentes escenarios como parte de este proceso de tratar de visualizar el futuro. Y entonces, en nuestro cerebro somos todos los demás, y ellos son a su vez parte de nosotros mismos. Por ello, lloramos con quien esté afligido, al menos mentalmente, aunque no nos salgan las lágrimas, por decirlo de alguna manera.

La idea de Volpi tiene sentido en muchos escenarios. Cuando jugamos un video juego nos podemos convertir en Mario o Luigi, o en el soldado de Doom. O bien, cuando vamos al cine nos identificamos con los personajes, los vivimos, y muchas veces nos emocionan hasta las lágrimas, incluso a pesar de saber de que todo es una ficción muy bien armada.

Volpi entonces nos introduce al fascinante mundo de la mente, en donde plantea una idea que antes al menos yo no la había escuchado: el "yo" es un invento del propio cerebro. Es en alguna manera lo que nos identifica aunque este "yo" no está en realidad en ninguna parte -o está en todas partes. Vaya, me recuerda al "testigo silencioso", una figura quizás retórica de vernos desde fuera de nosotros mismos, analizarnos cómo somos, cómo actuamos con el derredor, como nos comportamos. De esta manera, pareciera que el cerebro se justifica para poder hacerse consciente de sí mismo creándose una figura que es nuestro "yo" interno.

Yo creo que el autor de Leer la mente apenas roza superficialmente el tema de la conciencia y el que nos hace darnos cuenta de nosotros mismos. Plantea interrogantes por demás importantes, como la de pensar si un organismo que se vuelve cada vez más complejo puede -en algún momento- cobrar conciencia de sí mismo, cosa que el crítico de la inteligencia artificial Searle, rechaza totalmente, y en lo cual disiento. De hecho, soy de la opinión que un organismo puede llegar a tal complejidad que en un momento dado, rompe este especie de sello de la no conciencia a la conciencia y se da cuenta de sí mismo. Ya más de uno se podrá preguntar cómo o por qué las computadoras no han cobrado conciencia de sí mismas. Mi respuesta me parece elemental: son organismos muy poco complejos y por ello no han podido darse cuenta de su propia existencia.

Como en Busca del Klinsor,en Leer la mente, Jorge Volpi hace un trabajo prolijo y obsesivamente documentado. Vale la pena leerlo y sacar cada quien sus propias conclusiones. De hecho, este es un trabajo que a mí me hubiese ser gustado ser el autor. Muy bien escrito, muy cuidado y además, con la característica de que es "Food for thought" (alimento para discurrir). Felicidades a Volpi por su nueva obra.