viernes, enero 20, 2006

Conciencia

Una de las ventajas de no tener compromisos, es que te da una cierta libertad para dedicarte a alguna cosa que se aparezca. Una de las ventajas de pensar en el suicidio es que te permite reflexionar sobre éste. Ambos combinados son peligrosos, pero no siempre dañinos.

He estado leyendo un libro de Roger Penrose llamado "La mente nueva del emperador" (o alguna variante, lo siento, tengo sueño y no recuerdo bien), donde se discute sobre inteligencia artificial, lo que es la conciencia y cómo podría lograrse una conciencia artificial. Mi opinión al respecto es que antes de intentar darle una conciencia a una máquina hay que brindarle "instintos" (cabe aclarar que estoy usando "conciencia" como la nuestra, lo que sea que eso signifique), y es aquí donde entra esa jalada del suicidio.
Una cosa que se observa en animales de todos los niveles es el instinto de auto-conservación, o de supervivencia, o como quieran llamarle; el chiste es que todos los animales buscan seguir viviendo, al menos mientras son... er... no-viejos. Si pudiéramos darle a una máquina un instinto de auto-conservación, ya estaríamos más cerca de darle una esencia de un organismo vivo (como animal). Claro que estaría aún muy lejos de tener algún grado elevado de conciencia, pero sería algo. Sin embargo ¿cómo podría saber la máquina en cuestión que su "vida" está siendo amenazada? ¿Cuál sería el criterio para que supiera que está "viva"? Es aquí donde la cosa se pone media tenebrosa: Nosotros sabemos que sería porque su circuito se abriría, porque se le quemaría alguna parte, porque la desenchufaríamos, o alguna otra razón. Esto mismo podría saberlo la máquina, pero ¿y qué? ¿por qué "moriría"? Lamento no poder plantear la pregunta más claramente, ni a mí me queda clara, así que la pondré de otra manera: ¿Cómo es que morimos? Que el cerebro falla, que el corazón, etc. pero ¿y eso qué tiene? ¿cómo es que morimos? Ignorando -por el momento, al menos- cuestiones como éstas, podemos darle criterios relativamente simples a la máquina para que sepa cuándo va a "morir". Pero las cosas no se quedan ahí, aún falta que la máquina pueda darse cuenta de que se cumplen o no los criterios. Necesita sentidos. Hasta este punto se requiere algún aparato que le permita a la máquina realizar mediciones de los criterios de "muerte".
Supongamos que ya tenemos un robot con su "cerebro" (una computadora, por ejemplo), donde ya están implementados los criterios estos de supervivencia, ¿ésta máquina ya está viva? ¿Sería al menos como un insecto? Aquí la cosa se vuelve a poner tenebrosa: ¿qué es que esté "viva"? ¿que se mueva? ¿que si le intentas dar una patada la esquive? En fin, hay muchas. Y eso que estamos lejos aún de eso de la conciencia.
Después de todo ¿cómo sabemos si una persona es conciente? ¿alguna vez han soñado donde interactúan con otras "personas"? Pongo el ejemplo del sueño porque es difícil darse cuenta que uno está controlando a la otra "persona", y es casi como en la vida real, donde las personas hacen lo que quieren, y la diferencia entre las "personas" del sueño y las personas de la realidad se hace muy sutil. Y ¿qué otra manera de decir que la persona siente algo, o es conciente, que preguntándole? ¿midiendo corrientes en su sistema nervioso? Bueno, se sabe que tiene mucho que ver eso del cerebro con cómo sentimos, pero... la mayoría -estoy seguro- piensa que una computadora no es conciente por el hecho de que circulen corrientes eléctricas por sus circuitos.
Bueno, ahorita se supone que estoy trabajando en un trabajo para al rato, así que dejaré mis reflexiones por un momento esperando que algún lector nos ilumine (por favor, no pongan cosas como "lee tal o cual libro" si sólo van a poner eso. En todo caso citen un cachito al menos), o que tenga tiempo y/o ganas para seguirle.

6 comentarios:

Anónimo dijo...

Esto me recuerda al letrero que hicste en la prepa, recuerdas? al de "no te suicides" y le colocaste justo en el precipicio (por asi decirlo) del monte ese, o prado o como sea, jaja.
Cabe mencionar que insitaba al suicidio jeje :D

Unknown dijo...

Jajaja, simón, me acuerdo. Era pa' que se inspiraran los estudiantes jajaja. Aunque hubiera estado mejor "No te tires a un pozo" jajajaja.

Anónimo dijo...

Hola Aldo! tenia tiempo que no comentaba nada en tu blog por que tenia rato que no lo lei... y lo ke hace no tener ke leer asi que visite tu blog sigo opinando que le falta color; y otra cosa antes de que se me olvide planeo piratearme algunas cosas de tu blog para mi espacio espero que no te importe jaja.

Tevi dijo...

Pues saludos mi'jo, ya tenía su rato que no me daba mi vuelta.
Fíjate que está bastante curioso lo que mencionas, pues hace poco leía que las computadoras son capaces de escribir haikus (poema de tres versos sin rima) tan profundos que te contagian de "sentimiento". Y en este mismo artículo, el diseñador de dicho programita (no recuerdo el nombre del don) afirmaba que pronto las computadoras tendrían voluntad propia.

Pero, ¿será posible? En el libro "Inteligencia emocional" de Daniel Goleman (neuropsicología) se plantea el caso de una señora a la que tomar decisiones le resultaba una tortura, casi imposible para ella. Esto se debía a que algúna lesión cerebral le impedía relacionar las situaciones con sentimientos. Este hecho comprobó que los humanos tomamos tal o cual decisión conforme al sentimiento que ésta nos provoque, a diferencia de las máquinas que utilizan básicamente la lógica basada en una serie de "if", "then" y "else" que hay que pre-programar para que funcione. No hay sensaciones que desvíen algo ya programado. Como por ejemplo: "¿Me caso con el amor de mi vida? ¿o termino mi carrera? Lo que haría difícil la decisión sería el sentimiento que involucra, por más lógica que sea la respuesta, podía cambiar bruscamente dependiendo de cómo nos sintamos, o podríamos contemplar la posibilidad de tomar las dos opciones al mismo tiempo. Asimismo, este tomo describe paso a paso cómo las emociones influyen terminantemente en nuestro modo de vida, cómo un pequeña lesión cerebral puede afectarlas y el protocolo que siguen en el cerebro. Sin la amígdala seríamos como máquinas: no tendríamos sentimientos.

Ahora bien, si nos referimos a sesaciones como el dolor, recuerdo la película "Inteligencia artificial", donde se les colocaban sensores a las máquinas para que al "sentir dolor", se alejaran de lo que representaría un peligro para ellas, como el fuego. Y recapacitando un poco en lo obligada que está una máquina a cumplir con un protocolo lógico, recuerdo la película de Resident Evil, donde la computadora está programada : IF el virus escapa:
THEN destruir el laboratorio con todo su contenido. Eso es todo, simplemente cumplirá con lo ordenado sin detenerse por compasión a las vidas humanas o a la propia.

A lo que me refiero es que, si bien una computadora funciona de manera bastante símil a un cerebro cerebro, evaluando situaciones y sus posibles opciones, la capacidad del ser humano de basar su libre albedrío en sentimientos todavía está muy distante de ser emulada por los programadores. Podemos llegar a ser tan impredecibles como no tenemos idea. A esto tal vez debamos el famoso "error humano"

Creo que un buen programa que contemplara todas las alternativas posibles se acercaría apenas un poco a darles a éstas un a voluntad como la del ser humano, y no es que sea demasiado engreída para afirmarlo con certeza, pero sí falta todavía mucho.

Anónimo dijo...

que comentario-te !!


clave que me toco: uhhknh

me lleva! estas claves cada vez se parecen mas a mi contraseña del messenger

Unknown dijo...

Qué tal Ivet, qué bien que estás de vuelta. Coincido contigo en que probablemente está muy lejos en que las máquinas mimeticen nuestras capacidades, sin embargo no es necesario que la consciencia sea similar a lo que nosotros comprendemos como tal. Pudiera ser que fuera "consciente" en un sentido más sutil (claro que habría que aclarar qué se entiende por "consciente"). Ya sería un avance muuuy significativo que una cosa artificial tuviera algún grado de consciencia, aunque no involucrara emociones. Después de todo ¿quién dice que para que algo sea consciente debe tener emociones en el sentido en el que nosotros las tenemos? Si te llama un poco más la atención ya el planteamiento menos vago de estas ondas te puedes chutar el libro este que digo, o alguno de Rosenblueth o tipos así, donde se ahonda en esto de las emociones y todo el rollo.