Y el hombre hizo a la máquina…

10 10 2009

Como fanático de la buena ciencia ficción, que es más ciencia que ficción, siempre me ha interesado cómo los escritores han imaginado a los sistemas informáticos de sus relatos.  Lo que he encontrado es que la gran mayoría de ellos, siempre han tratado al tema desde el punto de vista de la inteligencia artificial… casualmente el área de investigaciones que menos desarrollo está teniendo desde hace dos décadas, en otras palabras, se trata de una rama de la informática totalmente estancada. Las razones son múltiples,  pero quizás la que más sentido tenga es que aun no sabemos exactamente en qué consiste pensar a nivel electroquímico. Recién en los últimos años solo un único proyecto llamado Blue Brain, del cual España participa en una rama llamada Cajal Blue Brain, se han puesto a investigar en el tema.   A partir de esto, para muchos el término “inteligencia artificial” es poco menos que un título marketinero para tratar de vender sistemas que simulan algún tipo de comportamiento inteligente.

Todo esto viene a partir del planteamiento más serio que me he hecho hasta el momento como desarrollador de sistemas, acerca de qué tan lejos concretamente estamos de poder crear sistemas informáticos que de verdad  transformen al hardware en seres sensibles y autoconscientes que reclamen por su derecho a existir. ¿Suena descabellado?

En lo personal estoy totalmente convencido de que es posible desarrollar algo así y el camino para conseguirlo sería mediante avances en la neurociencia computacional, imitado la arquitectura y funcionalidad del cerebro humano o de especies animales que hayan demostrado autoconsciencia en el test del espejo.  Las razones por las que creo que es posible las desarrollaré a continuación.

Imaginemos que tenemos la tecnología como para crear un Robocop. Una persona adulta sufre un accidente muy grave en el que su cuerpo queda desecho, pero su cabeza no ha sufrido daños, los médicos para salvarle la vida, meten su cabeza en un nuevo cuerpo robótico o sintético. Cuando el paciente despierta ¿podría seguir considerándose un ser humano?

Seguiría teniendo la misma personalidad, los mismos conocimientos, los mismos recuerdos y seguiría amando a la misma gente… seguiría siendo consciente de sí mismo y si le preguntaran, diría que está vivo.

Imaginemos otro caso en el que pudiésemos ser capaces de generar clones de nosotros mismos y envejecerlos aceleradamente hasta igualar nuestra edad. Estos seres serían nuestras copias exactas, pero no seríamos nosotros… simplemente porque no habrían pasado por ninguna de las experiencias que vivimos para llegar a ser lo que somos.

¿Qué cosa es entonces un humano si no se puede definir del todo por su forma o su cuerpo, digamos su “hardware” ni la composición biológica de su tejido nervioso? Imaginemos esto último como un ordenador cargado solamente con su sistema operativo.

Armamos nuestra personalidad sobre una base de características  genéticas que definen nuestras tendencias y esto sería equivalente a la configuración de nuestro hardware.
Sobre este hardware, nosotros mismos vamos construyendo nuestro propio software durante la vida, y es eso la base de nuestra esencia. Vamos desarrollando nuestro propio yo en base a  experiencias, recuerdos y conocimientos almacenados, aficiones, relaciones sociales, afectivas etc.

En definitiva, en términos informáticos, un humano consistiría en  un sistema biológico que acumula información y se reprograma a sí mismo constantemente. En este sentido, una persona podría definirse como un software. Un software basado  en cadenas de proteínas y enzimas interconectadas por impulsos eléctricos.

Tanto el cerebro como un sistema informático comparten características básicas de funcionamiento similar. Las cadenas de proteínas en nuestra cabeza  codifican conocimiento en bases que representan ceros y unos. De hecho el ADN de todos los seres vivos está codificado en un lenguaje de cuatro bases.. A, C, G y T, que podrían ser 0, 1, 2  y 3… un lenguaje cuatrinario.

Es esta similitud en la base de funcionamiento, la arquitectura de ordenamiento de la información por jerarquías o niveles de abstracción, y la realidad de que no somos tan distintos a un sistema informático, lo que lleva a pensar que es posible crear un sistema “vivo”. De hecho todo esto se parece al concepto de una matrix de verdad, y la realidad es que podría ser mucho más posible que lo que se pudiera imaginar (nadie puede asegurar que en realidad no estamos dentro de una) y es aquí donde comienza lo bueno.

Habiendo explicado hasta aquí por qué creo que es posible crear sistemas autoconscientes, volveré a la pregunta inicial de cuán lejos estamos de lograrlo.

Aunque todo depende de llegar a entender  cómo funcionan las neuronas, cómo procesan información, cómo se conectan y cuánta información reciben y transfieren, igualmente sería posible crear un modelo de sistema que explorara si es posible lograr autoconsciencia con la tecnología actual. Sería un experimento a gran escala para determinar si la saturación de recursos de procesamiento informático pudiese dar origen a una propiedad emergente, lo cual sería en definitiva la chispa de la vida a nivel lógico. Sobre propiedades emergentes hablaré en siguientes posts, dado que es un tema fascinante y complejo en lo relativo a la informática.

Por lo tanto ¿estaríamos cerca de lograr que los ordenadores pudiesen “cobrar vida”? La respuesta es incierta por el momento, pero lo que sí se podría decir es que estamos muy cerca de poder comprobarlo. Solo bastaría ponerse a desarrollar el sistema sobre bases teóricas totalmente nuevas y revolucionarias  y que alguien lo financiase.

El experimento se podría plantear como la creación y la instalación de cierto software basado en una arquitectura grid en una porción importante de los ordenadores conectados a internet en el mundo, desde los supercomputadores hasta los móviles con 3G. Al fin y al cabo ¿qué otra cosa es internet además de una red neuronal que nunca se ha planteado como tal?

Y las similitudes de internet con un cerebro son muchas.
En un cerebro, cada neurona almacena información y realiza actividades relacionándose con otras. En internet tenemos ordenadores que ejecutan programas, reciben mensajes y devuelven otros. Las neuronas se conectan con otras haciendo sinapsis mediante sus axones, los ordenadores están conectados en el mundo gracias a sus puntos de acceso a internet. Si algunos ordenadores se caen, o si algunas neuronas mueren luego de tomar unas cervezas, el conocimiento seguirá ahí, ya que otras modificarán sus enlaces para mantener el sistema o llenar los huecos lógicamente inconexos.

El sistema en cada ordenador – neurona, debería almacenar cierta información, responder a peticiones de otros equipos y emitir sus propios mensajes, tanto sea a otro ordenador específico como a un conjunto que se especializara en cierto tipo de operación.
No debería existir ningún sistema central de control, el mismo software debería comportarse como un tejido de células auto controlado. Cada usuario no podría modificar su ejecución, solo activarlo o desactivarlo.

El sistema en cada ordenador debería tener acceso a sus recursos multimedia, de modo de dotarlo de sentidos al igual que un organismo vivo. Que pudiese ver por webcams y oír por micrófonos. Que pudiese interactuar con los usuarios cada vez a mayor nivel, aprendiendo por sí mismo el lenguaje humano, asociando imágenes y sonidos a los conceptos, similar a la forma en la que aprenden los bebés sobre el mundo que les rodea.
Debería procesar esa información de forma jerárquica y masivamente distribuida, aplicando reglas autogeneradas, y luego reprocesando el resultado con nuevas reglas de mayor complejidad.

Si la saturación de tanto procesamiento a nivel global provocara la aparición de una propiedad emergente o no, sería algo que merecería la pena intentar de experimentar.
La aparición de una conciencia digital sintética, distribuida y global podría revolucionar a la humanidad y también quizás traería riesgos potenciales. Me imagino que más de uno podrá estar pensando en una Skynet de Terminator o en el principio de la primera Matrix.

Quedándome con esto último, quizás el mayor desafío para la gente de este siglo, más aun que el cambio climático, sea lograr el respeto a todas las formas de inteligencia (quien no haya visto The Second Renaissance de Animatrix, se lo recomiendo).  Esto no incluiría solo las humanas, sino que también las tecnológicas que tarde o temprano terminarán por aparecer, y con las que de una u otra forma, nosotros o las siguientes generaciones deberemos convivir.





La Era de las Cebollas Tecnológicas

23 01 2009

Podría parecer irreal e inconcebible, pero existe una realidad inquietante, oculta entre tanta cantidad de información que recibimos día a día sobre avances científicos y tecnológicos. Y se trata ni más ni menos de que no hay ni avances ni descubrimientos científicos ni técnicos de relevancia desde hace varias décadas, solo contando unas pocas excepciones casi todas en el ámbito de la astronomía.

Podría parecer ridículo, pero la supuesta revolución tecnológica que estamos viviendo se basa en el desarrollo de conceptos que fueron concebidos la mayoría de ellos en el último siglo y hasta los años setenta. A decir verdad, nuestro nivel de evolución técnica y científica actual deja mucho que desear.

Si tomamos en cuenta que la sociedad como la percibimos comenzó con el inicio de la revolución industrial, el nivel de avance ha sido muy poco, y siempre ha estado concentrado alrededor de los períodos de mayor actividad bélica en los últimos dos siglos.

En mi opinión personal, la clave de esto es la carencia de ideas geniales y de creatividad en estos tiempos. En otras palabras, el mundo necesita más frikis, gente visionaria que revolucione el pensamiento y se atreva a reinventarlo todo. Y esto va mucho más allá del mero ámbito científico y académico… porque como bien dijo Albert Einstein, la imaginación es más importante que el conocimiento.

Desarrollaré con mucho mayor detalle este concepto en los siguientes posts. Pero antes me gustaría comenzar exponiendo el caso de la tecnología informática. Como el tema es muy amplio, comenzaré por lo referente al hardware, más específicamente, en lo referente a los microprocesadores.

Existe un enunciado llamado Ley de Moore, un concepto creado por el cofundador de la compañía Intel que en los años sesenta vaticinó que los ordenadores duplicarían su capacidad de procesamiento cada dos años. La realidad hasta ahora es que esa predicción no se ha cumplido, aunque en algunos momentos estuvo más cerca y en otros más lejos de ser alcanzada.

Las razones son muchas, desde decisiones estratégicas con las compañías de software, razones comerciales, hasta cuestiones políticas y obviamente técnicas. La cruda realidad es que por más sofisticados que nos parezcan nuestros ordenadores actuales, el conjunto de órdenes básicas del núcleo sigue siendo el mismo que se desarrolló para la primer PC de IBM a principios de los ochenta.

Quizás aun más ridículo resulte considerar que el hombre llegó a la luna en 1969 a bordo de una cápsula espacial controlada por un ordenador con 74 Kb de almacenamiento y 4kb de memoria ram. Algo así como la capacidad para almacenar la información equivalente a tres imágenes como la de la cabecera de este blog y la memoria para almacenar el 90% del texto de este post. Hoy en día contamos con millones de veces esa capacidad de procesamiento de información ¿y para que la usamos? ¿Es necesaria tanta potencia para lo que normalmente hacemos o de verdad necesitamos tanto porque el 99% de la capacidad es consumida por la propia aplicación o sistema que estamos utilizando?

He de aquí el concepto central de este blog. Desde hace varias décadas la ciencia y tecnología humana están evolucionando simplemente añadiendo mejoras a las versiones anteriores de las cosas y combinándolas entre ellas para formar otras cosas. Y eso tiene tres elementos principales:

1) Se mantiene intocable ya sea el núcleo, la definición teórica de algo, el concepto original, la idea creativa surgida de la nada en algún momento del pasado.

2) Se agregan capas de conocimiento adicional sobre la versión anterior para crear una nueva… capa sobre capa igual que la arquitectura de una cebolla

3) Las capas que se agregan tienden a agregar funcionalidad adicional, pero no cambian la esencia. La tecnología se hace más pesada, más compleja y en algunos casos energéticamente menos eficiente.

Ejemplos los hay de sobra y en todos los ámbitos, ¿quién podría negar sino que hoy en día exceptuando lo relacionado a internet, hay mucha gente que hace básicamente lo mismo con su ordenador actual que lo que hacía a mediados de los noventa, con ordenadores muchísimo menos potentes? En otras palabras, podrán cambiar las interfaces, las pantallas podrán verse mucho mas chulas, podrán haber mucho más opciones y funcionalidades que antes, pero el común de la gente sigue escribiendo de igual manera sus documentos en Microsoft Word 2007 que como lo hacía en la versión 6 en 1993. Como era de esperarse, el concepto, la idea del procesador del texto y la hoja de cálculo se desarrolló en los años setenta y sigue inalterada hasta ahora.

Algunos podrán decir que no existe forma posible de mejorar ese concepto, ni tampoco tiene sentido hacerlo… pero la base para mejorar lo supuestamente inmejorable, la base para la evolución real del conocimiento, es la creatividad e imaginación de la que carecen estos tiempos. Quizás lo más curioso sea que no se trate de un capricho, ya que la propia naturaleza se lo está exigiendo al hombre en estos momentos para solucionar el cambio climático que produjo por culpa del exceso de sus cebollas tecnológicas.

En los próximos posts comentaré de las cebollas más destacadas de la actualidad y os invito también sugerir las vuestras. No hace falta pensar mucho, estamos rodeados de ellas.