martes, enero 3, 2012
|
Cuando a la persona promedio se le habla de un futuro de "Máquinas Inteligentes" lo primero que les llega a la mente es The Terminator, y si no, The Matrix. Máquinas que se revelan contra sus creadores y los esclavizan, con motivos que cuando los estudiamos racionalmente solo podemos calificarlos como "bastante dudosos" de que ocurran en la vida real.
Sin embargo, más allá de la pura paranoia injustificada, ignorancia en el tema, teorías de conspiración, y el deseo de crear películas que llenen cines, lo cierto es que hay una advertencia subyacente detrás de todo esto con mérito de mencionarse. Una advertencia de la cual todo científico que trabaja en el campo de la Inteligencia Artificial está consciente, y de eso les quiero hablar hoy (en lo que es el primer artículo relacionado a La Singularidad de este nuevo año 2012 en eliax). El tema es el siguiente: ¿Qué nos garantiza que una Inteligencia Artificial (o "IA") con un nivel similar o superior de inteligencia al de un ser humano, será "amigable" hacia nosotros? Y voy a ir directo al grano con una respuesta lo más cruda pero realista posible: Hoy día, nada nos garantiza eso. Y eso, ciertamente es de preocuparnos... Noten antes de que se lleven la impresión errónea de mis palabras, que no soy muy alarmista respecto a esto, puesto que como he explicado desde hace más de una década, soy de la opinión que lo que sucederá no es que estas entidades nos reemplazarán, sino que más bien nosotros evolucionaremos para fusionarnos con nuestras creaciones, en esencia creando el próximo gran paso evolutivo de la humanidad, una "Humanidad 2.0" como me gusta llamarla. Pero, obviando la posibilidad de que podamos trasladar nuestras mentes a un entorno sintético que nos dotarán de cuerpos y mentes a niveles de dioses, ¿qué sucedería si Inteligencias 100% Artificiales desde cero, surgen? Como ya respondí, en la actualidad es difícil de saberlo, y la razón principal es porque apenas estamos empezando a entender en detalle el funcionamiento de nuestros propios cerebros. Sin embargo, el futuro aparenta más positivo que negativo en este aspecto. En apenas la última décadas una combinación de ramas de la computación, la neurología y la psicología nos han arrojado no solo pistas, sino que en algunos casos respuestas, a varios de los misterios que yacen ocultos sobre el funcionamiento de nuestra mente. Lo primero que aprendimos (y esto data de mucho más atrás a una década) es que todo lo que nos define como "personas" no es más que un simple (o complejo, según el punto de vista con que veamos el asunto) conjunto de patrones codificados en neuronas y sinapsis, cientos de miles de millones de ellas, interconectadas entre sí, y del patrón que estas conforman, surge nuestra mente. En otras palabras, nuestro "software" en realidad está codificado en el "hardware" de la estructura misma del cerebro, una estructura capaz de aprender, modificándose a sí misma, y reflexionando sobre sí misma. Uno de los más bellos milagros de la naturaleza. Y tan solo ese dato, es alentador, porque nos dice que lo que genera el concepto de "amigable" no yace en ningún "espíritu" o "alma" al que la ciencia no pueda alcanzar y modificar, sino que es solo una estructura molecular, celular y bio-química que podemos eventualmente entender y manipular. En otras palabras, y para ser más explícito: Al menos de forma teórica, el concepto de benevolencia es algo que podríamos inculcar en seres diseñados por nosotros, e incluso asegurarnos de que el concepto de transmita a sus descendientes por medio de transferencia genética digital. Y eso nos trae de regreso al problema de ingeniería inversa que esto representa: ¿Cómo aprenderemos cuáles son esos patrones desde el punto de vista neurológico, y cómo identificarlos desde el punto de vista psicológico? Pues afortunadamente, también en esto hemos dado pasos agigantados en años recientes, en donde muchos de tales avances los he transmitido acá mismo en eliax (consultar los enlaces de artículos relacionados a este al final de este artículo para algunos ejemplos). Hoy día por ejemplo, con técnicas de escaneo cerebral con equipos de resonancia magnética y otras novedosas técnicas, podemos por fin "fotografiar" en incluso "grabar" el cerebro en pleno funcionamiento, y de paso notar cuáles son los patrones que se activan cuando hacemos cosas específicas, como tocar una guitarra, sumar números, enamorarnos, asustarnos, y ciertamente, querer hacer el bien por los demás. Incluso ya hemos dado los primeros pasos para "programar" el cerebro a aprender ciertos patrones de forma subliminar, muy similar a lo que vimos en los "programas de aprendizaje" en la película The Matrix, lo que nos dice que cuando menos en principio será posible programar nuestras futuras creaciones con sentimientos de amistad, amor y compasión hacia otros seres... Pero, no todo es color de rosa. Aun lleguemos a decodificar todos los patrones de nuestro cerebro, y a entender exactamente lo que cualquier grupo de neuronas y sinapsis están haciendo, eso aun depende de otro escenario: ¿Y qué sucedería si creamos las primeras Inteligencias Artificiales antes de entender como funcionan estos patrones mentales? Muchos dirán que eso es imposible de que ocurra, ya que ¿cómo podemos crear algo que no entendemos cómo funciona? pero la realidad es que así funciona la ciencia... Hoy dia nadie entiende como exactamente funciona la Mecánica Cuántica, y sin embargo hemos tomado ventaja de sus propiedades para crear pixeles en nuestras pantallas, para codificar mensajes, para enviar datos por fibras ópticas en Internet, y miles de otros usos. Así mismo, será posiblemente eventualmente crear patrones que se auto-replican y modifican, literalmente copiando los patrones evolutivos de la biología, pero a un ritmo trillones de veces más rápido, eventualmente creándose patrones emergentes que imitarán la inteligencia biológica, pero sin nosotros poder entender cómo funcionan. O en otras palabras, estamos en una carrera de dos autos. En el auto #1 está la carrera por entender cómo funciona nuestro cerebro, y en el auto #2 está la carrera por la creación de seres inteligentes y conscientes de ellos mismos. Si el auto #1 gana, entonces no tendríamos mucho de qué preocuparnos ya que sabríamos como trasplantar los patrones de buena conducta (léase: "amigable a humanos") en esos seres. Pero si el auto #2 gana, entonces una de dos cosas puede suceder: O estos seres nos verán como "buenos", o nos verán como "malos", y lamentablemente no podemos saber con certeza qué significará "bueno" o "malo" para esos seres, y qué acciones tomarían al respecto. Lo que sí podemos hacer, es estimar algunas cosas de forma numérica... Por ejemplo, la carrera de los dos autos nos dice que tenemos un 50% de probabilidad de que creemos seres inteligentes antes de comprender el funcionamiento de nuestro cerebro. De ese 50%, podemos decir que tenemos un 50% más de que esos seres nos vean como "malos". O en otras palabras, si sumamos las posibilidades, eso significa que tenemos un 25% de posibilidades de que surjan seres inteligentes creados por nosotros que nos nos vean con buenos ojos. Recuerden, esos son números altamente subjetivos, pero aun si nos vamos al mejor de los escenarios (para nosotros los humanos) y asumimos que "tan solo" existe un 10% de probabilidades de que eso ocurra, que ese 10% es razón para preocuparnos... Pero lo más preocupante de todo es que tenemos una sola oportunidad para hacer esto de la forma correcta (es decir, que creemos seres amigables a la humanidad y otras formas de vida), pues desde que creemos el primer ser con inteligencia similar a la nuestra, y con la capacidad de replicarse y auto-mejorarse, será solo cuestión de días, horas o quizás solo segundos para que esta nueva forma de vida evolucione a niveles incontrolables (e incomprensibles) por nuestras mentes de hoy día. O en otras palabras, cuando estemos cerca de crear estos seres, sería prudente antes de continuar sentarnos a pensar si verdaderamente sabemos lo que estamos creando, y en caso de que la respuesta sea no, y que decidamos continuar, no sería mala idea tener algún tipo de seguro o "Plan B" para cuando llegue el momento... Nota importante: Quiero hace énfasis una vez más en algo: Todo este escenario es asumiendo que no nos fusionaremos con nuestras creaciones, en cuyo caso este peligro sería inexistente ya que nosotros seríamos ellos. autor: josé elías |
114 comentarios |
Ciencia , Futuro Digital , Opinión / Análisis , Predicciones , Psicología , Robots & I.A. , Software |
Comentarios
Añadir Comentario |
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax
sere ignorante, pero no veo la diferencia entre lo k planteas y lo k paso en matrix o termnator :-P