texto:   A-   A+
eliax

Tecnología Visual
DARPA ordena lentes de contacto biónicos de doble-enfoque. IrixPhone
eliax id: 9345 josé elías en abr 16, 2012 a las 12:44 AM (00:44 horas)
Si recuerdan hace apenas unos días que les mencioné del nuevo proyecto de Google llamado el Project Glass, en donde en esencia planean poner la funcionalidad de un dispositivo móvil en unas gafas inteligentes, pero en ese entonces también les mencioné que ese proyecto de Google todavía queda un poco corto de mi concepto del IrixPhone.

Pues hoy les tengo buenas noticias sobre una tecnología que nos acercará más a la visión original del IrixPhone...

DARPA (la rama de investigación avanzada para la defensa de los EEUU, y los que crearon el Internet mas un sin-fin de otras tecnologías asombrosas) ha ordenado prototipos de unos lentes de contacto biónicos que permitirán no solo lo que hace el sistema de Google (que vale la pena mencionar en realidad fue desarrollado por otras empresas durante años, pero apenas ahora se está haciendo factible construirlo en masa), sino que además incluye toda su funcionalidad dentro de un lente de contacto al estilo IrixPhone.

Pero como si fuera poco, estos lentes tendrán un nuevo truco bajo la manga: La capacidad de poder enfocar dos planos a la vez en el ojo humano.

El sistema enfocará perfectamente en el ojo humano cualquier cosa que esté en su centro, pero además tomará cosas que estén en otro plano (más lejos o más cerca) y las enfocará automáticamente para el ojo en los alrededores de la pupila.

Eso significa que una persona con estos lentes podrá tener enfocado de forma perfecta y simultánea objetos a distintas distancias, lo que podría ser sumamente útil para soldados en el campo de batalla, y eventualmente para consumidores que utilicen estos dispositivos en espacios públicos.

Es importante notar que este sería apenas un solo componente de algo como el IrixPhone, pues estos lentes de contacto (desarrollados por la empresa Innovega y su tecnología iOptik) en realidad no contienen una pantalla en sí, sino que lo que sucede es que un dispositivo externo colocado cerca del ojo envía las imágenes ópticas al lente de contacto que es el que se encarga entonces del truco óptico de doble-enfoque.

Noten además que estos lentes de contacto harán ahora mucho más fácil el implementar sistemas de proyección directa a nuestros ojos, lo que significa Realidad Virtual en donde podríamos experimentar un mundo virtual 3D de 360x360 grados a todo nuestro alrededor (como si estuviésemos dentro de una película o un video-juego), así como una nueva generación de Realidad Aumentada en donde fusionamos imágenes del mundo real con imágenes sintetizadas en 3D.

fuente

autor: josé elías


Dolby Anuncia Dolby 3D para HDTV, cines, móviles, etc. Estandarización en camino
eliax id: 9341 josé elías en abr 15, 2012 a las 12:09 AM (00:09 horas)
La empresa Dolby que para muchos es sinónimo de "sonido", se acaba de embarcar en nuevo territorio, asociándose con la empresa Philips para crear un nuevo estándar para imágenes estereoscópicas (en 3D), y han bautizado el esfuerzo como "Dolby 3D" (o "3D HD").

El propósito de Dolby 3D es ofrecen un conjunto de tecnologías que integren todo el proceso de creación, manipulación y despliegue de contenido 3D, de inicio a fin. Es decir, desde que se obtiene el video crudo, hasta que se edita, transporta y despliega, sea en una HDTV (TV de Alta Definición), una consola de video-juegos como el Nintendo 3DS o Sony PS3, una tableta, celular, PC o Laptop. La tecnología está también optimizada para pantallas que no requieren gafas para ver el efecto 3D.

En la nota de prensa de Dolby 3D la empresa no es muy específica de los detalles técnicos de su esfuerzo, pero honestamente esta noticia no la publico por sus posibles méritos técnicos (que dada las dos empresas, estoy seguro serán bastante sólidos), sino más bien porque esto es algo que la industria necesita: Estandarización.

Hoy día tenemos tantas formas de capturar, crear, editar, manipular, transportar y desplegar contenido en 3D, que lo que reina por sobre todas las cosas es confusión. Si estandarizamos todo el proceso obtendremos un flujo de trabajo mucho más sencillo e integrado, menores costos de producción, menores costos de fabricación de equipos (debido a altos volúmenes), y menos confusión con el consumidor final.

La empresa planea presentar la tecnología a la industria y al público en general a inicios de la próxima semana en el evento NAB 2012 en Las Vegas, en donde posiblemente revele más detalles técnicos de su tecnología.

página oficial de Dolby 3D

nota de prensa oficial

autor: josé elías


El Project Glass de Google. Se acerca el IrixPhone
eliax id: 9324 josé elías en abr 5, 2012 a las 12:08 AM (00:08 horas)
Hace un par de años atrás en una de mis Reflexiones describí un dispositivo al que bauticé como el IrixPhone, y Google ahora acaba de revelar un dispositivo que nos acercará un paso más a esa visión que compartí con ustedes.

Google lo ha demostrado en forma conceptual (es decir, no existe como lo verán en el video), y lo llama el Project Glass ("Proyecto Cristal").

La idea de Google, como verán en el video a continuación, es crear algo que vaya más allá del asistente digital Siri de Apple en el iPhone, por lo que ambas empresas se encaminan hacia este futuro que describí en otra Reflexión hace 3 años.

No dejen de ver el video, que nos presenta desde el punto de vista de un usuario lo que este vería a través de sus ojos.

enlace al Project Glass de Google

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


El interesantísimo arte de dibujos estereoscópicos de Dain Fagerholm
eliax id: 9304 josé elías en mar 29, 2012 a las 12:11 AM (00:11 horas)
Blue Girl - por Dain FagerholmHoy los dejo con el interesantísimo arte de Dain Fagerholm, un artista que entre otras cosas se ha hecho un experto en crear dibujos con bolígrafos, pero con la curiosidad de que son estereoscópicos.

Técnicamente, son imágenes animadas en el formato GIF, y como verán, es difícil dejar de observarlas.

Las imágenes que verán son animadas con una técnica que engaña la vista y hace que parezcan tener profundidad incluso en una pantalla tradicional de dos dimensiones.

Cuando visiten la página a donde los envío, no olviden que al pie de la página puede hacer clic para ver páginas anteriores (como esta) de este tipo de arte.

Y si les gustó esto, no dejen de ver esto otro.

Nota: Si la imagen que acompañana este artículo no la ven "moviéndose", tengan paciencia hasta que cargue. Créanme que vale la pena esperar.

¡Gracias Emmanuel Bretón por el enlace!

enlace a la página de Dain Fagerholm

autor: josé elías


Asombrosa actuación lumínica del Wrecking Crew Orchestra. Video
eliax id: 9284 josé elías en mar 21, 2012 a las 12:11 AM (00:11 horas)
¿Se recuerdan de los asombrosos iLuminate que les presenté el año pasado? Pues he aquí otro grupo de nombre Wrecking Crew Orchestra, y como verán son iguales de impresionantes.

No dejen de ver el video entero, pues a la mitad ocurre un "apagón" (¿mientras los bailarines cambian de ropa?), pues es impresionante.

¡Gracias Pao por el enlace al video!

Video a continuación (enlace YouTube)...


autor: josé elías


Inventan cámara que puede ver alrededor de esquinas y detrás de paredes
eliax id: 9288 josé elías en mar 21, 2012 a las 12:08 AM (00:08 horas)
En eliax les he presentado a través de los años diversas tecnologías para ver tras paredes o a través de obstáculos, pero esta es diferente a esas otras (que por lo general dependen de emitir ondas de una frecuencia determinada y después captar el eco de retorno a través de la misma pared).

En este nuevo sistema, desarrollado por el Morgridge Institute for Research y el MIT, es posible "ver" lo que está detrás de una pared, sin interactuar con la pared misma ni enviar señales por esta.

¿Cómo? Pues en realidad es bastante sencillo (después que uno conoce el método): Emiten un rayo láser, cuyo punto rebota y dispersa en otra pared, choca con el objetivo que se quiere ver, rebota de regreso a la pared, después a una cámara especializada, y se mide ese punto. Y eso se repite un sinnúmero de veces (dependiendo de la resolución deseada).

En esencia, este sistema utiliza una pared intermedia como un espejo, pero sin ser un espejo. Sin embargo, eso es solo parte del truco. Para poder medir esos fotones que regresan a la cámara, hay que hacerlo midiendo en el tiempo exactamente la diferencia desde que se disparó el rayo láser, hasta que se registró un fotón de regreso, algo que no se hace con cualquier cámara, sino que con una especializada que puede medir sucesos con una exactituda de una 15 millonésima de un segundo.

En otras palabras, esta cámara dispara un fotón en un láser, y anota la hora que salió del disparador, y posteriormente toma nota de cuando se registra un fotón, y calcula la diferencia. Al saber el tiempo de viaje del fotón, y al saber la velocidad constante de la luz, se puede estimar la distancia, y si esto se repite cientos, miles o millones de veces, es posible obtener una imagen de cada vez mejor resolución de lo que está oculto detrás de una pared.

¿Para qué podría servir esto? Pues lo más obvio es en el campo de batalla para "ver" quien o quienes se esconden detrás de obstáculos, y en eventos de terremotos para quizás poder buscar mejor a personas entre los escombros.

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


RUIN, asombroso video renderizado en Modo 501 de Luxology
eliax id: 9282 josé elías en mar 18, 2012 a las 12:07 AM (00:07 horas)
Estoy bastante seguro que la mayoría de ustedes desconocen un software para crear modelos y mundos en 3D llamado Modo 501 (la más reciente versión es Modo 601), pero creo que de ahora en adelante oirán más de ese asombroso renderizador, y en particular del diseñador gráfico Wes Ball...

El video dura poco más de 8 minutos, pero cada segundo vale la pena ver, en particular si eres fan del diseño gráfico en 3D.

Lo más asombroso de esto es que nos muestra lo que un pequeño equipo de personas puede ya lograr hoy día. Esto se acerca bastante a la calidad que vimos en AVATAR, y ciertamente apunta a un futuro en donde películas serán 100% realizadas en software como este.

página oficial de Modo 601

video original en vimeo

Wes Ball en Twitter

Video a continuación (enlace YouTube)...


autor: josé elías


Star Wars ASCIIMation (nueva versión)
eliax id: 9279 josé elías en mar 17, 2012 a las 12:09 AM (00:09 horas)
Hace 6 años (¡como pasa el tiempo!) les presenté acá en eliax una versión de Star Wars (La Guerra de las Galaxias) animada completamente con caracteres/letras del abecedario digital ASCII, y hoy los actualizo con una versión que pueden ver en cualquier navegador web.

¡Gracias al lector Adrian Secci por el enlace!

enlace a la página (sean pacientes, la animación puede tomar un tiempo en cargar)

autor: josé elías


La escala del Universo 2, versión interactiva
eliax id: 9277 josé elías en mar 14, 2012 a las 12:11 AM (00:11 horas)
En eliax por años he compartido con ustedes diversas imágenes y videos que comparan los tamaños relativos desde las cosas más pequeñas (incluso de cosas más pequeñas que los electrones de un átomo) hasta las cosas más grandes (cubriendo incluso el universo visible).

Hoy comparto con ustedes una "versión 2" de un video que compartí con ustedes hace un par de años, y este es interactivo. Esperen un momento a que se cargue la animación Flash, y después muevan el control que aparecerá abajo hacia la izquierda o hacia la derecha, y prepárense a sorprenderse si nunca han visto uno de estos comparativos...

¡Gracias a la lectora Laura Ivette por el enlace!

enlace a la animación interactiva

autor: josé elías


Microsoft Vocal Translator, nuestra identidad a ser clonada. Opinión
eliax id: 9272 josé elías en mar 13, 2012 a las 12:08 AM (00:08 horas)
Total Recalleliax - Para Mentes CuriosasHoy quiero compartir con ustedes el resultado de un extraordinario trabajo que sale de los laboratorios de Investigación y Desarrollo de Microsoft, en forma de una demostración que llaman el "Microsoft Vocal Translator" (El Traductor de Voz de Microsoft).

Si tan solo ven el video, sin la explicación que ofrezco a continuación, es posible que no noten la importancia de este adelanto.

En esencia, el video combina varias tecnologías para crear un traductor de voz representado por un avatar (es decir, por una figura que se parece a ti, y te representaría en entornos virtuales o físicos en el futuro).

Es importante notar que esto no es un traductor de idiomas (aunque ciertamente esa es una de sus posibles futuras aplicaciones), sino que un traductor de voz.

En otras palabras, esto toma tu imagen y voz y la replica. El software que hace esta magia toma un simple video en 2D de tu persona de unos 20 minutos de duración, y con la información que deduce de este puede reconstruir una réplica digital de tu cara, y del sonido de tu voz, de modo que el sintetizador de voz emitirá palabras que parecen haber sido pronunciadas por ti.

Esto creo que nos acerca rápidamente a un escenario que por años he mencionado en eliax: El momento en donde será imposible, o al menos bastante difícil, identificarte remotamente ante otras personas.

Es importante destacar también que aunque este video funciona por el momento en un ambiente controlado, que nada evitaría por ejemplo que te filmen con una cámara escondida en la calle para obtener no solo los datos necesarios para reproducir la imagen de tu cara, sino que obviamente también para reproducir tu voz.

Pero, ¿y cuál es el problema? Pues un rápido ejemplo me viene a la mente: ¿Qué sucedería si un banco dentro de unos años acepta video-conferencias como una manera de ponerte en contacto con ellos y realizar transacciones? Es posible que puedes utilizar "ingeniería social" para engañar con una imagen de otra persona renderizada de forma foto-realista a otra persona en el banco con la cual ya existe cierto grado de confianza. En esencia, engañarías a esa otra persona para que crea que el actor digital es la persona a la cual quieres robarle su dinero.

Noten que en el video podrá apreciar cerca del final que el actor digital en pantalla incluso mueve la cabeza y los músculos de su cara (fíjense en las cejas) en respuesta a la persona que presenta el video, en esencia copiando sus movimientos, lo que haría a estas representaciones digitales bastante convincentes.

Noten además que el software puede generar los movimientos de labios necesarios para que estos compaginen con las palabras sintéticas del software.

Entonces, ¿qué significa esto? Pues que cuando esta tecnología se perfeccione y sea difícil discernir una persona de su avatar, tendremos que recurrir a otros niveles de seguridad (como claves y/o certificados digitales) para nosotros poder probar que somos nosotros.

Y eso, si lo piensan bien, significa que empezaremos a incorporar en nuestro lenguaje, y en el ADN de nuestra sociedad, protocolos de comunicación bastante similares a los protocolos de comunicación de computadoras hoy día. O en otras palabras, esto en realidad apunta a una necesidad que tendremos en el futuro de fusionarnos cada vez más con máquinas de nuestra creación para poder hacer que la sociedad continúe funcionando.

Video a continuación (enlace YouTube)...


autor: josé elías


Asombrosos gráficos de video-juegos: Samaritan con Unreal Engine 3
eliax id: 9269 josé elías en mar 11, 2012 a las 12:07 AM (00:07 horas)
Hace un par de días les mostré un emotivo video llamado Kara, que entre sus peculiaridades estaba que fue renderizado en tiempo todo en tiempo real.

Esa demostración fue diseña para funcionar en un PlayStation 3 de Sony, pero, ¿se imaginan que se podría hacer con el más reciente hardware de una PC moderna de hoy día llevada al máximo? Pues la respuesta es el video que les muestro hoy...

El video que verán también es generado en tiempo real, pero requiere de los procesadores Core más potentes de Intel a la fecha, y de nada más ni menos que 3 tarjetas GeForce GTX 580 funcionando en paralelo en la misma PC, pero cuando vean los resultados entenderán a donde fue cada onza de poder de ese hardware.

El video fue creado por EPIC, lo llaman Samaritan y es una demostración técnica para mostrar lo que es posible con su motor 3D para video-juegos llamado Unreal Engine 3.

Y recuerden, aunque aquí ven el video pre-grabado, todo lo que verán funciona en tiempo real en una PC con las especificaciones antes delineadas.

Prepárense a asombrarse, aunque quizás lo más asombroso de todo esto sea que dentro de pocos años este video lo podremos renderizar en tiempo real con un celular o tableta en la palma de nuestras manos...

Video a continuación (enlace YouTube)...


autor: josé elías


Museo Smithsonian a imprimir en 3D réplicas de su colección
eliax id: 9259 josé elías en mar 5, 2012 a las 08:56 AM (08:56 horas)
El museo Smithsonian en los EEUU es uno de los museos más grandes e impresionantes del mundo, con una colección de más de 137 millones de objetos. Sin embargo, debido a lo extenso de su catálogo, solo un 2% de su colección está disponible al público en determinado momento.

Pues ahora, gracias a nuevas tecnologías que imprimen objetos en 3D, el museo planea experimentar con formas de llevar esa colección a todo el mundo...

La idea es primero digitalizar o escanear en 3D los objetos que posee, de forma que se generen unos archivos los cuales puedan posteriormente imprimirse en equipos que impriman en 3D.

Es decir, imaginen un futuro en donde ustedes ven una hermosa escultura de Miguelangelo, y les gustaría tener una réplica casi exacta de esta en sus hogares. Pues en ese futuro uno simplemente descargaría los planos 3D desde Internet, y con una impresora casera de bajo costo imprimiría la réplica, la cual saldría incluso con un material casi idéntico al original. Esto es básicamente el escenario que describí en mi Reflexión # 11: Planos por Internet para Replicadores .

Lo asombroso es que estas impresoras ya existen hoy día, en distintos rangos de precio, pero para obtener la calidad que el museo necesita las más baratas cuestan hoy día unos US$100,000 dólares, sin embargo, acorde avance la tecnología no duden que eventualmente tendremos impresoras 3D de alta calidad a precios que bajarán de los US$10,000 dólares, luego los US$1,000, y eventualmente a precios que cualquiera podrá tener una.

Curiosamente, uno de los retos más importantes de este proyecto no será simplemente el digitalizar los 137 millones de objetos (por ahora es solo un proyecto prototipo, con solo dos personas trabajando en este), sino más bien el de almacenar la información 3D en un formato que pueda ser fácilmente decodificado por futuras generaciones, sea dentro de 100 año o dentro de 1 millón de años.

fuente

autor: josé elías


Seaquence, herramienta web que te permite crear música biológica digital
eliax id: 9244 josé elías en feb 29, 2012 a las 09:12 AM (09:12 horas)
MúsicaHoy comparto con ustedes esta intrigante página (que lamentablemente, solo funciona si tienen Adobe Flash instalado), llamada Seaquence.

Se trata de una herramienta para crear música, pero de forma "biológica". En esencia, con el programa creas criaturas sintéticas "vivas" a las cuales les otorgas ciertos atributos, y después ves como estos son interpretados como sonidos, como si de algún tipo de evolución musical se tratara.

Esta es definitivamente una de esas cosas que tienen que tratar por ustedes mismos para entender y apreciar. Muy recomendado.

¡Gracias al lector Gilberto Koo por el enlace!

enlace a Seaquence

autor: josé elías


NHK creando sensor de cámara de video de resolución 8k y 120fps
eliax id: 9243 josé elías en feb 29, 2012 a las 12:10 AM (00:10 horas)
Apenas el mundo se está acostumbrando a video de Alta Definición y ya hablamos de Video "4K", y como si fuera poco la empresa japonesa NHK ya está planeando sistemas "8K", que permitirá grabar y desplegar video de 33 Megapixeles.

Específicamente, hablamos de una resolución de 7680x4320, lo que es equivalente a tener 16 pantallas de Alta Definición (1080p) en una configuración de 4 pantallas horizontales por 4 verticales.

Y como si fuera poco, la empresa planea que este nuevo formato pueda grabar video a 120 cuadros por segundo (120fps - comparen con el cine actual de 24fps), lo que dotará a este tipo de video de una calidad bastante parecida a la realidad misma.

Todo esto es en preparación para el nuevo estándar UHDTV (o Ultra-HDTV) del cual les he hablado previamente en eliax.

Se estima que ya para el 2020 se vendan los primeros modelos de televisores con esta tecnología en hogares.

fuente

autor: josé elías


Nokia anuncia celular con cámara de 41 Megapixeles, el 808 PureView. Explicado
eliax id: 9245 josé elías en feb 29, 2012 a las 12:09 AM (00:09 horas)
Nokia 808 PureViewEn una era en donde celulares con cámaras de 8 Megapixeles (8MP), o incluso 12MP suenan asombrosos, Nokia acaba de anunciar el Nokia 808 PureView, con... 41MP.

Sí, 41 Megapixeles...

Sin embargo, es importante aclarar un par de cosas sobre cómo esos 41MP funcionan.

Lo primero es que este celular en realidad no toma fotos de 41MP, sino que esos 41MP son utilizados de 3 formas básicas:

1. El celular combina varios de esos pixeles en un "mega-pixel virtual", de modo que los 41MP se reducen a 5MP, pero con una imagen mucho más nítida que lo normal, ya que un algoritmo inteligente puede mezclar la luz captada por varios pixeles para obtener una mejor imagen promedio del pixel virtual.

2. En un modo especial "Creativo", Nokia te da acceso a capturar fotos de hasta 38MP directamente, lo que es bastante asombroso, aunque sin duda que la calidad no será parecida a la del modo de 5MP.

3. Y el modo más interesante, que se utiliza en conjunto con el modo de 5MP, es el modo "zoom virtual natural". Sucede que si estás en modo de 5MP, y decides hacer zoom en la imagen (como por ejemplo, para acercar o agrandar a alguien en la foto), con este celular lo que puedes hacer es utilizar los extra pixeles para en esencia hacer una magnificación con poca pérdida de calidad.

Recordemos que un zoom óptico es uno en donde un lente hace la magnificación, y prácticamente no se pierde calidad, mientras que un zoom digital tradicional lo que hace es magnificar pixeles y después suavizar el resultado, perdiéndose calidad.

Nokia hace algo más o menos intermedio, utilizando el detalle posible de los 41MP, para agrandar la imagen acorde se hace zoom. Obviamente cuando se hace "zoom" desde 5MP hasta 41MP, se llega a un límite, y después de ahí ya abría que recurrir al zoom digital tradicional.

Otra funcionalidad útil es la capacidad de grabar video 1080p a 30fps, como muchos otros celulares del mercado, aunque me gustaría ver el video generado, ya que posiblemente sea de mejor calidad que la mayoría debido a la técnica de pixeles compuestos.

Ahora, las malas noticias...

Por alguna razón que escapa mi imaginación (salvo, el hecho de que existe un equipo de ejecutivos bastante incompetente actualmente en Nokia), este celular utiliza el viejo sistema operativo Symbian, el cual la empresa anunció el año pasado abandonaría este año a favor de Windows Phone 7.

Esto hace de este celular algo incómodo de utilizar (en relación a iPhone, Android, y el mismo WP7), por lo que su público se verá bastante limitado a personas que les interese más la cámara que el celular. O en otras palabras, a un nicho bastante reducido.

Sin embargo, me alegra ver este adelanto, ya que sin duda esto eventualmente lo veremos en celulares Nokia con WP7, lo que verdaderamente los diferenciaría de iPhone y Android (aunque espero que Nokia se apure con esto, pues al menos a algún fabricante Android se le ocurrirá hacer algo similar, antes de que Apple tenga oportunidad de hacer algo parecido con el iPhone 6 el próximo año).

fuente oficial

archivo zip de 31.8MB con fotos de muestra sin retocar

autor: josé elías


Reflexiones 29: El Imaginatrón...
eliax id: 9202 josé elías en feb 16, 2012 a las 12:08 AM (00:08 horas)
Eliax DreamCordereliaxReflexiones es un espacio en donde se muestran conversaciones hipotéticas de la vida cotidiana en varias eras del futuro de la humanidad, basado en artículos de eliax. El objetivo es presentar la vida del futuro no tanto desde un punto de vista tecnológico, sino que más bien desde un punto de vista humano. Más información en este enlace.

Reflexiones 29: El Imaginatrón...
En algún momento en el siglo 21, una conversación entre dos arquitectos de mundos virtuales...

Saile: ¿Estás lista para empezar? Hoy vamos a probar la nueva versión del Imagitron.

Liz: ¿El nuevo Imaginatrón que acaba de salir?

Saile: Sí, ese mismo.

Liz: ¿Quéeeeeee? ¡Me muero de ganas! ¡no se si me voy a poder concentrar en el diseño del edificio con la emoción que tengo de probar la nueva versión!

Saile: Pues aquí vamos...

En este momento, ambos se ponen un banda elástica alrededor de sus cerebros, mientras se sientan en ambos extremos de un escritorio cilíndrico, en el medio del cual existe una pantalla tridimensional volumétrica.

Saile: Mira Liz, esta es la idea del edificio que tengo en mente...

En el cilindro ante ellos, surge inicialmente y de forma difusa, un edificio, el cual poco a poco toma forma y su definición se aclara enórmemente al cabo de unos segundos. Esa imagen es una proyección volumétrica del edificio que Saile estaba imaginándose en su mente en ese preciso instante.

Saile: ¿Qué opinas?

Liz: ¡¡¡¡UUUUAO!!!! ¡¡¡¡uao, uao, uaaaaaao!!!!

Saile: ¿Te impresionó tanto el edificio?

Liz: No, bueno, sí, el edificio también, ¡pero estoy diciendo uao por el nuevo Imaginatrón! ¡No me imaginaba que lo hubieran mejorado tanto! ¡El detalle es asombroso, y la resolución ni hablar!

Saile (con sonrisa en toda la cara): ¡JA jA JA! Yo estaba actuando estar todo sereno, pero la verdad que estaba loco por ver tu reacción, ¡yo tuve la misma reacción cuando vi el demo hace unos días!

Liz: ¡Pero es que ahora hasta los colores los capta!

Saile: Y eso no es nada, mira esto...

En ese momento, el Imagitron genera el sonido del viento, y al lado del edificio se ven caer unas hojas marrones, como las tradicionales hojas de otoño, y estas vuelan con la brisa generada alrededor del edificio.

Liz: ¡UAAAAAO! ¡Esto es lo más cercano a un orgasmo audio-visual que he tenido en años!

Saile (con la sonrisa aun mayor): Sí, esto es lo último de lo último, ¡ahora hasta sonidos genera!. Tomaron lo mejor del DreamCorder, y lo hicieron ahora en tiempo-real e interactivo. Yo mismo no sabía que decir cuando vi esto funcionando la primera vez, aunque creo que lo primero que dije fue "¡lo compro!".

Liz: Yo hubiera dicho lo mismo, es más, ¡quiero uno hoy mismo!

Saile: Y no te culpo, esto va a revolucionar la manera en que compartimos ideas, pues ahora tu y nuestros clientes podrán ver, justo frente a sus ojos, exactamente lo que nosotros nos imaginamos, y de paso hasta podemos ver la idea que tienen ellos para así entender mejor lo que quieren y evitar mal-entendimientos a la hora de interpretar la visión de alguien.

Y como si fuera poco, la empresa me asegura que dentro de poco saca un módulo que conecta el Imaginatrón con la más reciente versión de VirtualAutoCAD, lo que nos permitirá plasmar directamente en especificaciones técnicas las cosas que nos imaginamos, o en otras palabras, ahora podremos hacer en minutos lo que antes nos tomaba días, semanas o incluso meses. Y solo espera a que combinen esto con el Irix Phone, todo esto va a cambiar la industria...

Liz: Oh, disculpa Saile, no estaba escuchando lo que me decías, estoy finalizando la compra de mi Imaginatrón ahora mismo por Amazon...

Reflexión inspirada en este artículo

Lee las otras Reflexiones en eliax...

autor: josé elías

"Mi mente va a estallar, esto es EXTRAORDINARIO!!!!!!!!!!"

por "Patricio" en jul 23, 2010


en camino a la singularidad...

©2005-2022 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax