texto:   A-   A+
eliax

Tecnología Visual
Video del Microsoft Kinect para el Xbox 360 en acción
eliax id: 7826 josé elías en jun 14, 2010 a las 12:02 PM ( 12:02 horas)
Hace unas horas se hizo público Kinect (previo "Project Natal) para el Xbox 360. Aquí ahora pueden apreciar un video oficial de Microsoft que demuestra de qué se trata esta tecnología.

Y si el video es alguna indicación, prepárense no solo a divertirse, ¡sino que además a rebajar unas cuantas libras/kilos y ponerse en forma!

Video a continuación (enlace YouTube)...


autor: josé elías


El nuevo avance de Gran Turismo 5 para el PlayStation 3
eliax id: 7824 josé elías en jun 14, 2010 a las 03:01 AM ( 03:01 horas)
Gran Turismo 5Mucho antes de salir el PlayStation 3, uno de los juegos demostrados en video fue la secuela de la franquicia de video-juegos de manejo de autos mas popular de todos los tiempos, Gran Turismo 5.

Aquí estamos, casi 4 años después, y Sony aun no entrega este esperado juego. Sin embargo, si nos llevamos por lo bien acabado que está el siguiente video que Sony recientemente relevó, creo que es muy factible que esta semana en el evento E3 2010 Sony revele por fin la fecha de salida de esta esperada simulación de autos. (Actualización: ¡Amazon anuncia que el juego sale el 1 de Noviembre! - gracias al lector @megaceso por el dato en los comentarios)

Algo interesante es que esta versión de Gran Turismo soportará televisores en 3D, lo que sin duda hará de este juego toda una experiencia, en particular en proyectores de video de gran tamaño.

Mientras tanto, lo único que puedo decir del video que verán es que está absolutamente alucinante, y que no quepa la menor duda que el juego será todo un éxito (si es que llega a salir...)

Video a continuación (enlace YouTube)...


autor: josé elías


El nuevo Kinect para el Xbox 360 revelado por fin (antiguo Project Natal)
eliax id: 7823 josé elías en jun 14, 2010 a las 02:38 AM ( 02:38 horas)
Kinect Xbox 360Desde que fue revelado y hasta la fecha de hoy todos nos hemos referido al accesorio de Microsoft que competirá contra el WiiMote en el Xbox 360 como "Project Natal", pero desde hoy ya tiene por fin su nombre oficial, el cual será "Kinect" y que será revelado formalmente dentro de unas horas en la rueda de prensa de Microsoft en el evento anual E3 2010.

Así mismo veremos varios juegos anunciados, incluyendo un competidor de Wii Sports que se llamará Kinect Sports.

Noten que el nombre parece ser una combinación de Kinétic (como "movimiento") y Connect (como "conectar") lo que le queda muy bien.

Kinect es un accesorio que se coloca encima de tu TV y que "observa" tus movimientos y los transforma en acciones en tiempo real, lo que significa que no tienes que tener un control en las manos, ya que tu mismo eres el control. Los refiero a los enlaces al final de este artículo para mas información y videos (como este) de su funcionamiento.

Otra sorpresa es que Kinect supuestmente vendrá con un programa de chateo por video que conectará los usuarios del Xbox 360 por Internet de manera sencilla.

El precio de Kinect aun no ha sido revelado, pero se estima (según rumores) que será de unos US$150 dólares, aunque yo creo que si Microsoft lo pudiera ofrecer en US$99 sería todo un éxito, ya que ese monto entra en la categoría de "compra impulsiva en estas navidades".

Fuente de la noticia

Actualización 1: Supuestamente sale a la venta en Noviembre (fuente).

Actualización 2: ¡El Xbox 360 Kinect también tiene reconocimiento de voz! (revelado en conferencia de prensa de Microsoft en E3 2010)

Actualización 3: Confirmado por Microsoft hoy en E3 2010: Sale el 4 de Noviembre en los EEUU y Canadá.

autor: josé elías


Asombroso video de vida biológica imaginaria en 3D. Super realista.
eliax id: 7822 josé elías en jun 13, 2010 a las 05:43 PM ( 17:43 horas)
&color2Los dejo ahora con este asombroso video que emula la sensación de ir a un planeta alienígena muy parecido al nuestro, y grabar con nuestras cámaras actuales la vida que encontramos allá.

Sencillamente asombroso la calidad visual. Y si les gustó este video, no dejen de ver este otro acá mismo en eliax.

¡Gracias al lector Walter Diego Spaltro por el enlace en mi perfil de Facebook!

Video a continuación (enlace YouTube)...


autor: josé elías


Microsoft desarrollando nuevo tipo de pantalla en 3D sin gafas
eliax id: 7818 josé elías en jun 13, 2010 a las 01:49 AM ( 01:49 horas)
Microsoft 3D Lens DisplayMicrosoft está desarrollando un nuevo tipo de lente para pantallas LCD que permitirán que experimentemos un efecto 3D estereoscópico sin la necesidad de los molestosos lentes/gafas/espejuelos que tenemos que ponernos cada vez que vamos al cine a ver una película en 3D.

Tecnología que permite experimentar 3D sin gafas no es nada nuevo (como expliqué en este artículo anterior en eliax), sin embargo los métodos actuales de 3D en pantallas LCD sin gafas tienen el problema de que el espectador debe sentarse en un lugar pre-determinado frente a la pantalla, y si se mueve tan solo un poco lateralmente (es decir, a su izquierda o derecha) el efecto 3D se pierde.

Esta tecnología de Microsoft sin embargo, resuelve ese problema, creando un nuevo tipo de lente en forma de cuña (es decir, un lente que es mas delgado en un lado que en otro, midiendo en su punto máximo 11mm de espesor, y en el mínimo 6mm) que posee unas propiedades ópticas tal que permite redireccionar la luz de manera bastante precisa a distintos puntos frente de la pantalla.

Eso significa que es posible enfocar precisamente una imagen diferente a cada uno, con un solo lente.

Según Microsoft, el sistema en su forma actual puede ofrecer un efecto 3D a hasta 2 personas, o un efecto 2D normal a 4 personas, aunque solo ofrece un ángulo de visión de 20 grados (aunque se estima el sistema se podrá ampliar a 40 grados). Es decir, tienes un rejuego de hasta 20 grados para moverte lateralmente frente a la pantalla para percibir el efecto 3D.

Si se preguntan qué sucede si la persona se mueve lateralmente, y si se pierde el efecto 3D al uno moverse, la respuesta es que el efecto 3D se mantiene, ya que el sistema incorpora un sistema de reconocimiento facil que detecta lo que son los ojos de las personas, y los rastrea en tiempo real, para de esa manera ajustar el lente a la posición en que se encuentre la persona en tiempo real, para de esa manera siempre mantener el efecto 3D, lo que está genial.

Las limitantes de este sistema en su forma actual es que solo un máximo de 2 personas pueden disfrutar del efecto 3D a la vez (y lamentablemente, cualquier persona fuera de los 20 grados no podrá ver nada, ni 3D, ni 2D, ni nada).

Sin embargo, las ventajas con muchas: Primero, el sistema es relativamente barato y muy sencillo, por lo que será práctico incluirlo en pantallas de laptops a un bajo costo. Segundo, es que obviamente no se necesitan gafas, lo que hace a esto ideal en un ambiente de laptops o monitores de PCs en donde por lo general solo una persona ve la pantalla a la vez. Y tercero, la limitante de 20 grados es en realidad una ventaja para motivos de seguridad, ya que por ejemplo sería posible fabricar un LCD que funcione normalmente, pero que al cambio de un interruptor este lente entre en acción y evite que personas sentadas a tus lados vean lo que tu ves en la pantalla (ideal para viajes en autobuses, aviones, y oficinas que manejen datos sensibles).

Esperemos ahora que esto salga del laboratorio y en producción lo antes posible, pues ya me imagino navegando mundos virtuales en 3D en dispositivos móviles con esta tecnología, y sin duda alguna los que son ingenieros, arquitectos y diseñadores gráficos no pueden esperar a que esto salga y se masifique.

Fuente de la noticia

Actualización: Aquí pueden ver un video del prototipo en acción (noten que harán que vean un anuncio primero)

autor: josé elías


El futuro de las revistas impresas, según revista TIME, en el iPad
eliax id: 7815 josé elías en jun 11, 2010 a las 12:27 PM ( 12:27 horas)
TIME LogoHe aquí otro intento (esta vez de la reconocida revista TIME) de mostrarnos el futuro de las revistas impresas en un formato digital, en este caso, en un iPad de Apple.

Noten que la empresa ya ofrece una aplicación en el iPad, pero el video que verán es de lo que planean hacer en el futuro próximo, y debo admitir que se ve bastante intrigante.

Video a continuación (enlace YouTube)...


autor: josé elías


Cámara de 100 Megapixeles y vista de 360 grados, en Seguridad Nacional EEUU
eliax id: 7807 josé elías en jun 9, 2010 a las 09:48 AM ( 09:48 horas)
El Department of Homeland Security (DHS, o Departamento de Seguridad Nacional) de los EEUU ha estado probando desde finales del año pasado una asombrosa cámara de 100 Megapixeles y vista de 360 grados.

El primer prototipo está instalado en el aeropuerto Boston Logan de la ciudad de Boston, en Massachussetts, y la idea es poder monitorear desde el techo todo un espacio de 360 grados (es decir, a toda la redonda) de manera simultánea.

La cámara Según DHS, la cámara tiene el equivalente a mas de 50 televisores de alta definición combinados, y aun así puede resolver mas detalle todavía que todos estos.

El sistema funciona combinando información de varios lentes en tiempo real, y creando una vista panorámica que los operadores puede ver y manipular también en tiempo real para hacer movimientos de cámara y acercamientos, como si de una cámara virtual se tratara.

Nota: Si quieren tener idea de como se siente manipular esta cámara, y los resultados que se obtienen, consulten este artículo anterior en eliax.

¡Gracias al lector Hector Molina por el enlace!

Fuente de la noticia

autor: josé elías


El iPad siendo utilizada durante cirugías en Japón
eliax id: 7792 josé elías en jun 3, 2010 a las 04:39 PM ( 16:39 horas)
&eurlDesde que salió el iPad hace poco mas de dos meses, han salido innumerables usos para este dispositivo, pero este de verdad que me llamó la atención.

Se trata de utilizar el iPad como una especie de instrumento quirúrgico, en donde hace tanto el papel de una lupa digital interactiva (con interfaz multi-táctil), como de pantalla de monitoreo.

Vean el video y entenderán mucho mejor. Sin duda alguna un uso bastante interesante, útil, y de muy bajo costo (en relación al costo de equipos similares que cuestan miles de dólares y que no ofrecen la misma fluidez de uso que notarán en el video).

¡Gracias al lector thegoodboy66 por el enlace!

Video a continuación (enlace YouTube)...


Actualización: ¡¡¡Gracias a la Tania Mukai por la traducción del Japonés en los comentarios acá abajo!!!

autor: josé elías


El rifle pinta-murales, pinta paredes gigantes al estilo paint-ball
eliax id: 7789 josé elías en jun 2, 2010 a las 09:07 AM ( 09:07 horas)
He aquí otro de esos inventos que uno solo puede pensar en decir "¿cómo no se le ocurrió a otra persona antes?". Se llama la "Fa-Cade Printer".

Se trata de un dispositivo en forma de rifle o cañón, que dispara bolas de pintura a larga distancia y con alta precisión (mas o menos similar a las pistolas del juego paint-ball), pero con una particularidad muy especial: El rifle se mueve de manera robotizada, bajo control de una computadora, para que así uno pueda programar cualquier dibujo que uno desee "imprimir" en prácticamente cualquier superficie de gran tamaño (y hasta donde alcancen los disparos, obviamente).

Fa-cade printer - facade printerEsto sin duda que será una nueva manera de hacer arte de graffiti en todo tipo de murales. Por ahora les recomiendo dos cosas a los creadores de este aparato: Primero, que aumenten su velocidad (si ven el video, notarán que es medio lento), y segundo que creen una versión que pueda cargarse con múltiples colores de una sola vez en vez de tener que intercambiar la "tinta" constantemente. Sin embargo aun con esas limitaciones actuales, está genial...

Página oficial del producto

Video del dispositivo en acción (enlace YouTube)...


autor: josé elías


Tecnología I2T, describe en texto (automáticamente) lo que sucede en video
eliax id: 7788 josé elías en jun 2, 2010 a las 01:09 AM ( 01:09 horas)
I2TInvestigadores de UCLA (University of California, Los Angeles) en colaboración con la empresa ObjectVideo, están desarrollando un sistema casi salido de la ciencia ficción, y que sin duda algún día veremos integrado con esta otra tecnología de la cual les hablé ayer.

Se trata de un software llamado I2T (Image to Text) que analiza lo que sucede en una cámara de video, y como por arte de magia puede describir lo que sucede en texto (y eventualmente, hablado con un sintetizador de voz artificial).

El sistema aun no está a un nivel listo para comercializarse, pero aun en su infancia, el potencial es tremendo. El sistema por ejemplo puede decirte cosas como "El vehículo X que vimos hace 5 minutos acaba de reaparecer en pantalla", lo que lo hace óptimo para tareas de vigilancia y espionaje automatizado.

Para lograr su magia, los diseñadores de I2T entrenaron al sistema con mas de 2 millones de situaciones y descripciones de distintos eventos, los cuales el sistema de Inteligencia Artificial compara en tiempo real para ver que es lo mas similar a lo que ve.

En su forma actual el sistema solo funciona con cámaras estáticas (es decir, en donde la cámara no se mueve ni hace acercamientos), pero como toda tecnología, este es apenas el primer paso y ya nos imaginaremos los usos de esto en unos años.

Algo que me puedo imaginar es que antes de lo que muchos se imaginen, esta tecnología termine siendo invisible e incluída en todo dispositivo estático o móvil, de modo que estos puedan aprender de nosotros y no solo describir lo que ven, sino que interpretar nuestros comandos para mapearlos a acciones que queremos se ejecuten, como expliqué en esta Reflexión.

Fuente de la noticia

Video demostrando la tecnología

autor: josé elías


Telescopio Espacial Hubble detecta planeta siendo devorado por su estrella
eliax id: 7781 josé elías en may 31, 2010 a las 12:07 AM ( 00:07 horas)
El Telescopio Espacial Hubble recientemente detectó el acto de un estrella devorar uno de sus planetas, un acto que es detectado por primera vez en nuestra historia.

El planeta, apodado el "WASP-12b", fue detectado en este estado gracias a un nuevo instrumento instalado en el Hubble en el 2009 llamado el "Cosmic Origins Spectrograph", y sin duda alguna este hallazgo es una gran muestra del tipo de ciencia que el Hubble después de tantos años en servicio nos sigue aportando.

Según el instrumento del Hubble, el planeta no solo tiene la temperatura superficial mas caliente de todo exo-planeta hasta ahora descubierto (1,500 grados Celsius, o 2,800 grados Fahrenheit), sino que se puede detectar directamente que el planeta está deformado en forma elíptica, debido a la gran atracción gravitacional de su estrella madre.

Así mismo, una gran estela de nubes y gas existe en forma de una "carretera espacial" entre el planeta y la estrella, demarcando el camino en que el material del planeta cae hacia su sol.

Este planeta fue descubierto en realidad en el 2008, a 600 años luz de distancia de nosotros, pero apenas ahora con este nuevo instrumento es que se sabe lo que ocurre en su vecindad.

El planeta es 40% mas masivo que Júpiter y 300 veces mas grande que la Tierra, y se encuentra tan cerca de su estrella que un año completo de ese planeta (es decir, una revolución alrededor de su estrella) ocurre en poco mas de 24 horas terrestres (es decir, un día aquí es un año allá).

Según cálculos, el planeta terminará de ser destruído en unos 10 millones de años.

Nota sobre la imagen: La imagen muestra una foto conceptual de lo que sucede con ese planeta, basado en los datos del Hubble, y no es una foto directa en el espectro visual normal, ya que por el momento no poseemos una resolución tan grande como para discernir tanto detalle a tales distancias.

Fuente de la noticia

autor: josé elías


3D LIAC, adaptador para tomar fotografias en 3D con tu cámara DSLR
eliax id: 7777 josé elías en may 29, 2010 a las 12:14 AM ( 00:14 horas)
3D LIACHe aquí algo curioso con lo que me encontré recientemente en la web. Es un adaptador que reemplaza tu lente en tu cámara tipo DSLR (o SLR clásico) que te permite tomar fotografías en 3D.

Según la página del producto, al que llaman el Loreo 3D Lens in a Cap (LIAC), el dispositivo funciona con monturas de lentes tipo Canon EOS, Canon FD, Nikon, Olympus, Minolta AF, Minolta MF y Pentax K (debes especificar el tipo cuando lo compres), y funciona de una manera bastante sencilla: Utilizando un conjunto de espejos, hace que dos imágenes lleguen al sensor de tu cámara, utilizando la mitad de tu sensor para la imagen del ojo izquierdo, y la otra mitad para el ojo derecho.

Es decir, este aparato reemplaza tu lente, haciendo la labor de dos lentes en uno.

Obviamente pierdes la mitad del sensor (ya que obtienes una sola imagen vertical), pero los resultados es posible que valgan la pena.

Noten que no he probado este dispositivo, ni tengo ninguna relación con esta empresa, pero si alguien lo prueba me dejan saber sus resultados. Noten además que ofrecen un modelo para hacer fotografía tipo macro (de objetos pequeños y cercanos) en 3D.

El dispositivo cuesta entre US$90 y US$110 dólares dependiendo del tipo de montura, y viene con el software necesario para transformar las imágenes obtenidas a 3D, así mismo tienes la opción de elegir entre uno de dos tipos de visores para ver tus creaciones en 3D en tu monitor o de manera impresa.

Página oficial del producto

Una página de alguien que experimentó con el 3D LIAC

autor: josé elías


Sony desarrolla pantalla flexible mas delgada que un cabello humano
eliax id: 7773 josé elías en may 27, 2010 a las 01:35 PM ( 13:35 horas)
Sony acaba de demostrar que ha desarrollado un nuevo tipo de pantalla ultra-flexible que es mas delgada que el espesor de un cabello humano.

De paso está construída con la técnica de OLED, lo que significa un gran contraste y menos consumo energético que los tradicionales LCD. El prototipo es una pantalla de 4.1", con resolución de 432 x 240 pixeles, y contraste de 1,000:1.

La pantalla es tan flexible, que Sony la ha demostrado enrollándola alrededor de un lápiz mientras esta reproduce videos.

Ya me imagino esta tecnología en una nueva generación de dispositivos móviles (estoy podría traer de vuelta la moda de los relojes de pulsera, que han sido reemplazados en tiempos recientes por celulares).

Fuente de la noticia

Leer el resto de este artículo...


autor: josé elías


Nuevo algoritmo de análisis de imágenes detecta el "patrón universal" de objetos
eliax id: 7747 josé elías en may 15, 2010 a las 12:08 AM ( 00:08 horas)
Uno de los retos mas grandes de la ciencia de reconocimiento de imágenes y de patrones, es ¿cómo poder crear un algoritmo en donde se pueda deducir el patrón primordial o universal de algo que se detecta visualmente?

En otras palabras, sin importar cual guitarra nos presenten, nosotros sabemos que es una guitarra, incluso si nos presentan un modelo que nunca antes vimos en la vida. Esa proeza la podemos hacer gracias a que tenemos la capacidad de reconocer la forma abstracta, o intrínseca, de los objetos que vemos.

En el caso de la guitarra, lo que notamos son las curvas de esta, así como su mástil (el lado "largo" de esta en forma de tabla). Es decir, en nuestra mente una guitarra es en realidad un objeto en forma de número 8, con un mástil que surge de uno de sus lados.

Similarmente podemos así mismo clasificar personas, animales, edificios, automóviles, aviones, cucharas, pianos, pesas, sillas, botellas, laptops, destornilladores, nubes, libros, etc.

Pues la noticia de hoy, es que por primera vez se ha creado un algoritmo que precisamente deduce esas cosas, lo que sin duda dotará a una nueva generación de software de inteligencia artificial de la capacidad de poder entender mejor su entorno, así como de clasificar los objetos que ve en su medio ambiente.

Este adelanto fue posible gracias a científicos del MIT (Instituto de Tecnología de Massachussetts) y de UCLA (University of California at Los Angeles), y funciona buscando rasgos visuales comunes compartidos por múltiples ejemplos del mismo objeto.

En un paso posterior, el algoritmo entonces busca por combinaciones de esos rasgos compartidos por múltiples ejemplos de varios objetos similares, y finalmente cruza ambos resultados para ver combinaciones de todas esas combinaciones y ver cuáles son los rasgos que continúan siendo iguales al final del algoritmo.

El resultado final son dibujos abstractos que se asemejan a bosquejos a lápiz de objetos, en donde se traza lo que el algoritmo cree es una representación "universal" del objeto. Como pueden ver en la imagen que acompaña el artículo, los resultados son bastante obvios en la mayoría de los casos.

Algo curioso a notar, es que esto se asemeja mucho a como un niño posiblemente aprende a reconocer objetos en sus primeros meses: Primero nota un ejemplo de algo, después nota mas copias de ese mismo objeto (como por ejemplo, un biberón, o la cara de sus padres, o una mecedora), y mas tarde ve otros ejemplos de esos mismos objetos (otros biberones, otros familiares, sillas, mesas, etc) y aprende a asociar los objetos que son parecidos para clasificarlos como la misma cosa.

Fuente de la noticia

autor: josé elías


Sharp anuncia primera cámara en 3D para dispositivos móviles
eliax id: 7745 josé elías en may 13, 2010 a las 10:27 PM ( 22:27 horas)
Sharp 3D mobile camera moduleLa empresa Sharp de Japón acaba de anunciar la disponibilidad de la primera cámara 3D para dispositivos móviles, capaz de grabar video no solo en 3D, sino que en resolución de alta definición en el formato 720p (1280 x 720 pixeles).

Ya existen rumores de que esta cámara terminará siendo utilizada en el recientemente anunciado Nintendo 3DS, lo que sería genial para complementar la pantalla 3D (sin necesidad de gafas) de esa consola.

Específicamente, sería genial poder hacer video-conferencia en 3D, ya que uno vería la otra persona literalmente flotando en 3D ante nuestros ojos, lo que sería algo sensacional.

No duden que veremos este módulo también siendo utilizado en una futura generación de celulares inteligentes como un factor diferenciador (ya me imagino por ejemplo a algún fabricante de celulares Android incluyendo esta novedad en uno de sus dispositivos).

autor: josé elías


Tecnología para sacar imágenes de alta resolución de video de baja resolución
eliax id: 7742 josé elías en may 13, 2010 a las 12:10 AM ( 00:10 horas)
He aquí una tecnología recientemente demostrada por Microsoft, de la cual creo veremos mucho mas en el futuro, pues como verán cuando les explique es algo que tiene muchísima utilidad práctica en todos los aspectos de tecnologías visuales digitales.

Se trata de una tecnología que toma un video cualquiera, lo analiza, y automágicamente extrae imágenes de alta resolución de este.

Noten que la idea detrás de esto no es nuevo, pues recuerdo haber leído sobre esta estrategia de extraer imágenes desde hace varios años atrás (algo similar es esto publicado en eliax en el 2006), sin embargo no cabe duda que la implementación de Microsoft es extraordinaria.

De la manera que esto funciona, es que si ponderan un poco sobre lo que sucede cuando alguien graba un video de baja resolución, y mueve la cámara, es que uno en realidad está grabando muchos "pedazos" de la misma imagen, en diferentes pixeles.

Es decir, recuerden que un segundo de video graba entre 24 y 60 cuadros por segundo (dependiendo de si es formato de cine, NTSC, PAL o HDTV), por lo que cuando grabas (por ejemplo) una telaraña, en realidad lo que haces es tomarle unas 30 fotografías en un segundo.

La técnica entonces lo que hace es que toma todas esas fotografías, y obtiene el mejor detalle entre cada una de ellas, y con un algoritmo deduce lo que entre todas estaban captando en alta resolución.

Noten que esta técnica se puede utilizar no solo para extraer una imagen de alta resolución de un video de baja resolución, sino que también para crear imágenes panorámicas de alta definición extraídas de video que se desplace en varias direcciones.

Una anécdota personal curiosa: En mis días universitarios a mi se me ocurrió hacer algo inverso a esto: Una técnica para crear pantallas LCD que podían desplegar imágenes de alta definición, pero con un panel de bajo costo y de baja resolución, con el truco de hacer vibrar el panel y hacer que este desplegara un sub-pixel debajo de cada pixel real (en inglés a esto le llaman "sub-pixel sampling").

Esta idea incluso se la propuse a una muy buena y talentosa ingeniera amiga mía, que en ese momento justamente se especializaba en una tecnología llamada MEMS (básicamente, partes mecánicas a escalas nanométricas). Para hacer la historia corta, ella no le puso mucho atención a mi idea, pero varios años después HP patentó e implementó justamente ese idea, en un tipo de pantalla llamada "wobulation", de lo cual pueden leer aquí.

Ella aun me recuerda que pudo haber hecho mucho dinero si me hubiera hecho caso entonces, y a mi no me hubiera ido nada mal, pues teníamos un acuerdo en donde si ella implementaba la idea, un porcentaje de lo que ella hiciera sería mio... :)

Sin embargo, hoy día es posiblemente mas barato (debido a escalas de fabricación) crear paneles LCD sin este truco (el cual tiene la desventaja de que requiere de un muy alto ritmo de refresco de imagen (un high refresh rate), sin embargo quería compartir esa anécdota con ustedes, ya que me trajo buenos recuerdos de mis días universitarios en Boston, EEUU, y además les debe enseñar una lección: No haces nada con una idea si no la implementas, pues si no la implementas, es como si la idea nunca hubiese existido.

A continuación, un par de ejemplos de esta tecnología:

Leer el resto de este artículo...


autor: josé elías

"Es verdaderamente emocionante, estar sentado en mi computadora a millones de kilómetros de Marte y poder ver el suelo marciano y sus alrededores, simplemento magnífico...."

por "Antonio" en ago 16, 2012


en camino a la singularidad...

©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax