texto:   A-   A+
eliax

Tecnología Visual
Como fabricar tus propios OLEDs
eliax id: 7603 josé elías en abr 4, 2010 a las 04:04 AM ( 04:04 horas)
Una de las tecnologías de pantallas visuales de mas alto crecimiento hoy día son las que utilizan OLED (Organic Light Emitting Diode), algo que suena muy avanzado y caro y solo disponible a unos cuantos.

Sin embargo, hoy los refiero a una guía que les enseña como fabricar sus propios OLEDs.

Con esto no van a competir contra los grandes fabricantes de pantallas, pero sí serán la envidia de sus amigos geeks... :)

Enlace a la guía

autor: josé elías


Pregunta a eliax: ¿Como funciona la TV en 3D y podré adaptar mi TV actual a 3D?
eliax id: 7579 josé elías en mar 29, 2010 a las 12:13 AM ( 00:13 horas)
La pregunta de hoy me la han hecho una 20 veces desde que publiqué artículos como este, y es sobre la preocupación de muchos de si podrán disfrutar en un futuro contenido en 3D con sus televisores existentes en sus hogares.

El tema en realidad es un poco mas complicado de lo que aparenta, aunque la respuesta es relativamente simple...

Antes de iniciar notemos las dos maneras básicas de generar un flujo de datos 3D en algo como una conexión HDMI hacia una TV, y de como generar un efecto 3D de ese flujo.

¿Cómo funciona una Televisión con tecnología 3D?
Una manera es enviar dos imágenes secuenciales a la TV, una primera para el ojo izquierdo, y otra posterior para el ojo derecho, y después lo que sucede es que la TV se asegura de mostrar distintas imágenes para cada ojo (explico como en un instante).

La otra manera (y la aprobada por el estándar Blu-ray 3D) lo que hace es que envía ambas imágenes en una sola (imaginen que la imagen que le llega a la TV mide el doble de alto que lo que se despliega en la pantalla), y es después la labor de la TV la de separar ambas imágenes para reproducirlas una para cada ojo.

Noten ahora que independientemente de la técnica utilizada para enviar el flujo de datos a la TV, que existen varias técnicas para recrear una imagen 3D en tu mente.

La primera y mas sencilla (y también la mas efectiva, pero también la mas cara y molestosa) es la de utilizar gafas 3D con tecnología LCD.

Estas gafas lo que hacen es muy sencillo: En un instante oscurecen el ojo izquierdo y dejan entrar luz solo por el ojo derecho, y en el próximo instante hacen lo contrario (oscurecen el lado derecho y dejan entrar luz por el ojo izquierdo). Esto ocurre tan rápidamente (a 25, 30, 50 o 60 veces por segundo, según la implementación) que nunca notamos que eso es lo que ocurre (y al contrario, creemos que las gafas siempre son transparentes), pero sin embargo cuando se sincronizan con la TV eso hace que cuando la TV despliega la imagen izquierda, que solo el ojo izquierdo la vea, y que cuando despliega la imagen derecha, solo el ojo derecho la vea, y ese es el truco que logra el 3D en nuestras mentes.

La segunda manera es utilizando una técnica llamada "polarización de luz", en donde ambas imágenes son desplegadas simultáneamente sobre la TV (como si tuvieran fundidas una encima de la otra), pero es posible separar una imagen de la otra utilizando una propiedad de la luz llamada polarización.

Con polarización, el lente que cubre tu ojo izquierdo está girado 90 grados en relación al lente de tu ojo derecho, lo que permite que luz polarizada normalmente o polarizada a 90 grados entre a cada ojo por separado.

Una manera de imaginar eso es que los fotones de luz puede viajar en forma de lápices, desde la TV hasta tus ojos, pero no imaginen un lápiz viajando en forma de proyectil hacia tus ojos, sino que imaginemos dos lápices viajando en forma de una cruz, en una posición idéntica a como pondrías una cruz en una pared frente a ti.

Ahora imaginen que separamos la cruz en dos secciones, una vertical, y otra horizontal, e imaginemos una vez mas que esos dos pedazos de cruz viajan de la TV hacia tu cara.

Además, imaginemos ahora que en vez de ser una sola cruz, que lo que viajan son miles de millones de cruces, pero de un tamaño microscópico, todas saliendo desde la TV y llegando a unas gafas que manejan luz polarizada.

Es decir, ahora mismo deben imaginarse que grandes cantidades de fotones alineados de forma vertical y horizontal llegan hasta tus gafas, en tamaños microscópicos.

El próximo ingrediente es imaginarnos que el lente izquierdo de tus gafas tiene millones de microscópicas ranuras horizontales, mientras que el derecho tiene millones de microscópicas ranuras verticales. Esto tiene como efecto que por el lente izquierdo solo pueden entrar los pedazos de cruces que estén alineados horizontalmente, mientras que por el derecho solo los que están alineados verticalmente.

Es decir, el efecto neto es que cada ojo vez una imagen diferente, ya que la imagen del ojo izquierdo está compuesto de "luz polarizada horizontalmente" y la imagen del ojo derecho está compuesta por "luz polarizada verticalmente".

Cabe decir que esto requiere de una capa especial sobre la superficie de la TV, lo que incrementa su costo.

La tercera manera común de lograr un efecto 3D es con el "efecto grilla". Para imaginar este escenario, imaginen una regla como de la que utilizamos en la escuela de niños, pero imagínenla parada (es decir, en posición vertical), y además imaginen que la ven "de canto" (es decir, no pueden ver sus números sobre su superficie, ya que está "de lado" - ustedes solo pueden ver "su lado fino").

Ahora, imaginen que esa regla está pegada con pegamento en esa posición en una pared. Imaginen además que tanto al lado izquierdo, como al lado derecho de esa regla, colocamos centenares de otras reglas mas.

Es decir, ahora mismo deben estar imaginándose centenares de reglas que forman el patrón de una cortina o grilla, de centenares de lineas verticales.

Y ahora viene el truco: Imaginen que están parados a una distancia del largo de un brazo humano promedio, viendo la regla original. Notarán que de la regla original solo pueden ver su borde, ya que está totalmente de canto. Sin embargo, si giran sus cabezas a la derecha, notarán que podrán ver un lado de las otras reglas que están lejanas, y si giran sus cabezas hacia su izquierda, notarán que podrán ver el otro lado de las reglas en esa dirección.

Es decir, en una dirección pueden ver un lado de la regla (digamos, en donde están los números impresos sobre esta), y en otra dirección pueden ver el lado de atrás de la regla.

Eso se debe obviamente a que como todas las reglas están colocadas en paralelo una al lado de la otra, y tu no te haz movido, el ángulo de visión cambia cuando miras la reglas que están a tus lados, lo que te permite ver las reglas por delante o por detrás.

Habiendo entendido ese concepto, imaginen ahora que reducimos esas reglas a un tamaño tal, que el "canto" de la regla es de apenas el tamaño de la mitad de un puntito o "pixel" en la pantalla de tu TV. Además, imaginen que extendemos las reglas en longitud, de modo que estas miden la altura de la pantalla.

Ahora mismo deben estar imaginándose miles de reglas en sentido vertical, que van desde la parte izquierda de la TV hasta la parte derecha, como si de una grilla se tratara.

Pues ahora, lo que sucede es bastante sencillo para lograr un efecto 3D: El ángulo de cada una de estas grillas está calculado de manera tal, que tu ojo izquierdo solo puede ver un pixel a un lado de la regla, mientras que tu ojo derecho solo puede ver un pixel en su lado opuesto, algo que ocurre en toda una linea de pixeles verticales en la pantalla, al lado de cada "regla".

Obviamente ese ángulo debe ser bien calculado, ya que depende mucho de tu posición con relación a la pantalla, y he aquí lo bueno y lo malo de esta tecnología: Lo bueno es que no necesitas gafas, ya que la TV hace el trabajo de enviarte una imagen por separado para cada ojo, pero lo malo es que depende demasiado de la distancia a la que estés frente a la TV, así como a tu posición horizontal (es decir, al frente o a los lados de la TV).

Eso significa que este tipo de televisores es muy propenso a perder el efecto 3D dependiendo de en donde te encuentres frente a la TV, y está además el tema de que una sola persona puede ver el efecto 3D a la vez en su forma básica. La forma mas compleja de esta tecnología utiliza cantidades mayores de grillas con varios ángulos para soportar entre 2 y 8 posiciones frente a la TV en donde 2 a 8 personas pueden sentir el efecto. Sin embargo, en mi experiencia con este tipo de tecnologías, es la menos recomendada por el momento.

Noten que esta última variación es la utilizada por el Nintendo 3DS recién anunciado, y la razón por la cual pude deducir antes de que Nintendo hiciera público que esta era la tecnología que utilizaría, es porque dijeron que no necesitaría gafas para lograr el efecto 3D, lo que inmediatamente me dio una pista de que se trataba de este método de grillas, el cual en un dispositivo como el 3DS deberá funcional maravillosamente ya que por lo general es una sola persona que juega con el 3DS a una distancia fija del jugador.

Ahora bien, ya entienden mas o menos cuales son las formas mas populares de enviar, decodificar y percibir un efecto 3D en tu TV, ahora respondamos la siguiente pregunta...

Leer el resto de este artículo...


autor: josé elías


El HoloToy para el iPhone, algo que tienen que ver (video)
eliax id: 7580 josé elías en mar 24, 2010 a las 11:01 PM ( 23:01 horas)
Este es un video que no deben dejar de ver...

Es una aplicación para el iPhone llamada HoloToy, que utilizando los gráficos 3D del iPhone, mas sus acelerómetros, crea la sensación de que dentro y fuera del iPhone existen un mundo virtual y que nosotros tenemos acceso a ese mundo utilizando al iPhone como una ventana hacia ese mundo.

Este efecto es algo que fácilmente puede ser recreado en otras plataformas móviles (como Android, Palm Web OS, o Windows Phone 7), y que incluso hemos visto desde hace tiempo en juegos del iPhone como Labyrinth 2, y mas recientemente en un asombroso demo para el Nintendo DSi, pero esta implementación que verán llamada HoloToy, es sin duda la mejor disponible comercialmente (cuesta US$1 dólar en el App Store del iPhone).

Nota: HoloToy en español sería algo como "Juguete Holográfico", ¡cuyo nombre le viene bastante bien! Y a propósito, este tipo de tecnología que cae bajo el nombre de "Realidad Aumentada" es evidencia de mi predicción #15 para este año.

Página oficial del creador de HoloToy

Video a continuación (enlace YouTube)...


autor: josé elías


Y mas noticias breves (Google y China, microSDHC 32GB, iPhone sin contratos, etc)
eliax id: 7574 josé elías en mar 23, 2010 a las 02:55 PM ( 14:55 horas)
GoogleComo ya saben, debido a mi falta de tiempo en estos días, resumo en estos mini-breves artículos eventos y noticias que no me gustaría dejar pasar.

1. Google se retira de China
Como les avisé en el rumor por @twitteliax, Google efectivamente se retiró del mercado chino, y lo hizo de una manera que no le gustó para nada al gobierno de esa nación: Ha direccionado la página de Google en China a la de Google en Hong Kong (y los que saben de los temas diplomáticos que eso conlleva, ya se imaginarán porque China no está feliz con esa decisión). Este tema aun no termina por lo que atentos a nuevos desarrollos en el futuro próximo... fuente

SanDisk microSDHC 32GB2. SanDisk y su tarjeta microSDHC de 32GB
SanDisk acaba de sacar al mercado una tarjeta en el formato microSDHC que almacena unos asombrosos 32GB, a un precio de US$199 dólares.

Lo asombroso de esta noticia es que una tarjeta microSDHC es mas pequeña que la uña de un dedo meñique adulto, y sin embargo ya almacena lo que hace pocos años requería de un disco duro del tamaño de una caja de naipes.

O en otras palabras, ahora un celular puede tener el mismo espacio de almacenamiento (y de mayor velocidad) que un disco duro de laptop de hace un par de años atrás. fuente

iPhone con chip SIM3. El iPhone disponible desbloqueado en EEUU
Apple inició esta semana a vender el iPhone (en todos sus modelos) libres de contratos y totalmente desbloquedos en los EEUU (algo que a la fecha solo se podía hacer en algunos mercados europeos).

Los usuarios deberán pagar el precio completo (sin subsidios), pero al menos ahora el iPhone compite mejor en precios contra los celulares Android (algunos de los cuales se venden sin subsidios en ese país).

Los precios son US$499 dólares for el iPhone 3G de 8GB, US$599 for 3GS con 16GB y US$699 por el 3GS de 32GB. fuente

Actualización: La fuente a donde enlazo ha hecho una corrección reciente al final de su artículo: El iPhone vendrá libre de contrato pero NO vendrá desbloqueado, sin embargo existen herramientas de todo tipo en el mercado para desbloquearlo fácilmente para cualquier proveedor, como por ejemplo esta :)

4. Mejores sensores para cámaras digitales en camino
La empresa InVisage Technologies acaba de anunciar el desarrollo de un nuevo tipo de sensor para cámaras digitales (de fotos y videos) que promete ser 4 veces mas eficiente (en cuanto a su capacidad de captar luz eficientemente) que todo lo que existe en el mercado con tecnologías CCD o CMOS.

La empresa utiliza una técnica que llama QuantumFilm en donde utiliza unos "puntos cuánticos" (descritos como cristales a escalas nanométricas colocados precisamente uno al lado del otro) para lograr la hazaña.

Aparte de eso, la empresa dice que es mas barato fabricar este tipo de sensor que los actuales, lo que significa que en un futuro próximo tendremos cámaras que capten mejor la luz, que se desempeñen mejor en ambientes de baja luz, y que cuesten menos.

Inicialmente la empresa dice que se concentrará en el sector de sensores para celulares. fuente

5. Google a entrar la web a la TV
Google recientemente anunció una sociedad con Intel y Sony para crear una nueva plataforma que traerá la web a nuestros televisores, por medios de cajas del tipo que nos proveen las empresas de cable, y funcionando con el sistema operativo Android OS desarrollado por Google.

Para aprender mas de lo que quiere lograr Google (aunque hay otras cosas ahí de las que hablaré en un futuro), los refiero a estos esfuerzos similares por parte de Yahoo y Adobe en este artículo previo y en este otro. fuente

Typewriter6. Animación en ASCII en Rusia, 1968
El Arte ASCII consiste en dibujar sobre papel o pantalla obras de arte utilizando únicamente las letras, números y símbolos de un teclado o máquina de escribir, y es un arte que requiere paciencia, imaginación y destreza.

Así que ahora los refiero a una animación realiza en Rusia en el año 1968, hecha de las maneras mas rudimentarias. El resultado es bastante crudo, pero cuando tomen en cuenta que se hizo todo con una máquina de escribir, ya se podrán imaginar el trabajo que tomó hacer esa pequeña animación... enlace al video

7. El MacUpdate Promo está activo
Los usuarios de Mac OS X que quieran obtener un gran paquete de aplicaciones a un precio asombroso, deben visitar la página a continuación inmeditamente. Es un paquete promocional que ofrece 10 útiles aplicaciones (unas mas que otras) por el precio de US$50 dólares (es decir, US$50 por las 10 aplicaciones en conjunto).

Lo interesante del paquete sin embargo es que incluye la mas reciente versión de Parallels Desktop 5 para virtualizar a Windows dentro de Mac (es el que uso y lo recomiendo), un programa que solo por separado cuesta unos US$80 dólares. A la promoción le quedan solo 8 días mas ahora mismo. Enlace a la promoción.

8. Hello World en C en 45 Bytes
Todos los programadores sabemos del famoso programa "Hola Mundo" que uno siempre escribe como su primer programa en cualquier entorno de programación. Sin embargo, aun tu solo imprimas esa frase en la pantalla, por razones técnicas el ejecutable es por lo general unos cuantos KiloBytes, sin embargo como verán a continuación si estás dispuesto a hacer unos sacrificios es posible bajar el tamaño a unos asombrosos 45 Bytes. Vean como aquí.

My Space9. MySpace a vender datos privados de usuarios
MySpace está actualmente pasando por un huracán de relaciones públicas después de revelarse que la empresa comenzará a vender los datos privados de sus usuarios, que incluyen actualizaciones móviles, listas de música favorita, códigos postales, fotografías, actualizaciones de estado, etc. Mi recomendación: Ahora es el mejor momento de cambiar a Facebook, y como siempre les he sugerido, sin importar cual portal sea mantengan sus datos privados y personales al mínimo. fuente

Opera Mini10. Aclaración sobre Opera Mini 5 Beta
Muchas personas me han enviado videos y artículos que aparentan demostrar que el nuevo navegador web Opera 5 Mini es mucho mas rápido que los navegadores de otras plataformas como el Safari del iPhone y el WebKit de Android o Palm Pre, sin embargo, hay que aclarar algo muy importante.

Lo que Opera Mini hace es que la página web primero la envía a unos servidores de Opera, en donde las páginas son procesadas y transformadas de maneras impredecibles, las fotos son reducidas de tamaño y calidad, y el resultado después es enviado al celular.

Eso para páginas sencillas funciona bien, pero es un grave problema para páginas complejas, en donde por ejemplo sería imposible de aplicar a algo como Google Docs o la versión completa de GMail. Hago esa aclaración porque aunque Opera Mini ciertamente es un excelente producto, muchas personas están comparando manzanas con naranjas...

autor: josé elías


Video de como se mantiene un mega-telescopio (el VLT)
eliax id: 7573 josé elías en mar 23, 2010 a las 02:58 AM ( 02:58 horas)
El VLT (Very Large Telescope, o "Telescopio Bien Grande") es uno de los mas poderosos del mundo, con 4 grandes espejos, cada uno midiendo 8.2 metros (26.9 pies) de diámetro.

Sin embargo, aparte de su tamaño y complejidad, este equipo es también algo sumamente sensible y delicado, y a la hora de darle mantenimiento la labor es casi describible como titánica, como verán en el siguiente video.

Fuente de la noticia

¡Gracias al lector Felipe Nevarez por el enlace!

Video a continuación (enlace YouTube)...


autor: josé elías


¿H.264 (MPEG4) a ser el estándar por defecto para Video con HTML 5?
eliax id: 7568 josé elías en mar 22, 2010 a las 12:41 AM ( 00:41 horas)
Recientemente Microsoft hizo disponible una versión Beta (de pruebas) de la próxima versión de su navegador web, el Internet Explorer 9, el cual como reporté hace unos días adoptará los estándares de HTML 5 en su arquitectura, lo que por fin completará el círculo de navegadores que soportarán la próxima generación de aplicaciones web.

Sin embargo, un anuncio que pasó sigiloso y que pocos notaron, es el hecho de que IE9 también soportará los estándares para Video con HTML 5, y el CODEC que soportará por defecto será H.264 (o mas conocido popularmente como MPEG-4).

Ese es el mismo CODEC que he vaticinado como ganador desde hace un par de años, aun tenga sus problemas (que mencionaré en un instante).

Microsoft se une ahora a Apple (con su navegador Safari) y a Google (con su navegador Chrome) a la lista de empresas que soporta el nuevo estándar, y dado que IE tiene la mayor parte del mercado, y que Chrome es el navegador de mayor crecimiento, y que YouTube le pertenece a Google, y que Apple domina el espacio de video móvil con el iPhone, creo que se hace evidente que el formato H.264 aparenta que ganará la guerra de los formatos a soportarse en la nueva generación de video por Internet.

El formato alternativo propuesto por varios miembros de la comunidad Open Source (Código Libre) es el de OGG Theora, sin embargo, el problema aquí es uno de pragmatismo.

Es cierto que el formato OGG Theora es abierto y que no hay que pagar comisiones por su uso, y que en un mundo ideal sería fabuloso adoptarlo, pero el problema es que en la práctica, las realidades y necesidades del mercado son otras.

Para empezar, según mediciones hechas por ingenieros de Google que implementan a YouTube, el formato H.264 ofrece mejor calidad con un mismo ancho de banda, o inversamente, requiere menos ancho de banda para mantener la misma calidad, lo que significa menos congestión en la red, y videos de mejor calidad descargados mas rápidamente para los consumidores.

Si buscan en la red con Google, notarán unos cuantos artículos de comparaciones que dicen que eso no es cierto, sin embargo, si yo tuviera que hacerle caso a una persona que escribe estos artículos sin ser ingeniero en la materia, y hacerle caso a ingenieros de YouTube que viven de eso e incluso ayudan en las especificaciones técnicas de tales estándares, tengo que hacerle caso a los ingenieros de Google y otras empresas cuyas opiniones creo tienen mas peso en este aspecto, es lo mas prudente.

Por otro lado, está el tema de que existe una infraestructura de hardware y software muchísimo mas extensa y ya madura para el formato MPEG-4, que es una evolución del formato MPEG-2, el cual es utilizado en casi el 100% de la industria de la televisión, cine y videos, por lo que no es tan fácil decirles que dejen todo lo que tienen atrás para adoptar un nuevo estándar.

Sin embargo, está el punto de que el formato H.264 no es totalmente abierto (es solo abierto en cuanto a especificaciones técnicas, pero no en cuanto a patentes e implementación), lo que debo conceder es el mayor problema que veo con la adopción de H.264.

Debido a eso el grupo MPEG LA (responsable del estándar) anunció hace poco que al menos hasta el 31 de Diciembre del 2015 no se le cobrará comisiones de uso a los que adopten esta tecnología, pero nadie puede decir con certeza qué pasará el 1 de enero del 2016...

Sin embargo, la buena noticia es que al igual que el formato MP3 y MPEG-2, todo esto será transparente para los consumidores finales (es decir, los que utilicen los navegadores web) ya que las comisiones son cobradas solo a las empresas que implementan soluciones basadas en la tecnología (como son Apple, Microsoft, Google, etc).

Lo ideal obviamente sería una versión libre de H.264, pero parece que por algunos años estaremos atascados con un formato que no es 100% libre.

Una luz que veo en el horizonte sin embargo, es que después que despegue el video por Internet con HTML 5, se hará mas fácil adoptar otros estándares futuros (incluso una versión mejorada del mismo OGG Theora), pues para entonces se habrá hecho evidente la utilidad de Video con HTML 5, en particular dado el caso que mas y mas nuestros videos que compartimos por la web residen en "nubes" como YouTube o Vimeo (quien también adoptó a H.264), por lo que se haría fácil para estas empresas convertir todos sus videos a los nuevos formatos.

Yo personalmente, aunque admito preocupación por el problema de patentes de H.264, estoy feliz porque al menos veo un estándar universal en el horizonte, y eso es mucho mejor que no tener ninguno...

autor: josé elías


Por primera vez, tornan un objeto tridimensional en invisible
eliax id: 7565 josé elías en mar 20, 2010 a las 06:19 AM ( 06:19 horas)
A la fecha, la ciencia ha tenido grandes hitos en la búsqueda de una solución que nos permita hacer las cosas "invisibles" (ver por ejemplo enlaces de noticias previas en eliax al final de este artículo), de manera bastante similar a las películas de ciencia ficción, en donde (por ejemplo) naves espaciales enteras aparentan desaparecer en el espacio, o una manta de tela mágica con la que te cubres hace que nadie te vea.

Sin embargo, hasta la fecha estos experimentos solo han podido "esconder" cosas en dos dimensiones, lo que en la práctica significa que si algo frente a ti aparenta invisible, pero mueves la cabeza aunque sea un milímetro a uno de tus lados, la ilusión desaparece y el objeto lo puedes ver nuevamente, lo que en la práctica no es muy práctico...

Pero ahora, un equipo de científicos del Karlsruhe Institute of Technology en Alemania han desarrollado una tecnología que por primera vez en la historia es capaz de hacer un objeto tridimensional invisible.

Noten que aquí hay algunos "peros", pues la tecnología aun está en pañales.

Esto por ejemplo no funciona aun con las mismas longitudes de onda que percibimos los humanos con nuestros ojos, es decir, esto aun no funciona para objetos a simple vista, sino que en otras longitudes de ondas mas grandes y que no podemos percibir, por lo que aun no podemos esconder cualquier cosa para humanos.

La buena noticia sin embargo es que no solo estamos ya muy cercanos a las longitudes de onda de los humanos, sino que además ya sabemos cual es la meta para que esto funcione con nuestra vista.

En cuanto a cómo esto funciona, el truco está en crear un meta-material (es decir, un material compuesto de otros materiales exóticos y/o sintéticos) que tiene las propiedades de que modifica la luz cuando esta lo toca y lo atraviesa.

El metamaterial está compuesto de unos nano-tubos que se hacen a la medida, y que corresponden al objeto que se quiere esconder.

Estos nanotubos se forman con un láser, y lo interesante (que no dicen explícitamente en el artículo, pero que lo podemos deducir) es que en teoría podríamos crear un dispositivo en un futuro que por medio de unos nano-lásers, y formas mas exóticas de meta-materiales, nos permitan crear materiales incluso flexibles (como bien podría ser una manta mágica de invisibilidad al estilo Harry Potter) que al ponérnosla por encima nos haga invisible.

Según los inventores, la técnica que inventaron funciona con objetos de cualquier, por lo que en teoría las fuerzas armadas podrían utilizar esto en un futuro como la versión mas asombrosa de camuflaje jamás imaginada, aunque el problema actual es el tiempo que se toma crear estos materiales (duraron 3 horas para crear algo que hiciera invisible a un objeto de apenas una milésima de un milímetro de altura).

Sin embargo, con el desarrollo de nanobots y ensambladores, no duden que esa tarea se haga factible mucho antes de lo que muchos se imaginan...

Y a propósito, si les gustó esta noticia y se la encontraron asombrosa, recomiendo que lean esta otra previamente publicada en eliax.

¡Gracias a todos los que enviaron esta noticia por una vía u otra a eliax!

Fuente de la noticia

autor: josé elías


Las dimensiones de un Protón en comparación a un Electrón nos hacen invisibles
eliax id: 7551 josé elías en mar 15, 2010 a las 05:27 AM ( 05:27 horas)
A continuación los dejo con una página que les muestra de tamaño gigante en sus pantallas lo que sería un Protón de un átomo de hidrógeno (es decir, en su núcleo), y después les presenta en escala tanto de distancia como de tamaño lo que sería un electrón.

Y he aquí lo curioso: La distancia es tan grande, que para ver el electrón tendrás que agarrar el control que desliza tu página web de manera horizontal, y desplazarlo hasta el final a la derecha, en donde verás eventualmente una flecha que te indicará, en un solo pixel de tu pantalla, donde estaría el electrón.

Para que tengan una idea de las proporciones, esa página web si la imprimieras mediría unos 18 kilómetros (11 millas) de ancho. Es decir, muy diferente a la percepción que se tiene del átomo (como expresado tradicionalmente en la imagen que acompaña este artículo).

Sin embargo, lo mas curioso no es el simple hecho de demostrar visualmente la relación del tamaño entre un electrón y un protón, sino el hecho de que si aun no se han dado cuenta, existe una asombrosa cantidad de espacio literalmente vacío entre ambos, y un espacio similar vacío existe en todos los otros tipos de átomos.

¿Qué significa eso? Que todo lo que percibimos como "sólido" con nuestra vista, desde una mesa hasta una roca, o desde la pantalla sobre la cual lees esto o incluso tu mismo cuerpo, en realidad es 99.999999% transparente, y el hecho de que veamos las cosas sólidas no es mas que una combinación de limitación de nuestro sentido de la vista, y de las longitudes de onda que interactúan a todo nivel en la naturaleza...
Enlace a la página y si quieres ir directo al electrón haz clic sobre este enlace.

autor: josé elías


Show-WX Láser, el primer micro-proyector verdaderamente práctico
eliax id: 7546 josé elías en mar 13, 2010 a las 09:25 AM ( 09:25 horas)
En los últimos años hemos visto varios intentos de crear micro-proyectores que quepan en la palma de la mano, o incluso dentro de un celular, pero a la fecha todos han sido muy imprácticos debido a que la brillantez y la resolución de las imágenes producidas dejaban demasiado que desear. Hasta ahora.

La empresa Microvisión acaba de lanzar su "Show-WX Laser Pico Proyector", un proyector del tamaño de un celular que a diferencia de sus antecesores utiliza tecnología láser para proyectar una imagen.

Esto le permite una resolución aceptable de 848 x 480 (la misma resolución que un DVD en NTSC), pero además una proporción de contraste superior a 5,000:1, y como si fuera poco (y como es común de todos los proyectores láser) la imagen siempre está enfocada (es decir, nunca tienes que enfocarla para que se vea clara, ya que cada pixel es el equivalente a un punto de rayo láser).

Algo interesante es que lo puedes conectar a celulares y otros dispositivos multimedia portátiles (como el iPhone o iPod), o a tu laptop con un adaptador.

El dispositivo puede funcionar con una batería propia que le da 2 horas de autonomía, y se vende desde ya en US$549 dólares por la versión "estándar" y US$999 por la versión "Limitada" que incluye unos cuantos accesorios (consulten la página del producto para las diferencias).

Página oficial del producto

Fuente de la noticia

autor: josé elías


Anuncian a OpenGL 4.0, se integra con OpenCL
eliax id: 7543 josé elías en mar 12, 2010 a las 12:50 AM ( 00:50 horas)
En el mundo de los gráficos tridimensionales (en particular en los video-juegos), existen dos estándares que se disputan el mercado, DirectX 11/3D de Microsoft y OpenGL.

La solución de Microsoft es obviamente propietaria, pero OpenGL es la respuesta abierta y adoptada por toda la industria fuera de Windows y el Xbox 360 (aunque OpenGl también funciona en Windows con innumerables juegos y programas de diseño gráfico tridimensional), desde Linux y Mac OS X, hasta prácticamente todas las plataformas celulares modernas con la versión "lite" llamada OpenGL ES que vemos desde dentro del iPhone hasta los celulares Android.

Hoy tenemos la excelente noticia de que la nueva generación, OpenGL 4.0 está disponible para desarrolladores de software, y esas son buenas noticias porque significa que veremos gráficos aun mas potentes, incluso con hardware que no sea muy reciente pero que tenga un buen GPU (chip de gráficos programable).

La gran noticia de esta versión es integración con OpenCL (del cual pueden leer aquí), que es una especificación que define una manera estándar de que desarrolladores de software utilicen el poder del GPU para acelerar cálculos que tradicionalmente eran manejados por el CPU.

¿Qué significa eso? Juegos con gráficos mas detallados, renderizadores 3D mas rápidos, mejores programas para la edición de audio y video, menores tiempos para codificar video, mejor rendimiento en el momento de descodificar video, etc.

Fuente de la noticia

Nota de Prensa oficial

autor: josé elías


Acústica del cuerpo humano utilizado como sensor de pantalla táctil en la piel
eliax id: 7514 josé elías en mar 2, 2010 a las 12:07 PM ( 12:07 horas)
Científicos de Carnegie Mellon University y Microsoft están desarrollando una novedosa técnica que permitirá detectar en donde en distintas partes del cuerpo tu te tocas, con el fin de que estas partes puedan ser utilizadas como receptores para pantallas en la piel.

En el prototipo, una persona se ata uno de las nuevas generaciones de micro-proyectores en el brazo (cerca del codo), apuntando la imagen en dirección de la palma de la mano, pero enfocando en todo un lado del brazo (consultar imagen), en donde se proyecta una imagen interactiva.

El próximo paso es hacer que el usuario pueda interacturar con la pantalla, literalmente "tocando" los botones que se despliegan sobre su piel (que actúa como pantalla).

Y es en este punto que entra la novedad: Los científicos han tomado ventaja del hecho de que cuando uno le da un golpecito a la piel, el área en donde uno se toca produce diferentes tipos de patrones acústicos (sonidos) que pueden ser detectados e identificados.

Eso significa que es posible saber sobre cual botón la persona hizo "clic" con su dedo, y por tanto permitir que el usuario interactúe con la imagen o video desplegado sobre su brazo.

No se ustedes, pero algo me dice que si la industria de la pornografía se hace de namos de esta tecnología, que sin duda alguna le darán uso en otras partes del cuerpo... :)

¡Gracias Tato por el enlace en Facebook!

Actualización (Video YouTube, ¡gracias Jonatandb!)...


autor: josé elías


SmartBricks, ladrillos que se pueden programar con cualquier color
eliax id: 7512 josé elías en mar 2, 2010 a las 03:48 AM ( 03:48 horas)
Si te dedicas a la arquitectura o diseño de interiores, ahora tienes una nueva opción que sin duda al largo plazo impactará la forma en como se verán las ciudades en un futuro no lejano...

Se trata de los SmartBricks o "Ladrillos Inteligentes", que son unos bloques que en su superficie están cubiertos de unas capas de material LCD a color, que no requiere iluminación propia, ya que el color se obtiene por medio reflectivo, lo que significa por un lado que no requieren de energía eléctrica para mantener su color, y por otro que se pueden ver claramente de día (a diferencias de pantallas tradicionales de LCD que se ven opacas).

La idea de estos SmartBricks es que sirvan tanto para exteriores (desde anuncios hasta recubrimientos de paredes en edificios) hasta interiores (en donde tu casa podría programarse con distintos colores en distintos días y/u horas del día), por lo que hablamos de una posible revolución en la apariencia de nuestras ciudades en un futuro no lejano (solo falta ver el precio a ver qué tan asequibles son estos bloques)...

¡Gracias a Emmanuel Bretón por el enlace!

Página de la empresa Magink que fabrica los SmartBricks

Fuente de la noticia en español

Fuente original de la noticia

autor: josé elías


Google Maps implementa fotos similar a Photosynth
eliax id: 7508 josé elías en feb 28, 2010 a las 10:27 PM ( 22:27 horas)
Hace un par de semanas publiqué un asombroso video por parte de Microsoft en donde combinan sus tecnologías de Photosynth con Bing Maps, y mencioné que eso era genial pues sin duda le pondría presión a Google para mejorar a Google Maps.

Pues no tardaron mucho en responder...

Google acaba de hacer disponible en Google Maps un módulo que no solo hace sencillo ver el Street View ("Vista desde la calle"), sino que de paso permite que uno navegue fotografías tomadas por personas comunes y corrientes (es decir, no solo fotos tomadas por Google) de ese lugar, y en contexto tridimensional. Es decir, las fotos, al igual que Phososynth de Microsoft, salen en el lugar correcto en donde las verías si estuvieras parado en un lugar determinado.

La implementación aun creo que no está a la par de la de Microsoft (quienes tienen ya unos años trabajando en este proyecto), pero sí tienen un az bajo la manga: La implementación de Google funciona en cualquier navegador web que contenga Adobe Flash, y funciona bastante bien, a diferencia de los programas de Microsoft que dependen de su tecnología Silverlight, que a la fecha no ha sido adoptada a gran escala por los usuarios (o generadores de contenido) en la Web.

El sistema está funcionando ahora mismo (lo acabo de probar), pero para entender cómo utilizarlo recomiendo que vean el siguiente video.

Página oficial de Google Maps

Video a continuación (enlace YouTube)...


autor: josé elías


Project Offset de Intel, apunta al futuro de gráficos en video-juegos
eliax id: 7493 josé elías en feb 22, 2010 a las 10:26 PM ( 22:26 horas)
Desconocido para muchos, Intel es dueña de una pequeña empresa que crea herramientas para desarrolladores de video-juegos, y su última creación, un motor de gráficos al que por ahora han bautizado como Project Offset, sin lugar a dudas que compite con ser el primer renderizador de gráficos 3D en tiempo real cuyos gráficos rivalizan incluso algunas de las mas recientes producciones gráficas de Hollywood.

Todavía no sabemos cuando esto estará generalmente disponible en el mercado, pero dado los videos que muestran en su página aparentan que están casi listos.

Algo muy importante que deben entender de los videos que verán, es que estos son generados en tiempo real, en vez de ser renderizados un cuadro cada varios segundos, minutos u horas como es costumbre en el cine.

Esto significa que nos estamos rápidamente acercando a un futuro en donde cualquier PC podrá generar gráficos en tiempo real para video-juegos que será incluso superiores a los de películas como Shrek o Los Increíbles.

No dejen de ver el video, y recuerden que lo que verán es generado en tiempo real, y no pre-calculado.

Página oficial de Project Offset

Mas videos del Project Offset en acción

Video a continuación (enlace YouTube)...




autor: josé elías


Increíble video: Bing Maps con Photosynth y Realidad Aumentada
eliax id: 7480 josé elías en feb 18, 2010 a las 01:45 AM ( 01:45 horas)
Este video de hoy no pueden dejar de verlo, pues es uno de los mas asombrosos que he visto en bastante tiempo.

Si recuerden recientemente en mis primeras impresiones de la nueva plataforma móvil de Microsoft bajo el nombre Windows Phone 7 Series, en el punto 7 dije "Bing Maps también viene integrado (haciendo la labor de Google Maps), y el solo imaginarme que Microsoft algún día podría integrar su tecnología Photosynth (especulación mía) con Phone 7, hace que se me ague la boca...", y ahora que he visto el siguiente video no solo se me ha hecho ese sueño realidad (de integrar Photosynth en Bing Maps), sino que además lo integraron también con el proyecto WorldWide Telescope.

Sin embargo, no importa lo que yo diga, tienen que ver el video pues de verdad es que es sensacional, ya que Microsoft no solo combinó a Photosynth y el WorldWide Telescope (de paso, junto con su proyecto Virtual Earth), sino que además ideó una manera para mapear video en tiempo real con Realidad Aumentada encima de los mapas en la vista 3D.

Es decir, es posible que alguien te envíe video en tiempo real desde un celular, y que tú en tu PC puedas ver ese video sobreimpuesto sobre gráficos en 3D previamente generados por una combinación de decenas de fotos del mismo lugar en donde ocurre el video. Como les dije, las palabras no bastan y deben ver el video.

Los dos puntos mas interesantes ocurren poco después del minuto 4:45 y poco después de los 7:00 minutos.

Créanme que quedarán asombrados, esto sin duda es algo muy superior a Google Maps o Google Earth, y sin duda le pondrá mucha presión a Google para mejorar su oferta y lograr algo tan bien integrado como lo ha hecho Microsoft. Como dicen, mérito para el que se lo merece, y en este caso el equipo de investigación de Microsoft responsable por esta novedad se merece un fuerte aplauso.

Finalmente (y esta es la noticia mala), noten que esto es solo para la versión de Windows e Internet Explorer, sin embargo conforme aumenta el poder de los chips en celulares no me sorprendería ver algo similar a esto en un celular Windows Phone 7 Series el próximo año...

Video a continuación (enlace YouTube)...


autor: josé elías


Adobe Mercury a revolucionar la edición no-lineal de video
eliax id: 7471 josé elías en feb 14, 2010 a las 09:06 PM ( 21:06 horas)
Últimamente he estado investigando sobre el tema de editores no-lineales de video, dado que pronto planeo comprarme una cámara D-SLR con soporte para 1080p/24fps (espero hacer mi primer corto este año, ¡ya veremos como saco el tiempo para hacerlo!), y entre mis investigaciones me encontré con este asombroso proyecto de Adobe llamado Mercury.

Como todos sabrán, Mercurio es el planeta mas cercano al Sol, y el que tiene la órbita mas rápida a su alrededor, y lo menciono porque el nombre es muy apto para lo que está haciendo Adobe.

Mercury es un proyecto que utiliza el poder del GPU de tu tarjeta de video para descargar del CPU gran parte del poder necesario para editar video en tiempo real, sin embargo, aunque esto no es algo nuevo, la implementación de Adobe sí lo es, pues como podrán apreciar en el video en la página del proyecto que les muestra a Mercury en funcionamiento, lo que hace es casi algo milagroso.

Con Mercury es posible editar video de casi cualquier resolución imaginable en tiempo real, y no hablamos de simples cortes, sino que incluso poner varias capas de videos, todas ellas con efectos complejos (incluso en 3D), todo funcionando en tiempo real, sin ningún tipo de espera.

Para que tengan una idea, en el demo que muestran nos enseñan video de resolución 1080p con 9 capas mas de video, todas siendo generadas y manipuladas en tiempo real, y como si fuera poco, cuando terminas el proyecto y estás listo para renderizar el video final, la renderización ocurre mas rápido que en tiempo real (es decir, que un video de 2 horas lo podrás renderizar en poco mas de 1).

Mas impresionante aun, es viendo a Mercury editar video de la cámara RED ONE con resolución 4k (no solo 4 veces mas resolución que 1080p, sino que con muchísimas veces mas ancho de banda necesario dado la calidad del CODEC), todo en tiempo real, con múltiples capas, algo que a la fecha era imposible o extremadamente caro poder hacerlo.

Mercury será parte de la próxima versión de Adobe Premiere Pro, que saldrá junto con el paquete Adobe CS5 (posiblemente alrededor de Abril de este año), y en su primera incarnación funcionará solo con una selecta lista de tarjetas de NVIDIA, ya que utiliza su tecnología CUDA propietaria para el aceleramiento (un ejemplo es la NVIDIA 285GTX que se puede encontrar por US$300).

Según Adobe, una versión basada en OpenCL es una posibilidad en el futuro, pero decidieron utilizar CUDA de NVIDIA ya que cuando iniciaron el proyecto OpenCL aun no estaba estandarizado. Sin embargo, creo que esto también se debe a la rivalidad reciente entre Apple y Adobe, quienes entre otras cosas compiten con Adobe Premiere Pro y Final Cut Pro, y dado que esta implementación de Mercury funciona perfectamente bien tanto en Mac como en Windows, esto le pone mucha presión ahora a Apple, ya que esto hará posible una solución de menos de la mitad de costo en Windows, que en Mac.

Y hablando de costo, a eso es que me refiero en el título de este artículo cuando hablo de "revolución". Aunque ciertamente a la fecha era posible manipular video en tiempo real, por lo general hablábamos de video SD en algo como el formato DV, pero aquí no solo hablamos de 1080p o superior (sin importar el CODEC, desde AVCHD hasta RED ONE, pasando por los formatos soportados por la última generación de D-SLRs), sino que de hacerlo con incluso decenas de efectos, todo en tiempo real.

Es decir, hablamos de hacer algo en una estación de trabajo que costará menos de US$2,000, que hasta el momento solo era posible en equipos que costaban entre US$25,000 y US$250,000 dólares.

Esto es algo que sin duda tendrá un tremendo impacto en la calidad de producciones de video y cine independiente, porque hablamos de que una persona con US$3,000 dólares podrá no solo comprar una cámara de alta definición como esta, sino que además podrá comprar todo el equipo de edición en tiempo real, lo que le dará mas libertad de experimentación a estas personas.

Recordemos que quizás el trabajo mas arduo en post-producción es la edición del video mismo, en donde se ensamblan todas las tomas y se mueven, acortan, alargan y combinan en innumerables maneras hasta uno poder tener una historia bien contada. Sin embargo, actualmente el proceso es tan arduo y lento (teniendo uno por lo general que esperar entre minutos y horas a que el sistema renderice lo que uno está editando), que muchos editores deciden experimentar lo menos posible en este crucial paso de la producción, perdiéndose en el proceso la verdadera potencialidad de la obra en cuestión.

Esperemos ahora a ver si esto aviva a Apple a lanzar lo antes posible una versión de Final Cut Pro optimizada para OpenCL, pues de lo contrario veo a muchos editores dejando a Apple por Windows solo por esta aplicación de Adobe...

Información oficial sobre el Adobe Mercury Playback Engine (no dejen de ver el video incluído en la página, los que editan video si duda quedarán impresionado con lo que verán)



autor: josé elías

"Ante la evidente entropia del universo la vida es lo único que se muestra como su contradicción... y nosotros los seres humanos somos el ordenamiento sistemático más complejo que se conoce en todo el universo... por ahora.

Al respecto que curioso pensar en los cometas como las semillas de vida.
"

por "jonathan" en jul 31, 2015


en camino a la singularidad...

©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax