texto:   A-   A+
eliax

Tecnología Visual
Scalado Remove, te remueve objetos indeseados de fotos, automágicamente
eliax id: 9221 josé elías en feb 15, 2012 a las 01:19 AM (01:19 horas)
He aquí una de esas cosas que se ven tan sencillas al uno verlas en funcionamiento, pero que sin embargo por alguna razón no se le ocurrió a nadie hacerlo anteriormente.

En este caso, lo que verán ya sí se podía hacer antes, pero nunca en un celular inteligente, como en este caso...

Se trata de Scalado Remove, una aplicación que tiene la capacidad de remover automágicamente de una fotografía aquellos elementos indeseables (personas que obstruyen un edificio, automóviles en frente de alguien, etc).

Cuando vean el video, es algo que casi no se puede creer como esto funciona. Y hablando de cómo funciona, aunque la empresa no ofrece detalles, es casi seguro que lo que hacen (deducido del video) es grabar primero unos segundos antes de uno tomar la foto, de modo que cuando una finalmente tome la foto el software posea información de los objetos y su relación entre ellos (cuando vean el video entenderán mejor).

Por otro lado, no dejen de ver el segundo video que también pongo, en donde demuestran su software Scalado Rewind ("Scalado en Reversa"), que como verán en el video, hace otra cosa también bastante sorprendente: La capacidad de poder alterar algunos elementos de una foto, en el tiempo, basado en un corto video (o serie de fotos).

Crucemos los dedos y esperemos ver esto próximamente no solo en celulares inteligentes, sino que en todo tipo de cámaras.

enlace a Scalado

Video 1 de Scalado Remove a continuación (enlace YouTube)...


Video 2 de Scalado Rewind a continuación (enlace YouTube)...


Actualización: Poco tiempo después de reportar esta noticia, se anunció que Nokia adquiriría la empresa para incluirla en futuros celulares de la empresa.

autor: josé elías


Cómo obtener gratis y legalmente a Bryce 7, Daz Studio 4 Pro y Hexagon 2.5
eliax id: 9205 josé elías en feb 9, 2012 a las 12:12 AM (00:12 horas)
La empresa Daz 3D actualmente tiene una promoción en donde está permitiendo una descarga gratis y totalmente legal de 3 de sus productos más populares, tanto para Mac como para Windows, en versiones de 32 y 64-bit.

Daz Studio 4 ProEl primero es Daz Studio 4 Pro, que es un descendiente del clásico Poser, un programa que compré para Windows hace muchos años atrás, y que es el estándar en la industria para el desarrollo de personajes virtuales, lo que incluye personas (masculinas y femeninas) y hasta alienígenas extraños.

El programa permite hacer que estos personajes "posen", tanto con su cuerpo como con sus caras, para que los coloques en cualquier posición y expresión imaginable. Así mismo los puedes vestir con todo tipo de ropas y accesorios, e incluso animarlos.

Para ver lo posible con este programa, visitar este enlace oficial.

Bryce 7El segundo programa es Bryce 7, un programa que también hace varios años atrás compré para Windows, y que permite crear todo tipo de mundos virtuales, desde paisajes super-realistas parecidos a Los Andes o El Gran Cañón, hasta mundos alienígenas como los de Avatar.

El programa permite un alto grado de control, desde la cantidad y tamaño de árboles, nieves, y rios, hasta el tipo de terreno (llano, montañoso, océanos, etc), así como controles ambientales y del cielo.

La página oficial del producto es esta.

Hexagon 2.5Y finalmente, el programa Hexagon, lo desconozco, pero dice ser un modelador de objetos 3D. La página de ese producto es esta otra.

En total, hablamos de unos US$800 dólares en productos, gratis y legales.

Para descargar los productos, sigan estos pasos:

1. Hacer clic en este enlace, en donde verás un botón verde que dice "add to cart", lo que te permitirá añadir Daz Studio 4 Pro gratis a tu carrito de compras.

2. Hacer clic en este enlace, en donde verás un botón verde que dice "add to cart", lo que te permitirá añadir Bryce 7 gratis a tu carrito de compras.

3. Hacer clic en este enlace, en donde verás un botón verde que dice "add to cart", lo que te permitirá añadir Hexagon 2.5 gratis a tu carrito de compras.

4. Después de eso, hagan clic en el botón de "checkout" (o sino, hagan clic en el botón del carrito de compras que aparece al tope de la pantalla, y ahí verán el botón verde de checkout).

5. En este punto el sistema le pedirá una de dos cosas: O que entres tu usuario y clave de Daz 3D, o que crees una cuenta. Haz clic en el lado derecho bajo la sección que dice "Don't have an account?", sobre el botón azul que dice "Register".

6. LLenen sus datos en el formulario de registro. Noten que deben proveer todos los datos del formulario, y es importante que el email sea tu email verdadero. También pon una clave nueva y que no se te olvide (recomiendo que no utilices la misma clave de tu email), y en el campo que dice "Community Username" debes poner un nombre único (podría ser el mismo de tu email, menos el arroba "@"). Cuando llenes el formulario haz clic sobre el botón verde que dice "sign up" y eso terminará tu proceso de registro (al menos que no hayas llenado todo el formulario, o contenga errores, como el haber olvidado poner tu fecha de nacimiento).

7. Ahora ve a tu cuenta de email, en donde en unos pocos segundos recibirás un email con un enlace de activación (básicamente, para verificar que tu cuenta de email es real). Haz clic sobre ese enlace, que te llevará de regreso a la página de Daz 3D confirmando tu email.

8. Ahora regresa a la página de Daz 3D, haz clic en el icono del carrito de compras arriba, y vuelve a hacer el proceso de checkout. Ahora, cuando llegues a la pantalla del paso 5 arriba, en vez de hacer clic en el botón de register, ahora podrás poner tu email y la clave que creaste en las cajitas del lado izquierdo y después hacer clic en el botón verde de "sign in".

9. Cuando entres, notarás ahora un mensaje que dice que tus descargas están en tu cuenta personal (your account, o my account), haz clic sobre ese enlace y ahí verás unos cuantos enlaces. Los enlaces importantes son los dos primeros, uno que es de descargas (downloads) y el otro de números seriales.

10. Recomiendo entrar primero al de los seriales, y copiar y pegar esos números en un editor de texto en tu PC o Mac, y guardarlos en una carpeta en donde piensas descargar los programas.

11. Después de copiar los seriales, regresa ahora a la página anterior y entra a la de descargas. Ahí recomiendo que mires al tope de la página que tiene todas las descargas y filtres las descargas por la plataforma que desea. Por defecto te presentará descargas para "Mac+PC". cambia eso a solo "Mac" o solo "PC" dependiendo de si tienes una Mac o un PC.

12. Para descargar, simplemente haz clic en la última columna de la derecha, la que tiene la flecha apuntando hacia abajo, y listo. De ahí en adelante estás por tu cuenta para instalar el programa en tu máquina.

13. Nota 1: Las descargas vienen algunas en formatos de 32 y 64 bits. Si tienes Windows de 64 bits, o una versión reciente de Mac, descarga la de 64 bits. Sino, descarga ambas versiones y prueba instalando la de 64 bits primero, sino te funciona, prueba entonces con la de 32 bits.

14. Nota 2: Por alguna razón, el email de activación nunca me llegó a una cuenta de email que tengo en Yahoo, y tuve que recurrir a repetir el proceso con una cuenta de GMail, y me funcionó perfectamente. A alguien que conozco también le funcionó con Hotmail. Lo menciono por si tienen ese mismo problema sepa qué hacer.

Eso es todo, espero que disfruten de estos excelentísimos programas, y recomiendo que descarguen lo antes posible, pues no se si es una oferta de tiempo limitado o no.

Y si se preguntan ¿qué gana esta empresa ofreciendo estos programas gratis? Creo (debo confirmar) que planean hacer dinero vendiendo "extras", como ropas y accesorios para los personajes virtuales, nuevos tipos de árboles y depresiones naturales para los paisajes de Bryce, y objetos pre-fabricados para Hexagon. Así mismo me imagino que esperan que usuarios se fijen y paguen por sus otros productos, como Genesis y Carrara.

Nota aclaratoria: No tengo ninguna relación comercial directa ni indirectamente con esta empresa o sus afiliadas. Esta es una promoción que sencillamente la noté, tomé ventaja de ella, y comparto con ustedes.

Actualización: Según algunos lectores, la promoción durará hasta el 29 de este mes de Febrero 2012.

autor: josé elías


Parte 2 del video del uso que le daremos al cristal en el futuro
eliax id: 9195 josé elías en feb 6, 2012 a las 08:57 AM (08:57 horas)
Hace un año les mostré un video creado por la empresa Corning sobre cómo interactuaremos con nuestro medio ambiente por medio de pantallas de cristal inteligentes, y la verdad que fue un video interesantísimo, tanto así que ahora la empresa ha sacado una segunda versión, la cual comparto con ustedes a continuación.

Nota curiosa: En la biografía de Steve Jobs (el fallecido fundador y ex-Gerente General de Apple) se revela por primera vez que fue Steve Jobs quien convenció al Gerente General de Corning de que tomara una fórmula de décadas atrás sobre un nuevo tipo de cristal super-resistente a rayados, y los volvieran a fabricar, para así poderlo utilizar en el iPhone.

Eso tuvo como resultado que Corning creciera a ser líder en el mercado, pues después del iPhone muchos otros más adoptaron su tecnología, llamada "Gorilla Glass".

¡Gracias al lector Jaume Pujol Romaguera por el enlace al video!

Video a continuación (enlace YouTube)...


autor: josé elías


Captan virus VIH en acto de inyectar Caballo de Troya en célula
eliax id: 9184 josé elías en ene 31, 2012 a las 12:09 AM (00:09 horas)
En lo que sin duda es un gran paso en la lucha con el VIH (causante del SIDA), científicos del Instituto de Investigación del SIDA IrsiCaixa y el Instituto de Ciencias Fotónicas (ICFO) han grabado en video por primera vez cómo el VIH inyecta un Caballo de Troya para infectar rápidamente el organismo al que ataca.

Este es un paso importante pues permitirá entender mejor el mecanismo de ataque, y como cita la fuente poder acelerar el desarrollo de terapias bloqueadores para este mecanismo.

Otra cosa que me ha gustado de esta noticia sin embargo, es que debería callar a esa minoría de conspiracionistas que aun alegan que el VIH y el SIDA no existen. Aquí tienen prueba bajo un microscopio y lo pueden ver con sus propios ojos.

Y a propósito, no dejen de ver el virus VIH en una visualización digital en 3D en este artículo anterior en eliax, o incluso lo pueden en acción en video.

¡Gracias al lector Leonel Parra por el enlace!

fuente 1

fuente 2

autor: josé elías


El asombroso talento digital de Polynoid: Loom
eliax id: 9027 josé elías en ene 29, 2012 a las 01:05 AM (01:05 horas)
Loom, por PolynoidHoy quiero compartir con ustedes el asombroso talento de un grupo de artistas digitales llamados Polynoid, y como muestra de lo que hacen les presento a uno de sus trabajos, Loom.

¿Qué me llamó la atención de ellos? Pues como verán, son unos maestros en crear animación digital del tipo "orgánico". Después de ver Loom, no dejen de explorar sus otras obras, son iguales de asombrosas...

¡Gracias al lector Gustavo Monaco por el enlace al video!

enlace a Loom (página oficial del video, con enlaces a otros trabajos de Polynoid)

Video a continuación (enlace YouTube)...


autor: josé elías


Simula Apertura, Distancia y Longitud Focal de forma virtual en página web
eliax id: 9168 josé elías en ene 19, 2012 a las 12:08 AM (00:08 horas)
El año pasado les presenté una página que les permitía simular una cámara digital en sus navegadores web para jugar con los parámetros de ISO, Apertura y Velocidad (entre otros).

Hoy (y continuando con lo que inadvertidamente de mi parte se ha convertido en una "semana fotográfica" en eliax) les presento esta otra página que a diferencia de esa otra (que requería Adobe Flash), les permite ahora (y con HTML 5) simular algo extremadamente importante: La interrelación entre Apertura, Distancia y Longitud Focal.

¿Cómo nos ayuda esto? Pues una cosa curiosa a la hora de tomar una foto (asumamos, la foto de la cara de un perrito), es que una forma de tomar la foto es acercándonos físicamente al perrito con la cámara y tomar la foto. Pero otra forma de tomar la foto es sentarnos lejos del perrito y con un lente "zoon" acercar la cara del perrito a través del lente (en esencia, "ampliar" la imagen).

Pero en ambos de esos casos, aunque la cara del perrito ocupe todo el cuadro de la foto, las imágenes serán bastante diferentes desde el punto de vista geométrico.

En el primer caso, la nariz del perro se verá más pronunciada ya que la vemos verdaderamente "de cerquita", mientras que en el segundo caso su cara se verá menos tridimensional.

Pues ese tipo de cosas es precisamente lo que este simulador desea demostrar y permitirles experimentar desde la comodidad de sus pantallas...

enlace a la página

autor: josé elías


Pregunta a eliax: ¿Qué es video en formato 4K, y su relación con HDTV?
eliax id: 9157 josé elías en ene 12, 2012 a las 12:07 AM (00:07 horas)
eliax - para mentes curiosasHoy en Pregunta a eliax respondo la pregunta sobre qué es video en formato "4K", uno de los conceptos quizás más malentendidos en el mundo del video.

Todos estamos familiarizados con el formato DVD, y más recientemente con el formato Blu-ray, los cuales ofrecen resoluciones con nombres que van como "480p", "720p" y "1080p", refiriéndose a la cantidad de lineas horizontales presentes en la imagen.

Esta forma de medir resoluciones en número de lineas horizontales (lo que se traduce a la resolución vertical del monitor, pues todas las lineas horizontales cuando se colocan una encima de otras forman un número determinado de puntos verticales) es un vestigio de los antiguos sistemas de televisión NTSC, PAL y SECAM en donde las imágenes se formaban de forma analógica a través de un "cañón" de electrones, que disparaba electrones a la pantalla de izquierda a derecha y de arriba hacia abajo.

Sucede que en esos sistemas, y contrario a lo que muchos (incluso expertos) creen, no existía una resolución vertical fija (es decir, no existía un número determinado de "pixeles" de derecha a izquierda en la pantalla), ya que cada linea era formada por el equivalente a un voltaje eléctrico analógico, y no una cantidad cuantizada de puntos.

Es por eso que aunque la resolución NTSC podría por ejemplo desplegar 480 lineas horizontales (o más con el modo overscan), lo cierto es que la resolución de izquierda a derecha era variable, en donde mientras más clara era la señal original, mejora la calidad. En teoría con los mejores equipos era incluso posible obtener imágenes con el equivalente a más de 1,000 "puntos" de resolución en esos sistemas analógicos, pero por lo general cuando se "cuantizaban" para mostrar en ciertos monitores o cuando se digitalizaban en PCs, se reducían a 640 pixeles de ancho (o hasta 756 con overscan).

Por otro lado, lo que sí estaba fijo era la cantidad de lineas horizontales a desplegar, de modo que el cañón de electrones de dibujaba la imagen lo hacía dibujando lineas de izquierda a derecha, y después bajando a la próxima linea para dibujarla de derecha a izquierda otra vez, y así sucesivamente (en este proceso también había un proceso de video interlazado/entrelazado, pero dejaremos ese detalle fuera pues no importa en este artículo de hoy).

Es por eso que desde ese entonces en el mundo de video industrial por lo general se hablan de lineas horizontales. Solo fue con la llegada de imágenes digitales de PCs que se inició a utilizar la media horizontal x vertical (como por ejemplo, 640x480 pixeles en una imagen "VGA" de antaño).

Pero, ¿por qué mencionar todo esto? Pues para que entiendan de donde viene la confusión sobre lo que es video "4K"...

Sucede que la definición oficial de video 4K es video que tiene al menos 4,000 lineas horizontales, independientemente de la resolución de posibles pixeles por cada linea horizontal.

Asó que por ejemplo, un verdadero video 4K tendría una posible resolución de 8000x4000 pixeles. Pero sin embargo, un video de 4000x2000 pixeles no sería video 4K ya que el número de lineas horizontales sería de 2000 lineas y no 4,000.

Entran ahora en escena los mercadólogos...

Sucede que sin duda por motivos de mercadotecnia (o quizás extrema ignorancia en estos temas, cosa que dudo), algunos fabricantes empezaron a llamar video 4K a video que contuviera al menos el equivalente a 4,000 pixeles por lineas horizontal. En otras palabras, bajo este esquema, una resolución de 4000x2000 pixeles sería "video 4K".

Pero los mercadólogos nunca descansan en buscar la manera de confundir al público, e idearon una forma más reciente (y más engañosa) de "video 4K".

Sucede que como sabemos, video de HDTV (Alta Definición) es de 1920x1080 pixeles. Pues a algunos genios de la mercadotecnia se les ocurrió llamar "4K" a video que fuera "4 veces" la resolución de HDTV.

En otras palabras, si multiplicamos por 2 la resolución HDTV de 1920x1080 pixeles, obtendríamos 3840x2160, y a eso empresas como JVC ya lo están llamando "4K", aun no llegue a las 4,000 lineas ni 4,000 pixeles.

Así que en resumen, tenemos 3 formas diferentes de interpretar video 4K:

1. 4K es la cantidad de lineas horizontales en video (es decir, la resolución vertical).
2. 4K es la cantidad de pixeles en una linea horizontal de video.
3. 4K es multiplicar por 4 el formato HDTV.

Lamentablemente, cada vez que lean "4K" van a tener que recurrir a las especificaciones técnicas para saber de qué están hablando. Por lo general, cuando se escanean películas al formato digital, se utiliza la primera de estas 3 definiciones, y para proyectarlas la segunda, y aparenta que próximamente en el formato casero se utilizará la tercera definición (hasta que lleguemos a Ultra-HDTV),

Así que espero este despeje un poco de misticismo sobre este tema, y de paso sirva como una explicación didáctica sobre un tema del cual les aseguro vamos a oir muchísimo más en los próximos meses/años, pues estamos ya en los inicios de crear el sucesor de HDTV).

autor: josé elías


GRAN HITO: Pantallas holográficas para celulares, TVs y cine por fin en el horizonte
eliax id: 9130 josé elías en dic 27, 2011 a las 12:08 AM (00:08 horas)
Una de las tecnologías a las cuales más seguimiento le he dado en eliax en los últimos 6 años es holografía y sistemas de proyecciones de imágenes tridimensionales, y aunque les he presentado varias tecnologías asombrosas (consulten los enlaces a artículos relacionados al final de este), creo que por fin tenemos una tecnología que hará la holografía en video práctica, y en esta misma década.

Se trata de un adelanto desarrollado en la firma de investigación Imec, en Bélgica, en donde han logrado mezclar MEMS (estructuras a escalas nanométricas que se mueven mecánicamente en grandes grupos, como los pixeles de una pantalla) con silicio, cristales, y lásers, para producir una imagen que literalmente flota frente a nosotros.

Es importante notar que esto es muy diferente a las otras dos grandes familias de tecnologías que nos dan la ilusión de formar imágenes tridimensionales.

La peor de todas (y la única comercialmente disponible) se divide en dos sub-familias, y es lo que vemos en los televisores 3D de hoy día. En una subfamilia, requerimos ponernos gafas que dividen dos imágenes en pantalla hacia cada uno de nuestros ojos para darnos la ilusión de profundidad, y en la otra subfamilia unas rejillas ultra-delgadas en la pantalla misma hacen que nuestros ojos vean imágenes distintas para lograr el mismo efecto (todo esto lo expliqué en detalle en este artículo anterior en eliax, para los curiosos).

Sin embargo, el gran problema con esa familia es que en realidad solo vemos profundidad en un efecto estereoscópico, pero no podemos movernos alrededor de la imagen para verlas desde otros ángulos. En otras palabras, es una forma de "3D fija", como una foto tridimensional en movimiento.

La segunda familia, se trata de proyección volumétrica, y esta trata de proyectar literalmente en un volumen real (sea el aire, por medio de rayos lásers que chocan entre sí, o rayos láser que chocan sobre una pared giratoria a alta velocidad, o imágenes proyectadas sobre estructuras que se mueven físicamente). Este tipo de proyección es bastante difícil de lograr, y salvo cuando se proyectan imágenes en 2D sobre un espacio, son monocromáticas. Aquí pueden ver el ejemplo más avanzado de este tipo a la fecha en video.

La tercera familia, y de la que se trata este artículo, se trata de utilizar propiedades avanzadas de como se comporta la luz a nivel cuántico para crear patrones de interferencia, que producen imágenes que son literalmente tridimensionales dentro de una estructura bidimensional.

Este es el tipo de hologramas que vemos en esas calcomanías en tarjetas de crédito, y juguetes de ciencia para niños, pero que por lo general son monocromáticos y sin movimiento (aunque se pueden ver desde distintos ángulos).

Pues lo que esta empresa ha logrado, todavía en escala experimental, es la creación de una pantalla que con millones de micro-pixeles que manipulan la luz (junto con otros materiales y cristales) para producir un holograma "a demanda" desde el dominio digital.

En otras palabras, un holograma que no tiene que ser pre-impreso, sino que generado en tiempo real.

En esta primera etapa sin embargo, y como "prueba conceptual" el patrón de la imagen fue pre-programado, pero el próximo paso es ahora hacer que esos nano-pixeles se muevan, no solo para programar cualquier imagen, sino que para también para hacer que estas se muevan.

Aparte de eso es posible con esta tecnología crear imágenes a colores, y de una muy alta definición. O en otras palabras, lo que siempre hemos soñado: Pantallas que sin gafas, y desde cualquier ángulo, nos permitan ver lo que ocurre dentro de una pantalla.

Para que tengan una idea, un cine del futuro con esta tecnología será tan asombroso, que las personas que se sienten en el lado izquierdo de la sala del cine verán un ángulo distinto de la acción que los que se sienten en el lado derecho, ya que la imagen realmente será percibida como volumétrica, y en todo color, alta definición, y movimiento.

Y noten que antes de eso posiblemente podremos tener pantallas de menor tamaño no solo para TVs holográficas, sino que celulares inteligentes, o "ropa inteligente" (similar, pero mucho más avanzado, que mi predicción #10 para el 2012)

¿Lo único "malo" de todo esto?: Que aun falta por desarrollar el sistema que moverá los nano-pixeles, pero ya se sabe cómo proceder y es solo cuestión de ingeniería, y no se esperan barreras que no podamos romper con tecnología desarrollándose en la actualidad.

Lo otro es el costo, aunque para eso ya se tiene también una solución: Es posible combinar desde hoy varias de estas pantallas para formar pantallas más grandes, lo que abaratará su producción.

En otras palabras, esto posiblemente no esté listo para su comercialización hasta dentro de 5 años (pero ciertamente todo apunta a que sí para antes de finalizar la década).

Así que ya lo saben, lo que antes era ciencia ficción, ya viene en camino, y como siempre he dicho, estamos viviendo los momentos más emocionantes de la humanidad y asombrosos...

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


Pregunta a eliax: ¿Por qué no vemos señales extraterrestres con telescopios?
eliax id: 9117 josé elías en dic 19, 2011 a las 12:08 AM (00:08 horas)
ETeliax - para mentes curiosasEn esta noticia reciente sobre una espectacular fotografía del nacimiento de una estrella, algunos lectores preguntaron ¿cómo es posible fotografiar objetos tan lejanos, pero sin embargo no podemos fotografíar "naves extraterrestres" o ni siquiera una bandera en la Luna?

Algunos paranoicos incluso alegan que existe una conspiración en donde todos los científicos del mundo se niegan a utilizar telescopios como el Hubble para "magnificar" el área de los alunizajes en la Luna, alegando que el ser humano nunca llegó a nuestro satélite.

Pues como generalmente ocurre con estos temas, los que hacen tales alegaciones conspiracionistas son simplemente ignorantes en la materia, y como verán a continuación, la respuesta a la pregunta de por qué no podemos magnificar algo en la Luna mientras vemos estrellas a millones de años luz, es bastante sencilla...

La respuesta tiene que ver con algo bastante simple: El tamaño de lo que se observa; y para explicar lo que ocurre recurramos a una analogía.

Digamos que te regalan un telescopio pequeño, y que con este puedes ver una persona que se encuentra a unos 100 metros de distancia. Por el telescopio puedes claramente distinguir el cuerpo de la persona, pero apenas puedes distinguir sus rasgos faciales, y te das cuenta de que posiblemente sea un amigo cercano al que estás viendo.

Lo llamas al celular y le pides que por favor levante la mano para confirmar que es él. Él lo hace y efectivamente, ves por tu telescopio como este levanta su mano.

Ahora le pides algo un poco extraño: Le pides que por favor te muestre su reloj de pulsera desde lo lejos, para ver si puedes ver las manecillas de su reloj.

Sucede que no puedes distinguir absolutamente nada, ya que la resolución del telescopio no es suficiente para resolver el detalle de su manecilla.

Sin embargo, tu amigo se come una semilla mágica que lo convierte en un gigante de 100 metros de altura, junto con su reloj de pulsera el cual ahora es inmenso.

Cuando vuelves a ver por tu telescopio, notas que ahora puedes distinguir las manecillas de su reloj, y ver claramente la hora.

Pues algo bastante similar ocurre al nosotros ver galaxias, estrellas o la Luna.

La Luna, en comparación con una galaxia, es tan pequeña como la relación en tamaño que habría entre nuestro planeta tierra y el ojo de un mosquito. Así que aun esas galaxias y estrellas estén tan lejos, sus tamaños son tan inmensos que podemos ver sus rasgos generales (así como podemos ver la silueta de tu amigo), sin embargo, si tratamos de ver detalles del tamaño de planetas (esto es lo mejor que hemos logrado a la fecha), o de alguna nave espacial en el espacio, la tarea se vuelve virtualmente imposible ya que nuestros telescopios no poseen una resolución ni siquiera cercana para tales hazañas ópticas.

Para que tengan una idea, el ancho de la luna es de unos 3500km, pero el ancho de la imagen que les presenté en la noticia reciente sobre el nacimiento de una estrella es de unos 20000000000000km (20 millones de millones de kilómetros).

Similarmente, aunque con un telescopio poderoso como el Hubble podemos ver claramente cráteres lunares, de ahí a poder discernir algo pequeñísimo (como una nave o bandera) en relación al cráter, es algo también virtualmente imposible, incluso con nuestros telescopios más avanzados.

En otras palabras, lo que podemos hacer con nuestros equipos de hoy día es ver objetos de cierta magnitud de tamaño, pero en el momento que tratamos de ver algo muchísimo más pequeño, la resolución óptica nos queda corta, de manera similar a como no podíamos ver la hora de nuestro amigo cuando este tenía un tamaño de un ser humano normal y se encontraba a apenas 100 metros de distancia.

Por otro lado, sin sarcasmos digo que me sorprende el hecho de que algunas personas literalmente creen de corazón de que existe una conspiración entre decenas de miles de científicos para "cubrir la verdad" y no querer apuntar nuestros más potentes telescopios hacia la Luna.

Eso es como decir que juntemos a 300,000 personas en un lugar y esperar que todos ellos digan siempre la verdad, o que todos ellos se comporten igual, o que todos ellos decidan cubrir "la verdad de las alunizajes" y que ninguno de los 300,000 de ellos decida decirle aunque sea de secreto a sus familiares cercanos "la asombrosa verdad".

O en otras palabras, este tipo de cosas caben directamente bajo la clasificación de paranoicos conspiracionistas e ignorantes en la materia, que no tiene la más remota idea de lo que alegan ni cómo justificarlo científicamente...

Finalmente, no dejen de leer este artículo clásico de eliax: Pregunta a eliax: ¿Aterrizó el ser humano en la Luna?

autor: josé elías


Cámara que toma 1 millón de millones de fotos por segundo. Ve luz en movimiento
eliax id: 9109 josé elías en dic 13, 2011 a las 09:40 PM (21:40 horas)
En eliax a través de los años les he mostrado cámaras que graban desde 1 millón hasta más de 6 millones de fotos por segundo, y por extraordinario que eso aparentaba, ahora sucede que es como comparar una tortuga con un avión supersónico cuando hablamos de una nueva cámara creada en el MIT (Instituto de Tecnología de Massachussetts).

Esta nueva cámara creada en MIT es capaz de tomar 1 millón de millones (o 1 billón) de fotos por segundo (noten que el fuente hablan de "1 trillion" que no es lo mismo que "1 trillón" en español, sino que 1 billón, lean por qué aquí).

Esta velocidad es tan rápida que por primera vez ahora podemos grabar la luz misma mientras esta se desplaza por el espacio, algo que seguramente hace unos minutos antes de leer esta noticia muchos hubiera dicho era imposible (y no dejen de ver el video que incluyo a continuación en donde pueden ver una onda de luz en su camino mientras ilumina una escena).

fuente

Video a continuación (enlace YouTube)...


Actualización: Creo bueno aclarar algo que no dije en el artículo pero que el lector anv notó en lo comentarios, que copio a continuación: "Uno no puede "ver pasar" un fotón, porque los fotones... no emiten ni reflejan fotones.

Los únicos fotones que se pueden ver son los que chocan contra el receptor de la cámara, de la misma manera que la única luz que vemos es la que llega a nuestra retina.

El efecto que se observa es que de la luz que se envía al objeto a fotografiar, algunos fotones se reflejan en dirección a la cámara y los vemos. Como los fotones se están desplazando, algunos se reflejan en un punto y otros en otro, por eso se ve el desplazamiento. Pero no es que se vea pasar a los fotones sino que se ven los lugares donde estos se reflejaron en dirección a la cámara."


autor: josé elías


El increíble LaserMan (Hombre Láser). Video
eliax id: 9103 josé elías en dic 12, 2011 a las 12:12 AM (00:12 horas)
Hoy en eliax les muestro este impresionante espectáculo llamado LaserMan ("Hombre Láser") que hace una de las rutinas más originales y asombrosas que he visto en tiempos recientes, y los más asombroso de todo es que después que vemos lo que hace nos preguntamos "¿como no se me ocurrió antes?".

¡Gracias al lector Nestor Sanchez por el enlace!

Video a continuación (enlace YouTube)...


autor: josé elías


Ilusión óptica que hace que percibas el mismo color en dos tonos
eliax id: 9102 josé elías en dic 11, 2011 a las 12:09 AM (00:09 horas)
Esta ilusión óptica es algo bastante curioso, y de lo cual podemos aprender un poco sobre cómo funciona nuestro cerebro.

Notarán que se trata de una imagen animada, en donde dos grupos de bandas de color rojo se acercan las unas a las otras, y después siguen de largo.

Lo curioso es, que aparenta que los dos tonos de rojo son diferentes, y no solo eso, sino que cuando se cruzan aparenta que podemos distinguir perfectamente los dos distintos tipos de tonalidades de rojo.

Pues es una ilusión. Los dos tonos de rojo en realidad son 100% idénticos.

Pero, ¿a qué se debe esto? Pues al hecho de que a diferencia de lo que muchos imaginan, nosotros no vemos un mundo real, sino que un mundo pintado por nuestra mente según esta cree que el mundo deba ser.

En este caso en particular, notarán que las bandas rojas están entrelazadas entre bandas amarillas y azules, en donde en un caso las bandas rojas están rodeadas exclusivamente de amarillas, y en el otro caso de azules. Pues sucede que nuestro cerebro interpreta el color rojo de forma diferente, dependiendo de los colores a su alrededor (en este caso, o amarillo o azul), y se auto-convence tanto de que los colores son diferentes que incluso cuando estos se entrecruzan el cerebro los despliega a nuestra mente como dos colores totalmente distintos, ¡cuando no lo son!

Si no lo creen, vuelvan a ver la animación, pero esta vez cubran la pantalla a ambos lados y concéntrense solo en la parte del medio de la imagen, y notarán que en realidad todo es un solo color.

Esta ilusión a propósito es otro ejemplo de este mismo fenómeno.

fuente

autor: josé elías


Asombrosa tecnología hace trasplante digital de caras en videos
eliax id: 9095 josé elías en dic 6, 2011 a las 01:41 AM (01:41 horas)
Trasplante Digital de Cara, AutomatizadoUn estudiante de Harvard de nombre Kevin Dale acaba de crear una técnica que automatiza casi por completo el proceso de reemplazar la cara de una persona en un video por otra.

Notemos que esta técnica se lleva utilizando por años (es lo que por ejemplo permitió hacer los efectos especiales del cuerpo del Capitán América en su última versión de Hollywood), pero a la fecha este es un trabajo que requiere de muchísima intervención manual, en donde artistas especiales tienen que retocar casi cuadro-por-cuadro el video para hacer que esto funcione bien.

Pero ahora, con la nueva técnica desarrollada, este proceso se puede automatizar, y aunque quizás por el momento los resultados no sean tan buenos como los procesos manuales, esto sin duda que permitirá una nueva generación de software de bajo costo para la persona común o pequeñas empresas de bajo presupuesto, y de paso apunta a futuras versiones que posiblemente hagan un mejor trabajo automatizado que el mejor de los procesos manuales realizado hoy día.

Sin embargo, esto es apenas el principio de algo más impresionante aun. Por el momento este software requiere de unos 20 minutos en una PC promedio para procesar apenas 10 segundos de video, pero conforme se optimice el algoritmo y se utilice hardware más potente, esto se podrá hacer en tiempo real (similar a esto), y cuando ese tiempo llegue esto será de utilidad también para nosotros reemplazar nuestra cara en medio de una video-conferencia, o incluso reemplazarla por una versión más joven o mayor de nosotros mismos (lo que hará que dudemos de todo lo que veamos en formato digital en los próximos años).

página oficial de Kevin Dale en Harvard (con más información detallada sobre este y otros proyectos)

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


Sistema de proyección volumétrica con lásers llega a 50,000pps
eliax id: 9062 josé elías en nov 16, 2011 a las 04:23 AM (04:23 horas)
¿Sabían que existe tecnología hoy día que permite literalmente "dibujar" en el aire, tal cual lo vieron en la famosa escena de Star Wars (La Guerra de las Galaxias) en donde la Princesa Leia graba un holograma 3D que luego es reproducido por lásers por el robot R2-D2?

Es decir, hablamos de literalmente tener "flotando" frente a nosotros, sin ningún tipo de pantalla, un objeto totalmente tridimensional.

Esta es una técnica de la cual les vengo hablando en el blog desde hace 5 años, y posteriormente los actualicé hace 4 años, y este es un excelente ejemplo de como la tecnología avanza exponencialmente...

En la noticia del 2006 les comenté que el sistema era capaz de desplegar hasta 100 puntos flotando en el aire. En el 2007 ya era posible desplegar 1,000 puntos, y ahora ya es posible desplegar imágenes con 50,000 puntos por segundo, lo suficiente como para crear imagenes de mediana complejidad a un ritmo de 10 a 15 cuadros por segundo.

El sistema funciona cruzando dos lásers en un punto en el aire, en esencia creando una mini-explosión con el oxígeno ambiental, que produce un destello de luz que interpretamos como un pixel en una imagen. El proceso se repite miles de veces por segundo, generándose cada vez más puntos, y entre todos es posible crear imágenes tridimensionales flotando justo frente a nuestros ojos.

Por el momento el sistema está limitado a un solo color y la resolución es relativamente pobre, pero como verán en el video a continuación esto sin duda que despierta nuestras fantasías de la ciencia ficción...

¡Gracias al lector Frankays Rosario Silva por compartir el video en el grupo oficial de eliax en Facebook!

Video a continuación (enlace YouTube)...


autor: josé elías


Operaciones ortopédicas se benefician de impresoras 3D de bajo costo
eliax id: 9052 josé elías en nov 9, 2011 a las 12:08 AM (00:08 horas)
A la hora de uno hacer una operación ortopédica (es decir, en huesos humanos, generalmente), una de las cosas que se hacen en hospitales avanzados es obtener un modelo tridimensional del área a operar, de modo que los cirujanos puedan tener una mejor idea, antes de proceder, de la estrategia a seguir en la operación.

Esto generalmente se hace con equipo bastante costoso en donde el producto final es una impresión fuera del cuerpo de un objeto tridimensional que copia la estructura ósea de la persona a quien se va a operar.

Así que un cirujano aun en entrenamiento, de nombre Mark Frame tuvo una mejor idea: ¿Qué tal si en vez de utilizar esos equipos tan caros, simplemente escaneamos el área a operar, tomamos esos datos, los transformamos con software a un formato tradicional de modelos 3D, y enviamos los datos a una de las empresas que están surgiendo que por muy bajo costo imprimen cualquier cosa en modelos plásticos en 3D?

Pues eso fue precisamente lo que hizo, y al final ahora se pueden obtener modelos a un precio de apenas
£77 Libras Esterlinas (unos US$124 dólares), que es una orden de magnitud (10 veces) más barato que procesos tradicionales.

Esta noticia me gustó ya que es un excelente ejemplo de como un avance tecnológico (impresión de modelos 3D) puede impactar de forma tangencial otros aspectos de nuestras vidas para mejorarla sustancialmente.

Este proceso por ejemplo es tan sencillo que su creador ya ha escrito una guía para que cualquier persona en cualquier hospital pueda replicar sus resultados, permitiendo ahora mejor calidad de operaciones en todo el mundo, y por tanto una mejor calidad de vida para todos.

Y si desean una forma rápida de replicar sus resultados, Mark ha creado una empresa que por £100 Libras Esterlinas (unos US$161 dólares) te hace la gestión de la conversión e impresión en 3D (el costo incluye envío internacional, con los resultados en una semana).

Curiosamente, la empresa que le imprime estos objetos en 3D a Mark es una de la cual les hablé hace 3 años en eliax, Shapeways. Y a propósito, los costos de estas impresoras están bajando tan rápidamente, que al mediano plazo todo hospital podría tener su propia impresora, y al largo plazo, todo hogar.

Finalmente, esto es tan solo el comienzo de un escenario futuro del cual les hablé en esta Reflexión y posteriormente en esta otra.

página oficial de este adelanto

fuente

autor: josé elías


Inventan forma de cambiar color de ojos con rayos láser, de marrón a azul
eliax id: 9053 josé elías en nov 8, 2011 a las 12:08 AM (00:08 horas)
Ojos AzulesSegún un estudio, el 80% de la población mundial tiene ojos de color oscuro, y aproximadamente el 17% de esas personas estaría dispuesta a cambiarse los ojos a color azul si hubiera una técnica simple y segura de hacerlo.

Pues acaban de desarrollar esa técnica...

Se trata de la empresa Stroma Medical, que dice haber desarrollado una técnica en donde en apenas 1 minuto te operan para que tus ojos cambien de color.

El procedimiento consiste en disparar un rayo láser a todos los pigmentos marrones del iris, lo que en esencia hace que estos durante un período 2 a 3 semanas paulatinamente se reduzca la cantidad de melanina, lo que hace que los pigmentos marrones del ojo se tornen azules.

Noten que no hablamos de un azul que se verá artificial, sino que el mismo color azul de cualquier persona que haya nacido con ojos azules, ya que al final de cuentas lo que le proporciona el color azul son precisamente esos pigmentos que este sencillo procedimiento habilita.

Se espera que este procedimiento esté disponible en todo el mundo en aproximadamente 3 años, a un costo inicial de US$5,000 dólares (aunque algo me dice que esto eventualmente costará US$100 dólares o menos y será una operación convencional oftalmólogo podrá hacer en cualquier consultorio del mundo).

¡Gracias a todos los que me enviaron esta noticia por distintos medios!

fuente 1

fuente 2

autor: josé elías

"Ya me imagino a esas personas que habiendo declarado No Donar sus organos, estén buscando un donante para no morir."

por "Eds" en jul 2, 2011


en camino a la singularidad...

©2005-2022 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax