texto:   A-   A+
eliax

Tecnología Visual
El iOptik de Innovega. Lentes de contacto con pantalla, a competir contra Google Glass
eliax id: 10879 josé elías en ene 6, 2014 a las 12:10 AM (00:10 horas)
iOptik de Innovega¿Recuerdan mi predicción #7 para este año 2014? Pues parece que se hará realidad antes de lo previsto, pues una empresa de nombre Innovega revelará la versión final de su tecnología llamada iOptik, que competirá directamente con las gafas inteligentes Glass de Google...

Pero, ¿qué ofrece el iOptik más allá de lo que ya hace Glass? Pues según la empresa, esta promete un sistema que combina un lente de contacto, junto a unas gafas, para crear un sistema de pantallas tridimensionales que son proyectadas directamente a la retina de tu ojos.

Para lograrlo, el lente de contacto funciona como una enfocador de la imagen, mientras que la imagen en si es generada por las gafas y enviadas directamente a los lentes de contacto. Más allá de esto no sabemos más detalles, pero la empresa supuestamente presentará su invento en evento CES 2014 a inicios de año (fuente).

Mientras tanto, los dejo con este video del año pasado de la empresa que consiste de dos partes. En la primera, muestran casos hipotéticos de como será esta tecnología en el futuro, y en la segunda parte muestran video real grabado desde el mismo iOptik

Sea como sea, creo que al final de cuentas más allá de la calidad de imagen que estos proyecten en nuestros ojos, el gran diferenciador y variable de éxito de este tipo de dispositivos será el interfaz de usuario que estos nos den (como expliqué en este artículo anterior acá mismo en eliax), y a tal fin, estoy curioso e intrigado a ver que aporta Innovega en este joven sector...

Video a continuación (enlace YouTube)...


autor: josé elías


10+ cosas que deseo de la próxima generación de cámaras digitales
eliax id: 10877 josé elías en ene 5, 2014 a las 12:10 AM (00:10 horas)
Canon 5D Mark IIIeliaxDespués de 9956 artículos en eliax (contando este), creo que ya saben bastante bien que soy un aficionado empedernido de todo lo concerniente a fotografía y cinematografía, y después de unos años jugando con todo tipo de cámaras (desde celulares hasta mi actual Canon 5D Mark III), he aprendido unas cuantas cosas, pero quizás una de las cosas que más he aprendido es a saber lo que deseo y no tengo en todas las cámaras que he utilizado. Y algo me dice, que cualquier aficionado (como yo) o "Pro", posiblemente desee varias de esas cosas que yo también deseo.

Así que hoy les comparto mi lista de las cosas que me gustaría tener en una futura generación de cámaras digitales del tipo "semi-pro" o "pro", y los invito a que en los comentarios añadan sus propios deseos.

Y quien sabe, quizás alguien de Canon, Nikon, Sony, BlackMagic u otras empresas lea esto y las pase al departamento correspondiente dentro de sus instituciones. O quizás, uno de ustedes se anime en darle al mercado lo que estos no nos dan...

Así que sin más que decir, he aquí mi lista de deseos...


1. Un mucho más amplio Rango Dinámico
Rango Dinámico (o Dynamic Range en inglés), es un tema del cual me gustaría escribir todo un articulo en eliax pues es un tema muy interesante y útil conocer, pero por ahora digamos que es la capacidad de una cámara de resolver detalle entre las partes claras y oscuras de una imagen de forma simultánea.

Hoy día incluso las mejores cámaras del mercado por lo general solo resuelven unas 9 a 11 stops de rango dinámico, pero sabemos que es posible obtener mucho más (como se nota en los archivos RAW/crudos de la última generación de cámaras digitales). Hoy día las cámaras más caras de RED pueden resolver hasta 18 stops de rango dinámico, y la nueva BlackMagic Pocket Cinema Camera provee de 13 stops, por lo que sabemos que es posible darnos al menos 15 stops con un poco de esfuerzo...

Ah, y ya que estamos hablando de High Dynamic Range, ¿qué tal sensores que sean más sensibles a entornos de poca luz (como este)?


2. Botones configurables
Una de las ventajas de interfaces táctiles como las de celulares inteligentes es que estos se pueden configurar por completo, pudiéndose dibujar botones en donde uno lo desee. Pero una de las desventajas de tales interfaces es que no ofrecen una manera de uno "sentir" los botones con los dedos.

Ya existe tecnología en laboratorios (como esta o esta) para permitir que desde una pantalla surjan "botones" que uno pueda sentir, lo que sería ideal para uno configurar la cámara con el interfaz que uno desea y no el que el fabricante desea (como es posible por ejemplo hacerlo al uno bajar una aplicación de cámara para un iPhone o Android, en esencia reemplazando la aplicación original).

Sin embargo, mientras tanto me conformaría con que nos dieran una manera de uno tener varios botones físicos (quizás en un módulo deslizable y reemplazable) en lugares estratégicos de la cámara que nos permitan asignar funciones que deseemos a tales botones y rueditas.

Hoy día varias cámaras pro (como mi 5D Mark III) ofrecen cierto grado de configuración, pero con muchas restricciones.

Por ejemplo, a mi me gusta magnificar la pantalla para enfocar, y eso en mi antiguas Canon T3i, Canon 60D o Canon 6D era mucho más fácil que en mi "superior" 5D Mark III, cosa que hubiese resuelto si pudiese configurar el 100% de los botones y controles a mi gusto (para los curiosos usuarios de la 5D Mark III: Reasigné el botón de SET a magnificar, y eso más o menos aminora y casi resuelve el problema).


3. Enfoque automático por seguimiento ocular
Los sistema de autoenfoque de las cámaras SLR/DSLR son muy pobres en comparación con los de cámaras tipo rangefinder (un tipo de cámara totalmente diferente a la mayoría de cámaras actuales, y que no tengo tiempo de explicar en este artículo de hoy), pero imaginen esto: ¿No sería genial si la cámara pudiese observar nuestro ojo por el visor, notar hacia donde ponemos atención, y enfocar automáticamente en ese punto?

¿Suena a ciencia ficción? Pues les informo que justo eso es lo que hacía la Canon EOS 3, una cámara fabricada por Canon desde el 1998 al 2007, y cuyo ultra-avanzado sistema de enfoque ocular aparentaba que literalmente te leía la mente, pues literalmente enfocaba en donde tu ponías atención (consciente o inconscientemente).

Sin embargo, curiosamente ese tremendo adelanto la empresa no lo trajo a sus cámaras digitales, y quizás lo tenga bajo la manga para dentro de un par de años hacernos cambiar a un nuevo modelo...


4. Pantallas desplegables en los modelos Pro
En el mundo profesional, existen unos cuantos que opinan que la manera "real" de un "pro" enfocar, es viendo por el visor de la cámara, y que las pantallas LCD detrás son solo una distracción.

Yo no comparto esa opinión, e incluso creo es bastante ingenua y nada "profesional". En mi opinión, uno debe tomar ventaja de las opciones y ventajas que nos ofrece la tecnología para permitirnos hacer un trabajo mejor, y el tema de enfocar por medio del LCD, es en mi opinión, uno de ellos...

Enfocar "a puro ojo", particularmente con la última generación de cámaras full-frame con más de 20 megapixeles, y con lentes rápidos en aperturas de 2.8 o superiores, es un juego ya no tanto de experiencia, sino de mucha suerte, en donde en muchos casos aciertas, y en otros sencillamente obtienes imágenes que se ven aceptables en la pantalla de la cámara o impresas en pequeñas postales, pero que al ser inspeccionadas (particularmente en partes de la cara humana, como en los ojos) se desnudan como muy mal enfocadas.

Y una manera de enfocar casi siempre perfectamente, es utilizando la pantalla LCD detrás en modo "en vivo", junto con la funcionalidad de uno poder hacer zoom a nivel de los pixeles, de modo que si estás enfocando a una persona, y presionas en la pantalla en vivo el botón de zoom, puedes magnificar en toda la pantalla solo el ojo de la persona, y enfocarlo con precisión milimétrica. Y cuando te acostumbras, puedes hacerlo super rápidamente.

Sin embargo, esto irónicamente se hace más fácil en cámaras de menor precio (como las Rebel de Canon) que en las Pro, debido a que las cámaras de menor costo permiten que la pantalla se extienda y salga de la cámara, para uno colocarla en cualquier ángulo que uno lo necesite. Y a propósito, ese es uno de los puntos en donde opino que dí un paso hacia atrás al comprar las Canon 6D y 5D Mark III, por sobre mis anteriores Rebel.

Así que espero que Canon obvie un poco las quejas de muchos Pro que van en contra de esto, y preste un poco más de atención al sentido común...

Y ojo, que esto venga por defecto en todas las cámaras no significa que tengas que utilizarlo. Nadie te obligará a punto de pistola a enfocar de esa manera. Si quieres seguir de la forma tradicional de adivinar el enfoque por el visor, amén, pero por favor no creen una campaña ante los grandes fabricantes (como realmente la hay hoy día) para que no incluyan estas super-útiles funcionalidades en sus cámaras semi-pro y pro.


5. PNG-24 junto a RAW
Virtualmente el 100% de todas las cámaras digitales producen imágenes en el formato JPG, pero los que muchos no saben es que sus cámaras pueden generar imágenes de calidad visiblemente muy superior si capturan las fotos en el formato RAW (que muchas cámaras semi-pro en adelante soportan, como las Rebel y la mayoría de Nikons, Sonys y otras marcas).

Sin embargo, RAW (o "crudo", y que pueden considerar el equivalente a los "rollos negativos" del mundo digital) viene con la complejidad de que los archivos ocupan mucho más espacio (unas 4 a 8 veces más), y que para obtener lo mejor de ellos debes procesarlos en un programa que te permite abrir el archivo RAW y manipular sus parámetros.

En un archivo RAW por ejemplo, si has tomado una foto en donde un cielo en la playa aparenta estar totalmente sobreexpuesto (de color totalmente blanco), es bastante posible que puedas recuperar no solo el color del cielo azulado, sino incluso nubes que ni siquiera sabías estaban ahí, y lo mismo puedes hacer con las partes oscuras de la imagen.

Así que al menos para los que les importa obtener la mejor calidad posible, RAW debería venir por defecto en todas las cámaras.

Así mismo, en vez de JPG, que introduce imperfecciones visuales en la imagen debido a compresión visual de datos, ¿por qué mejor no adoptar el formato PNG de 24 bits, que aunque produce archivos más grandes que JPG, no tienen compresión visual, y son mucho menores que los archivos RAW? Y noten que hoy día ya todos los sistemas operativos y programas de edición de imágenes soportan PNG, por lo que hay poca excusa para no soportarlo.

Noten sin embargo que un archivo PNG no te va a permitir recuperar detalle de las partes claras u oscuras de la imagen, pero sí te permitirá tener imágenes más limpias y libres de imperfecciones como ocurre con las JPGs...


6. Video RAW
Similar a RAW y PNG, ¿por qué no incluir la capacidad de generar video en formatos RAW, en vez de los tradicionales MPG y sus derivados?

Hoy día por ejemplo, gracias al hack (no autorizado por Canon) Magic Lantern, es posible transformar varios modelos de cámaras digitales Canon en increíbles herramientas para crear cine con video RAW, ofreciendo las mismas ventajas de un rango dinámico mucho más amplio (de lo cual hablé en el punto anterior con respecto a recuperar detalle en las áreas claras y oscuras de la imagen), y sin imperfecciones de compresión, a cambio de archivos mucho más grandes y un flujo de trabajo un tanto más complejo.

Noten además que ya existen CODECs (codificadores) de video RAW que pueden comprimir video RAW puro a un formato mucho más comprimido sin comprimir la información visual en lo absoluto (es decir, comprimen los datos, no la información visual que estos representan), como el CineForm que produce archivos 10 veces más pequeños que el RAW crudo de algo como la 5D Mark III, por lo que no hay excusa para no proveer esto (salvo quizás, que tendrán que crear circuitos especializados para comprimir a CineForm en tiempo real, lo que podría incrementar el costo de estas cámaras en unos US$10 a US$20 dólares por unidad, que honestamente, no es nada para el público a donde esto apuntaría).

Pero una una vez, ofrezcan ambas opciones: Video comprimido al estilo MPEG, y video RAW para quienes entiendan lo que hacen y deseen la mejor calidad posible...


7. Menor peso
¿Por qué mi 5D Mark III pesa el doble que mi antigua 3Ti? Canon diría que por los materiales que utiliza, pero honestamente, BlackMagic ha demostrado que es posible crear cámaras increíbles en tamaños increíbles (y a precios increíbles). Justamente anteayer por ejemplo (en una boda de un familiar) me lastimé mi muñeca de tanto cargar con una mano la 5D Mark III junto a un lente bastante pesado. Y honestamente, hay otras maneras de hacer esto, y solo se necesita voluntad y liderazgo de parte de estas empresas para hacerlo...



8. Mejores lentes y más baratos
¿Sabían que ya existe investigación (de la cual les hablé en el 2012 acá mismo en eliax) sobre formas de crear lentes sin cristal, totalmente planos, del fino de una hoja de papel, y con una calidad posiblemente muy superior a los mejores lentes del mercado? Ah, y posiblemente a un costo de unos pocos dólares...

Así que ¿qué tal un poco de innovación en este campo por favor?

Hoy día un lente como el Canon 24-70 f2.8 II fácilmente te costará alrededor de US$2,000 dólares, mientras que un excelente prime de la misma Canon como el excelente 50mm f1.8 se consigue por unos US$150, y todo se reduce a lo complejo que es fabricar estos lentes, y a los altos márgenes que estas empresas quieren cobrarle al sector "Pro".

Así que si uno de ustedes lectores quiere hacerse multi-millonario (y hablo de miles de millones de dólares), ya saben a qué campo y tecnología caerle atrás para hacer sus sueños realidad...


9. Mejores baterías
Las cámaras digitales sufren del mismo síndrome que sufren los celulares y tabletas: Justo en el momento que más los necesitas, obtienes el aterrador icono pestañeando que muestra una batería de color rojo, señal de que pronto te quedarás sin energía...

Así que vamos a ver si arreglamos ese tema, para evitar que personas como yo anden con literalmente 3 baterías adicionales junto con la cámara, por si acaso...


10. Tienda de aplicaciones
Una de las mejores cosas que han ocurrido en años recientes en el mundo de las cámaras digitales es el hack Magic Lantern que ya mencioné anteriormente. Pero Magic Lantern no es solo para ofrerte video en formato RAW (aunque ese fue su fin inicial). Magic Lantern te transforma tu cámara a una super cámara, con capacidades que usualmente obtendrías en cámaras que cuestan varios miles de dólares, e incluso funcionalidades que no obtendrías a ningún precio en ninguna otra cámara.

Y no solo para video, sino para fotos, incluyendo intervalómetros, asombrosas capacidades para fotografía HDR (Alto Rango Dinámico), mejora del sonido (permitiendo suprimir el Auto-Gain Control, mejoras en enfoque (con patrones zebra, peaking, etc) y mucho más.

Así que me sorprende que Canon, en vez de apoyar este tipo de cosas, y formalizar la creación de este tipo de programas, simplemente esté callada al respecto...

La empresa debería tomar prestada una página del libro de Apple, quien pocos meses después de salir una tienda de aplicaciones "piratas" para el original iPhone, la empresa sacó su propia tienda, y legalizó el concepto del "App Store", permitiendo una forma organizada, segura y sencilla para que todos pudieran desarrollar aplicaciones para sus celulares (y posteriormente tabletas y laptops), y de paso hacer mucho dinero en el proceso (Apple cobra un 30% de comisión por cada venta en sus tiendas).

Así mismo, Canon y Nikon principalmente debería seguir esos pasos, y permitir acceso total a sus cámaras. Yo mismo por ejemplo personalmente pagaría fácilmente US$99 dólares por Magic Lantern, particularmente si este funcionara en la última versión del firmware (sistema operativo de bajo nivel) de la 5D Mark III (actualmente, debido a que es un hack que depende de un agujero de seguridad de Canon, este solo funciona para una versión vieja, que trae consigo un sinnúmero de problemas que no voy a describir aquí hoy).

Así mismo eso permitiría incluso la creación de accesorios externos (como nuevos botones y rueditas) que mejorarían la funcionalidad de las cámaras en su manejo físico.

Noten que Samsung ya experimentó con esto, con un par de cámaras basadas en Android, pero la inconsistencia de su implementación no ha permitido que ese modelo sea exitoso en su plataforma.


Así que esa es mi lista. ¿Qué otras cosas querrían ustedes? ¿Mejores conectores al estilo Thunderbolt? ¿Monitoreo de sonido estándar? ¿Mejores entradas para micrófono y sonido profesional? ¿Enfoque a-posteriori al estilo Lytro? ¿"cámara lenta" con al menos 120fps? ¿¿¿Qué más se les ocurre???

autor: josé elías


La primera película renderizada en 3D de la historia, en 1972 (precursor de PIXAR)
eliax id: 10857 josé elías en dic 19, 2013 a las 12:10 AM (00:10 horas)
Hace unos 41 años, Ed Catmull, con su amigo Frd Parke (ambos en ese entonces en la Universidad de UTAH en EEUU), crearon historia al crear la primera película renderizada completamente en 3D.

Hablamos de 1972, cuando todavía computadoras como la IBM PC, Apple II o Commodore 64 no habían sido ni siquiera soñadas, y en donde el término "Computadora Personal" aun no se había inventado, y lo que lograron estos dos es verdaderamente asombroso para la época (aunque noten esta otra noticia acá mismo en eliax, sobre la demostración técnica más asombrosa de todos los tiempos).

Como apreciarán en el video, la primera animación que hicieron estos dos fue una versión digital de la mano izquierda de Ed Catmull, quien vale la pena mencionar, eventualmente fundaría PIXAR (que sería propiedad de Steve Jobs, y luego vendida a Disney), y hoy día es el Presidente de Disney, y de Disney Animation Studios.

Esto de paso debe darnos una idea de lo asombrosamente rápido que evoluciona la tecnología, pues si a estos dos les hubiesen preguntado que si en el 2013 tendríamos dispositivos que caben en nuestras manos y que renderizarían en tiempo real escenarios casi fotorealistas, no lo hubiesen creído...

¡Gracias al lector Carlos David Correa por el video!

Video a continuación (enlace YouTube)...


autor: josé elías


BREVES: Inteligencia Artificial en Facebook, Google Street View personalizado, estabilizador Wiggly de video
eliax id: 10848 josé elías en dic 18, 2013 a las 12:09 AM (00:09 horas)
Hoy los dejo con una breve dosis de BREVES en eliax...


1. Inteligencia Artificial en Facebook
FacebookEn la inminente guerra de servicios basados en Inteligencia Artificial, Facebook no quiere quedarse atrás ante los esfuerzos de empresas como Google, Apple, Microsoft o IBM, por lo que recientemente contrató a Yann LeCun, un profesor de New York University.

LeCun será ahora el encargado de todos los esfuerzos de IA por parte de Facebook, lo que significa crear sistemas que aprendan mejor de nuestros hábitos sociales, que puedan predecir nuestros movimientos y deseos (por ejemplo, para vendernos cosas), y en general mejorar la experiencia de Facebook para todos.

anuncio oficial por parte de LeCun


2. Google Street View personalizado
Google Street ViewUna de las mejores (y menos conocidas) funcionalidades de Google Maps es Google Street View, que es la funcionalidad que te permite "caminar" por las calles, montañas, montes, monumentos, y otros lugares, de forma virtual.

Sin embargo, a la fecha, esas "caminatas virtuales" eran posible debido a que Google envía constantemente a todas partes del mundo personas con equipos especializados (tanto en vehículos como a pie) que capturan imágenes de 360 grados en varios puntos de la travesía virtual, lo que como pueden imaginar es un trabajo arduo, y lento...

Pero ahora, Google ha decidido permitir utilizar la funcionalidad de Photo Sphere ("Esfera Fotográfica") de recientes versiones de Android para que tú mismo tomes fotos de 360 grados de tus puntos favoritos, y los subas a Google, en donde gracias a las coordenadas GPS de tu móvil, estas imágenes son ensambladas con más imágenes de otras personas para crear una caminata virtual.

Así que si tienen un lugar favorito, que podría ser un bar, un museo, monumento, o lugar turístico local que quieras compartir con el resto del mundo, esta es la oportunidad de empezar a aportar...

detalles oficiales de parte de Google


3. El estabilizar de video Wiggly para móviles
Wiggly¿Recuerdan el asombroso estabilizador de video MōVI del cual les hablé hace un tiempo acá en eliax? Ese dispositivo cuesta unos US$15 Mil dólares, pero ¿qué tal si pudieran tener algo similar por entre US$300 y US$600 dólares (dependiendo de capacidades) para el uso de cámaras móviles?

Pues eso es precisamente lo que ofrece Wiggly, un proyecto en Kickstarter que espera en las próximas 2 semanas recaudar US$100 mil dólares para fabricar tal dispositivo.

Lo mejor es que su creador ya tiene el producto listo (su creador lleva 7 años diseñando este tipo de sistemas), por lo que es solo cuestión de obtener los fondos necesarios para fabricarlos.

El Wiggly viene en varias versiones que van desde estabilización en un axis, hasta 2 y 3 (igual que el MōVI).

No dejen de ver los videos que acompañan la página del proyecto, el producto se ve verdaderamente bueno, y no solo es para iPhones (como muestran en los videos), sino además para cualquier tipo de cámara pequeña (puedes obtener un adaptador para la GoPro por ejemplo), y me pregunto que tan bien funcionaría esto con la BlackMagic Pocket Cinema Camera...

Wiggly en Kickstarter

autor: josé elías


YouTube ahora permite que cualquiera tenga un canal de TV en vivo, y gratis
eliax id: 10837 josé elías en dic 14, 2013 a las 12:10 AM (00:10 horas)
YouTubeSi quieren un excelente ejemplo de lo rápido que avanza la tecnología, y de la curiosa observación que toda tecnología con el pasar del tiempo tiende a aproximarse a un costo cero, solo noten esta noticia de hoy...

Hasta hace apenas una década, tener un canal de TV en vivo significaba literalmente una inversión millonaria (en dólares), involucrando no solo costo en equipos, sino en frecuencias de espectro o en acuerdos con empresas de TV por cable.

Pero ahora, gracias al Internet y a YouTube (una empresa de Google, para los pocos que aun no lo sepan), el costo acaba de bajar a prácticamente cero.

Iniciando desde esta semana, YouTube anunció que todo usuario de YouTube que tenga una cuenta verificada (solo toma unos minutos), y que esté sana (es decir, que no haya sido reportada por contenido inapropiado o robado), tendrá acceso a enviar video en vivo por medio de su canal de YouTube. Totalmente gratis.

Esto es algo que como les informé anteriormente en eliax, estaba disponible solo para usuarios que tuviesen al menos 1000 subscriptores (YouTube eventualmente lo bajo a 100), pero ahora lo abre a todo el mundo.

Esto sin duda que hará posible toda una nueva generación de aplicaciones, ideas, productos y servicios que nos impulsarán en una nueva era, en donde dependeremos cada vez menos de los canales tradicionales de distribución, y dependeremos más de la creatividad de los individuos, y de la capacidad de empresas productoras de crear contenido interesante y diverso.

Así que si alguna vez tuviste un sueño de tener tu propio canal de TV, ya no tienes excusa. Busca una cámara, obtén una conexión a Internet decente (con 1.5Mbps de subida/upload es suficiente para empezar), y empieza a escribir buenas ideas y a ejecutarlas. En estos tiempos que estamos viviendo, tu imaginación es el límite...

Y finalmente, este es un buen momento para leer este editorial de abril del 2011, en donde hago nota del As bajo la manga de Google que le permite hacer este tipo de proyectos a un costo prohibitivo para otras empresas.

anuncio oficial de YouTube

autor: josé elías


Robert Lang, TreeMaker y Las Matemáticas, y Magia del Origami. Video
eliax id: 10807 josé elías en dic 7, 2013 a las 12:09 AM (00:09 horas)
OrigamiHoy los dejo en eliax con un video (y enlace interesante asociado) de una de las populares charlas TED Talks, esta vez con Robert Lang, un científico que se especializa en el arte y las matemáticas del origami (el arte de doblar papel para formar figuras usualmente tridimensionales).

Lo interesante de la charla de Robert es que no solo nos cuenta brevemente sobre los orígenes y la historia del arte de origami, sino que además hace la conexión que este arte tiene con las matemáticas, mostrándonos que es posible utilizar reglas matemáticas para crear prácticamente cualquier figura que desees, desde animales complejos con miles de escamas, hasta escenas completas de personas tocando un piano, y todo iniciando con una sola hoja de papel y sin cortar tal hoja, solo doblándola...

Pero más sorprendente aun, nos muestra como estos avances que combinan el arte y las matemáticas del Origami están teniendo aplicaciones prácticas en temas como la medicina, el diseño de equipos de seguridad en automóviles, y la ingeniería espacial, y nos demuestra esto con interesantísimos ejemplos.

Aparte de eso, si les interesa el origami, Robert escribió un programa llamado TreeMaker, que en esencia te permite generar los "planos" para doblar cualquier figura que le digas al programa. El programa está disponible para Mac, Windows, y Linux.

Pueden descargar a TreeMaker en su página oficial.

Para ver el video con subtítulos en español, prosigan a este enlace oficial en TED y elijan la opción de subtítulos en español (dentro del video, abajo a la derecha).

Y los que sepan inglés pueden ver el video a continuación (enlace YouTube)...


autor: josé elías


GRAN HITO: NEIL, una Inteligencia Artificial que aprendió "sentido común visual", por sí sola
eliax id: 10793 josé elías en nov 27, 2013 a las 12:09 AM (00:09 horas)
NEILLa Universidad de Carnegie Mellon en los EEUU acaba de dar un gran paso en el campo de la Inteligencia Artificial (IA) al haber desarrollado un sistema al que llama el Never Ending Image Learner (NEIL, que en español sería algo como el "Aprendiz Interminable de Imágenes"), que según sus investigadores ha aprendido por sí mismo el concepto del "sentido común", cuando menos en lo que a reconocer imágenes se refiere por ahora...

Lo que NEIL ha logrado aprender por sí solo es el entender las conexiones que hacemos los humanos para asociar distintos tipos de imágenes diferentes dentro de un mismo grupo, en esencia buscando el sentido común que varias imágenes comparten.

NEIL es un sistema de IA con 200 núcleos que funciona 24 horas al día, los 365 días del año, y lo único que hace es navegar el Internet por su cuenta, buscar imágenes, y tratar de hacer todo tipo de conexiones entre ellas.

Entre las cosas que NEIL ha aprendido por su cuenta (y que son cosas que los humanos clasificamos como "sentido común") están que los edificios son por lo general altos, o que los patos son animales parecidos a los gansos.

Pero tan asombroso como eso, es que uno puede visitar la página web del proyecto NEIL, y ver en tiempo real las últimas cosas que NEIL está aprendiendo por su cuenta, y debo decirles que es verdaderamente asombroso lo que he visto en esa página, ya que aunque son cosas que incluso para un niño son "obvias", no son cosas que uno esperaría de "una máquina".

Me refiero a que literalmente está aprendiendo el concepto del sentido común en las cosas, y más asombroso aun, que ha expandido su dominio de las cosas a temas que no son estrictamente visuales (aunque sí las aprendió visualmente), como el hecho de haber aprendido por sí sola que los autos tienen ruedas (una vez más, algo obvio para nosotros, pero que nadie le enseño previamente a NEIL).

Noten que aparte de ver lo que NEIL está aprendiendo en determinado momento, que puedan además entrenar a NEIL en cosas nuevas si lo desean, así como ver "el interior de su mente", que los desarrolladores de NEIL llaman "escenas", viendo ustedes las asociaciones que NEIL ha hecho previamente para descubrir nuevos conceptos.

Noten que esta noticia se las traigo apenas días después de hablarles de la IA de Google acá mismo en eliax, testamento a lo rápido que estamos avanzando en el área de la Inteligencia Artificial en estos días...

página oficial de NEIL

nota de prensa oficial

autor: josé elías


La más asombrosa simulación de nieve digital que hayan visto, por Disney, para Frozen
eliax id: 10788 josé elías en nov 25, 2013 a las 12:10 AM (00:10 horas)
Frozen (2013), DisneyHoy los dejo con este increíble video, creado por científicos de Disney, en donde nos muestran sus avances en crear nieve 100% digital para ser utilizada en la próxima película animada de Disney, Frozen ("Congelado").

Noten que al inicio del video verán uno segundos de explicaciones matemáticas, y les imploro que resistan la tentación de dejar de ver el video si no les gustan esas cosas, pues lo que viene segundos después es verdaderamente asombroso.

Esto a propósito debe darnos una pista de lo que serán los entornos sintéticos en donde habitaremos los Humanos 2.0 en un futuro no tan lejano, en donde nuestros mundos simulados (a la Matrix) serán tan reales (sino más) que la realidad física misma que experimentamos.

¡Gracias al lector Marcelo Flix Diaz por compartir el video en el grupo Developers.X para desarrolladores de software!

Video a continuación (enlace YouTube)...


autor: josé elías


Evena Eyes-On, gafas que permiten ver las arterias sobre piel del paciente para inyecciones
eliax id: 10782 josé elías en nov 23, 2013 a las 12:10 AM (00:10 horas)
Evena Eyes-On¿Recuerdan el Sensorix que imaginé el año pasado acá en eliax? Pues una pieza más del rompecabezas acaba de caer en su lugar, ya podemos hacer parte de sus capacidades hoy día con las gafas de las cuales les hablo hoy, las gafas Evena Eyes-On.

Estas son unas gafas que permiten que enfermeras visualicen, en tiempo real, las arterias y venas de un paciente como si estas estuviesen encima de la piel, en vez de debajo de la piel, lo que hace ahora el buscar el punto de inserción de una jeringuilla algo totalmente trivial.

Según la empresa, estudios revelan que es necesario "punchar" al paciente más de una vez en el 40% de los casos, algo que al menos yo puedo atestiguar al llevar a mis bebitos al doctor, y si ese problema se puede resolver con gafas como esta, tendrán no solo uno, sino que muchos clientes satisfechos.

Las gafas funcionan con unas cámaras hiper-sensibles que pueden literalmente atravesar la piel y ver las arterias y venas, y en tiempo real un software analiza esas imágenes, resalta solo las arterias y venas (y no otras partes de la piel) y superimpone la imagen en tiempo real sobre la imagen de la piel de la persona, en esencia proveyendo de una forma de "visión de Rayos X" a quienes utilizan estas gafas.

No dejen de ver el video que les muestra bastante bien el funcionando en vivo de las gafas.

página oficial del producto

Video a continuación (enlace YouTube)...


autor: josé elías


RealView, permite a médicos manipular hologramas de tus órganos. Explicado
eliax id: 10773 josé elías en nov 19, 2013 a las 12:10 AM (00:10 horas)
RealViewHoy les muestro una tecnología que es muy importante que entiendan que no funciona como mostrado en el video, que fue realizado sin duda alguna con fines mercadológicos y que no representa el producto real, sin embargo, continúen leyendo pues esto de todas formas es asombroso y sí les proveeré de un enlace que sí les muestras videos reales de uso.

Se trata de una tecnología de holografía médica llamada "RealView" ("Vista Real") por la empresa de mismo nombre, que tiene como fin el permitirle ver al médico en tiempo real una representación "holográfica" de los órganos internos del paciente (o de partes específicas del paciente), lo que como se pueden imaginar será una tecnología extremadamente útil para médicos.

La idea es que con un escáner de alta resolución y tiempo real se pueda capturar el interior del cuerpo en 3D, y después utilizar esos datos 3D para desplegarlos también en tiempo real en un formato "holográfico".

El video que acompaña este artículo acá abajo les da una idea del concepto detrás de la tecnología, pero es importante entender que ese video que ven no fue grabado de una sesión real, sino que fue creado con efectos especiales en post-producción. O en otras palabras, una cámara no puede grabar lo que ven en el video, y el doctor en ese video no está ni viendo ni interactuando con lo que el departamento de mercado nos quiere presentar.

Lo que hace este sistema sin embargo (y esto lo deduje ya que he visto y trabajado con sistemas de este tipo de espejos en el pasado) es que el dispositivo curvo que vean detrás crea una imagen que da la ilusión de uno ver una imagen 3D flotando frente a uno, pero esa imagen solo se puede ver en el campo de visión de ese espejo curvo detrás. Así mismo la imagen desplegada no es realmente "3D" en el sentido de ser volumétrica, sino que es realmente una capa 2D que aparenta flotar en un espacio 3D, pero que al permitir rotar el objeto y manipularlo (una vez más, no con las manos, sino con un instrumento aparte) este da una ilusión bastante convincente de ser "en 3D".

La mejor manera de imaginar esto en la vida real es imaginando lo siguiente: Imaginen que toman un iPad, y le quitan todo su marco y dejan solo la pantalla. Ahora hagan la pantalla transparente (de modo que uno pueda ver a través de ella), y ahora imaginen que en la pantalla 2D del iPad sale un corazón. Ese corazón es un corazón 3D pero dibujado en una pantalla 2D (de forma exacta como un juego de carros de carrera 3D lo vemos realmente en un televisor 2D).

Ahora imaginen que ese iPad "flota" frente a ti y un espejo, y finalmente imagina que tienes un instrumento que te permite rotar y agrandar el corazón en la pantalla del iPad. Ese es más o menos el efecto final, con la diferencia de que no existe una pantalla de iPad transparente (ni ninguna otra pantalla), ya que la imagen se dibuja en una pantalla acostada detrás del espejo curveado, y es la curvatura del espejo lo que hace creer que lo que refleja el espejo "flota" ante nuestros ojos.

Aun así, esto es espectacular, y abajo en los enlaces les dejo un segundo enlace en donde pueden ver videos de uso real del sistema.

Finalmente, noten que esta tecnología es un primer paso hacia algo aun más avanzado que denomino el Sensorix, como imaginé en esta Reflexión acá mismo en eliax.

¡Gracias al lector Raimundo Hernandez Senegal por compartir el video en el grupo oficial de eliax en Facebook!

página oficial de RealView

casos de uso real de RealView

Video a continuación (enlace YouTube)...


autor: josé elías


Apple compró a PrimeSense (creadores del Kinect) por US$345M: ACTUALIZADO: US$360M
eliax id: 10774 josé elías en nov 19, 2013 a las 12:09 AM (00:09 horas)
Sensor de PrimeSenseSegún reportes (por confirmar), Apple acaba de comprar la empresa PrimeSense por US$345 Millones de dólares.

Si el nombre PrimeSense les suena familiar, es porque esta es la misma empresa que desarrolló la tecnología original del Kinect para el Xbox 360 de Microsoft, un área en donde PrimeSense no ha dejado de investigar y desarrollar, recientemente logrando miniaturizar su tecnología a tamaños amigables a tabletas o incluso celulares.

Con esta empresa, Apple tiene acceso a tecnología que le permite interactuar con dispositivos electrónicos con simples gestos "en el aire", lo que complementaría bastante bien a Siri en futuros proyectos de Apple (como quizás, el rumoreado televisor, o al menos una versión futura de la cajita AppleTV). De paso, esto garantiza que Apple obtenga las patentes de PrimeSense sobre esta tecnología, esencialmente evitando que otros utilicen lo desarrollado por PrimeSense, forzándolos a inventar otros métodos (ojo, que esto no deberá afectar al Kinect de Microsoft, que de seguro ya tenía un buen acuerdo con PrimeSense antes de la empresa ser comprada).

Y si quieren tener una buena idea de lo que es capaz esta tecnología, solo vean el video que les dejo más abajo acá mismo en eliax...

página oficial de PrimeSense

Video a continuación (enlace YouTube)...


Actualización del 25 de Noviembre 2013: Apple confirmó la compra el día de hoy, por US$360 Millones de dólares.

autor: josé elías


La alucinante tecnología inFORM del MIT. Telepresencia física dinámica. Video
eliax id: 10760 josé elías en nov 13, 2013 a las 12:10 AM (00:10 horas)
MIT inFORMHoy los dejo con lo que les aseguro será una de las tecnologías que más asombrados los dejará en tiempos recientes...

Se trata de la tecnología inFORM del Tangible Media Group del MIT, una tecnología que utiliza una "mesa dinámica" que se transforma en todo tipo de formas, en tiempo real, logrando este efecto gracias a centenares de actuadores debajo de la mesa que suben o bajan pequeños rectángulos semi-cúbicos.

Entre los usos que esto tiene: Telepresencia parcial (como demostrado con la demostración de las manos en el video), visualización de gráficos 3D en el mundo físico (como por ejemplo, "tirar" una gráfica de barras 3D a la mesa), video-juegos, mercadeo de productos, etc.

Esta es una de esas cosas que por más que trate de explicarles, no podrán apreciar lo suficientemente bien hasta que vean el video por ustedes mismos. No dejen de ver el video, quedarán anonadados.

¡Gracias al lector Luiggi por el enlace al video!

Nota: A través de los años acá mismo en eliax les he presentado algunas otras tecnologías igual de sorprendentes a estas. He colocado algunas al final de este artículo en la sección de "previamente en eliax".

página oficial del proyecto inFORM

página oficial del Tangible Media Group en MIT

Video a continuación (enlace YouTube)...


autor: josé elías


Eliax explica: Captura video de cine profesional por poco menos de US$3,000 dólares
eliax id: 10716 josé elías en nov 2, 2013 a las 12:10 AM (00:10 horas)
Blackmagic Pocket Cinema Cameraeliax¿Alguna vez soñaron con capturar video con una calidad bastante similar a lo que ves en lo mejor del cine de Hollywood? Pues lo crean o no, si están dispuestos a hacer algunos sacrificios técnicos, hoy día ya es posible ensamblar un sistema por menos de US$3,000 que te permitirá captar imágenes que hace apenas 10 años atrás te hubiese costado cuando menos un cuarto de millón de dólares.

La fórmula mágica es la siguiente (al día de hoy, inicios de noviembre 2013):

Cámara: Blackmagic Pocket Cinema Camera (BPCC), US$995
Adaptador de lente: Speed Booster, Nikon mount, US$429
Lente: Sigma 18-35mm F1.8, Nikon mount, US$799
Micrófono: Rode Videomic, US$149

Todo eso hace un total de US$2,372 dólares (más impuestos), lo que les deja todavía US$628 dólares para que cubran el tema de impuestos, envío, y se compren unas cuantas baterías adicionales, tarjetas de almacenamiento de video tipo SDXC, un simple juego de luces LED, y otros accesorios, para terminar con un equipo muy por debajo de los US$3,000 dólares.

Pero, ¿qué tiene de particular este "kit", y por qué no uno basado en las populares cámaras fotográficas DSLR?

Pues tiene que ver con un par de cosas muy importantes, la más importante siendo el concepto de Dynamic Range (o "Rango Dinámico")...

Si alguna vez trataron de capturar video con una DSLR, en un lugar dentro de una habitación un poco oscura, pero en donde también se ve algo fuera de la habitación (digamos, un patio bien alumbrado con el Sol), notarán que al grabar te tienes que decir si capturar detalle en los lados oscuros (lo que conlleva a que los lados claros sean totalmente blancos y sin detalles), o capturar detalle de los lugares claros (con el resultado de que pierdes todo el detalle de los lugares oscuros y terminas con todo negro).

Eso se debe a que por lo general, las cámaras DSLR tienen un Rango Dinámico muy limitado, en el sentido de que solo pueden capturar a la misma vez un rango limitado de distintos tipos de "brillantés" en la imagen. Es decir, un rango limitado de valores intermedios entre un extremo claro y otro oscuro.

El resultado de eso, para empezar, es el típico video que uno "sabe" no fue grabado con equipo profesional, pues uno nota "algo" que rara vez puede decir qué es, pero por lo general es esto, pues al grabar con un Rango Dinámico limitado, eso conlleva a imágenes que son por lo general asociadas más a "cámaras de video" que a "cámaras de cine".

Noten que con algunos hacks, particularmente en cámaras Canon, como el increíble Magic Lantern, es posible capturar video en modo RAW ("crudo") que ofrece un rango dinámico muy superior al video nativo que viene de fábrica, pero aun así, el costo de una cámara que ofrezca lo mejor de Magic Lantern en resolución nativa 1080p, y con el más alto rango dinámico posible, es muy superior a la BPCC.

Hoy día por ejemplo lo que más se acerca con Magic Lantern a la calidad de la Blackmagic Pocket Cinema Camera es una Canon 5D Mark III, pero esa es una cámara que por sí sola (sin lentes) cuesta sobre los US$3,400 dólares.

Y eso nos lleva al otro tema: Costo. El kit que les recomiendo está optimizado tanto para calidad del video como para costo, evidente en lo que mencioné en el párrafo anterior...

La otra cosa es que esta cámara BPCC fue hecha exclusivamente para capturar video cinemático, capturando nativamente video RAW que puede ser editado directamente en populares programas de edición de video directamente, así como viene con una versión "light" del poderosísimo programa de colorizar películas de cine, DaVinci Resolve, que es otro de los trucos que diferencian a un video con un look casero, a otro con un look "cinemático". Y noten que la BPCC está optimizada para capturar video a 24fps (24 cuadros por segundo) que es el formato capturado en cámaras de cine.

Es importante también entender que el video que sale "por defecto" de la BPCC a primera vista aparenta peor que el incluso algunas cámaras de video baratas de un par de cientos de dólares, pero eso es solo una apariencia. El video de la BPCC no está hecho para ser tomado tal cual sale de cámara, pues lo que obtienes es un video con un amplio rango dinámico (hablamos de 13-stops, para los expertos), que posteriormente debes procesar en DaVinci Resolve para "colorizar" el video y verdaderamente hacerlo relucir (y es en este punto en donde estarás con una sonrisa de oreja a oreja).

Y se sorprenderán de lo que podrán hacer con el video RAW de la BPCC, ya que incluso video que aparentaba estar sobreexpuesto o subexpuesto, podrán corregir sin problemas en la mayoría de casos, permitiéndoles "sacar" detalles que a primera vista aparentaban no estar ahí.

Por otro lado, es bueno notar que el sensor de la BPCC es bastante menor que el de una Canon 5D Mark III, por lo que uno pensaría que sería difícil, o incluso imposible, lograr efectos de campo difuso, en donde por ejemplo en una escena fuera posible enfocar en dos personas hablando mientras el fondo se pone difuso y fuera de foco, pero es ahí en donde entra el Speed Booster de Metabones, un accesorio que permite adaptar lentes de mayor tamaño a sensores más pequeños, pero permitiendo utilizar toda la superficie del lente, en vez de solo la parte central del lente, en esencia trayendo la mayor parte de los beneficios de un sensor de gran tamaño (incluyendo fondos difuros), a sensores como el de la BPCC.

Y noten que de paso, debido a que el Speed Booster concentra más luz en un lugar más reducido, que este por defecto incrementa la apertura efectiva del lente en cuestión por al menos 1 f-stop, significando eso que un lente f1.8 en realidad se convierte en uno f1.4, lo que es genial e increíble.

Es importante notar que el Speed Booster por el momento (a la fecha de escribir este artículo) solo tiene adaptadores desde la montura Nikon hasta la MFT (Micro Four-Thirds) que utiliza la BPCC, razón por la cual están atados a lentes con montura Nikon, pero en el momento que Metabones saque una versión Canon, la idea es la misma: Utilizar un Speed Booster en montura Canon con el mismo lente Sigma mencionado en su versión Canon.

Por último, la última pieza del rompecabezas es el lente Sigma 18-35mm F1.8, el cual por el precio ha demostrado ser toda una joya para el cine digital, ofreciendo una imagen bien clara y nítida, y con un útil rango de zoom.

En cuanto al micrófono Rode, lo agregué simplemente para completar todo el tema de audio-video, pero existen otras opciones.

Y si quieren ver un ejemplo de video grabado con exactamente este kit (menos el micrófono), no dejen de visitar el enlace a continuación...

artículo sobre este kit con video de muestra

página oficial de la BPCC (no dejen de ver la sección, a mediados de la página, que dice "Wide Dynamic Range")



Actualización del 12 de Noviembre del 2013: La BlackMagic Pocket Cinema Camera desde hoy permite grabar en 12bit Cinema DNG 1080p RAW. Por US$999 nada mal (fuente).

autor: josé elías


Como lograron los increíbles efectos visuales de la película Gravity
eliax id: 10737 josé elías en oct 30, 2013 a las 12:10 AM (00:10 horas)
GravityLa película Gravity, sin duda que independientemente de qué tanto haya gustado o no, será recordada como un hito en efectos especiales en el cine, y al menos que llegue otra película tan revolucionaria como Gravity en los próximos meses, esta ya tiene un Oscar impreso a los mejores efectos visuales y cinematográficos del año en las próximas premiaciones de la academia.

Pero, ¿cómo lograron tales impresionantes efectos? Pues con una mezcla de mucho ingenio, paciencia, y mucha (muuuuucha) tecnología digital.

Aunque no lo crean, salvo las pocas escenas en donde vemos a los astronautas fuera de sus trajes espaciales, prácticamente el 99% de la película fue realizada de forma digital y renderizada puramente en programas de diseño 3D.

Para empezar, todas las escenas de exteriores en el espacio, incluyendo los cuerpos de los astronautas, fueron realizadas con los más avanzados programas de renderización, y eso incluye incluso las caras de los actores dentro de los cascos de astronauta en varias de las tomas.

Uno de los retos más grandes que tuvieron fue, ¿cómo iluminar la cara de los astronautas conforme estos son iluminados por eventos externos, como por ejemplo cuando Sandra Bullock sale dando vueltas y por medio segundo es iluminada por la Tierra y por otro medio segundo más por el Sol, y otro instante más por la reflexión de las explosiones?

Pues para esto crearon una caja, dentro de la cual sentaban a Sandra Bullock o George Cloonie, quienes permanecían totalmente quietos. El interior de la caja mientras tanto estaba cubierta de arriba a abajo y de lado a lado de miles de LEDs (pequeñas luces multicolores), las cuales podían encenderse y apagarse en cualquier orden y secuencia, conforme deberían ser iluminadas las caras de los actores en el mundo virtual de Gravity.

Así que por ejemplo si una ráfaga de luz pasaba en pantalla de lado a lado por frente de uno de los actores, los LEDs se encendían y apagaban en secuencia de lado a lado simulando la iluminación correspondiente en la cara del actor.

Esto fue un proceso extremadamente tedioso que en muchos casos hacía que Sandra permaneciera literalmente todo un día dentro de la caja, mientras se hacían ajustes, pruebas, etc.

Para escenas de Sandra sin el traje, a esta le hicieron un sostenedor de cuerpo que se pegaba alrededor de todo su abdomen, en forma idéntica a su cuerpo y piel, de modo que no se notara, mientras esta era suspendida por cables.

Para otras escenas, Sandra fue filmada en un estanque gigante de agua con pantalla verde de fondo, para después reemplazar todo el fondo por escenas virtuales (como en la escena final).

Y en otro adelanto, se utilizó un novedoso sistema de captura de movimientos faciales que les permitió capturar todo lo que los actores hacían, hasta el más mínimo detalle, para entonces reproducirlo digitalmente en el mundo virtual de Gravity (vean el video que incluyo abajo, en donde los primeros 25 segundos es lo que una cámara tradicional ve, y después verán como lo ve el sistema de captura digital en 3D).

Pero quizás lo más asombroso de todo es que aunque no lo crean, todo el poder de generar a Gravity lo tendremos en un dispositivo móvil quizás en dentro de una década, lo que les debe dar una idea del tipo de cine que cualquier persona con buena imaginación y talento podrá crear dentro de unos años...

Mientras tanto, si no han visto la película, acá pueden leer mis impresiones eliax, y para ver muchos detalles técnicos de la realización de la película, no dejen de visitar los enlaces a continuación.

excelentísimo artículo en FXGuide sobre cómo crearon a Gravity (lectura obligatoria para todo fan o profesional de efectos especiales)

página oficial del sistema de captura facial utilizado en Gravity

Video a continuación (enlace YouTube)...


autor: josé elías


Sobre el LHC y cómo visitarlo virtualmente por el asombroso Google Street View
eliax id: 10686 josé elías en oct 4, 2013 a las 12:10 AM (00:10 horas)
LHCUno de los lugares más fascinantes en la Tierra para todo científico o amante de la ciencia sin duda debe ser el lugar en donde se encuentra el LHC (Large Hadron Collider o "Gran Colisionador Hadrones"), el instrumento científico más avanzado construido por la humanidad a la fecha, y tan grande que este cubre la frontera de dos países, Francia y Suiza.

Este colosal instrumento científico mide unos asombrosos 27km (17 millas) a la redonda, y está construído bajo tierra a una profundidad de hasta unos increíbles 175 metros (574 pies).

En el 2006 yo mismo acá en eliax escribí un artículo declarando al LHC la creación más sublime de la humanidad hasta el momento en términos de máquinas (la otra siendo, el Internet).

¿Y qué hace este titán de máquina? Pues algo sumamente sencillo en realidad: El LHC tiene forma de un anillo hueco (conformado por aros de imanes) por dentro del cual se mueven todo tipo de partículas a velocidades cercanas a la de la luz en direcciones opuestas, con la finalidad de que estas choquen entre sí, liberando asombrosas cantidades de energía, y en el proceso decayendo a partículas más elementales, mientras forman unos patrones de movimiento en formas de arcos, círculos, líneas y espirales.

Todo eso es estudiado y comparado a teorías matemáticas para entender y afinar nuestro entendimiento del universo (si quieren ver más detalles de su funcionamiento, consulten este video).

Gracias al LHC ya hemos simulado un mini Big Bang, así como descubierto partículas que contribuyen a dotar de masa a nuestro universo (el famoso Higgs, lean sus implicaciones en nuestras vidas acá mismo en eliax).

El LHC está actualmente siendo mejorado para aumentar aun más su poder, pero mientras tanto (y eso nos lleva al enlace de hoy) pueden visitarlo de forma virtual gracias a la herramienta Google Street View de Google Maps.

Con esta herramienta, no solo podrán entrar a diversos puntos del LHC, sino que además mirar a 360 grados a la redonda (y/o 360 grados de arriba hacia abajo), así como "caminar" de un lado al otro de este monumental lugar.

Así que disfruten el siguiente enlace, que creo además sería de gran utilidad compartirlo con estudiantes a todo nivel de educación.

Nota personal: El día que deje de escribir regularmente en eliax (los rumores dicen que me faltan 189 artículos para llegar a los 10,000 que me puse de meta), un bello recuerdo que me llevaré será el día que 5 minutos antes de que se activara el LHC en el 2008, espontáneamente nos reunimos acá mismo en el blog un pequeño grupo de fans de la ciencia, para verlo todo en vivo en video por Internet. Ese día fue inolvidable, y pueden ver más o menos lo que sucedió acá en eliax ese día en este artículo y sus asociados comentarios.

enlace directo al LHC en Google Street View

autor: josé elías


El STEM System de Sixense, te permite interactuar con el mundo virtual desde el real. Video
eliax id: 10678 josé elías en sep 30, 2013 a las 12:10 AM (00:10 horas)
Hoy los dejo con este impresionante video de un sistema al que llaman el STEM System de la empresa Sixense, que se trata de un software especializado que instalas en tu móvil, y que te permite utilizar su pantalla como una ventana a un mundo virtual paralelo al nuestro, en esencia funcionando como una "cámara virtual" dentro del mundo imaginario.

Esto tiene muchísimas aplicaciones que van desde servir como una cámara virtual para efectos especiales en el cine, hasta una nueva generación de videojeugos, o incluso para aplicaciones de museos, o entrenamiento en labores militares, médicas e industriales.

Noten que el concepto detrás de esto no es nuevo (vean por ejemplo este otro sistema del cual les hablé acá mismo en eliax hace 3 años), pero lo que esto ofrece de nuevo es un alto nivel de precisión y un precio lo suficientemente bajo como para poder masificarse.

El proyecto ya está siendo financiado vía Kickstarter, y si quieren ser de los primeros en utilizar esta tecnología diríjanse al enlace a continuación, y no dejen de ver el video que incluyo acá abajo que les dejará bastante claro el concepto detrás del prototipo que demuestra (el producto final no dependerá de una PC remota como explican en el video).

Y si quieren ver la parte interesante del video directamente, salten al minuto con 30 segundos del video.

página oficial del proyecto en Kickstarter

Video a continuación (enlace YouTube)...


autor: josé elías

"Personalmente, siendo un jóven de aún corta edad interesado en la ciencia y temas de actualidad encuentro tu blog como una gran recurso para estar informado y entender qué pasa en nuestro mundo.

Tus reviews, opiniones y editoriales me han enseñado mucho más de lo que he aprendido en la escuela y son mucho más fácil de entender que cualquier otro blog que podría en la internet, y no tienes idea de lo mucho que me ha ayudado tu libro "Maquinas del Paraíso", tanto academica como personalmente, siendo uno de los pocos libros que me ha ayudado a formar mi carácter y ser más abierto a comprender nuevas posibilidad, ideas, opiniones y entender el lugar que ocupo en este mundo.

Nunca se me había ocurrido darte las gracias por trabajar tan duro por tu blog, pero ya que has creado este post, pues aprovecho la oportunidad para darte un millón de gracias por ser una inspiración, por mostrarme el tipo de persona en el que me quiero convertir sin importar en la sociedad que viva, sin importa lo que la gente diga, debo siempre intentar mejorar y seguir el modelo de humanidad la cual creo que sea correcta, porque sí existe, porque si tú cambias entonces las personas a tu alrededor también, Gracias.

-Mario Muchacho
17 años
Venezuela
"

por "Mario" en nov 12, 2010


en camino a la singularidad...

©2005-2020 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax