texto:   A-   A+
eliax

Software
Google anuncia el Android Wear SDK, para ropa inteligente. Opinión eliax
eliax id: 11030 josé elías en mar 19, 2014 a las 09:30 AM (09:30 horas)
Android WeareliaxPor si no lo han notado, estamos estamos en los inicios de una nueva era (por ahora experimental) en computación personal, con lo llamado "Ropa Inteligente", un tema que si son lectores veteranos de eliax ya están familiarizados, ya que llevo unos años explicando el término y anunciando su llegada (leer por ejemplo el punto #10 que hice a finales del 2011).

El término aun no se ha estandarizado (en inglés por el momento lo que más se utiliza es "Inteligente Wear" o "Smart Wear"), pero lo importante a entender es que se avecina un momento en donde todos los accesorios que tengamos en nuestro cuerpo tendrán algún nivel de inteligencia o interacción.

Y es bueno notar que esto no es algo nuevo. Empresas como Pebble con su reloj inteligente ya llevan años en el mercado, y otras como Casio ya vendía relojes de pulsera con calculadoras, radios, y hasta televisores y teléfonos hace al menos 2 décadas atrás, pero apenas hoy día es que la tecnología está avanzando y convergiendo lo suficiente como para hacer este tipo de dispositivos verdaderamente prácticos.

A la fecha, los dos grandes dispositivos que hemos visto en el mercado en representación de esta nueva categoría han sido las gafas inteligentes Google Glass, y el reloj inteligente Galaxy Gear de Samsung, pero por el momento no hemos visto un gran éxito de uno de estos dispositivos en el mercado.

En el caso del Google Glass, estas gafas por el momento han sido disponibles solo para desarrolladores de software, en cantidades limitadas y con funcionalidades y especificaciones limitadas (y precio sumamente alto, rodando los US$1,500 dólares en su versión inicial), por lo que en realidad es más una plataforma de experimentación por parte de Google para ver qué aplicaciones se inventan los usuarios, y cómo refinar la tecnología para futuras iteraciones.

Y en el caso del Samsung Gear (ahora en su segunda versión), Samsung ha restringido demasiado el producto para que requiera y funcione solo con un subconjunto de sus celulares inteligentes, así como ha creado un interfaz de usuario lejos de lo ideal (que solo descubrimos tiempo después de este haberse anunciado y ya haber salido al mercado), por lo que las ventas han sido muy bajas.

Ahora sin embargo, Google acaba de tomar el liderazgo en la industria sacando el primer SDK (Software Development Kit, o herramientas de programación estandarizadas) para este tipo de aplicaciones, y lo está mercadeando como el "Android Wear SDK".

En esencia, lo que Google está diciendo con este SDK es que quiere que sean los fabricantes de terceros (y no necesariamente Google mismo) quienes deben utilizar su imaginación y visión para crear una nueva generación de dispositivos personales inteligentes, y de paso abrir por completo la plataforma para que cualquier desarrollador de software pueda inventar lo que desee.

Inicialmente el SDK está orientado a relojes inteligentes, pero es fácil ver este SDK expandido para cubrir a aplicaciones para gafas inteligentes y otros (por ejemplo, hoy día el SDK permitiría desarrollar aplicaciones para bandas de muñeca que monitoreen tu salud, sin necesidad de pantallas, como lo hace la banda Up de Jawbone).

Así que este SDK en mi opinión es un gran paso en esta naciente industria, y uno que era necesario. Esto por ejemplo hará que Samsung mejore sustancialmente el interfaz de sus Galaxy Gear, haciéndolos mucho más competitivos antes de que llegue el rumoreado (y esperado) reloj inteligente iWatch de Apple, para el cual Apple aparenta estar tomándose su tiempo para sacar el producto más pulido posible (como usualmente hace).

Y hablando de Apple, no cabe duda que estas movidas de Samsung y Google son movidas preventivas para bajar un poco el impacto el iWatch, pues estas empresas obviamente no quieren ser tomadas una vez por sorpresa como sucedió con el original iPhone, y posteriormente con el iPad.

De paso, creo que Google tiene una ventaja que podría crear un digno rival al iWatch, y es su excelente servicio Google Now (su servicio que responde a nuestros comandos de voz). Google Now para mi es superior a Siri en todo lo que no sea funcionalidad local al dispositivo (es decir, en preguntarle y pedirle cosas genéricas, en vez de simplemente crear entradas en tu agenda o marcar números telefónicos), y eso significa que Apple tendrá que mejorar sustancialmente a Siri para poder hacer frente en esta nueva generación de dispositivos...

En cuanto a la implementación actual de Android Wear, Google ha hecho un trabajo inteligente, permitiendo una transición extremadamente gradual al Wear SDK, permitiendo que el 95% de lo que los programadores de Android ya conocen se traslade directamente a Wear, esto incluyendo el lenguaje de programación, las librerías principales de utilidades, y los interfaces de programación.

Así que aplausos a Google, ahora solo falta ver qué es lo que nos tiene Apple bajo la manga, y por otro lado sería interesante también ver si Amazon planea en un futuro entrar a este espacio. Y en nota relacionada, es una lástima no ver a Microsoft por ningún lado en el mapa en este espacio, llegando posiblemente tarde, una vez más, a otra de esas grandes olas de tendencias en el espacio de consumidores...

En cuanto a las empresas que planean soportar el Wear SDK próximamente, se encuentran Asus, HTC, LG, Motorola, Samsung, MIPS, Broadcom, Imagination, Intel, Mediatek, Qualcomm, y Fossil Group (la misma empresa de los populares relojes de pulsera tradicionales Fossil).

No dejen de ver el cuarto video a continuación que muestra lo que Motorola planea sacar al mercado (bajo el nombre de "Moto 360"), lo que les dará una idea hacia donde va todo este tema. El Moto 360 (y posiblemente otros dispositivos de empresas como LG) los veremos posiblemente a mediados de este año 2014 en curso, y a más a tardar ciertamente antes de finalizar el año.

anuncio oficial del Android Wear SDK por Google

página oficial del Android Wear SDK para desarrolladores de software

Un video para consumidores de Android Wear a continuación (enlace YouTube)...


Video que explica el Android Wear a continuación (enlace YouTube)...


Video para desarrolladores de Android Wear a continuación (enlace YouTube)...


Video del Moto 360 a continuación (enlace YouTube)...


autor: josé elías


Eliax explica: Apple CarPlay NO está implementado con QNX de Blackberry
eliax id: 11001 josé elías en mar 6, 2014 a las 10:40 PM (22:40 horas)
CarPlayeliaxEn los días posteriores al anuncio de CarPlay de Apple (esencialmente, la fusión del iPhone con los automóviles), me ha sorprendido que incluso grandes portales de noticias tecnológicas han caído en la trampa de reportar que la tecnología que habilita a CarPlay the Apple es QNX de Blackberry.

Los ingenieros de Apple, y los de Blackberry, deben estar muriéndose de la risa con esa afirmación, la cual hacen unos cuantos que no tienen la menor idea de los detalles técnicos de estas implementaciones.

Así que para que paren los rumores y noticias falsas (y las decenas de enlaces de lectores del blog diciéndome que me informe mejor ya que "CarPlay es un producto que existe gracias a Blackberry"), les explico qué es lo que sucede...

QNX, para el que no sepa, es lo que se llama un sistema operativo "de tiempo real", utilizado no solo en sistemas de "infoentretenimiento" en automóviles, sino además en sistemas incrustados en todo tipo de dispositivos, electrodomésticos, sistemas de defensa, e incluso sondas espaciales. Es un sistema operativo extremadamente robusto, y muy respetado entre ingenieros de cualquier empresa que sepa al menos un poco del tema de este tipo de sistemas operativos.

Pues bien, alrededor del 2010 RIM (el antiguo nombre de la empresa que hoy todos conocemos como Blackberry) compró a QNX, para utilizar como la base de sus futuros celulares inteligentes.

Pero eso no significa que Blackberry en la actualidad haya detenido el negocio tradicional de QNX, como en lo que nos compete con el tema de hoy, que es el de licenciar a terceros a QNX para que lo utilicen como un sistema operativo de automóviles, en donde es bastante popular.

¿Y dónde entre Apple y toda la confusión al respecto? Pues al hecho de que CarPlay no es un producto, sino una especificación técnica.

Cualquier fabricante de equipos de entretenimiento para automóviles, puede firmar un contrato con Apple, e implementar los protocolos, interfaces y especificaciones de CarPlay en su sistema de entretenimiento actual, sin importar si ese sistema está basado en QNX, Linux, Android, u otros sistemas abiertos o propietarios. CarPlay no tiene nada que ver con QNX de la misma forma que Facebook en un iPhone no tiene nada que ver con Apple ni iOS, sino que es simplemente un servicio instalado encima de este.

Así que por ejemplo, si Volvo ya tiene su propio sistema de entretenimiento corriendo sobre QNX, los ingenieros de Volvo pueden implementar los protocolos de CarPlay en su entorno de desarrollo para la plataforma de entretenimiento de Volvo, el cual simplemente sucede en este caso en específico que es QNX.

O en otras palabras, CarPlay no es el radio mismo dentro de tu auto, sino el protocolo que permite que ese radio se comunique con tu iPhone.

Así que deciri que "la tecnología que permite que CarPlay exista es QNX de Blackberry" es como decir "la tecnología que permite que el Internet exista es un celular Nokia con el navegador web Opera", lo cual no tiene ningún sentido, ya que el Internet no depende de ni de Nokia ni de Opera, así como CarPlay no depende en lo absoluto ni de Blackberry ni de QNX.

Incluso, que no les sorprenda si en el futuro vemos sistemas de entretenimiento para automóviles corriendo encima de una distribución especial de Android o Linux, pero que es compatible o incluso diseñado para funcionar exclusivamente con CarPlay.

Así que espero eso aclare un poco las dudas...

autor: josé elías


Para el 2035 Google a conectar nuestros cerebros directos a Internet. Explicación eliax
eliax id: 10944 josé elías en feb 7, 2014 a las 12:10 AM (00:10 horas)
GoogleCerebro HumanoeliaxYa faltando apenas 3 artículos más para finalizar mis 10,000 artículos consecutivos publicados diariamente en eliax, esta noticia de hoy creo que viene bastante bien apropiada, ya que uno de los temas recurrentes de eliax durante ya casi 9 años siempre ha sido el de La Singularidad, un evento del cual he venido evangelizando incluso mucho antes de eliax, como por ejemplo en mi libro del 2001 Máquinas en el Paraíso.

Y la gran noticia de hoy es que Ray Kurzweil, la persona que más ha popularizado el concepto de La Singularidad Tecnológica, y quien Google recientemente contrató para ser su Director de Ingeniería y encargado de todo lo que tenga que ver con Inteligencia Artificial dentro de la empresa, acaba de declarar en una entrevista del Wall Street Journal, que ya para el 2035 poseeremos tecnología que permitirá que los seres humanos conectemos directamente nuestros cerebros a la nube de Internet.

Eso, sonaría un poco sensacionalista viniendo de cualquier otra persona, pero Kurzweil tiene una espectacular carrera como visionario y futurista, prediciendo muchas cosas que hoy damos por sentado, como sintetizadores de voz, dispositivos en nuestras manos con más poder que supercomputadoras de hace pocas décadas atrás, el crecimiento de redes como el Internet, etc.

Yo personalmente creo (en base a toda la evidencia que apoya este tipo de investigaciones), que no es cuestión de si esto será posible o no, sino más bien de cuando.

Muchos dirán, "bien, digamos que sí es posible, me lo creo, pero lo que no creo es que veremos esto hecho realidad dentro de poco más de un par de décadas, esto lo veo más posible dentro de 100, 200, o incluso mil años", pero pensar así es erróneo por una sencilla pero potentísima razón: La ciencia y la tecnología evolucionan exponencialmente, no linealmente.

Para los que no entiendan ese concepto, ponderen este ejemplo...

Digamos que toman un celular cualquiera, y que yo les diga que lo acuesten en una mesa, y que midan cuanto mide. Y después yo les pida que dupliquen la distancia de ese celular colocando otro celular al lado de ese (en su lado largo), de modo que ahora medimos el doble de antes.

Y digamos que yo les pida ahora que coloquen 2 celulares más, uno al lado de otro, de modo que ahora la distancia se duplica otra vez (con 4 celulares), y que repitan ese proceso muchísimas veces, duplicando la distancia cada vez, con 8, 16, 32 celulares, etc.

Ahora viene la pregunta: ¿Cuántos veces tendrían que duplicar la distancia de los celulares, para tener tantos celulares como para llegar de la Tierra al Sol? Y les recuerdo que la distancia de la Tierra al Sol es aproximadamente de unos 150 millones de kilómetros...

La respuesta posiblemente les sorprenda, pues es solo 45. Por increíble que parezca, si repiten el mismo proceso de duplicar el largo de un celular durante 45 veces, no solo habrán creado una distancia que llega al Sol, sino que la sobrepasa por mucho...

Eso es una progresión geométrica, o una progresión exponencial, o un crecimiento exponencial.

Al otro extremo tendríamos una progresión o crecimiento lineal. En este modelo, lo que haríamos es colocar un celular sobre la mesa, e ir agregando un solo celular a la vez, hasta que lleguemos al Sol, y la pregunta es, ¿cuántos celulares necesitaríamos? La respuesta es que necesitaríamos más de 10,000,000,000,000 celulares (10 millones de millones de celulares).

O en otras palabras, linealmente necesitaríamos 10 billones de la distancia que mide un celular para llegar hasta el Sol, mientras que exponencialmente solo necesitaríamos duplicar 45 veces la distancia que mide un celular.

Y no se si lo han notado, pero existe una descomunalmente grande diferencia entre 10 billones de unidades, y 45 unidades...

Pues similarmente, algo que ha sido comprobado, medido, observado, y vivido por nosotros durante toda nuestra existencia en el planeta, es el sencillo hecho de que todo evoluciona exponencialmente.

En la práctica eso significa lo siguiente: Si hace 45 años atrás tuviésemos una supercomputadora que calculaba a 10 trillones de unidades (de lo que fuera) por segundo, mientras que un hipotético celular calculaba solo 1 unidad por segundo, y alguien te preguntaba en cuánto tiempo en el futuro tendríamos un celular con el poder de esa máquina, la respuesta lineal (e incorrecta) sería decir que si asumimos que cada año un celular que antes ejecutaba una unidad de trabajo ahora puede ejecutar otra mas, que entonces tardaríamos 10 trillones de años en que un celular tuviese la capacidad de esa supercomputadora.

Sin embargo, en la práctica sabemos que el poder computacional crece exponencialmente, y sin en nuestro caso hipotético asumimos que el poder del celular se duplica cada año, que entonces en vez de 10 trillones de años, tardaríamos apenas 45 años en tener un celular con el poder de esa supercomputadora.

Esto podrá sonar increíble o imposible, ¿pero adivinen que? eso es precisamente lo que ha estado ocurriendo, y es la razón por la cual hoy día un celular de gama alta cualquiera tiene más poder computacional que todas las supercomputadoras sobre la faz de la Tierra combinadas hace apenas pocas décadas atrás.

Esa es la razón también por la cual si le hubieses dicho a alguien hace 100 años que dentro de 100 años en un futuro tendríamos televisores que enviarían imágenes en tiempo real al otro lado del mundo, teléfonos para hablar bi-direccionalmente de cualquier punto de la Tierra a otro, una red mundial que conecta miles de millones de personas y que permite enviar mensajes en menos de un segundo de cualquier punto a otro, o máquinas que pueden ver en tiempo real dentro de nuestro cuerpo, o telescopios que nos permitirían ver casi el origen mismo del universo, o microscopios que nos permitirían ver muchísimo más adentro de los átomos mismos, o hornos de microondas para calentar comida en segundos, o aires acondicionados para enfriar nuestros hogares, o robots que caminarían como nosotros (y hasta nos ganarían en juegos intelectuales), o naves espaciales que explorarían los confines del Sistema Solar, o las miles de otras maravillas que hoy tomamos por sentado y dado, es casi seguro que te llamarían una persona total y irrefutablemente "loca".

Y los que no dijeran que eres una persona totalmente loca, y que incluso te dieran la razón de la duda de que "algún día" esas cosas de las que le hablas serían posible, es muy probable que te hubiesen dicho "eso será posible dentro de miles y miles de años"...

Y ese es el punto a entender sobre esta noticia y las miles de las cuales les he hablado a través de los años en eliax.

Muchas de estas maravillas de las cuales les he hablado en el blog, y que vemos en el horizonte, llagarán mucho antes de lo que se imaginan.

Solo piensen en esto: Hace apenas 10 años, la mayoría de nosotros no utilizábamos celulares. 10 años. Hoy un celular es parte íntegra de nuestros cuerpos.

Hace apenas 10 años Facebook era apenas un portal más que aspiraba "algún día" a tener 1 millón de usuarios. Hoy tiene mucho más de mil millones de personas conectadas.

Así que cuando lean este tipo de noticias, es importantísimo dejar a un lado el instinto lineal bajo el cual evolucionaron nuestros cerebros, e iniciar a pensar en términos exponenciales, pues de no ser así el futuro no solo les llegará más rápido de lo que se imaginan, sino que los dejará atrás más rápido de lo que se imaginan...

Y volviendo a la noticia de hoy, lo que Kurzweil de Google está diciendo es que para el 2035 (súmenle o quítenle unos cuantos años, pero de que sucederá, sucederá), poseeremos tecnología que conectaremos a nuestros cerebros, posiblemente en forma de nanobots (robots ultra-miniaturizados) y que de forma inalámbrica nos conectarán a todos al Internet, y por ende a cada uno de los otros seres humanos del planeta, y al poder computacional que podamos poner en la nube.

Eso significa el poder tener acceso a un nivel de computación tal, que cualquier persona dentro de unas décadas poseerá más poder computacional que todos los seres vivos y máquinas de hoy día combinados, y eso tendrá repercusiones que van muchísimo más allá de lo que la mayoría de seres humanos de hoy día se imaginan.

Bienvenidos a La Singularidad...

autor: josé elías


Triste día para consumidores: En EEUU matan Neutralidad de Red. Explicación eliax
eliax id: 10898 josé elías en ene 16, 2014 a las 12:10 AM (00:10 horas)
InjusticiaeliaxMis amig@s lectores, hoy es un triste día para consumidores, y considero muy importante que estén al tanto de esta noticia...

Sucede que la Corte de Apelaciones para el Distrito de Columbia en los EEUU acaba de anular el concepto de la Neutralidad de Red entre los ISP (Internet Service Providers).

Primero un poco de terminología básica: Un ISP no es más que la empresa que te dota de Internet, que en muchos casos es también tu empresa de telefonía fija o móvil, y/o de televisión por cable.

En cuanto al concepto de Neutralidad en la Red, este es un concepto del cual llevo 8 años hablándoles en eliax, y trata del hecho de que los ISPs deberían tratar con la misma prioridad todo el tráfico de Internet que pase por sus redes, o al menos, no deberían degradar o bloquear deliberadamente el tipo de tráfico que ellos deseen.

Pero, ¿qué significa esto? Pues que ahora los consumidores más que nunca estarán atados a los deseos y monopolios de servicios de sus ISPs, y en esto quienes más van a sufrir son todas esas empresas que ofrezcan servicios que compitan contra los de los ISPs.

El ejemplo más claro que viene a la mente es Netflix, y por extensión películas de iTunes y de Amazon Video, así como de otros como Hulu, Vudu, YouTube, etc. Y les explico como a continuación...

Supongamos que tu ISP te provee no solo de Internet. sino que también de TV por cable. Estos ISPs tienen acuerdos muy lucrativos con grupos que manejan no solo los canales tradicionales, sino principalmente con los canales premium de cable como son HBO, ESPN, Univision, TNT, FOX, Discovery, etc.

Los conglomerados que manejan estos canales tiene ya cerca de dos décadas peleando con todas sus fuerzas para tratar de retrasar lo inevitable: Eventualmente, nadie querrá subscribirse a todo un paquete de TV por cable solo para de entre los 200 canales que ofrecen, ver 2 o 3 regularmente como mucho. Así mismo tampoco querrán subscribirse al concepto de un canal de 24 con 20 a 50 programas semanales cuando a ti realmente solo te interesan ver 1 o 2 programas de ese canal.

O en otras palabras, estamos en el umbral de "TV a la carta" en donde empresas como Netflix, Apple, Amazon y Google/YouTube nos están permitiendo ver solo aquellos programas que deseamos, y pagar solo por aquellos que deseamos.

Esto obviamente pone de cabeza el lucrativo modelo tradicional, abriendo camino a estas nuevas empresas y ofreciendo opciones a los consumidores que no tenían antes. Pero con la nueva medida en los EEUU (que esperemos no dure mucho y que no se esparza por todo el mundo) eso significa que si un ISP ve que sus subscriptores están utilizando mucho a Netflix o iTunes, estos podrán no solo degradar la velocidad ("ancho de banda") de estos servicios para que el video se vea de muy mala calidad (o tengas que esperas varias horas o días para que se descargue el video), o incluso para bloquear el servicio por completo.

Con esto los ISPs aseguran sus contratos con los monopolios tradicionales que ofrecen contenido para TV, así como obtienen ahora una licencia gratis para chantajear a Netflix, Apple, Amazon y Google, quienes ahora tendrían que pagarle a los ISPs (quienes pasarían ese costo a nosotros los consumidores) para seguir ofertando sus servicios.

Obviamente los ISPs le han dicho a la corte que ellos son buenos corderos y que no planean hacer tal cosa, pero esas afirmaciones no tienen peso legal ya que el solo decirlas no es un contrato social con el estado. Lo que estos ISPs tienen ahora es el poder legal de remover todo rastro de Neutralidad en la Red, y no duden que no tardarán mucho en utilizarlo...

Y ojo, que esto fue solo un ejemplo que les dí en el sector de video por Internet. Nada podrá detener a estos ISPs ahora de que chantajeen también a redes sociales como Facebook y Twitter, o sistemas de mensajería como Whatsapp, iMessage o Google Hangouts, o incluso ecosistemas enteros como el App Store de Apple, la tienda Google Play, o el Amazon App Store. Así que ya se pueden imaginar la titánica batalla que se nos avecina en el terreno legislativo debido a estas medidas...

documento oficial del gobierno de los EEUU sobre esta decisión (formato PDF)

autor: josé elías


Inteligencia Artificial codificada en reacciones químicas complejas
eliax id: 10845 josé elías en dic 29, 2013 a las 12:10 AM (00:10 horas)
HAL-9000Uno de los usos más importantes que se planea darle a los llamados "nanobots" (robots que se miden en la millonésima parte de un metro, y que por tanto podrán vivir en nuestros cuerpos), es en auxiliarnos en temas de salud (como estos de los cuales que ya les hablé en eliax), pudiendo estos funcionar como linea de defensa proactiva (como un sistema inmunológico complementario y sintético), o hasta para entregar medicinas a diversas partes del cuerpo, o incluso asistir a cirujanos en operaciones de todo tipo.

Sin embargo, estos nanobots dependen de circuitos digitales (en esencia, microchips como cerebros) para llevar a cabo sus funciones, cosa que conlleva otros niveles de complejidad en temas de control y abastecimiento energético.

Pero, ¿qué tal si hubiese otra forma? Pues eso es precisamente lo que han pensado unos científicos de la universidad de Harvard, quienes acaban de inventar una técnica que les permite codificar algoritmos de Inteligencia Artificial (IA) no en operaciones digitales, sino que en reacciones químicas...

O en otras palabras, en vez de tener un mini-robot con un cerebro digital compuesto de transistores ultra-miniaturizados, ¿qué tal si creamos moléculas que al combinarse unas con otras producen el mismo resultado que un cerebro digital pero por medio de la reacción química entre estas moléculas?

Esto tiene implicaciones tremendamente grandes, ya que por ejemplo podríamos crear "pastillas inteligentes" que al disolverse podrían dejar ingresar en nuestro organismo una conjunto de moléculas inteligentes que podrían tomar decisiones por sí mismas sobre cómo proceder en el organismo.

Así que por ejemplo a un paciente podríamos inyectarle una sustancia llena de estas moléculas para tratar el cáncer, y estas moléculas podrían saber en base a IA cuáles células son cancerígenas y cuáles no, para así solo atacar a las que deben ser destruidas.

O incluso, esto podría dar origen a una sub-inteligencia dentro de nosotros mismos que estaría encargada de nuestro bienestar y de gestionar la salubridad total de nuestro medio ambiente, incluso quizás conectándose a nuestros cerebros por medio de interfaces neuronales para no solo recibir órdenes de nuestra mente, sino para además enviar el estado de bienestar o malestar a nuestra consciencia o subconsciencia.

Incluso (en un futuro más lejano) no sería descabellado pensar en un futuro en donde podríamos hacer que esta inteligencia molecular sea tan inteligente, y esté tan bien conectada con nosotros y nuestro mundo exterior, que incluso funcione como nuestro Asistente Virtual (como este acá mismo en eliax), ayudándonos con las cosas mundanas de la vida (como reservar aviones, recordándonos reuniones, llamando un taxi, alertándonos de cambios en nuestros negocios, o recordándonos de personas que en ese momento estamos viendo).

Y no piensen que esto es ciencia ficción, pues ya empezamos a dar los primeros pasos al respecto con las tecnologías necesarias para llevar todo esto a cabo...

fuente oficial en Harvard

documento científico oficial

autor: josé elías


Avance/trailer de la película Transcendence, sobre la Singularidad Tecnológica
eliax id: 10859 josé elías en dic 22, 2013 a las 12:09 AM (00:09 horas)
Como los lectores veteranos de eliax ya saben, uno de los principales temas de este blog es el de La Singularidad Tecnológica, y por tanto es con gran emoción que les muestro hoy este primer avance/trailer de la película Transcendence ("Transcendiente") con Johnny Depp, Kate Mara y Morgan Freeman...

La película se trata de un inminente científico quien al inicio de la película casi pierde la vida, por lo que para salvarlo deciden adelantar un experimento pendiente: Subir su mente a una computadora. Pero al hacerlo, su mente empieza a pedir recursos a escalas inimaginables y ahí empieza nuestra película.

La película sale el 18 de Abril del 2014, y pueden estar seguros que me verán en alguna fila/cola de algún cine ese día del estreno... :)

Nota: En el 2001 escribí un libro titulado Máquinas en el Paraíso que explica y hasta pronostica muchas de las cosas que verán en esta película. Así mismo recomiendo leer varios de los enlaces que puse al final de este artículo en la sección de "previamente en eliax", y presten particular atención a artículos como este o este otro.

¡Gracias a todos los lectores que me han enviado este video!

Video a continuación (enlace YouTube)...


autor: josé elías


La primera película renderizada en 3D de la historia, en 1972 (precursor de PIXAR)
eliax id: 10857 josé elías en dic 19, 2013 a las 12:10 AM (00:10 horas)
Hace unos 41 años, Ed Catmull, con su amigo Frd Parke (ambos en ese entonces en la Universidad de UTAH en EEUU), crearon historia al crear la primera película renderizada completamente en 3D.

Hablamos de 1972, cuando todavía computadoras como la IBM PC, Apple II o Commodore 64 no habían sido ni siquiera soñadas, y en donde el término "Computadora Personal" aun no se había inventado, y lo que lograron estos dos es verdaderamente asombroso para la época (aunque noten esta otra noticia acá mismo en eliax, sobre la demostración técnica más asombrosa de todos los tiempos).

Como apreciarán en el video, la primera animación que hicieron estos dos fue una versión digital de la mano izquierda de Ed Catmull, quien vale la pena mencionar, eventualmente fundaría PIXAR (que sería propiedad de Steve Jobs, y luego vendida a Disney), y hoy día es el Presidente de Disney, y de Disney Animation Studios.

Esto de paso debe darnos una idea de lo asombrosamente rápido que evoluciona la tecnología, pues si a estos dos les hubiesen preguntado que si en el 2013 tendríamos dispositivos que caben en nuestras manos y que renderizarían en tiempo real escenarios casi fotorealistas, no lo hubiesen creído...

¡Gracias al lector Carlos David Correa por el video!

Video a continuación (enlace YouTube)...


autor: josé elías


BREVES: Inteligencia Artificial en Facebook, Google Street View personalizado, estabilizador Wiggly de video
eliax id: 10848 josé elías en dic 18, 2013 a las 12:09 AM (00:09 horas)
Hoy los dejo con una breve dosis de BREVES en eliax...


1. Inteligencia Artificial en Facebook
FacebookEn la inminente guerra de servicios basados en Inteligencia Artificial, Facebook no quiere quedarse atrás ante los esfuerzos de empresas como Google, Apple, Microsoft o IBM, por lo que recientemente contrató a Yann LeCun, un profesor de New York University.

LeCun será ahora el encargado de todos los esfuerzos de IA por parte de Facebook, lo que significa crear sistemas que aprendan mejor de nuestros hábitos sociales, que puedan predecir nuestros movimientos y deseos (por ejemplo, para vendernos cosas), y en general mejorar la experiencia de Facebook para todos.

anuncio oficial por parte de LeCun


2. Google Street View personalizado
Google Street ViewUna de las mejores (y menos conocidas) funcionalidades de Google Maps es Google Street View, que es la funcionalidad que te permite "caminar" por las calles, montañas, montes, monumentos, y otros lugares, de forma virtual.

Sin embargo, a la fecha, esas "caminatas virtuales" eran posible debido a que Google envía constantemente a todas partes del mundo personas con equipos especializados (tanto en vehículos como a pie) que capturan imágenes de 360 grados en varios puntos de la travesía virtual, lo que como pueden imaginar es un trabajo arduo, y lento...

Pero ahora, Google ha decidido permitir utilizar la funcionalidad de Photo Sphere ("Esfera Fotográfica") de recientes versiones de Android para que tú mismo tomes fotos de 360 grados de tus puntos favoritos, y los subas a Google, en donde gracias a las coordenadas GPS de tu móvil, estas imágenes son ensambladas con más imágenes de otras personas para crear una caminata virtual.

Así que si tienen un lugar favorito, que podría ser un bar, un museo, monumento, o lugar turístico local que quieras compartir con el resto del mundo, esta es la oportunidad de empezar a aportar...

detalles oficiales de parte de Google


3. El estabilizar de video Wiggly para móviles
Wiggly¿Recuerdan el asombroso estabilizador de video MōVI del cual les hablé hace un tiempo acá en eliax? Ese dispositivo cuesta unos US$15 Mil dólares, pero ¿qué tal si pudieran tener algo similar por entre US$300 y US$600 dólares (dependiendo de capacidades) para el uso de cámaras móviles?

Pues eso es precisamente lo que ofrece Wiggly, un proyecto en Kickstarter que espera en las próximas 2 semanas recaudar US$100 mil dólares para fabricar tal dispositivo.

Lo mejor es que su creador ya tiene el producto listo (su creador lleva 7 años diseñando este tipo de sistemas), por lo que es solo cuestión de obtener los fondos necesarios para fabricarlos.

El Wiggly viene en varias versiones que van desde estabilización en un axis, hasta 2 y 3 (igual que el MōVI).

No dejen de ver los videos que acompañan la página del proyecto, el producto se ve verdaderamente bueno, y no solo es para iPhones (como muestran en los videos), sino además para cualquier tipo de cámara pequeña (puedes obtener un adaptador para la GoPro por ejemplo), y me pregunto que tan bien funcionaría esto con la BlackMagic Pocket Cinema Camera...

Wiggly en Kickstarter

autor: josé elías


El 61% del tráfico de la web en el 2013 fue de robots informáticos
eliax id: 10846 josé elías en dic 17, 2013 a las 12:10 AM (00:10 horas)
BotsSi les preguntaran que estimaran el porcentaje de todo el tráfico de la Web que representa el tráfico de aplicaciones dirigidas por seres humanos, versus el tráfico generado por "bots" (es decir, robots en software que manipulan el Internet), ¿qué cifras dirían?

Pues aunque no lo crean, en el 2013 el 61% de todo el tráfico en la Web fue productos de estos bots.

Y si se preguntan ¿qué hacen esos bots? Pues más de lo que se imaginan... Para empezar, gran parte de estos son en realidad herramientas automatizadas para generar contenido SPAM (contenido no deseado, como publicidad para vendernos todo tipo de medicinas u otros productos), mientras que otros son utilizados para fines criminales (como para infectar máquinas y robar datos personales).

Así mismo existen unos especializados diseñados para ataques a gran escala (del tipo DDoS), creados por hackers, instituciones y/o gobiernos con el fin de incapacitar a equipos conectados a redes, o incluso violarlos a fuerza bruta para varios fines (desde espionaje hasta guerra cibernética).

Mientras que otros son más benignos, como buscadores web (como el de Google, o los de Microsoft y otras empresas más especializadas), y otros se especializan en manipular publicidad y estadísticas de usuarios.

En fin, hay para todo uso y propósito, y es asombroso que en esencia ya dos terceras partes de todo el tráficos a páginas web provenga de estos bots automatizados (o manejados remotamente).

Y noten que la cifra apenas el año pasado era de un 51%, por lo que hablamos de un incremento de un 21% en apenas 12 meses, lo que nos da una idea de la tendencia...

fuente

autor: josé elías


Cómo transformar tu PC en un super-buscador de Google por voz, sin manos
eliax id: 10808 josé elías en dic 8, 2013 a las 12:09 AM (00:09 horas)
HAL 9000Hoy los dejo con un truco que ya salió hace unos días, pero que por fin lo he probado y me he quedado estupefacto de lo bien que funciona, y se trata de que es posible programar a tu navegador web Chrome para que este inicie su motor de búsqueda sin tu tocar el teclado de tu PC o laptop (por ahora solo para Windows y Mac), y que incluso te responda hablando...

Para activar esta funcionalidad, simplemente asegúrate de estar utilizando el navegador web Chrome y visita este enlace, y después haz clic sobre el botón verde para instalar la extensión en Chrome.

Después que la instales (toma solo unos segundos), notarás que cuando abres una nueva pestaña en blanco en Chrome, o cuando entres a google.com, que en la barra de buscar dirá en un color gris claro la frase "Say ok google" (si tienes tu sistema en español asumo que dirá algo como "Di okey google"), lo que te indica que la extensión está instalada.

Así que ahora para probarlo, ni siquiera toques el teclado y simplemente di la frase "okey google", y verás como mágicamente el buscador se activa y espera que le des nuevas instrucciones de voz para buscar (obviamente, tu PC o laptop debe tener un micrófono, este debe estar activo, y los parlantes/bocinas deben estar activas y con el volumen que tu puedas escuchar).

Noten que en muchos casos el buscador te responde también con una voz sintética, particularmente cuando le preguntas cosas que puede contestar directamente, como por ejemplo la temperatura en alguna ciudad del mundo (prueben "okey google, el clima en buenos aires" o "ok google, the weather in new york").

Noten que esta es la misma funcionalidad que Google está implementando en sus celulares Moto X y Nexus 5, pero ahora en el mundo de la PC.

Y a propósito, esto me recordó bastante la computadora de La Federación en Star Trek: The Next Generation que funciona de forma bastante similar, solo que en vez de decir "ok google" en la serie de TV simplemente dicen "computer".

Finalmente, podemos decir que este es un paso más a este escenario del cual les hablé hace unos años acá mismo en eliax...

autor: josé elías


GRAN HITO: NEIL, una Inteligencia Artificial que aprendió "sentido común visual", por sí sola
eliax id: 10793 josé elías en nov 27, 2013 a las 12:09 AM (00:09 horas)
NEILLa Universidad de Carnegie Mellon en los EEUU acaba de dar un gran paso en el campo de la Inteligencia Artificial (IA) al haber desarrollado un sistema al que llama el Never Ending Image Learner (NEIL, que en español sería algo como el "Aprendiz Interminable de Imágenes"), que según sus investigadores ha aprendido por sí mismo el concepto del "sentido común", cuando menos en lo que a reconocer imágenes se refiere por ahora...

Lo que NEIL ha logrado aprender por sí solo es el entender las conexiones que hacemos los humanos para asociar distintos tipos de imágenes diferentes dentro de un mismo grupo, en esencia buscando el sentido común que varias imágenes comparten.

NEIL es un sistema de IA con 200 núcleos que funciona 24 horas al día, los 365 días del año, y lo único que hace es navegar el Internet por su cuenta, buscar imágenes, y tratar de hacer todo tipo de conexiones entre ellas.

Entre las cosas que NEIL ha aprendido por su cuenta (y que son cosas que los humanos clasificamos como "sentido común") están que los edificios son por lo general altos, o que los patos son animales parecidos a los gansos.

Pero tan asombroso como eso, es que uno puede visitar la página web del proyecto NEIL, y ver en tiempo real las últimas cosas que NEIL está aprendiendo por su cuenta, y debo decirles que es verdaderamente asombroso lo que he visto en esa página, ya que aunque son cosas que incluso para un niño son "obvias", no son cosas que uno esperaría de "una máquina".

Me refiero a que literalmente está aprendiendo el concepto del sentido común en las cosas, y más asombroso aun, que ha expandido su dominio de las cosas a temas que no son estrictamente visuales (aunque sí las aprendió visualmente), como el hecho de haber aprendido por sí sola que los autos tienen ruedas (una vez más, algo obvio para nosotros, pero que nadie le enseño previamente a NEIL).

Noten que aparte de ver lo que NEIL está aprendiendo en determinado momento, que puedan además entrenar a NEIL en cosas nuevas si lo desean, así como ver "el interior de su mente", que los desarrolladores de NEIL llaman "escenas", viendo ustedes las asociaciones que NEIL ha hecho previamente para descubrir nuevos conceptos.

Noten que esta noticia se las traigo apenas días después de hablarles de la IA de Google acá mismo en eliax, testamento a lo rápido que estamos avanzando en el área de la Inteligencia Artificial en estos días...

página oficial de NEIL

nota de prensa oficial

autor: josé elías


La más asombrosa simulación de nieve digital que hayan visto, por Disney, para Frozen
eliax id: 10788 josé elías en nov 25, 2013 a las 12:10 AM (00:10 horas)
Frozen (2013), DisneyHoy los dejo con este increíble video, creado por científicos de Disney, en donde nos muestran sus avances en crear nieve 100% digital para ser utilizada en la próxima película animada de Disney, Frozen ("Congelado").

Noten que al inicio del video verán uno segundos de explicaciones matemáticas, y les imploro que resistan la tentación de dejar de ver el video si no les gustan esas cosas, pues lo que viene segundos después es verdaderamente asombroso.

Esto a propósito debe darnos una pista de lo que serán los entornos sintéticos en donde habitaremos los Humanos 2.0 en un futuro no tan lejano, en donde nuestros mundos simulados (a la Matrix) serán tan reales (sino más) que la realidad física misma que experimentamos.

¡Gracias al lector Marcelo Flix Diaz por compartir el video en el grupo Developers.X para desarrolladores de software!

Video a continuación (enlace YouTube)...


autor: josé elías


Google ya no entiende como su propia Inteligencia Artificial funciona. Opinión eliax
eliax id: 10767 josé elías en nov 22, 2013 a las 12:10 AM (00:10 horas)
Terminator 2Google¿Recuerdan la historia de la película Terminator, en donde la supercomputadora Skynet cobra consciencia, se independiza de los humanos, y después decide que lo mejor es exterminarlos para garantizar su existencia?

Pues no creo que lleguemos a tanto, pero ciertamente esta noticia de hoy cuando menos a mi me hizo pensar en ver a Schwarzenegger con un par de ametralladoras en sus manos...

Nuestra historia inicia hace más de 7 años, cuando acá mismo en eliax les reporté las palabras de quien en ese entonces era el CEO (Gerente General) de Google, Eric Schmidt, quien dijo que el próximo gran reto de Google como empresa era el de dominar las técnicas de Inteligencia Artificial.

Y desde entonces, Google ha cumplido su palabra, armándose de todo un laboratorio especializado en el área, ya que como la empresa bien sabe, una IA (Inteligencia Artificial) del futuro bien podría ser lo que suplante los típicos buscadores clásicos de hoy día, por lo que está invirtiendo en su futuro.

Entre los primeros resultados que se hicieron fruto de sus esfuerzos fueron sus herramientas para permitir hacer predicciones en base a grandes cantidades de datos (como reporté hace 3 años), o que ya había empezado a darle uso a una mente artificial a gran escala (como reportado el año pasado), o incluso que este año ya se había aliado a la NASA, el Ames Research Center (ARC), y la empresa D-Wave para investigar el campo de la Inteligencia Artificial Cuántica.

Y ahora, nos llega esta noticia: En una charla reciente por el ingeniero de Google, Quoc V. Le, los sistemas de "aprendizaje profundo" de la IA siendo desarrollada en Google está a un nivel tal, que ya no le es posible a sus propios diseñadores entender cómo la IA está llegando a ciertas conclusiones, conclusiones que han sido probadas como correctas.

En esencia, la IA de Google está ya pensando en una forma que va más allá de la imaginación de los ingenieros que la crearon, pero lejos de temer a esto, la idea de Google es aprovechar esta cualidad de la IA para que ayude a la empresa a resolver problemas que o tomarían grandes grupos de científicos o ingenieros, o que sencillamente ninguna cantidad de humanos podría resolver a fuerza bruta.

Aunque ojo, y como advierten los mismos ingenieros de Google, esto no significa que tenemos una IA fuera de control, ni una IA que con la tecnología como está implementada actualmente podrá cobrar consciencia o mucho menos llegar a pensar como un humano, esto debiéndose a que esta inteligencia es muy específica a campos específicos (como reconocimientos de patrones visuales y estadísticos).

Sin embargo, esto nos deja claro que como ya hemos visto en otras áreas, ciertamente la inteligencia no es dominio solo del ser humano, y ciertamente esta puede superar a sus creadores. Y no duden por un momento que es solo cuestión de tiempo a que tengamos IAs tan avanzadas, que nos superarán en virtualmente todo sentido que podamos imaginarnos, no solo en términos computacionales, sino de sentimientos, creatividad, y otras facetas que actualmente creemos solo pueden aplicar a seres humanos biológicos...

autor: josé elías


Artículos recientes en DevelopersX, de interés para desarrolladores de software
eliax id: 10780 josé elías en nov 19, 2013 a las 11:12 PM (23:12 horas)
eliaxHola amig@s lectores,

Como muchos ya saben, DevelopersX.com es una comunidad que fundé en Facebook con el fin de integrar en un solo lugar a una comunidad de desarrolladores de software de habla hispana, y el grupo ya sobrepasa los 4,500 miembros, y una de las razones de su popularidad (más allá de que no tolera SPAM, se exige el respeto hacia los demás, y se insta a los miembros a contribuir sus propios artículos, recursos y trucos), es que el grupo es un excelente lugar para informarte de noticias pertinentes al desarrollo de software, y hoy quiero darles un repaso de artículos recientes que podrían ser de interés y utilidad para algunos...


1. "El Facebook Open Academy, te permite trabajar en proyectos Open Source en varias universidades, y ganar créditos universitarios en el proceso."

2. "IBM preparando su supercomputadora de Inteligencia Artificial, Watson, para ponerla en la nube y permitir que cualquier programador la pueda utilizar por medio de un API que puedas rentar."

3. "La versión 1.0 del lenguaje de programación web Dart de Google ya está disponible"

4. "El Google Spectrum Database API, es un API que permite informarte sobre las frecuencias disponibles en un punto geográfico, pero específicamente para las frecuencias que se liberan en las regiones en donde se ha migrado de la TV abierta tradicional ("por el aire") a TV digital. Es el llamado 'white noise'."

5. "GenomeJS: Análisis de ADN con Javascript"

6. "Discos duros de 6 TeraBytes (6TB) ya están disponibles para el sector empresarial"

7. "Criptografía visual"

8. "Un programa de computadora aprovecha la inteligencia colectiva para mejorar decisiones de empresa"

9. "JavaScript Isomorfo. El nuevo paradigma." y "Isomorphic JavaScript: The Future of Web Apps"

10. "AIDE, un IDE para programar en tu Android"

11. "Unity 4.3 ya esta aquí, con sus herramientas nativas 2D."

12. "Taller HTML5 - Sesión 5 - background fijos - scrollTo"

13. "Guía para el desarrollo de interfaces fluidas"

14. "Guia de rendimiento Front-end"

15. "Errores de CSS que deberías evitar: Inline Styles"

16. "Una herramienta de Google para visualizar en tiempo real todos los grandes ataques del tipo DoS o DDoS en el mundo"

17. "Modificando secciones con CSS media queries"


Y como siempre, todos estos recursos y más los encontrarán en DevelopersX.com (que es un enlace que los lleva directamente al grupo en Facebook). Espero se animen a convertirse en miembros de esta creciente comunidad, y que inviten a sus amigos, socios y compañeros de estudios y trabajo.

autor: josé elías


RealView, permite a médicos manipular hologramas de tus órganos. Explicado
eliax id: 10773 josé elías en nov 19, 2013 a las 12:10 AM (00:10 horas)
RealViewHoy les muestro una tecnología que es muy importante que entiendan que no funciona como mostrado en el video, que fue realizado sin duda alguna con fines mercadológicos y que no representa el producto real, sin embargo, continúen leyendo pues esto de todas formas es asombroso y sí les proveeré de un enlace que sí les muestras videos reales de uso.

Se trata de una tecnología de holografía médica llamada "RealView" ("Vista Real") por la empresa de mismo nombre, que tiene como fin el permitirle ver al médico en tiempo real una representación "holográfica" de los órganos internos del paciente (o de partes específicas del paciente), lo que como se pueden imaginar será una tecnología extremadamente útil para médicos.

La idea es que con un escáner de alta resolución y tiempo real se pueda capturar el interior del cuerpo en 3D, y después utilizar esos datos 3D para desplegarlos también en tiempo real en un formato "holográfico".

El video que acompaña este artículo acá abajo les da una idea del concepto detrás de la tecnología, pero es importante entender que ese video que ven no fue grabado de una sesión real, sino que fue creado con efectos especiales en post-producción. O en otras palabras, una cámara no puede grabar lo que ven en el video, y el doctor en ese video no está ni viendo ni interactuando con lo que el departamento de mercado nos quiere presentar.

Lo que hace este sistema sin embargo (y esto lo deduje ya que he visto y trabajado con sistemas de este tipo de espejos en el pasado) es que el dispositivo curvo que vean detrás crea una imagen que da la ilusión de uno ver una imagen 3D flotando frente a uno, pero esa imagen solo se puede ver en el campo de visión de ese espejo curvo detrás. Así mismo la imagen desplegada no es realmente "3D" en el sentido de ser volumétrica, sino que es realmente una capa 2D que aparenta flotar en un espacio 3D, pero que al permitir rotar el objeto y manipularlo (una vez más, no con las manos, sino con un instrumento aparte) este da una ilusión bastante convincente de ser "en 3D".

La mejor manera de imaginar esto en la vida real es imaginando lo siguiente: Imaginen que toman un iPad, y le quitan todo su marco y dejan solo la pantalla. Ahora hagan la pantalla transparente (de modo que uno pueda ver a través de ella), y ahora imaginen que en la pantalla 2D del iPad sale un corazón. Ese corazón es un corazón 3D pero dibujado en una pantalla 2D (de forma exacta como un juego de carros de carrera 3D lo vemos realmente en un televisor 2D).

Ahora imaginen que ese iPad "flota" frente a ti y un espejo, y finalmente imagina que tienes un instrumento que te permite rotar y agrandar el corazón en la pantalla del iPad. Ese es más o menos el efecto final, con la diferencia de que no existe una pantalla de iPad transparente (ni ninguna otra pantalla), ya que la imagen se dibuja en una pantalla acostada detrás del espejo curveado, y es la curvatura del espejo lo que hace creer que lo que refleja el espejo "flota" ante nuestros ojos.

Aun así, esto es espectacular, y abajo en los enlaces les dejo un segundo enlace en donde pueden ver videos de uso real del sistema.

Finalmente, noten que esta tecnología es un primer paso hacia algo aun más avanzado que denomino el Sensorix, como imaginé en esta Reflexión acá mismo en eliax.

¡Gracias al lector Raimundo Hernandez Senegal por compartir el video en el grupo oficial de eliax en Facebook!

página oficial de RealView

casos de uso real de RealView

Video a continuación (enlace YouTube)...


autor: josé elías


Inicia la carrera de protección de impresiones 3D con Disarming Corruptor. Eliax explica
eliax id: 10750 josé elías en nov 11, 2013 a las 12:11 AM (00:11 horas)
Disarming Corruptor¿Recuerdan en Mayo de este año 2013 cuando surgió en Internet un plano tridimensional para una pistola? Para mi, eso fue un evento tan trascendental que incluso le dediqué todo un editorial acá mismo en eliax, "Editorial eliax: La primera arma impresa en 3D a replantearnos el mundo", que recomiendo lean pues como verán, muchos de los temas que cubrí en ese artículo están empezando a verse con la noticia de hoy...

Sucede que un tal Matthew Plummer-Fernandez trató de imprimir en un centro comercial que opera una de esas nuevas impresoras 3D, una escultura que contenía la figura de Mickey Mouse, y la empresa negó permitirle imprimir la escultura ya que violaba los derechos de Disney.

Ese evento le dio a Matthew una idea: Crear un programa que permitiera que uno cifrara visualmente la imagen a imprimir, para así poder compartirla con cualquiera por Internet libremente. Y con eso nació el programa Disarming Corruptor.

¿Que hace este programa? Pues algo bastante simple pero efectivo... En vez de tomar el archivo 3D que define la figura tridimensional a imprimir, este programa toma la geometría en sí de la figura y la distorsiona.

Es decir, el archivo en sí no está cifrado y está libre a la inspección, pero cuando abres el archivo en un programa de diseño e impresión 3D, lo que ves es una imagen distorsionada del objeto.

¿Y cómo logra este programa esto? Pues proveyéndote de 7 controles, en donde cada uno puede tomar un valor de entre 1 al 100, y que al manipular esos controles eso tiene como consecuencia que la imagen se distorsiona en distintas formas, terminando uno con un objeto que en nada se parece al original.

Algunas de esas modificaciones podrían ser por ejemplo el anchar el objeto, el retorcerlo sobre algún eje, el doblarlo, etc. Sería como tomar una escultura hecha de masilla y retorcerla hasta dejarla irreconocible.

Posteriormente, para restaurar al objeto original, simplemente aplicas los 7 valores que cambiaste de forma inversa, lo que obviamente produce el objeto antes de las distorsiones.

La idea sería entonces que si quieres compartir un archivo 3D con algunos amigos, simplemente tomas el objeto original, lo distorsionas, lo subes a cualquier sitio público de Internet, las otras personas lo descargan, y después de forma privada tu les provee los 7 valores que necesitan para de-distorsiones el objeto original.

Este programa, independientemente de qué tan efectivo o no termine siendo, es un primer paso en lo que será toda una carrera del gato y el ratón en ese aspecto, en donde un grupo de investigadores buscarán la manera de encontrar archivos que violen alguna ley o derecho, y otros creando nuevos métodos para esconder tales archivos.

Esto, no lo duden, es algo de lo que veremos muchísimo más, pues como aludí en el editorial que recomendé leer en el primer párrafo de este artículo, las impresoras 3D serán parte de nuestra vida cotidiana en un futuro no lejano, y cualquier persona podrá imprimir prácticamente cualquier cosa en su hogar, desde armas y ropa, hasta cuadros de pinturas famosas y medicinas, lo que ocasionará todo un nuevo dolor de cabeza en la sociedad, en donde por un lado de la balanza tendremos los derechos de los creadores, y por el otro los deseos de los consumidores...

El futuro, mis querid@s amig@s lectores, será mucho más interesante de lo que muchos se imaginan...

página oficial de Disarming Corruptor (con video explicativo)

autor: josé elías

"No sabes la alegría que me ha dado leer esta noticia, porque a voz de pronto significa que la humanidad llegará antes al 2.0, pero en astrofísica, física, matemáticas, es un alivio enorme saber que tenemos a un nuevo Eisntein que hará avanzar a la humanidad a pasos agigantados.

Necesitamos más como él. Hoy es un gran día.
"

por "Daniel Hinojosa" en mar 31, 2011


en camino a la singularidad...

©2005-2021 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax