texto:   A-   A+
eliax

Realidad Virtual
Análisis #eliax: El Apple Vision Pro
eliax id: 11590 josé elías en jun 5, 2023 a las 08:20 PM ( 20:20 horas)
Apple Vision ProeliaxHola amig@s lectores,

El día que muchos estábamos esperando por fin ha llegado. Apple acaba de anunciar hoy sus rumoreadas (por años) gafas de “realidad extendida”, el “Apple Vision Pro”, y lo que vi hoy me ha dado mucho que pensar, así que abróchense los cinturones para embarcarnos en un análisis eliaxístico sobre este nuevo producto…

Nota: para los curiosos que no se puedan aguantar, vayan y visiten primero ahora la página oficial del Vision Pro en el portal de Apple, y después que vean todo ahí regresen acá para mis opiniones, análisis y predicciones.

Lo primero que voy a decir en cuanto a primeras impresiones es que hay que aplaudir la maquinaria mercadológica de Apple, es asombroso la forma clara que tienen de anunciar un producto e ir directamente a la psicología humana para hacerte desear vaciar tu cuenta bancaria o ponerte en plan de ahorros para comprar uno lo antes posible. Sin embargo, aun con excelentes primeras impresiones, siempre hay una dosis de realidad con la cual tarde o temprano hay que enfrentarse, y este artículo de hoy es para que aterricemos y pensemos todo en frío.

Hoy les hablaré de las tecnologías que nos trae el Vision Pro, y lo que opino sobre lo que nos ofrece y sobre lo que creo le falta, y de lo que Apple puede hacer a futuro para mejorar.

Pero iniciemos con los hechos: El Vision Pro realmente es algo extraordinario desde el punto de vista técnico, es el visor de Realidad Virtual y Realidad Aumentada/Extendida más avanzado del mundo, sin duda alguna, y entre sus cualidades se destacan las siguientes:

1. Tiene dos pantallas creadas especialmente para el Vision Pro que en conjunto tienen 23 millones de pixeles, lo que equivale a 11.5 millones de píxeles por ojo. Como referencia, una pantalla 4K tiene unos 8.3 millones de píxeles, por lo que estas micro-pantallas tienen mayor resolución por ojo que la TV 4K que está en tu casa o la casa de tus amigos. Notar además que si utilizas lentes medicados que Apple ofrecerá adaptadores compatibles con tu visión que se conectan de forma magnética al interior del Vision Pro.

2. Tiene 12 cámaras integradas, que se utilizan para varios fines, desde ver tus manos y el medio ambiente hasta permitirte tomar fotos y videos.

3. Contiene 5 juegos de sensores de todo tipo (distancia 3D, lector de ojos, etc), 6 micrófonos, y 2 auriculares especialmente diseñados para que escuches sonido envolvente en 3D.

4. Ofrece una super innovadora pantalla externa que proyecta tus ojos al mundo exterior. Pero no es cualquier pantalla, es una pantalla lenticular que es otra forma de decir que transmite imágenes en 3D para que dependiendo del ángulo que alguien te esté viendo, pueda ver el interior de tus gafas junto a tus ojos en 3D. O en otras palabras, esta funcionalidad da la ilusión de hacer la parte frontal del Vision Pro transparente para que alguien pueda verte directo a los ojos. Esto es bastante innovador.

5. El sistema de renderizado interno en 3D adopta una técnica que se llama en inglés “foveated rendering”, que es algo que ya algunas otras gafas de alta gama han implementado de una forma u otra, que permite que estas rendericen información de alta definición solo en la dirección que tus ojos miran, de modo que el perímetro se pueda renderizar de menor calidad y por tanto requiriendo menos poder de procesamiento, ahorrando energía, y mejorando la fluidez de los gráficos. Y noten que esto es como la combinación del ojo humano y el cerebro perciben el mundo, en donde en el centro del ojo vemos en alta definición y todo color, y en el perímetro vemos con imagen degrada (cosa que no notamos porque el cerebro es un excelente “rellenador” de información).

6. Te reconoce con solo verte en los ojos, con lo que Apple llama “Optic ID”, que similar a las películas de Hollywood lee tu retina (que es única en cada individuo del planeta) para identificarte (incluso si tienes un hermano gemelo idéntico). Esto reemplaza el Face ID y el Touch ID tradicional de otros productos de Apple en el Vision Pro.

7. La interfaz es totalmente natural, utilizando tus ojos (el Vision Pro sabe lo que ves en pantalla), tu voz (opcionalmente dependiendo de lo que estés haciendo) y tus manos (para seleccionar e interactuar con el medio ambiente sin necesidad de controles externos). Según Apple, puso mucho empeño en crear un nuevo “lenguaje de uso” similar a los lenguajes de uso que utilizó al crear la Mac, el iPod, el iPhone, y el iPad, y alega que aplicó a unas 5,000 patentes de tantas innovaciones técnicas que tiene el Vision Pro en su diseño e implementación.

8. De paso viene con dos potentes procesadores, un chip M2 de Apple (el mismo que tiene la nueva MacBook Air de 15” también anunciada hoy), y un chip especialmente dedicado para el Vision Pro llamado el R1 (que asumo significa el “Reality 1”), creado especialmente para manejar el monumental flujo de datos en tiempo real que debe procesar el Vision Pro para todo lo que hace.

9. El Vision Pro también contiene un pequeño dial (similar al del Apple Watch) el cual al girar haces que gradualmente la realidad vaya desvaneciendo y solo veas la realidad virtual generada dentro de las gafas.

Pero aparte de eso, el software también hace cosas bastante impresionantes. Por ejemplo, cuando alguien se aproxima a ti, el Vision Pro detecta eso y te superimpone de forma gradual la persona para que la veas y puedas interactuar con ella, mientras que al mismo tiempo el Vision Pro despliega la imagen de tus ojos en formato casi holográfico para que la persona note que la estás viendo y puedan hablar cara a cara (o ojos a ojos) de forma natural.

Y es bueno notar que para que todo esto se haga posible que el Vision Pro contiene cámaras externas de super alta calidad para que experimentes el mundo similar a como lo verían tus propios ojos, sin tú tener que desmontarte las gafas.

Todo esto viene apoyado por un nuevo sistema operativo al que Apple ha bautizado como “visionOS”, especialmente diseñado para el Vision Pro y de paso compatible (con una recompilación de código) con las millones de Apps de iOS, iPadOS y macOS.

Ya por ejemplo Apple anunció que Microsoft tendrá versiones de Office especialmente para el Vision Pro que en esencia te permitirán utilizar este visor como una especie de Mac (algo que predije hace unos días atrás por mis redes sociales), por lo que al inicio aunque quizás no tengamos muchas aplicaciones específicas para el Vision Pro, posiblemente si tendremos muchas aplicaciones clásicas disponibles ante nuestras manos y ojos en el mundo virtual.

Es bueno notar que en la presentación pudimos ver algunos ejemplos bastante buenos de uso del Vision Pro, destacándose el uso del Vision Pro para ver juegos deportivos en vivo de forma virtual sin tu tener que estar en el campo de juego (esto se logra con cámaras especiales que se colocan en los eventos deportivos), lo que serviría también para ver conciertos, asistir a conferencias, etc. Disney también traerá muchas experiencias para el Vision Pro, en juegos, películas y otras experiencias dedicadas. Ya imagino poder ver a AVATAR en 3D en esto.

Apple también anunció versiones especiales de casi todas sus Apps que estarán disponibles para el Vision Pro, el cual según Tim Cook (el CEO de Apple) esta es la evolución del iPhone, a lo que llaman “Computación Espacial” (“espacial” no como en espacio de cohetes y naves y estrellas, sino como espacio de trabajo volumétrico).

Sin embargo para mi dos cosas que van a seducir a los usuarios del Vision Pro (o al menos a aquellos que puedan pagar su precio inicial) son las implementaciones de cámara y FaceTime de Apple.

Con la cámara ahora podrás capturar videos en 3D del mundo a tu alrededor, los cuales ahora podrás almacenar como memorias digitales futuras o para compartir con tus familiares y amigos para que estos tengan una experiencia muy similar a la que tuviste tú el día que lo grabaste. Esto tendrá un gran impacto emocional que estoy seguro será replicado por la competencia muy rápidamente.

Y con respecto a FaceTime, Apple creó una tecnología que con Inteligencia Artificial y los sensores del Vision Pro pueden generar un avatar ultra-realista y totalmente fotorealista de tí mismo, lo que significa que si haces una video-conferencia con otros usuarios de Vision Pro, todos se verán con sus caras reales en medio de reuniones. Así que imaginen por ejemplo una reunión de negocios en mesa redonda, o un grupo de familiares remotos reunidos todos frente a una fogata, en ambos casos aun tengamos el visor puesto, del otro lado nos percibirán como somos y con todo nuestro rango de expresiones, lo que creará una conexión humana muy diferente a los otros sistemas de chat virtuales existentes en donde otro “muñeco” que más o menos se parece a ti te reemplaza. Esta funcionalidad es otra que creo será también estándar en visores de la competencia eventualmente.

Ahora bien, hasta aquí todo bien, yo incluso estaba esperando ya con mi tarjeta de crédito a mano listo para ponerme en la lista de ordenar uno o dos de estos aparatos, sin embargo, hay tres cosas en las que opino Apple falló esta vez y que me detuvieron (en donde la primera de ellas fue realmente la que me detuvo más que todo):

Lo primero es el precio de US$3,499 dólares (no es un error tipográfico, sí, tres mil quinientos dólares esencialmente), con salida al mercado a inicios del 2024. Para mi (y algo me dice que para la vasta mayoría de personas fuera de Apple) este precio es demasiado alto, incluso bajo los estándares de Apple.

A este precio salvo un nicho de personas (de clase alta, desarrolladores de software, y los más fieles entre los fieles fanáticos de Apple) van a comprar este dispositivo, y aunque estoy seguro que se venderán unos cuantos cientos de miles o bajas millones de unidades, a este precio este no es un producto con el cual una empresa puede revolucionar este mercado.

Para mi, un precio que hubiese sido irresistible es US$999 dólares, e incluso hasta US$1,499 hubiera tenido ventas excelentes (y la bendición de mi cuenta familiar), y si consideras que esto podría hacer la labor de una Mac o iPad quizás hasta te puedas convencer a ti mismo de pagar US$1,999, pero US$3,499 es demasiado.

Y ese precio me pone a pensar. ¿Por qué tan caro? ¿No sabían los estudios mercadológicos internos de Apple que este precio sería demasiado alto para consumidores? Asumiendo que Apple no esté alucinando, creo que Apple nos ha dejado una pista de por qué ese precio es el que es, en el mismo nombre del dispositivo.

El “Pro” en “Apple Vision Pro” me dice que Apple posiblemente considera este primer dispositivo más que todo como una demostración de todo lo posible que pueden lograr, un dispositivo sin igual que aun con ese precio será comprado por un nicho inicial del mercado, en particular el de desarrolladores de software, y más adelante nos presentará (¿quizás el próximo año?) su simplificado “Apple Vision” (sin el “Pro”) a un precio muchísimo más reducido y con ciertos recortes (por ejemplo, sin mostrar tus ojos holográficamente en una pantalla externa), y quizás a mitad de precio. Sin embargo, hasta que no bajen el precio por debajo de la barrera psicológica de los US$999 (o incluso quizás los US$1,499) será difícil que Apple logre vender 20, 10 o incluso 5 millones de estos dispositivos al año.

La segunda cosa que me sorprendió es que la batería externa que requiere el Vision Pro solo es suficiente para 2 horas de uso. Como mínimo Apple debió apuntar a 4 horas, incluso si fuese una batería un poco más grande y más costosa (por suerte, estoy seguro que el mercado de terceros proveerá reemplazos a precios razonables y de mayor duración).

Y la tercera cosa que veo es que Apple pudo haber hecho una cosa para convencer a muchos de adquirir un Vision Pro incluso a ese precio exorbitante: Compatibilidad directa con aplicaciones de Mac.

Esto último para mi hubiese sido clave. Imaginen por ejemplo que trabajan remotamente o incluso en una oficina pequeña, o están de viajes. En vez de cargar una laptop contigo, simplemente llevas un teclado, un ratón y el Vision Pro, y en un abrir y cerrar de ojos (literal) ves frente a ti un monitor virtual del tamaño que desees (literalmente, desde 32” hasta varios metros de ancho) en donde aparece tu Mac virtual y en donde puedes trabajar de una forma super productiva en cualquier lugar.

Podrías por ejemplo estar en un asiento de avión y sin embargo percibir que tienes varias pantallas (una por aplicación si así lo deseas) flotando delante de ti, y sin que nadie pueda ver tus pantallas por motivo de privacidad.

Eso para mi representa una oportunidad perdida de Apple de haber podido captar una gran cantidad de profesionales (yo hubiese sido uno de ellos). En este aspecto por ahora solo cuesta esperar a que los desarrolladores migren todas sus aplicaciones una a una para que se puedan utilizar adecuadamente en el Vision Pro (algo que creo sucederá tarde o temprano), por lo que en mi caso me veo con un Vision Pro en mis manos dentro de una o dos generaciones más (y mientras tanto existe también la posibilidad de utilizar aplicaciones como Google Docs en el navegador web Safari del Vision Pro).

Ahora bien, ¿significa esto que el Vision Pro es un producto adelantado a su tiempo o que Apple va a fracasar con esto? No en lo absoluto. Aun si no se venden suficientes unidades, esto ya de por sí ha marcado el rumbo a seguir en la industria, y en una sola presentación de unos pocos minutos Apple ha dejado claro que ya el dispositivo contra el cual todos los demás serán juzgados es el Vision Pro, lo que al mediano plazo le cae bien a Apple ya que cuando por fin logre bajar los precios para un modelo más amigable a los bolsillos de los consumidores, estos estarán listos para comprar.

Esto de paso es un gran paso para la industria de la realidad virtual y aumentada en general, ya que Apple acaba de revelar y demostrar nuevas formas de interactuar que son más humanas, naturales y amigables a los modelos actuales, cosa que sin duda aumentará la curiosidad de los consumidores y la adopción de dispositivos de todas las marcas. Meta (Facebook) debe estar ahora mismo bastante emocionada con lo presentado por Apple, pues aunque incluso su recién-revelado Meta Quest 3 no se acerca a casi nada de lo que hace el Vision Pro, este anuncio de Apple sin duda que creará más hambre a la población de ver de qué se trata todo esto que Apple les está presentando, y el Meta Quest 3 con un costo de apenas $499 ya se ve mucho más atractivo que antes (y quizás lo ponga debajo de mi arbol de navidad este año).

El trabajo de Apple ahora es refinar el Vision Pro y ofrecer algo a un precio mucho más razonable antes de que sus innovaciones sean duplicadas efectivamente por la competencia a un costo mucho menor (cosa que no será tarea fácil, puesto que estoy seguro que los costos de las partes del Vision Pro de por sí ya son bien altos, incluso para Apple que por sus altos volúmenes de compra obtiene casi siempre los mejores precios del mercado de sus suplidores).

En conclusión, el Apple Vision Pro es un dispositivo tecnológicamente deslumbrante cuyo gran ancla a la hora de venderse es su precio exorbitante. Apple debió sacar también una versión “no Pro” (cosa que creo hará al mediano plazo), pero mientras tanto es una gran demostración tecnológica que resuelve muchos problemas humanos en interfaces para este tipo de entornos, y que por tanto hace un tremendo aporte al futuro de la computación personal y profesional.

autor: josé elías


Recursos para mi charla #eliax sobre Inteligencia Artificial, ChatGPT, y el Inicio de La Singularidad"
eliax id: 11588 josé elías en abr 13, 2023 a las 02:05 PM ( 14:05 horas)
eliax Hola amig@s lectores,

Si están leyendo este artículo es posiblemente porque escanearon el código QR que presento al final de mi charla sobre Inteligencia Artificial, ChatGPT y el Inicio de La Singularidad", así que acá están los enlaces prometidos:



Redes Sociales de #eliax

Instagram: @eliax

Twitter: @eliax

Telegram (canal oficial): eliax

Telegram (comunidad oficial): eliax_comunidad

Facebook (grupo oficial): eliax en Facebook

DevelopersX (grupo para devs): DevelopersX en Facebook

Libro "Máquinas en el Paraíso" (2001): Obtener en Amazon



Enlaces a artículos relevantes en #eliax

Interneuronas a proveer al Internet de consciencia

Predicciones de eliax sobre los próximos 100 años

¿Qué se sentirá vivir como un ser artificial?

Sobre Escalabilidad y Caos al escalar sistemas simples a complejos

La primera persona a vivir eternamente podría estar viva hoy

Justo en el momento de traspasar tu mente a un ambiente sintético.

La definición de “Humano” en el diccionario del futuro.

¿Qué es La Singularidad?

¿Será posible pasar nuestras consciencia a un clon?

El Dreamcorder (Gravador de Sueños)

Inteligencias Artificiales no necesariamente Inteligencias Amigables

Editorial eliax: El Horizonte de Información

¿Es posible crear una Inteligencia superior a uno mismo?

autor: josé elías


Premios #eliax 2021 a la Innovación Tecnológica
eliax id: 11584 josé elías en dic 21, 2021 a las 01:30 PM ( 13:30 horas)
eliaxHola amig@s lectores,

Antes de finalizar el año quiero hacer una breve reseña de las cosas tecnológicas más relevantes de este año 2021, desde sorpresas hasta cosas que cambiarán nuestras vidas en el futuro. Así que sin mucho más que decir, y sin ningún orden en particular, he aquí mi lista:


1. Iniciativa del Año: El Metaverso, por Meta (previamente llamada Facebook)
El Metaverso no ha sido inventado por nadie en particular, pero Mark Zuckerberg se apropió del término y hasta renombró a su empresa Meta para demostrar lo serio que está con este tema. Y aunque falta ver si Meta será el principal o uno de los principales jugadores en todo esto del Metaverso (piensen de ello como el inicio a un mundo similar al de Matrix), lo cierto es que hay que darles crédito por no solo popularizar el término en la cultura popular, sino por animar al resto de a industria a tomar el concepto totalmente en serio.


2. Tendencia del año: NFT
Si hay algo que junto con el Metaverso será parte fundamental de nuestro futuro tecnológico, es el concepto de los NFT (o Tókens No-Fungibles), que son el equivalente digital a tu ser propietario de cosas en el mundo fuera del ciberespacio. Lean más sobre NFTs aquí.


3. Palabra del año: NFT
Y en segundo lugar "Metaverso".


4. Cripto-plataforma del año: Ethereum
Aunque Bitcoin fue lo que indudablemente puso el tema de las criptomonedas en el mapa, en realidad ha sido Ethereum con su plataforma y su Ether que han estado revolucionando el espacio de las cripto-transacciones, permitiendo no solo pagar con monedas digitales sino proveyendo herramientas para crear toda una nueva generación de aplicaciones desentralizadas (como los NFTs).

Y si les interesa el cripto-trading, acá un artículo al respecto.


5. Visor de Realidad Virtual del Año: Oculus Quest 2
Aunque este visor salió el año pasado, continúa al día de hoy siendo la mejor introducción al Metaverso que puedan comprar, y lo mejor de todo es que dependiendo dónde y cuándo compren su precio ronda entre los US$250 y US$300 dólares, que en mi opinión es una mejor compra que una consola tradicional de video-juegos que cuesta mucho más y no ofrece ni cerca del grado de inmersión que este equipo ofrece. Esta es una de las compras tecnológicas que más recomiendo a cualquiera.


6. Innovación Cinematográfica del Año: Empate entre (1) la cámara DJI Ronin 4D con tecnología flotante y LIDAR, y (2) la tecnología Cinema ProRes en el iPhone 13 Pro.

La cámara DJI Ronin 4D es una cámara totalmente diferente a todas las que vinieron antes. No solo tiene un diseño en donde el sensor y el lente flotan delante de la cámara (para hacer imágenes super estables) sino que además incluye tecnología LIDAR para enfocar, lo que significa que la cámara crea una representación tridimensional de su entorno por medio de rayos láser para saber la distancia exacta entre el lente y el sujeto a grabar, permitiendo enfocar de manera super precisa no solo de día sino incluso en casi total oscuridad (la tecnología LIDAR es utilizada también por algunos fabricantes de automóviles robóticos para entender su entorno).

Y en cuanto a la tecnología Cinema ProRes, de alguna manera Apple logró meter dentro del espacio de un celular (en este caso la versión Pro del iPhone 13) un encodificador del estándar de codificación de cine, ProRes, lo que le permite grabar video en crudo con una calidad que hasta ahora era solo posible en cámaras que costaban decenas de miles de dólares. Y de paso le agregaron un modo de desenfoque computacional a las imágenes para darle un "look" más cinemático a los videos.

Si tienen un iPhone 13 Pro noten que esto deben activarlo en Configuración, y que si no saben lo que hacen no recomiendo lo utilicen ya que este tipo de videos genera archivos varias veces más grandes que videos normales. Esto está diseñado específicamente para profesionales que necesitan la más alta calidad posible (que tampoco será evidente hasta que sepan como manipular los parámetros del video generado para cambiar su exposición y otros factores).


7. Cámara Computacional del Año: Google Pixel 6
Hay dos maneras principales de crear imágenes fotográficas: De forma óptica (es decir, lo que sea que entre al sensor por el lente) y de forma computacional (es decir, se toman datos del lente y después se mejoran con computación), y un ejemplo de fotografía computación es la funcionalidad que popularizó Apple que permite desenfocar el fondo de una foto después de esta haber sido tomada. Sin embargo ha sido Google quien ha llevado esto a otro nivel con su nuevo celular Pixel 6, que en mi opinión es el mejor valor por tu dinero en el mundo Android en estos momentos.


8. Tecnología Revolucionaria del Año: Los procesadores M1 Pro/Max de Apple
Cada cierta cantidad de años una tecnología surge que estremece los cimientos de su industria ocasionando grandes cambios, y la serie de procesadores M1 Pro/Max acaban de hacer eso.

Estos procesadores no solo han creado un abismo en la relación precio/rendimiento entre Macs y las tradicionales PCs con Windows, sino que han creado toda una revolución que ahora están forzando a Microsoft y los demás participantes del mundo Windows a adoptar procesadores con tecnología ARM.

Solo para que tengan una idea, una laptop MacBook Pro 2021 con el procesador M1 Max puede manipular en tiempo real hasta 7 fuentes de video 8K en crudo y HDR, lo que significa el manipular 56 veces más flujos de datos en tiempo real que un video 4K tradicional. Lograr eso en una PC tradicional requiere en la actualidad de comprar tarjetas de video especializadas que cuestan por sobre los US$5,000 dólares, y aun así no pueden manejar 7 flujos de 8K HDR simultáneos. Y todo eso lo hace un solo chip dentro de una MacBook Pro ahora.

Y esto no es solo mercadeo. Todas las pruebas que ya se han hecho públicas por profesionales creativos han confirmado que una MacBook Pro M1 ya es entre 3 y 15 veces más rápida que una PC super potente costando varias veces más, utilizando el mismo programa en ambas máquinas (como Photoshop, Lightroom, etc).

Y como si fuera poco, Apple logra todo eso con un super bajo consumo energético que permite que todo ese poder se pueda utilizar en una laptop corriendo en batería todo el día, sin conectar la corriente eléctrica a una pared, mientras que en el mundo Windows hacer lo mismo por lo general significa PCs de escritorio con power supplies halando al menos 250 vatios continuos como mínimo.

Esto está provocando una ola de adopción y migración hacia Macs como nunca antes vista en la historia de Apple, y acelerando la llegada de una nueva generación de procesadores ARM para Windows en el 2022.

Aprende más sobre la tecnología de chips propietarios de Apple aquí.


9. Sistema de Computación Personal del Año: Apple MacBookPro M1 Pro/Max
Debido a las razones enumeradas en el punto anterior, en estos momentos no hay nada ni siquiera remotamente cercano a lo que puedes obtener en términos de rendimiento por tu dinero al comprar una MacBook Pro 2021 con procesador M1 Pro o M1 Max.


10. Innovación Cotidiana del Año: AirTags de Apple
Los AirTags son objetos del tamaño de monedas grandes que dejas en tu automóvil, mochila, mascota, cartera o cualquier cosa que se te pueda perder o te puedan robar, y que te permite localizarlo rápidamente.

Los AirTags es bueno notar que no tienen función de GPS con ellos, sino que dependen de que cerca de ellos existan personas con un iPhone, ya que Apple ha creado una red global en donde todos los iPhones del mundo se comunican de forma segura con los AirTags, y reportan su ubicación.

Así que por ejemplo si te roban tu automóvil, y dejaste un AirTag adentro, es bastante posible que en algún momento algún desconocido que tenga un iPhone estará cerca de tu vehículo, en cuyo caso el AirTag se comunicará contigo y sabrás donde está tu auto (y claro está, que como todo en la vida, esto tiene sus usos buenos y malos como ya ha sido reportado de bandidos pegando AirTags a autos que desean robar para saber la ubicación de su propietario).


11. Sorpresa visual del año: La cámara Nikon Z9.
Nikon salió literalmente de la nada con una cámara mirrorless (sin espejo) que ha no solo dejado atónitos a todos sino que dejado hasta mal parada a la competencia.

Esta cámara aparte de poder disparar fotos a 20fps en RAW, 30fps en JPG, también tiene un modo especial para capturar 120 fotos por segundo en menor resolución. Esto la hace en una cámara ultra potente para deportes y acción.

La cámara además tiene 45 Megapixeles con un impresionante rango dinámico lo que la hace también excelente para fotografía de bodas, retratos artísticos, y moda.

Como si fuera poco graba video crudo con resolución 8K lo que de paso la hace una máquina ultra potente para el cine profesional. Una actualización gratuita próxima le permitirá grabar video12-bit 8K N-Raw y 4K ProRes RAW internamente, con 8K/60fps. Algo inaudito.

Como si fuera poco, tiene un ultra-rápido sistema de enfoque automático 3D que se asegura que tus fotos salgan nítidas sin importar cuánto se mueva el sujeto que estás capturando en fotos o video.

Y noten que aunque la cámara cuesta US$5,500 dólares, que eso es más barato que las cámaras de gama alta de Canon (la EOS R3) y Sony (la A1).


12. Renacimiento del año: Nikon
Gracias a su cámara Z9, la empresa se acaba de levantar como el ave Fenix de sus cenizas. La empresa no ha podido fabricar suficientes para satisfacer la demanda.


13. Herramienta de Desarrollo de Software del Año: Microsoft Visual Studio Code
No confundir con su otro producto llamado simplemente "Visual Studio", esta es la versión open-source que se ha tornado indispensable para toda una nueva generación de desarrolladores de software, gracias a su expandabilidad por medio de plug-ins que expanden su funcionalidad a esencialmente cualquier área imaginable de la computación.


14. Plataforma de Desarrollo Multi-Plataforma del Año: Google Flutter
Si planean arrancar desde cero un App que deba compilar tanto para Android como iPhone, iPad, y ahora hasta Web, Windows, Linux y Mac, no creo exista mejor opción en el mercado que Flutter de Google. No solo genera Apps multi-plataforma sino que de muy alto rendimiento, y la más reciente versión ahora incluye librerías para video-juegos 2D de alto rendimiento.


15. Plataforma de Streaming del Año: Disney+
Disney+ no tiene ni cerca del contenido de Netflix, sin embargo se ha enfocado en algunos nichos que ha hecho que despegue más rápido que Speedy Gonzalez. Parte de su truco ha sido capitalizar sus franquicias de Marvel, creando series originales que solo se pueden ver por esa vía, como la excelente Loki.


16. Tecnología Científica del Año: El James Webb Space Telescope
Si todo sale bien este telescopio se lanzará este próximo 25 de Diciembre 2021, y durará 1 mes para llegar a su destino a 1.5 millones de km de distance a un punto calmado y equilibrado grabitacionalmente, en donde desplegará una gran sombrilla espacial para bloquear la luz solar y poder observar el universo en tranquilidad como ningún otro instrumento en la historia de la humanidad.

Su misión principal será la de observar los primeros 100 a 250 millones del años después del Big Bang (es decir, cuando nuestro universo era un bebé) para así entender mejor nuestros orígenes. Sin embargo la ciencia que hará será mucho más extensa que eso, tocando todos los campos de la astronomía y astrofísica a nuestro alcance, desde agujeros negros y posible materia oscura hasta la evolución de galaxias y el estudio de objetos exóticos como los cuásares.

El lanzamiento de este instrumento es algo que hemos estado esperando desde el 1989 (a un costo de casi 10 mil millones de dólares) cuando se propuso por primera vez, por lo que esta será la misión con más nervios jamás lanzada al espacio por la humanidad.


17. Avance de Salud del Año: AlphaFold por DeepMind
DeepMind es una inteligencia artificial de Google, y uno de los proyectos en que participó se llama AlphaFold, que ha permitido en tiempo record predecir como se doblan de forma tridimensional todo tipo de moléculas, específicamente proteínas de ADN.

Esto es un paso monumental que en pocos años acelerará el descubrimiento de medicinas y tratamientos para todo tipo de enfermedades.


18. Viaje Espacial del Año: William Shatner (“Captain Kirk”) en la nave de Blue Origin
Jeff Bezos (fundador de Amazon y Blue Origin) ganó muchos puntos de mercadeo este año al anunciar que enviaría al espacio a William Shatner, mejor conocido como el Capitán Kirk en la serie clásica de Star Trek ("Viaje a las Estrellas"), logrando con eso un sueño de muchos geeks de ver a este actor subir al espacio en la realidad.


19. Empresa Espacial del Año: SpaceX
¿Qué más podemos decir de esta empresa? Sencillamente no tiene igual. No solo hizo decenas de pruebas y lanzamientos (de cargo a naves espaciales exploratorias, de viajes a la Estación Espacial Internacional, y subiendo todo tipo de satélites), sino que está bien encaminada a cumplir su misión de llevar la humanidad al planeta Marte, como lo prometió su fundador Elon Musk.


20. Nave Espacial del Año: StarShip de SpaceX
¿Podrían imaginar un edificio rascacielos no solo despegando sino que volviendo a aterrizar de espalda nuevamente? Pues eso es exactamente lo que hace la nave StarShip que en el 2021 SpaceX logró demostrar que podrá cumplir su misión no solo de subir grandes cantidades de cargo al espacio, sino de llevarnos al planeta Marte.


21. Tecnología Espacial del Año: StarLink de SpaceX
¿Internet satelital de alta velocidad y baja latencia en cualquier parte del mundo y a un costo razonable? Envíenme el contrato rápidamente... Elon Musk es un genio certificado.


22. Empresa Automovilística del Año: Tesla
Tesla casi por su propia cuenta ha sido la principal responsable a nivel mundial de popularizar los vehículos eléctricos, y no vemos fin a su buena racha. Cuando salga a la venta el Cybertruck será todo un fenómeno de ventas y de cultura popular. Una vez más, Elon Musk a la cabeza.


23. Personaje del Año: Elon Musk
No hay sorpresas aquí. Este año ni siquiera hubo competencia remota para un segundo lugar a ponderar. Este hombre se está consagrando como el Leonardo DaVinci de nuestros tiempos, y todavía le falta mucho por vivir.

autor: josé elías


Editorial eliax: Las Contradicciones de un Dios Cuántico-Relativista
eliax id: 11578 josé elías en jun 14, 2021 a las 11:03 PM ( 23:03 horas)
eliax Hola amig@s lectores,

Hoy quiero compartir con ustedes un tema que al menos a mi me ha hecho pensar bastante a través de los años, y trata sobre estudiar cuáles serían la limitantes en potenciales dioses/deidades en cuanto a su alcance de poder y conocimiento con respecto a las leyes de la física como la conocemos.

Así que arranquemos hoy (síganme la corriente, todo se conecta al final) haciendo un paréntesis para hablar del concepto de “medir algo”, como podría ser medir la velocidad de un objeto en movimiento.

Y sobre ese tema empecemos diciendo que en nuestra vida cotidiana medir a qué velocidad va un automóvil aparenta ser algo trivial y a lo que no hay que darle mucho pensamiento. Sin embargo, la realidad dista mucho de nuestro instinto…

Y es contraituitivo ya que medir la velocidad de algo curiosamente afecta su velocidad. Y para entender esto, imaginemos un ejemplo en donde estamos totalmente a ciegas, en el medio del espacio, y que queremos medir la velocidad de una nave espacial que nos pasará por el lado.

Hay varias formas de medir la velocidad de la nave (con respecto a nosotros), una de ellas siendo el poner algún tipo de banderita o meta en dos lugares distintos, y medir el tiempo que transcurrió entre la nave tumbar la primera banderita y tumbar la segunda, lo que nos daría su velocidad. Otra forma podría ser dispararle a la nave ondas de algún tipo (digamos, un rayo láser) en varios puntos de su trayecto, y medir el rebote de esas ondas hasta nuestro detector (similar a como funcionan los radares de velocidad en las autopistas).

Sin embargo, sin importar la forma que sea que tratemos de medir esa velocidad, lo esencial a entender es que la única forma de medir algo (y eso por extensión incluye el concepto de “ver” algo) es directamente interactuando con lo que se quiere medir, sea haciendo que el objeto choque contra algo, o que le disparemos algo que rebote desde este. Y cuando entendemos eso, entendemos también que al hacer chocar el objeto o al dispararle algo al objeto, que literalmente estamos variando (aunque sea ultra-minúsculamente) su velocidad y/o trayectoria, por lo que el simple hecho de tratar de medir su velocidad exacta implica que variaremos esa velocidad por un monto desconocido (en exactitud) para nosotros.

O en otras palabras, es imposible saber el estado exacto de algo, ya que el mismísimo acto de medir altera el resultado. Y si entendieron eso, felicidades, porque lo crean o no esta es una de las grandes conclusiones de la física del Siglo 20 con respecto al campo de la Mecánica Cuántica y ustedes acaban de entenderlo sin necesidad de complejas ecuaciones matemáticas.

Hagamos ahora otro paréntesis y hablemos ahora de qué tan rápido podemos enterarnos de sucesos que ocurren en nuestro alrededor (y una vez más, síganme la corriente)…

Imaginen que tienen un reinado galáctico en nuestra galaxia La Vía Láctea, la cual a propósito mide de ancho unos cien mil años luz (es decir, que si disparamos un rayo láser en un extremo de la galaxia este tardaría 100,000 años en cruzar la galaxia de lado a lado, viajando a unos 300,000 kilómetros por segundo que es la velocidad de la luz), así que asumamos que riges tu imperio desde el centro de la galaxia. Eso significa que al estar en su mismo centro, que las noticias de lo que ocurre en los lados exteriores de la galaxia te llegaría en aproximadamente unos cincuenta mil años (asumiendo que te comunicas a la velocidad de la luz).

Ahora imaginemos que alguien te dice que en un planeta lejano en el borde de la galaxia llamado Tierra acaban de surgir unas criaturas llamados “Humanos” y que estos acaban de inventar el fuego. Sin embargo, dado que esa información tarda unos 50,000 años en llegarte, de ahí a que envíes un emisario a investigar lo que sucede en la Tierra, y que éste llegue allá para ver la situación, pasarán 50,000 años más, y lo más probable es que cuando éste llegue a la Tierra se tope ahora no con seres humanos en taparrabos creando fuego, sino con una sociedad relativamente avanzada que ya ha visitado todos los planetas de su Sistema Solar y que ya domina tecnologías como el Internet, los rayos láser, energía nuclear, tecnología de comunicación interplanetaria, etc.

Ese emisario te envía ahora esa información, pero sucede que tomará unos 50,000 años más para que esa información te llegue. Y como imaginarán, las noticias que te llegarán son muy diferentes a las noticias originales. Pero peor aún, dado que han pasado unos 50,000 años más, para cuando te llegue la noticia es posible que esos Humanos ya o ni existan, o tengan ya tiempo explorando otras estrellas cercanas, e incluso quizás ya no se vean como los humanos de carne y hueso del Siglo 21, sino que serán unas criaturas cibernéticas o virtuales en el siglo 521 (de las cuales no sabes nada de cómo son, ya que para saberlo tendrías que volver a viajar 50,000 años más para averiguarlo y 50,000 años más para regresar la información).

En conclusión, ser un Emperador Galáctico debe ser un trabajo bastante frustrante, ya que para cuando te llega información hace rato que esa información es irrelevante y obsoleta para tomar decisiones, debido a las distancias. Y no solo eso, si desearías no solo saber información de tu galaxia, sino de otras lejanas para conquistarlas, tu trabajo se haría peor aún ya que existen miles de billones de otras galaxias sin explorar, y el tiempo de respuesta para obtener información sobre ellas se extendería al orden de incluso los miles de millones de años. Y si entendieron este tema pues felicidades nuevamente porque ya acaban de aprender un poco sobre la Relatividad de Einstein y sus efectos sobre los límites que la velocidad de la luz impone en la comunicación de información.

Y regresando a nuestro artículo original, ¿qué tiene esto que ver con dioses? Pues no solo bastante, sino que todo.

Sucede que según las creencias de la mayoría de religiones, existen dioses que no solo son omniscientes (es decir, que lo saben todo), sino que son omnipotentes (que lo pueden hacer todo), pero esta sencilla realidad que les acabo de describir aparenta ir totalmente en contra de la existencia de ese tipo de dioses (pero ojo, que les hablaré más adelante sobre cómo sí es posible tener dioses que lo saben todo y lo pueden hacer todo, por lo que no dejen de leer aun si esto afecta alguna creencia o sensibilidad o les suena ilógico).

¿Y por qué va esto en contra de las concepciones tradicionales de dioses? Pues por el simple hecho de que un Dios no podría jamás saber en qué estado está nada, ya que el solo hecho de tratar de “leer” el universo lo estaría cambiando. Y no solo eso, el hecho de que exista una inmensidad del cosmos con límites de velocidad de información, también nos dice que existen límites para que estos dioses puedan no solo enterarse de lo que ocurre en el Universo, sino mucho menos actuar sobre esas ocurrencias remotas.

Ahora bien, unos dirán que “Dios está por encima de todo eso, y no podemos asumir que se rige por las mismas reglas que este universo”, lo que creo es un argumento que independientemente sea válido o no, merece estudio, y de eso es que vamos a hablar a continuación…

Sin embargo antes de continuar creo prudente hacer mención que independientemente del “plano” en que podrían existir seres hipotéticos con super-poderes sobre la naturaleza de nuestro universo, que creo lógico asumir que tales seres tendrían que de todas formas regirse por ciertas reglas y patrones, y el hecho de que existan reglas (incluso si son reglas que no pudiésemos comprender o estudiar) implica que en sus mentes debe existir algún cambio de estado (como por ejemplo, para poder tomar decisiones), y en donde sea que exista un cambio de estado por simple lógica podemos deducir que debe existir una serie de pasos por la que sus estados mentales pasan, y el hecho de que existan pasos nos dice también que debe tomar algún tipo de tiempo para que esos pasos se propaguen en su mente, y que incluso si la velocidad de propagación de esos estados fuese infinitamente mayor que nuestro límite de la velocidad de la luz, lo cierto es que debe haber un límite, y si existe un límite entonces debe haber un límite también al conocimiento y la velocidad con la cual se puede actuar.

Habiendo hecho esa observación, quiero dejarles saber que sí existe una posibilidad (habilitada por la tecnología) de tener un Dios que pueda saber todo lo que ocurre en un universo, y para eso recurro a un ejemplo que he utilizado antes en artículos, charlas y videos: El una-vez-popular juego de Los Sims de Electronic Arts.

Los Sims es un juego en donde simulas a una familia, que ves en tu pantalla haciendo sus quehaceres habituales que van desde ir a trabajar hasta bailar, y desde ir a hacer sus necesidades fisiológicas hasta tener bebés y cuidar de ellos.

Lo interesante de ese juego es que en realidad es una simulación (de ahí su nombre, “Los SIMulados”), y que ocurre dentro de un ordenador (sea una PC, tableta, celular, consola de video-juegos o una máquina en la nube de Internet) por lo que desde el punto de vista de nosotros los jugadores ese universo de Los Sims realmente no existe de forma tangible en nuestro mundo físico, sino que existe exclusivamente de forma virtual como una simulación.

Ahora bien, asumamos que tenemos una versión super avanzada de Los Sims, tan avanzada que cada personaje dentro del juego tiene un nivel de Inteligencia Artificial tal que son conscientes de su existencia, y que ellos realmente creen que existe el universo en donde habitan, e incluso ellos jurarían que perciben ese universo en toda su gloria tridimensional (aunque nosotros fuera de la simulación sabemos que ese mundo no es más que incontables bits binarios de unos y ceros corriendo como señales eléctricas en un microprocesador, y que lo que ellos perciben como tridimensional es una ilusión).

Entonces, para este escenario, nosotros podríamos considerarnos dioses, y los simulados serían los Humanos. Esos humanos incluso medirían la velocidad de la luz en su universo simulado e incluso harían teorías sobre su existencia y procedencia (y quizás, hasta escriban artículos como este que estás leyendo).

En este escenario entonces, el programador que inventó el juego de Los Sims podría pasar por Dios y en cualquier momento pausar el juego y analizar todas y cada una de las variables de este para determinar en cualquier momento todo lo que ocurre en el juego (como por ejemplo, en donde estaban ubicados todos los personajes, lo que estaban haciendo, el color de sus casas, la velocidad de sus vehículos, etc). En esencia convirtiéndose en un ser omnisciente, que lo sabe todo. Similarmente este programador podría en cualquier momento matar un personaje, hacer que aparezcan o desaparezcan objetos, y en esencia hacer cosas que para las leyes de la física de ese mundo de Los Sims se catalogarían como verdaderos “milagros” ya que desafían las leyes matemáticas que ellos dedujeron, en esencia convirtiéndose el programador también en un ser omnipotente, que lo puede todo.

Ahora bien, cualquiera que haya leído estos últimos párrafos diría “¡todo esto es clara lógica de que podrían existir dioses!”, pero no nos adelantemos aun…

Aquí entran en juego un par de cosas. La primera es, que un juego como Los Sims es bastante sencillo, con unos cuantos personajes en la memoria de una máquina, pero cuando hablamos de un universo completo tendríamos que estar hablando no de 10 o 20 Sims, sino que de trillones de trillones de trillones de seres, sin ni siquiera hablar aún de los quintillones de sextillones de septillones de átomos y partículas subatómicas que componen un universo como el nuestro, por lo que si un ser quisiera “pausar el universo” para saber su estado exacto en ese punto del tiempo, le tomaría un tiempo increíblemente largo para saber toda esa información, y más aún, le tomaría un cerebro al menos del mismo tamaño que todos los átomos del universo simulado para poder almacenar toda esa información y procesarla, y sin mencionar espacio adicional para poder hacer optillones de decillones de zetallones de cálculos para saber qué hacer con toda esa información, y todo eso solo para saber el estado de un microsegundo pausado de la simulación, de los miles de millones de años de su existencia.

O en otras palabras, hablamos de un ser cuyo tamaño y alcance nuestra imaginación realmente no podría empezar a entender. Y la pregunta es, ¿podría existir un ser así? La respuesta la dejo a juicio de ustedes.

Ahora bien, el segundo tema para mi es aún más interesante ya que podemos llegar a una clara gran conclusión al respecto: Si realmente este Ser Supremo puede pausar y analizar nuestra simulación y de alguna forma poder saber todo lo que ocurre en nuestro universo, el simple hecho de que esta sea una simulación la hace necesariamente determinista (lógicamente debe serlo para poder ser analizada con 100% de precisión) y eso nos lleva a la obvia conclusión de que entonces todo ese universo es determinista al 100%, y por tanto todas sus leyes físicas también lo son, y por tanto todos los seres que habitan ese universo también actúan de forma determinista por obvia extensión.

¿Y qué significa eso? Esto significa que en un universo en donde exista una deidad superior que sea omnisciente, que por pura deducción lógica el universo que este comanda debe ser totalmente determinista, lo que automáticamente elimina el concepto del libre albedrío, ya que todo ser viviente estaría siguiendo en todo momento un patrón de reglas totalmente predeterminadas, y eso significa que incluso cuando matara a alguien o cuando comiera una manzana prohibida que ese ser no estaría actuando bajo su propio juicio sino que lo estaría haciendo de forma robótica, siguiendo una receta de pasos (producto de la programación de la misma deidad), aun sienta la sensación de que está tomando acciones por su cuenta.

Esto entonces implicaría que en tal escenario, sería ridículo pensar que tal deidad que rige el universo pueda castigar a alguien por algo que esa persona hizo, ya que lo que hizo la persona nunca fue hecho por voluntad propia sino que siguiendo un patrón predeterminado necesario para que la deidad sepa lo que hizo. O en otras palabras, todo el bien y el mal del universo sería un producto directo de las reglas físicas con las cuales la deidad dote a ese universo.

Los lectores más técnicos podrán decir entonces “quizás esa deidad introduce aleatoriedad en el universo”, pero al hacer eso la deidad automáticamente perdería su capacidad de predecir lo que va a ocurrir, que es otro de los poderes que vienen por defecto sobre un ser que supuestamente es omnisciente.

Similarmente, uno podría también decir “pero quizás esta deidad trata los seres conscientes de su existencia de forma diferente a los demás elementos físicos del universo, y les introduce un ‘alma’ que actúa en un plano diferente al del universo en que existen esos humanos, para así permitirles libre albedrío”, pero aquí una vez más, tenemos evidencia de que este no puede ser el caso, como explico a continuación…

Sucede que sabemos de miles de casos anuales en la literatura médica de personas que sufren averías en sus cerebros por causas de accidentes, y muchas de estas personas al sucederles estos accidentes cambian por completo su personalidad, o pierden ciertas habilidades cognitivas, o se modifican en formas impredecibles. Si realmente la mente humana habitara un plano fuera de lo físico, la personalidad de estas personas no pudiese haberse modificado en lo absoluto ya que un accidente de automóvil en este simple universo para nada deberían afectar al plano “superior” externo de nuestra existencia. O en otras palabras, el simple hecho de que estas personas sufran trastornos en sus mentes es evidencia clara y contundente de que no existe un alma fuera de nuestro mundo físico que rige sus vidas.

Esto significa entonces que estamos ante una encrucijada bastante simple en su pronunciamiento pero bastante impactante en sus repercusiones, pues la encrucijada dice que tenemos que elegir entre en cual tipo de universo nos encontramos:

1. Si estamos bajo un universo controlado por una deidad eso nos dice que entonces no tenemos libre albedrío y que no importa lo que hagamos ya que todo lo que hagamos (desde amar hasta matar) ya está predeterminado.

2. Y por otro lado esta encrucijada nos dice que si estamos en un universo aleatorio y evolutivo que entonces nuestras acciones tienen peso y que somos responsables de nuestras vidas y que ninguna deidad puede tener conocimiento ni control de nuestras acciones.

Y la gran pregunta de mi hacia ustedes es, ¿en cuál de estos universos creen que se encuentran?

Leer el resto de este artículo...


autor: josé elías


Opinión #eliax: La verdadera innovación en el nuevo iPhone 11 es su chip U1
eliax id: 11561 josé elías en sept 11, 2019 a las 12:49 PM ( 12:49 horas)
eliaxHola amig@s lectores,

Ayer fue el esperado lanzamiento el nuevo iPhone 11 (lo pueden ver aquí otra vez), y escondido en especificaciones técnicas de los nuevos iPhones podrán encontrar una referencia a una entrada que dice "Ultra Wideband chip for spatial awareness", que los que estamos empapados con el tema a bajo nivel sabemos que se refiere a un nuevo chip desarrollado por Apple y al que simplemente llaman el “U1”, y que es descrito como un chip de ubicación espacial utilizando bandas de frecuencias ultra-anchas.

Es decir, un chip que permite localizar objetos en interiores (como en tu casa o algún negocio) de forma tridimensional, similar a como utilizamos el GPS del celular para ubicar el celular mismo en un mapa.
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Pero, ¿a qué realmente se refiere eso? Pues esto se refiere sin duda a la funcionalidad de las rumoreadas “Apple Tags” (etiquetas) de las cuales les hablé hace unos días en mis redes sociales de @eliax bajo el término tentativo "AirTags", que se puede definir esencialmente como "un GPS para interiores”.
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Con esta tecnología cualquier objeto físico dotado de una etiqueta/tag de Apple (que podría ser no más grande que un pequeño llavero) podría ser localizado en tu proximidad y en 3D, y de una forma relativamente precisa.
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Así que imaginen por ejemplo utilizar la funcionalidad de Realidad Aumentada del iPhone para superimponer en tiempo real sobre el video de la cámara la ubicación de algún objeto perdido cerca de ti (y esto funcionaría aún mejor con las rumoreadas gafas de Realidad Aumentada que se rumora está desarrollando Apple). Con esta tecnología por ejemplo encenderías la cámara de tu iPhone y al girar la cámara hacia tu sofá podrías ver exactamente detrás de cual almohada de tu sofá dejaste el control remoto de tu TV.

O incluso esto serviría para tú poder enviar un archivo vía AirDrop con solo “apuntar” tu iPhone a otro iPhone cercano, o incluso enviar un video a una pantalla en específico cerca de ti (por ejemplo, apuntando con tu celular a un proyector cercano).
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Esta es una tecnología que aunque no es nueva (ver por ejemplo la empresa Tile que no ofrece todo esto pero al menos permite encontrar objetos por proximidad) tiene el potencial de convertirse en práctica y de fácil uso y por tanto masificada, gracias al control e influencia que tiene Apple sobre su ecosistema.
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Se rumora también que estas Tags podrían comunicarse incluso con otros equipos de Apple para crear una red ad-hoc de Internet-de-las-Cosas (IoT) en donde podrías ubicar objetos perdidos incluso si estos están a miles de kilómetros de distancia de ti (utilizando primero Bluetooth para llegar a un dispositivo de Apple cercano, y después de ahí saltar a Internet por WiFi o vía datos celulares), lo que para muchos fines sería algo genial y extremadamente útil (y para otros un tema de privacidad que me encantaría ver cómo Apple planea solucionar).
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Esta es una de esas tecnologías que uno sabe tarde o temprano tenia que llegar (yo mismo llevo alrededor de dos décadas aludiendo a este concepto en mis charlas) y solo se necesitaba de un titán como Apple para hacerla práctica y masificarla.
⠀⠀⠀⠀⠀⠀⠀⠀⠀
Entre posibles usos de esta tecnología están el obviamente encontrar objetos perdidos, el transferir archivos con solo apuntar a alguien, pero también la creación de video-juegos más físicos, el uso de mesas inteligentes en restaurantes, etiquetadores de personas en eventos, seguimiento de mascotas y niños, seguimiento de objetos valiosos, ciber-seguridad (y espionaje), marcador virtual para promociones en tiendas, marcadores de turismo, información expandida en museos, etc.

En cuanto a la pregunta de por qué vienen los nuevos iPhone 11 con esta tecnología pero Apple no mencionó nada en su evento de ayer, una pista clara al respecto la pudimos notar al ver que la presentación no duró 2 horas exactas como acostumbre Apple, sino que finalizó unos 20 minutos antes. Eso me dice que Apple sacó de la presentación algún anuncio importante (que bien podría ser esto) de último minuto, lo que también me sugiere que es posible que veamos anunciado todo esto en algún evento especial en los próximos meses cercanos.

Esta es una de las tecnologías que creo a Apple le gustaría tener en su lugar antes de desplegar sus futuras gafas de Realidad Aumentada en las que se sabe está trabajando desde hace años...

Así que crucen los dedos para que todas estas especulaciones se hagan realidad, y de paso que sean rápidamente copiadas por Google para que el ecosistema Android también puede tener algo similar al nivel del sistema operativo, y quizás podamos incluso tener un futuro en donde estas etiquetas sean universales y funciones con cualquier plataforma de cualquier proveedor (para allá vamos, es solo cuestión de tiempo).

autor: josé elías


Charla #eliax: "Un Viaje a las Estrellas... con Inteligencia Artificial, Blockchain y Realidad Virtual"
eliax id: 11525 josé elías en oct 9, 2017 a las 11:19 PM ( 23:19 horas)
eliax, para mentes curiosas...Hola amig@s lectores,

A continuación un video de casi 1 hora de mi charla "Un Viaje a las Estrellas... con Inteligencia Artificial, Blockchain y Realidad Virtual" del 3 de Octubre 2017 en el evento #GX27 de #GeneXus, en Montevideo, Uruguay.

La charla trata literalmente sobre mi propuesta y visión sobre como realmente creo que en un futuro no muy lejano viajaremos a otras estrellas (y quizás incluso, galaxias).

En la charla trato de hacer un caso de por qué las propuestas actuales sobre cómo viajaremos a otras estrellas no son realistas, y qué propongo al respecto.

Entre mis propuestas están una nueva forma de "nave" (que llamo "esferas eliax"), formas posibles de impulsar tales esferas, y una propuesta teórica para crear una Red Intergaláctica.

La charla está diseñada para poder ser entendida por cualquier persona sin previo conocimiento de estos temas.

¡Espero la disfruten! y como siempre, me pueden contactar por mensaje directo a facebook.com/eliax si me quieren contratar para esta u otras charlas.



Y aquí un enlace a mi charla del día anterior sobre los Titanes de la Inteligencia Artificial

autor: josé elías


Charla #eliax: "Titanes de la Inteligencia Artificial - El Futuro de Ayer, Hoy"
eliax id: 11524 josé elías en oct 3, 2017 a las 12:47 PM ( 12:47 horas)
eliax, para mentes curiosas...Hola amig@s lectores,

A continuación un video de 1 hora de mi charla "Titanes de la Inteligencia Artificial - El Futuro de Ayer, Hoy" del 2 de Octubre 2017 en el evento #GX27 de #GeneXus, en Montevideo, Uruguay.

La charla inicia explicando brevemente lo que es la Inteligencia Artificial (IA), explicando el tema de Redes Neuronales, Machine Learning y Deep Learning, y procediendo a dar varios ejemplos de soluciones en industrias específicas que se benefician de estas tecnologías.

Después paso a una serie de demostraciones (varias con videos) de cosas realmente interesantes que se están haciendo hoy día con la IA, para pasar después a una serie de advertencias a tener con respecto a la IA.

Finalizo después con una lista de herramientas para los que quieran adentrarse a este mundo, y unas breves conclusiones.

¡Espero la disfruten! y como siempre, me pueden contactar por mensaje directo a facebook.com/eliax si me quieren contratar para esta u otras charlas.



Y aquí un enlace a mi charla del día siguiente sobre cómo viajaremos a otras estrellas y galaxias

autor: josé elías

Catch
Entries: 15
additional
Struct (ordered)
SQL
stringUPDATE POSTS SET VIEWS = VIEWS + 1 WHERE POST_ID = 11522
DatabaseName
stringMySQL
DatabaseVersion
string8.1.0
DriverName
stringMySQL Connector/J
DriverVersion
stringmysql-connector-j-8.1.0 (Revision: 7b6f9a337afe6ccb41823df485bf848ca7952b09)
Datasource
stringELIAX_BLOG
DataSource
stringELIAX_BLOG
Detail
string
ErrorCode
string0
Extended_Info
string
ExtendedInfo
string
Message
stringIncorrect key file for table '.\eliax_blog\posts.MYI'; try to repair it
NativeErrorCode
number126
queryError
stringUPDATE POSTS SET VIEWS = VIEWS + 1 WHERE POST_ID = 11522
Sql
stringUPDATE POSTS SET VIEWS = VIEWS + 1 WHERE POST_ID = 11522
SQLState
stringHY000
StackTrace
stringlucee.runtime.exp.DatabaseException: Incorrect key file for table '.\eliax_blog\posts.MYI'; try to repair it at com.mysql.cj.jdbc.exceptions.SQLError.createSQLException(SQLError.java:130) at com.mysql.cj.jdbc.exceptions.SQLExceptionsMapping.translateException(SQLExceptionsMapping.java:122) at com.mysql.cj.jdbc.ClientPreparedStatement.executeInternal(ClientPreparedStatement.java:916) at com.mysql.cj.jdbc.ClientPreparedStatement.execute(ClientPreparedStatement.java:354) at lucee.runtime.type.util.QueryUtil.execute(QueryUtil.java:353) at lucee.runtime.type.QueryImpl.execute(QueryImpl.java:306) at lucee.runtime.type.QueryImpl.<init>(QueryImpl.java:243) at lucee.runtime.tag.Query.executeDatasoure(Query.java:1134) at lucee.runtime.tag.Query._doEndTag(Query.java:701) at lucee.runtime.tag.Query.doEndTag(Query.java:566) at index_cfm$cf.call(/index.cfm:712) at lucee.runtime.PageContextImpl._doInclude(PageContextImpl.java:1058) at lucee.runtime.PageContextImpl._doInclude(PageContextImpl.java:950) at lucee.runtime.listener.ModernAppListener._onRequest(ModernAppListener.java:221) at lucee.runtime.listener.MixedAppListener.onRequest(MixedAppListener.java:44) at lucee.runtime.PageContextImpl.execute(PageContextImpl.java:2494) at lucee.runtime.PageContextImpl._execute(PageContextImpl.java:2480) at lucee.runtime.PageContextImpl.executeCFML(PageContextImpl.java:2451) at lucee.runtime.engine.Request.exe(Request.java:45) at lucee.runtime.engine.CFMLEngineImpl._service(CFMLEngineImpl.java:1219) at lucee.runtime.engine.CFMLEngineImpl.serviceCFML(CFMLEngineImpl.java:1165) at lucee.loader.engine.CFMLEngineWrapper.serviceCFML(CFMLEngineWrapper.java:97) at lucee.loader.servlet.CFMLServlet.service(CFMLServlet.java:51) at javax.servlet.http.HttpServlet.service(HttpServlet.java:623) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:209) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:153) at org.apache.tomcat.websocket.server.WsFilter.doFilter(WsFilter.java:51) at org.apache.catalina.core.ApplicationFilterChain.internalDoFilter(ApplicationFilterChain.java:178) at org.apache.catalina.core.ApplicationFilterChain.doFilter(ApplicationFilterChain.java:153) at org.apache.catalina.core.StandardWrapperValve.invoke(StandardWrapperValve.java:168) at org.apache.catalina.core.StandardContextValve.invoke(StandardContextValve.java:90) at org.apache.catalina.authenticator.AuthenticatorBase.invoke(AuthenticatorBase.java:481) at org.apache.catalina.core.StandardHostValve.invoke(StandardHostValve.java:130) at org.apache.catalina.valves.ErrorReportValve.invoke(ErrorReportValve.java:93) at org.apache.catalina.core.StandardEngineValve.invoke(StandardEngineValve.java:74) at org.apache.catalina.connector.CoyoteAdapter.service(CoyoteAdapter.java:342) at org.apache.coyote.ajp.AjpProcessor.service(AjpProcessor.java:424) at org.apache.coyote.AbstractProcessorLight.process(AbstractProcessorLight.java:63) at org.apache.coyote.AbstractProtocol$ConnectionHandler.process(AbstractProtocol.java:928) at org.apache.tomcat.util.net.NioEndpoint$SocketProcessor.doRun(NioEndpoint.java:1794) at org.apache.tomcat.util.net.SocketProcessorBase.run(SocketProcessorBase.java:52) at org.apache.tomcat.util.threads.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1191) at org.apache.tomcat.util.threads.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:659) at org.apache.tomcat.util.threads.TaskThread$WrappingRunnable.run(TaskThread.java:61) at java.base/java.lang.Thread.run(Thread.java:829)
TagContext
Array
1
Struct
codePrintHTML
string710: SET VIEWS = VIEWS + 1<br> 711: WHERE POST_ID = &lt;cfqueryparam cfsqltype=&quot;cf_sql_integer&quot; value=&quot;#getPost.POST_ID#&quot;&gt;<br> <b>712: &lt;/cfquery&gt;</b><br> 713: <br> 714: <br>
codePrintPlain
string710: SET VIEWS = VIEWS + 1 711: WHERE POST_ID = <cfqueryparam cfsqltype="cf_sql_integer" value="#getPost.POST_ID#"> 712: </cfquery> 713: 714:
column
number0
id
string??
line
number712
Raw_Trace
stringindex_cfm$cf.call(/index.cfm:712)
template
stringC:\inetpub\eliax\index.cfm
type
stringcfml
type
stringdatabase
where
string