Predicciones
miércoles, septiembre 4, 2024
|
Hola amig@s lectores,
Si les dijera que este artículo completo fue escrito por una Inteligencia Artificial (IA), ¿me lo crearían? Hace apenas dos años atrás quizás no, pero con la llegada de una nueva generación de IAs del tipo LLM (Large Language Model) como ChatGPT es posible que muchos de ustedes no sepan qué responderme. Y eso, es un problema. Aunque por un lado estamos adentrándonos en uno de los más emocionantes (sino, el más emocionante) momentos de la humanidad, a la misma vez esto trae consigo un nuevo tipo de problemas, problemas que aunque no son totalmente nuevos (me refiero a la capacidad de hacer creer que algo ficticio es real) sí podemos decir que amplifica de forma exponencial esos problemas anteriores. Como ejemplo, el año pasado se hizo viral una imagen del Papa Francisco aparentemente modelando un abrigo de nieve en una pasarela, y poco después se hizo viral otra imagen de Elon Musk aparentemente enamorado de una mujer cibernética, y recientemente hemos visto personas como Donald Trump utilizar tecnología deep fake e imágenes de famosos creadas enteramente por software para hacer aparentar que esas personalidades apoyan su segunda candidatura presidencial en los EEUU. Pero eso apenas es el comienzo… Nos estamos adentrando a un mundo en donde no vamos poder estar seguros de nada de lo que leemos, vemos o escuchamos, y esto tendrá graves repercusiones sociales de forma masiva, al menos que tomemos medidas al respecto (medidas que sugiero más adelante en este mismo artículo). Imaginen por ejemplo si llega un reclamo a una empresa de seguros, con no solo evidencia de audio de una llamada telefónica pidiendo auxilio, sino además fotografías desde múltiples ángulos del accidente reportado, y hasta video de una cámara de seguridad cercana a los hechos. Hasta hace par de años esta evidencia se hubiese considerado prueba contundente de que el supuesto accidente reclamado realmente sucedió, y la empresa aseguradora hubiese sido obligada a pagar potencialmente millones en daños. Pero, hoy día, ¿cómo podemos estar seguros de que esa llamada telefónica, esas fotos y ese video no fueron generados por las más recientes versiones de programas como Midjourney o Sora de OpenAI? Similarmente, si recibes una llamada de emergencia de un familiar cercano, y la voz es idéntica a esa persona, e incluye incluso el tipo de lenguaje que utilizaría, con las mismas expresiones que caracteriza a esa persona, ¿enviarías algo dinero de ayuda a esa persona para sacarla de un apuro? Si la pregunta anterior les intrigó, noten el caso de un ejecutivo de una empresa multinacional con sede en Corea del Sur, a quienes unos hackers estafaron US$25 Millones de dólares al convencer a alguien en la empresa para que transfiriera esa cantidad de dinero. ¿Y cómo lo lograron? Pues convocaron a una víctima en el departamento de finanzas (que teníala capacidad de hacer transferencias bancarias) a una reunión virtual con el supuesto General General de Finanzas y varios otros ejecutivos de alto nivel de la empresa para discutir un asunto urgente, y sucede que todos los “ejecutivos” de la reunión habían sido personificados con tecnología deep fake para crear avatars/clones de ellos que se veían, hablaban y comportaban como los seres humanos que reemplazaban. Es decir, en esa llamada de videoconferencia grupal, la única persona real era la víctima, y todos los demás integrantes que participaron en la videollamada eran clones digitales de sus otros compañeros de trabajo y superiores de la empresa. Estos avances en Inteligencia Artificial Generativa (IA que genera desde cero cualquier tipo de contenido que puedas imaginar) están proveyendo a una nueva generación de criminales digitales un nuevo conjunto de herramientas para engañar, estafar, atacar, sabotear, sobornar y robar a una escala hasta hace poco inimaginable. Estamos literalmente entrando a un umbral en donde se está haciendo extremadamente difícil (por no decir casi imposible) distinguir lo real de lo falso. Y el gran problema que eso trae es que la sociedad humana desde sus orígenes se mantiene estable en base a una sola cosa: La confianza. ¿Y cómo podrá funcionar una sociedad en donde no exista confianza a nivel personal, profesional, institucional o a cualquier otro nivel? Es decir, ¿cómo sabes que la tienda a la cual le estás comprando algo online es real? ¿Cómo sabes que el portal o app de tu banco no es uno falso? ¿Cómo sabes que con quien estés hablando en una videoconferencia es quien dice ser? ¿Cómo sabes que el video que viste de un ser querido supuestamente haciendo una fechoría es real? ¿Cómo sabes que los resultados de tus búsquedas en Internet son reales? ¿Cómo sabes que el video de tu hija haciendo pornografía no es real? ¿Cómo sabes que la empresa con la cual llevas semanas negociando es real? ¿Cómo sabes que las autoridades gubernamentales que te están demandando un pago de impuestos es real? ¿Cómo sabes que un documento científico que estás leyendo es real y cita fuentes reales y contiene datos reales? ¿Cómo sabes que las noticias que estás viendo es real? ¿Cómo sabes que lo que dice el próximo candidato presidencial es reall? Bajo este nuevo esquema social que estamos entrando gracias a la IA Generativa se hará casi imposible operar, creer o maniobrar, y podríamos fácilmente llegar a un estancamiento social de proporciones épicas. Sin embargo, hay soluciones que podemos implementar como sociedad. La primera es una recomendación que hago a nivel familiar y de amigos cercanos, y es la de crear una palabra o frase clave que solo ustedes conozcan, y que nunca hayan comunicado de forma digital en ningún momento, de modo que si algún día reciben una llamada de emergencia o de alguna otra índole dudosa, ustedes puedan preguntar la palabra o frase clave para verificar la identidad de la persona al otro extremo de la comunicación. Así que por ejemplo, si en una reunión familiar nos ponemos de acuerdo de que nuestra palabra de seguridad será “Segismundo”, y posteriormente recibes una llamada de un familiar aludiendo una emergencia y pidiendo una transferencia de dinero, lo primero que le preguntarías es la palabra clave secreta. Si la persona no pueda contestarla (o al menos decirte el lugar y otros datos del día en que acordaron la clave) eso significa entonces que esa persona está posiblemente siendo personificada por un hacker con tecnología deep fake. La segunda sugerencia es una sugerencia tecnológica que debemos exigir se integre a toda tecnología que capture o genere contenido en cualquier formato (sea texto, sonido, imágenes o videos), y tiene que ver en que desde su misma fuente debemos poder codificar una firma digital que podamos verificar contra alguna fuente. Así que por ejemplo, bajo este esquema toda cámara digital, todo celular, todo micrófono y toda IA que genere imágenes, texto, sonido o video debe poder incrustar información que permita comprobar que el cotenido o fue (1) generado por medios “orgánicos” (como por ejemplo, un video que capturaste en un cumpleaños) o (2) por medios sintéticos (como un video de un cumpleaños imaginario generado por una IA), así como proveer información de su fuente (como el autor, fecha de creación, etc). De esta manera, si vemos una noticia o leemos un libro o artículo, o recibimos una llamada de audio o participamos en una videoconferencia, podemos tener algún grado de certeza de que lo que percibimos es real o sintético y de su actual procedencia. Para esto es necesario desarrollar estándares tecnológicos en la industria para que la información capturada (por ejemplo) por una cámara digital esté cifrada desde el momento que es capturada por su sensor de imagen, y para que una firma digital sea parte de la imagen antes de que esta se almacene o esté disponible para distribuirse, y de paso que en cualquier momento se pueda detectar si el contenido fue alterado en lo más mínimo. Una buena noticia es que ya existe una iniciativa de parte de algunos fabricantes de cámaras y líderes de la industria para crear algo similar, e incluso ya existen algunas cámaras profesionales del mercado con tecnología similar a esto, y de paso ya existe investigación para crear sistemas que incluyan watermarks (“sellos de agua” digitales) en habla generada por IA Generativa, e incluso ya existe una propuesta de ley en el estado de California en EEUU para requerir que todo contenido sintético tenga que venir con un watermark, por lo que poco a poco veremos este tipo de tecnología esparcirse a todo sistema que genere contenido de alguna forma. Y esperemos que estas soluciones ocurran más temprano que tarde, ya que de no ser así nos arriesgamos a que la falta de confianza en nuestros sentidos nos lleven a un caos social con resultados posiblemente catastróficos para la humanidad. - p.d.: Para los curiosos sobre la pregunta que puse al inicio del artículo, no, este articulo no fue escrito por una IA. O al menos eso le digo a ustedes… Actualización El lector Sergio Hernandez hizo una buena observación en los comentarios sobre el tema de firmas digitales, y respondí a su comentario para aclarar que cuando hablamos de una firma de agua digital hablamos de una firma criptográfica basada en el concepto de un Hash (y por extensión en cifrado de datos con llaves públicas y privadas), sin embargo esos son conceptos demasiados técnicos que extenderían demasiado este artículo, lo importante es el concepto de poder verificar la fuente de algo. autor: josé elías |
21 comentarios
197,746 vistas |
Audio / mp3 , Cámaras Digitales , Celulares / Móviles , Ciencia , Derecho Digital , Educación , Futuro Digital , Internet , Negocios , Opinión / Análisis , Predicciones , Psicología , Redes Sociales , Robots & I.A. , Software , Tecno-Seguridad , Tecnología Visual |
lunes, junio 5, 2023
|
Hola amig@s lectores,
El día que muchos estábamos esperando por fin ha llegado. Apple acaba de anunciar hoy sus rumoreadas (por años) gafas de “realidad extendida”, el “Apple Vision Pro”, y lo que vi hoy me ha dado mucho que pensar, así que abróchense los cinturones para embarcarnos en un análisis eliaxístico sobre este nuevo producto… Nota: para los curiosos que no se puedan aguantar, vayan y visiten primero ahora la página oficial del Vision Pro en el portal de Apple, y después que vean todo ahí regresen acá para mis opiniones, análisis y predicciones. Lo primero que voy a decir en cuanto a primeras impresiones es que hay que aplaudir la maquinaria mercadológica de Apple, es asombroso la forma clara que tienen de anunciar un producto e ir directamente a la psicología humana para hacerte desear vaciar tu cuenta bancaria o ponerte en plan de ahorros para comprar uno lo antes posible. Sin embargo, aun con excelentes primeras impresiones, siempre hay una dosis de realidad con la cual tarde o temprano hay que enfrentarse, y este artículo de hoy es para que aterricemos y pensemos todo en frío. Hoy les hablaré de las tecnologías que nos trae el Vision Pro, y lo que opino sobre lo que nos ofrece y sobre lo que creo le falta, y de lo que Apple puede hacer a futuro para mejorar. Pero iniciemos con los hechos: El Vision Pro realmente es algo extraordinario desde el punto de vista técnico, es el visor de Realidad Virtual y Realidad Aumentada/Extendida más avanzado del mundo, sin duda alguna, y entre sus cualidades se destacan las siguientes: 1. Tiene dos pantallas creadas especialmente para el Vision Pro que en conjunto tienen 23 millones de pixeles, lo que equivale a 11.5 millones de píxeles por ojo. Como referencia, una pantalla 4K tiene unos 8.3 millones de píxeles, por lo que estas micro-pantallas tienen mayor resolución por ojo que la TV 4K que está en tu casa o la casa de tus amigos. Notar además que si utilizas lentes medicados que Apple ofrecerá adaptadores compatibles con tu visión que se conectan de forma magnética al interior del Vision Pro. 2. Tiene 12 cámaras integradas, que se utilizan para varios fines, desde ver tus manos y el medio ambiente hasta permitirte tomar fotos y videos. 3. Contiene 5 juegos de sensores de todo tipo (distancia 3D, lector de ojos, etc), 6 micrófonos, y 2 auriculares especialmente diseñados para que escuches sonido envolvente en 3D. 4. Ofrece una super innovadora pantalla externa que proyecta tus ojos al mundo exterior. Pero no es cualquier pantalla, es una pantalla lenticular que es otra forma de decir que transmite imágenes en 3D para que dependiendo del ángulo que alguien te esté viendo, pueda ver el interior de tus gafas junto a tus ojos en 3D. O en otras palabras, esta funcionalidad da la ilusión de hacer la parte frontal del Vision Pro transparente para que alguien pueda verte directo a los ojos. Esto es bastante innovador. 5. El sistema de renderizado interno en 3D adopta una técnica que se llama en inglés “foveated rendering”, que es algo que ya algunas otras gafas de alta gama han implementado de una forma u otra, que permite que estas rendericen información de alta definición solo en la dirección que tus ojos miran, de modo que el perímetro se pueda renderizar de menor calidad y por tanto requiriendo menos poder de procesamiento, ahorrando energía, y mejorando la fluidez de los gráficos. Y noten que esto es como la combinación del ojo humano y el cerebro perciben el mundo, en donde en el centro del ojo vemos en alta definición y todo color, y en el perímetro vemos con imagen degrada (cosa que no notamos porque el cerebro es un excelente “rellenador” de información). 6. Te reconoce con solo verte en los ojos, con lo que Apple llama “Optic ID”, que similar a las películas de Hollywood lee tu retina (que es única en cada individuo del planeta) para identificarte (incluso si tienes un hermano gemelo idéntico). Esto reemplaza el Face ID y el Touch ID tradicional de otros productos de Apple en el Vision Pro. 7. La interfaz es totalmente natural, utilizando tus ojos (el Vision Pro sabe lo que ves en pantalla), tu voz (opcionalmente dependiendo de lo que estés haciendo) y tus manos (para seleccionar e interactuar con el medio ambiente sin necesidad de controles externos). Según Apple, puso mucho empeño en crear un nuevo “lenguaje de uso” similar a los lenguajes de uso que utilizó al crear la Mac, el iPod, el iPhone, y el iPad, y alega que aplicó a unas 5,000 patentes de tantas innovaciones técnicas que tiene el Vision Pro en su diseño e implementación. 8. De paso viene con dos potentes procesadores, un chip M2 de Apple (el mismo que tiene la nueva MacBook Air de 15” también anunciada hoy), y un chip especialmente dedicado para el Vision Pro llamado el R1 (que asumo significa el “Reality 1”), creado especialmente para manejar el monumental flujo de datos en tiempo real que debe procesar el Vision Pro para todo lo que hace. 9. El Vision Pro también contiene un pequeño dial (similar al del Apple Watch) el cual al girar haces que gradualmente la realidad vaya desvaneciendo y solo veas la realidad virtual generada dentro de las gafas. Pero aparte de eso, el software también hace cosas bastante impresionantes. Por ejemplo, cuando alguien se aproxima a ti, el Vision Pro detecta eso y te superimpone de forma gradual la persona para que la veas y puedas interactuar con ella, mientras que al mismo tiempo el Vision Pro despliega la imagen de tus ojos en formato casi holográfico para que la persona note que la estás viendo y puedan hablar cara a cara (o ojos a ojos) de forma natural. Y es bueno notar que para que todo esto se haga posible que el Vision Pro contiene cámaras externas de super alta calidad para que experimentes el mundo similar a como lo verían tus propios ojos, sin tú tener que desmontarte las gafas. Todo esto viene apoyado por un nuevo sistema operativo al que Apple ha bautizado como “visionOS”, especialmente diseñado para el Vision Pro y de paso compatible (con una recompilación de código) con las millones de Apps de iOS, iPadOS y macOS. Ya por ejemplo Apple anunció que Microsoft tendrá versiones de Office especialmente para el Vision Pro que en esencia te permitirán utilizar este visor como una especie de Mac (algo que predije hace unos días atrás por mis redes sociales), por lo que al inicio aunque quizás no tengamos muchas aplicaciones específicas para el Vision Pro, posiblemente si tendremos muchas aplicaciones clásicas disponibles ante nuestras manos y ojos en el mundo virtual. Es bueno notar que en la presentación pudimos ver algunos ejemplos bastante buenos de uso del Vision Pro, destacándose el uso del Vision Pro para ver juegos deportivos en vivo de forma virtual sin tu tener que estar en el campo de juego (esto se logra con cámaras especiales que se colocan en los eventos deportivos), lo que serviría también para ver conciertos, asistir a conferencias, etc. Disney también traerá muchas experiencias para el Vision Pro, en juegos, películas y otras experiencias dedicadas. Ya imagino poder ver a AVATAR en 3D en esto. Apple también anunció versiones especiales de casi todas sus Apps que estarán disponibles para el Vision Pro, el cual según Tim Cook (el CEO de Apple) esta es la evolución del iPhone, a lo que llaman “Computación Espacial” (“espacial” no como en espacio de cohetes y naves y estrellas, sino como espacio de trabajo volumétrico). Sin embargo para mi dos cosas que van a seducir a los usuarios del Vision Pro (o al menos a aquellos que puedan pagar su precio inicial) son las implementaciones de cámara y FaceTime de Apple. Con la cámara ahora podrás capturar videos en 3D del mundo a tu alrededor, los cuales ahora podrás almacenar como memorias digitales futuras o para compartir con tus familiares y amigos para que estos tengan una experiencia muy similar a la que tuviste tú el día que lo grabaste. Esto tendrá un gran impacto emocional que estoy seguro será replicado por la competencia muy rápidamente. Y con respecto a FaceTime, Apple creó una tecnología que con Inteligencia Artificial y los sensores del Vision Pro pueden generar un avatar ultra-realista y totalmente fotorealista de tí mismo, lo que significa que si haces una video-conferencia con otros usuarios de Vision Pro, todos se verán con sus caras reales en medio de reuniones. Así que imaginen por ejemplo una reunión de negocios en mesa redonda, o un grupo de familiares remotos reunidos todos frente a una fogata, en ambos casos aun tengamos el visor puesto, del otro lado nos percibirán como somos y con todo nuestro rango de expresiones, lo que creará una conexión humana muy diferente a los otros sistemas de chat virtuales existentes en donde otro “muñeco” que más o menos se parece a ti te reemplaza. Esta funcionalidad es otra que creo será también estándar en visores de la competencia eventualmente. Ahora bien, hasta aquí todo bien, yo incluso estaba esperando ya con mi tarjeta de crédito a mano listo para ponerme en la lista de ordenar uno o dos de estos aparatos, sin embargo, hay tres cosas en las que opino Apple falló esta vez y que me detuvieron (en donde la primera de ellas fue realmente la que me detuvo más que todo): Lo primero es el precio de US$3,499 dólares (no es un error tipográfico, sí, tres mil quinientos dólares esencialmente), con salida al mercado a inicios del 2024. Para mi (y algo me dice que para la vasta mayoría de personas fuera de Apple) este precio es demasiado alto, incluso bajo los estándares de Apple. A este precio salvo un nicho de personas (de clase alta, desarrolladores de software, y los más fieles entre los fieles fanáticos de Apple) van a comprar este dispositivo, y aunque estoy seguro que se venderán unos cuantos cientos de miles o bajas millones de unidades, a este precio este no es un producto con el cual una empresa puede revolucionar este mercado. Para mi, un precio que hubiese sido irresistible es US$999 dólares, e incluso hasta US$1,499 hubiera tenido ventas excelentes (y la bendición de mi cuenta familiar), y si consideras que esto podría hacer la labor de una Mac o iPad quizás hasta te puedas convencer a ti mismo de pagar US$1,999, pero US$3,499 es demasiado. Y ese precio me pone a pensar. ¿Por qué tan caro? ¿No sabían los estudios mercadológicos internos de Apple que este precio sería demasiado alto para consumidores? Asumiendo que Apple no esté alucinando, creo que Apple nos ha dejado una pista de por qué ese precio es el que es, en el mismo nombre del dispositivo. El “Pro” en “Apple Vision Pro” me dice que Apple posiblemente considera este primer dispositivo más que todo como una demostración de todo lo posible que pueden lograr, un dispositivo sin igual que aun con ese precio será comprado por un nicho inicial del mercado, en particular el de desarrolladores de software, y más adelante nos presentará (¿quizás el próximo año?) su simplificado “Apple Vision” (sin el “Pro”) a un precio muchísimo más reducido y con ciertos recortes (por ejemplo, sin mostrar tus ojos holográficamente en una pantalla externa), y quizás a mitad de precio. Sin embargo, hasta que no bajen el precio por debajo de la barrera psicológica de los US$999 (o incluso quizás los US$1,499) será difícil que Apple logre vender 20, 10 o incluso 5 millones de estos dispositivos al año. La segunda cosa que me sorprendió es que la batería externa que requiere el Vision Pro solo es suficiente para 2 horas de uso. Como mínimo Apple debió apuntar a 4 horas, incluso si fuese una batería un poco más grande y más costosa (por suerte, estoy seguro que el mercado de terceros proveerá reemplazos a precios razonables y de mayor duración). Y la tercera cosa que veo es que Apple pudo haber hecho una cosa para convencer a muchos de adquirir un Vision Pro incluso a ese precio exorbitante: Compatibilidad directa con aplicaciones de Mac. Esto último para mi hubiese sido clave. Imaginen por ejemplo que trabajan remotamente o incluso en una oficina pequeña, o están de viajes. En vez de cargar una laptop contigo, simplemente llevas un teclado, un ratón y el Vision Pro, y en un abrir y cerrar de ojos (literal) ves frente a ti un monitor virtual del tamaño que desees (literalmente, desde 32” hasta varios metros de ancho) en donde aparece tu Mac virtual y en donde puedes trabajar de una forma super productiva en cualquier lugar. Podrías por ejemplo estar en un asiento de avión y sin embargo percibir que tienes varias pantallas (una por aplicación si así lo deseas) flotando delante de ti, y sin que nadie pueda ver tus pantallas por motivo de privacidad. Eso para mi representa una oportunidad perdida de Apple de haber podido captar una gran cantidad de profesionales (yo hubiese sido uno de ellos). En este aspecto por ahora solo cuesta esperar a que los desarrolladores migren todas sus aplicaciones una a una para que se puedan utilizar adecuadamente en el Vision Pro (algo que creo sucederá tarde o temprano), por lo que en mi caso me veo con un Vision Pro en mis manos dentro de una o dos generaciones más (y mientras tanto existe también la posibilidad de utilizar aplicaciones como Google Docs en el navegador web Safari del Vision Pro). Ahora bien, ¿significa esto que el Vision Pro es un producto adelantado a su tiempo o que Apple va a fracasar con esto? No en lo absoluto. Aun si no se venden suficientes unidades, esto ya de por sí ha marcado el rumbo a seguir en la industria, y en una sola presentación de unos pocos minutos Apple ha dejado claro que ya el dispositivo contra el cual todos los demás serán juzgados es el Vision Pro, lo que al mediano plazo le cae bien a Apple ya que cuando por fin logre bajar los precios para un modelo más amigable a los bolsillos de los consumidores, estos estarán listos para comprar. Esto de paso es un gran paso para la industria de la realidad virtual y aumentada en general, ya que Apple acaba de revelar y demostrar nuevas formas de interactuar que son más humanas, naturales y amigables a los modelos actuales, cosa que sin duda aumentará la curiosidad de los consumidores y la adopción de dispositivos de todas las marcas. Meta (Facebook) debe estar ahora mismo bastante emocionada con lo presentado por Apple, pues aunque incluso su recién-revelado Meta Quest 3 no se acerca a casi nada de lo que hace el Vision Pro, este anuncio de Apple sin duda que creará más hambre a la población de ver de qué se trata todo esto que Apple les está presentando, y el Meta Quest 3 con un costo de apenas $499 ya se ve mucho más atractivo que antes (y quizás lo ponga debajo de mi arbol de navidad este año). El trabajo de Apple ahora es refinar el Vision Pro y ofrecer algo a un precio mucho más razonable antes de que sus innovaciones sean duplicadas efectivamente por la competencia a un costo mucho menor (cosa que no será tarea fácil, puesto que estoy seguro que los costos de las partes del Vision Pro de por sí ya son bien altos, incluso para Apple que por sus altos volúmenes de compra obtiene casi siempre los mejores precios del mercado de sus suplidores). En conclusión, el Apple Vision Pro es un dispositivo tecnológicamente deslumbrante cuyo gran ancla a la hora de venderse es su precio exorbitante. Apple debió sacar también una versión “no Pro” (cosa que creo hará al mediano plazo), pero mientras tanto es una gran demostración tecnológica que resuelve muchos problemas humanos en interfaces para este tipo de entornos, y que por tanto hace un tremendo aporte al futuro de la computación personal y profesional. autor: josé elías |
22 comentarios
847,468 vistas |
Apple / OS X , Futuro Digital , Opinión / Análisis , Predicciones , Realidad Virtual , Tecnología Visual , Video-juegos |
domingo, julio 4, 2021
|
Hola amig@s lectores,
Microsoft está en un renacimiento. Hace 7 años (en el 2014) la empresa tomó una decisión bastante importante al elegir a Satya Nadella como su nuevo CEO, y ese mismo día escribí un artículo con mi opinión al respecto (que recomiendo leer para poner en contexto lo que escribo hoy), expresando lo que creía debería hacer ese hombre si quería sacar a Microsoft del agujero negro que la había metido Steve Ballmer, y curiosamente Nadella se enfocó en precisamente las cosas que sugerí debía enfocarse, poniendo atención al sector empresarial (miren el éxito de Azure en la nube), eliminando cientos de productos (lo cual hizo), hacer Windows gratis (que lo acaba de hacer en el anuncio de Windows 11 hace unos días), y concentrarse también en el mercado de consumidores (que es su nueva lanza y de la cual les voy a hablar hoy). Si se leyeron el artículo que sugerí en el párrafo anterior ya entenderán que Microsoft ha estado pasando por unos momentos muy transformadores en la última década, y si hay algo que puedo decir para resumir los últimos 7 años de Microsoft bajo la tutela de Nadella, es que se ha ganado una calificación de “A” en ejecución. Estoy seguro que muchos hubiesen querido ver el recién anunciado Windows 11 varios años antes, y ver el Microsoft que tenemos hoy (que incluso ha abrazado la cultura de Linux bajo su organización, algo que hubiese sido inaudito bajo Ballmer o Bill Gates) mucho tiempo atrás, pero hay que entender también la titánica labor que tenía Nadella bajo su liderazgo: Primero tenía que desmontar toda la burocracia impuesta por Ballmer dentro de la organización, enemistarse de cientos de Project Managers, ganarse la confianza de los desarrolladores internos, y mientras hacía malabarismo con esas tareas de paso trazar el rumbo futuro de Microsoft, eficientizar la empresa, y desarrollar una nueva generación de productos y apostar a la Nube, los video-juegos, y de vuelta al sector de consumidores. Para mi a Nadella no le están dando el debido crédito de lo que ha logrado en tan relativo poco tiempo. Literalmente se ha ganado mi admiración. Sin embargo, y desafortunadamente para Microsoft, la vida fuera de sus paredes corporativas continuó, y empresas como Google, Amazon y Apple se adelantaron en todas las áreas que Microsoft tenía debilidades, o que desantendíó. Hoy día Amazon AWS es el líder indiscutible en soluciones en la nube (aunque gracias a Nadella, Microsoft Azure ya es un número 2 creciendo vertiginosamente), Google Docs le ha comido gran parte del mercado a Microsoft Office, GMail Corporativo le ha comido gran parte del negocio a Microsoft Exchange y Outlook, Internet Explorer fue aplastado por Google Chrome, MySQL ha estado comiendo sin piedad el mercado de Microsoft SQL Server, Android y iOS completamente desterraron a Windows Mobile, y la Web junto a el iPad y macOS han estado haciendo a Windows (en un momento, la principal fuente de ingresos de Microsoft) en algo cada vez menos relevante. En esencia, Microsoft, que una vez era el epicentro del mundo tecnológico, cada vez está siendo desterrada más y más a los brazos exteriores de la galaxia tecnológica terrestre. Sin embargo, se ha hecho obvio que Nadella ha estado viendo hacia dónde soplan los vientos y esto lo ha hecho notar con varias decisiones que están ya tomando efecto exitosamente en el mercado. La empresa por ejemplo ha puesto un renovado interés en la versión online de Office 365, ha tomado un gran interés en Microsoft Teams (al punto tal que vendrá integrado por defecto en Windows 11), le da dado su corazón por completo a la plataforma de juegos Xbox (innovando con cosas como el GamePass), ha hecho de Azure su punto de lanza para el sector corporativo y de desarrolladores de software grandes y pequeños, se ha abierto a colaborar con soluciones de Linux, y ahora con Windows 11 está haciendo algo que muchos aun no han notado pero que sin duda es la razón principal de la existencia de Windows 11: Un ataque frontal al iPad, y por tanto a Apple. ¿Y por qué me refiero al iPad y no al iPhone o macOS en las Macs? Pues porque se ha hecho evidente que el futuro de la computación personal fuera de celulares inteligentes son las tabletas, o más específicamente, dispositivos compactos de fácil uso, gestionados mayoritariamente a través de tiendas de aplicaciones, con larga duración de batería, y con interfaces amigables y simples (y con la opción de convertirse en PCs o laptops por medio de teclados externos, monitores, ratones, etc). Apple no planea dejar por ahora el negocio de las Macs (y al contrario, ha apostado el doble a ese segmento con sus Macs M1 y próximas sucesoras), sin embargo a la empresa se la ha hecho evidente que en el sector de consumidores el futuro son dispositivos más parecidos en funcionalidad a un iPad que a una Mac, razón por la cual si son usuarios tanto de iPads como Macs ya habrán notado que las últimas tres versiones de macOS cada vez se acercan más a parecerse un interfaz de iPad, y estamos llegando a un punto tal en donde desde el punto del vista del consumidor final el iPadOS y el macOS serán casi la misma cosa. Es por eso que ya el iPad (particularmente el iPad Pro con el teclado y trackpad y soporte para monitores externos y ratones) ya están empezando a hacer funciones tradicionalmente de las Macs, e incluso ya hay cosas en las iPads en lo que son enormemente mejores (por ejemplo, el programa de dibujo Procreate con el Apple Pencil, que ya ha desterrado casi por completo a Photoshop en varios nichos). Y no duden que poco a poco veremos cada vez más y más aplicaciones “Pro” salir en simultáneo para iPad y Mac, y en particular gracias a que ya Apple ha entregado a desarrolladores una serie de herramientas que les permite hacer aplicaciones que funcionan en ambos ambientes. Así que habiendo dicho eso, podemos decir que el principal nuevo enemigo de Microsoft en el ámbito de computación personal (fuera de celulares) no es la Mac ni el iPhone, sino que el iPad. El iPad ha dominado tanto que incluso las tabletas Android son casi irrelevantes en ese mercado. La mayoría de tabletas Android (o Kindle de Amazon) que se venden se compran por su bajo costo y para labores usualmente específicas (para que los niños jueguen, o para leer, o para ver videos, y el ocasional uso de Google Drive o navegar el internet), y muy rara vez para labores profesionales o de uso continuo con aplicaciones equivalentes a una laptop. Y la razón es la calidad de las Apps. Desde el día 1 Apple diferenció el iPad del iPhone y creó una forma diferente de crear Apps optimizadas para el tamaño mayor de pantallas. Sin embargo en el mundo Android eso ha sido un reto ya que la mayoría de Apps en tabletas Android no son más que versiones ampliadas de la misma App en el celular, y la realidad es que son desastrosas en la mayoría de los casos, particularmente al compararlas con sus equivalentes en iPad. Sin embargo, es ahí donde entra Microsoft con Windows 11… Para mi el cambio más importante que ha dado Windows con la nueva versión es que por fin aparenta que será optimizado para tabletas (y sí, estoy súper consciente y he utilizado las Surface de Microsoft), y al Windows 11 soportar la arquitectura ARM para procesadores de eficiente consumo energético y menor costo, y al Microsoft hacer ahora mucho más fácil colocar aplicaciones en la mejorada tienda que estrenará con Windows 11 (y de paso permitiendo que se cobren productos y servicios por vías alternativas, a diferencia de Apple y Google que requieren que los pagos se realicen a través de sus propias pasarelas de pago), creo que esto hará por fin que una nueva generación de tabletas con Windows 11 salga al mercado, con precios bastante competitivos, ofreciendo la primera real alternativa al iPad en el mercado. Recordemos que hoy día muchos prefieren pagar entre 2 y 5 veces más por un iPad que una tableta Android debido a que las aplicaciones que utilizan y la experiencia de usuario que obtienen con el iPad son marcadamente superior a una tableta Android, pero si un usuario puede obtener aplicaciones de alta calidad, con elementos visuales optimizados realmente para tabletas, y en equipos de relativo bajo costo, creo que eso podría ser una fórmula ganadora para aflojar un poco el control de Apple en ese espacio. Y lo mejor de todo (para Microsoft) es que diseñó a Windows 11 con un núcleo que se puede adaptar a distintos factores de uso, por lo que no me sorprendería en un futuro ver un dispositivo “Microsoft TV Stick” similar al Amazon Fire TV, o interfaces para automóviles y casas inteligentes con tecnología de Microsoft. Y más intrigante aun, es que si Microsoft logra ejecutar bien y logra capturar una buena parte del mercado de tabletas, que podría quizás considerar volver entrar al mercado de celulares inteligentes con una nueva versión de celulares basados en futuras versiones de Windows, aunque algo me dice que por ahora eso es solo eso, una intrigante posibilidad y no el enfoque inicial de Microsoft con Windows 11. Otra cosa que aplaudo de Microsoft es haber tomado la sabia decisión de ofrecer a Windows 11 como una actualización gratuita para usuarios existentes de Windows 10 (un práctica que Apple lleva desde hace muchos años exitosamente), para así acelerar la adopción de su nueva estrategia, pues el nuevo Microsoft no es una empresa para ganar dinero vendiendo licencias de Windows sino vendiendo servicios (locales y en la nube), subscripciones, y obteniendo comisiones de ventas desde sus tiendas. Y finalizo diciendo algo que repito constantemente en mis artículos, comentarios y charlas: Estos tipos de desarrollos no solo son emocionantes sino que beneficiosos para todos, pues la competencia al final del día es una herramienta más para mejorar la vida de los consumidores. autor: josé elías |
8 comentarios
1,294,091 vistas |
Apple / OS X , Celulares / Móviles , Dispositivos , Google , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
domingo, marzo 14, 2021
|
Hola amig@s lectores,
Hace unos días una obra de arte se vendió en US$69 Millones de dólares en la prestigiosa casa de subastas Christie’s, pero lo interesante de esa venta no fue el precio, sino el hecho de que lo que se vendió fue una obra de arte digital, de la cual cualquiera puede obtener una copia 100% exacta pixel-por-pixel y tenerla en su celular, tableta, laptop o incluso impresa. Así que viene la pregunta, ¿por qué alguien pagaría tanto dinero por algo tan fácilmente reproducible (a diferencia de por ejemplo un cuadro de Picasso en donde solo tú tienes “el original”)? Pues bienvenidos al nuevo mundo de los NFTs... Una nueva revolución tecnológica en el tema de la propiedad intelectual y la sociedad en general. Pero iniciemos con lo básico. NFT es un acrónimo en inglés que significa “Non-Fungible Token”, y ya de por sí resulta curiosa la definición. La palabra “fungible” es de uso muy infrecuente en español (e inglés), y en esencia se refiere a algo que se puede reemplazar por algo de lo mismo. Un ejemplo es una moneda de 1 peso. Si la intercambias por otra moneda de 1 peso continúas teniendo un peso. Sin embargo, si lo que tienes es (por ejemplo) una pintura de Picasso, no la puedes cambiar por otra pintura de Picasso y terminar con lo mismo, ya que son irremplazables, o no-fungibles. Así que en el mundo de los NFT no-fungible significa que el Token que obtienes (y que avala que eres el propietario) no es genérico y reemplazable, sino que es único y solo existe uno, similar a como existe una sola pintura en particular de Picasso sin otras copias exactas o que puedan intercambiarse. Y para continuar tenemos que hacer un breve paréntesis y explicar que los NFTs están ligados intrínsecamente a la misma tecnología que hace posible las criptomonedas, una tecnología llamada Blockchain (“Cadena de Bloques”). O en otras palabras, la misma tecnología que permite la creación y uso de algo como los bitcoins, es la que se utiliza en los NFTs. ¿Y qué es un Blockchain? En esencia es una técnica que permite agrupar una secuencia de datos en el tiempo de forma tal que matemáticamente es virtualmente imposible modificar cualquier elemento de la cadena para falsificarlo, removerlo o modificarlo, algo que se logra con una herramienta matemática llamada un “hash”, que no es más que una función uni-direccional en donde un bloque de datos puede generar un código (piensen de ello como una clave, pero pública) pero de ese código no se puede volver atrás para obtener los datos desde donde surgió (no se preocupen si no entienden bien esto, no es necesario para entender el tema de hoy). Así que con un Blockchain por ejemplo sería posible decir algo como “Hoy lunes Fulanito de Tal compró US$10 dólares en bitcoins”, y al otro día decir “Y hoy martes transfirió US$2 de esos bitcoins a Fulanita de Tal”, y así sucesivamente en transacciones posteriores, con la gran salvedad que aunque Fulanito tenga acceso total a su base de datos de Blockchain y trate de engañar al sistema borrando la transacción del martes, que no podrá hacerlo por más que intente, debido a que por su naturaleza los Blockchains funcionan de forma distribuida por lo que miles (o millones) de otras personas tienen también una copia de esas transacciones, por lo que Fulanito tendría que no solo hackear la base de datos de todo el planeta Tierra que aloje ese Blockchain (o al menos, la mitad de ellas más una), sino además reconstruir matemáticamente todos los hashes de esas transacciones desde el momento que él quiere hacer trampa hasta el día de hoy (algo que les aseguro no es trivial hacer, y se los dice alguien que entiende bien este tema de los hash, criptografía, etc). Habiendo dicho todo eso, hagamos una aclaración final: En el mundo de los Blockchains hay dos grandes tipos de transacciones que pueden ocurrir, (1) transacciones monetarias o de criptomonedas como son los bitcoins, o (2) transacciones sobre evidencias de que algo ocurrió, o como se les llama en la jerga de la industria, criptotokes, o simplemente Tokens (que en el caso de los NFTs ocurren por ahora en la plataforma Ethereum). De esos Tokens es que estamos hablando cuando nos referimos a los NFTs, y ejemplos de estos son documentos notarizados, títulos de propiedad, actas de nacimiento, pasaportes, etc. En el contexto de los NFT, por Token nos referimos entonces explícitamente a una evidencia digital de que algo te pertenece a ti. Y aquí es bueno hacer una curiosa observación: Mientras que las criptomonedas se basan en algo que es fungible (pues estas se consumen con su uso) y de uso anónimo (en la red bitcoin por ejemplo, nadie en teoría sabe en qué gastas tu dinero ni en dónde ni con quien), en el mundo de los criptotokens es todo lo contrario, en donde la idea es saber quien es el dueño de qué (por lo que es no-anónimo) y de paso es no-fungible (ya que no puedes “gastar” un contrato por más que le des uso). Así que regresando del paréntesis, vamos ahora armados con esa información a describir qué es un NFT, y por qué alguien pagó US$69M por una pintura digital... Un NFT es esencialmente una evidencia digital de que tú eres el propietario de algo, pero ojo, un NFT no necesariamente te da derechos de propiedad de la obra intelectual original, aunque es una opción. Una analogía es una pintura de Salvador Dalí. Este en vida hizo varias serigrafías (copias de alta calidad) de sus obras que firmaba con su propia mano de forma individual. Así que por ejemplo Dalí pudo haber hecho 100 copias en serigrafía de su obra “La Persistencia de la Memoria”, y firmado cada una de ellas a mano con una numeración del 1 al 100. Aunque estas no eran la obra original, hoy día valdrían mucho dinero ya que estarían firmadas por el mismo Dalí. Es un producto escaso y limitado que naturalmente incrementa el valor del artículo en cuestión. Similarmente, puedes hacer un NFT de una novela que acabas de escribir, y hacer 10 copias “especiales” de ellas en formato NFT que creas y vendes a través de un portal como opensea.io. Los que compren esas 10 copias saben que tienen una versión exclusiva que nadie más tiene, y que de paso tiene el nombre de ellos asociados a la obra para la eternidad en el Blockchain. Y no solo eso, sino que si tienes una de esas 10 copias, esa copia tiene un valor volátil basado en el mercado, y puedes traspasar ese NFT a otra persona vendiéndosela, y al hacerlo, esa transacción queda registrada en el Blockchain de manera irrefutable, y se tiene un histórico en todo momento sobre quien es el propietario de ese NFT. Y claro está, que (siguiendo la analogía con Dalí), quizás quieras vender el cuadro original junto con los derechos de su explotación comercial, en cuyo caso también puedes hacerlo con un NFT creando una sola copia y dotando a su comprador de todos los derechos (que como podrán imaginar, tiene un valor mucho más alto). Eso fue lo que hizo el artista denominado “Beeple” al vender su obra titulada “Los Primeros 5,000 días” en donde hizo un compuesto de 5,000 obras que hizo durante 5,000 días consecutivos, y cuyo precio inició en subasta en US$100 dólares y terminó en US$69 Millones de dólares. Muchos dirán que esto es una estupidez, ya que si es una obra digital cualquiera puede copiarla y tener una copia exacta para admirar en su casa impresa y puesta en un cuadro en la pared, pero la idea es que el comprador de ese NFT ahora no solo tiene derechos sobre la obra original sino que de paso puede decir que aunque millones de otras personas tienen “copias” que él o ella es la única persona que tiene derecho sobre un “original” (y su explotación comercial, pues algo interesante de los NFTs es que opcionalmente puedes recibir comisiones por su posterior venta, en esencia continuando recibiendo un ingreso mientras más uso le den al NFT). Esto es medio chocante ya que tradicionalmente uno piensa de un “original” como algo tangible (como un cuadro de Dalí colgado en un museo), y no como un simple algoritmo que diga que entre mil trillones de copias solo al de Fulanito de Tal es la original y que solo Fulanito de Tal puede explotar los derechos de esa obra (para vender t-shirts, hacer murales, trabajos derivados, etc). O en otras palabras, e independientemente de lo que alocado o no que le parezca esto a algunos, la gran revolución de los NFTs es que por fin dota a obras que son netamente virtuales/digitales de un mecanismo por el cual sus creadores (o futuros propietarios) puedan alegar derecho sobre la obra y explotarla de forma fácil y segura. Noten que un problema actual (antes de llegar los NFTs) que tenían muchos artistas digitales es que sus obras eran fácilmente copiadas en Internet, y se hacía bastante difícil comprobar quién es el original autor y propietario de la obra, cosa que ahora se hará trivial hacer ya que en el momento de un artista hacer una nueva obra, lo primero que podría hacer es crear un NFT de esta para que exista una evidencia en el tiempo de que él o ella es el original autor de la obra, y de paso utilizar este mecanismo para hacer trivial el poder venderla en mercados en línea. Es bueno notar que ya se ha formado una industria millonaria alrededor de los NFTs, y no solo con arte visual, sino con todo tipo de creaciones que puedan imaginar, desde canciones y novelas, hasta fotos de memorabilia o videos deportivos de la NBA. Incluso, ya hay video-juegos en donde puedes obtener objetos virtuales dentro del juego que solo controlas tú al comprarlos como un NFT (es decir, ni los creadores del mismo juego tienen derecho al objeto después que lo adquieres). Habiendo dicho todo eso, la pregunta ahora es, ¿Es esto una moda pasajera o algo con perspectiva de largo plazo?, y mi respuesta a eso es que creo será la nueva norma hacia el futuro. Hace tiempo que hacía falta una solución al tema de la propiedad intelectual en el mundo virtual/digital, y los NFTs caen como anillo al dedo como solución a ese problema, y de paso esto es bueno notar que pone de cabeza abajo la tradición de que cuanto tenías un objeto valioso lo que lo hacía valioso es que tenías el original, mientras que ahora todos pueden tener una copia exacta del original y lo que lo hace valioso es el NFT que avala que tú y solo tú eres el propietario de esa creación. Quiero finalizar este artículo con una preocupación (y así vemos el otro lado de la moneda): Aunque los NFTs son una excelente idea, hay un tema con su implementación actual y es que consumen una gran cantidad de energía (fuente) para su creación y verificación (similar al problema que tienen los bitcoins con su uso de energía actual en el minado), lo que significa que si se popularizan los NFTs (y todo apunta a que así será) que estamos dirigiéndonos a un futuro en donde tendremos una carga significativa de energía que podría traer serios problemas al medio ambiente terrestre. Solo esperemos que antes de que esto sea un gran problema que ya tengamos fuentes de energía renovables que puedan lidiar con la carga adicional... Nota: Si les gustan estos temas les recomiendo seguir el canal oficial de eliax en Telegram, o si desean interactuar conmigo y la comunidad eliax en general, consideren también unirse al grupo oficial en Telegram Actualización: Por si se interesan, he aquí el primer NFT creado por mí, y a la venta por si alguien se interesa (esto fue un experimento más que otra cosa, pero si quisieran tener una pedacito de eliax, aquí está). autor: josé elías |
10 comentarios
1,434,711 vistas |
Arte , Curiosidades , Derecho Digital , Educación , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Tecno-Seguridad |
domingo, febrero 28, 2021
|
Hola amig@s lectores.
Recientemente he abierto un Canal y un Grupo oficial de #eliax en Telegram y a diferencia de otros medios de eliax como Instagram, Twitter, o Facebook en donde el contenido es esencialmente el mismo de forma replicada, por Telegram encontrarán material adicional exclusivo y no disponible por ninguna otra de las redes sociales de eliax. Aparte del contenido habitual de eliax, compartiré además enlaces en crudo a cosas que encuentro interesantes en el día a día pero para los cuales no tengo tiempo para crear artículos elaborados o entradas en redes sociales, por lo que estarán consumiendo a eliax “en crudo” tras bastidores. Y de paso, ese será el medio por el cual además comentaré de uno-a-uno con varios de ustedes, y donde compartiré notas de audio (casi al estilo podcast) sobre cualquier tema que llame mi atención (o en respuesta a sus preguntas y/o comentarios). También por esa vía podrán encontrar de forma exclusiva mis acostumbradas predicciones sobre el futuro (ahora mismo encontrarán una sobre el futuro cercano de los microprocesadores y sobre lo que puede hacer en mundo ARM en Android y Windows para competir contra el Apple Silicon). Finalmente noten que la diferencia entre un canal y un grupo en Telegram es que en el canal sólo verán las entradas mías (junto a comentarios de la comunidad en un enlace debajo), mientras que en el grupo podrán comentar las entradas del canal así como subir sus propios contenidos que crean sean apropiado para la comunidad eliax. O en otras palabras, si quieren consumir solo todo el nuevo contenido de eliax (y no disponible en otras redes) y con poco ruido, subscríbanse al canal, y si quieren entrar con ambos pies a la comunidad eliax (y el posible ruido de centenares de comentarios de todo tipo que eso conlleva) entonces háganse miembros del grupo también. Noten que una ventaja de Telegram sobre WhatsApp y otras plataformas similares es que pueden descargar Telegram no solo para sus celulares, sino que además en versión nativa para tabletas, Windows, Mac, Linux y de paso pueden acceder también por página web si así lo desean. Y lo mejor de todo es que el contenido está siempre en la nube y por tanto ocupa muy poco espacio en sus celulares. ¡Así que no olviden subscribirse y los veo por allá! Canal oficial: t.me/eliax Grupo oficial: t.me/eliax_comunidad autor: josé elías |
2 comentarios
1,419,707 vistas |
Ciencia , Cine / DVD / Blu-ray , Curiosidades , Educación , General , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Redes Sociales |
sábado, noviembre 14, 2020
|
Hola amig@s lectores,
El día por fin llegó y este martes pasado Apple anunció las primeras Macs con su propio microprocesador integrado (tipo “SoC”, o Sistema-en-un-Chip) al que ha bautizado el M1, un chip derivado de los chips Ax utilizados en iPhones, iPads, AppleTVs y Apple Watches, y para muchos las primeras pruebas de rendimiento los ha tomado por real sorpresa, aunque quizás no tanto para otros que ya hayan leído mis artículos acá en eliax sobre el tema a través de los años (iniciando quizás con este en el 2007, que curiosamente pronosticó desde ese entonces con bastante certeza a la Apple de hoy). Y hablando de artículos técnicos, recomiendo fuertemente leer el artículo que escribí este pasado Julio 2020 titulado “Análisis #eliax: Apple Silicon, todo lo que querías saber (y lo que no sabías que te gustaría saber)” en donde expliqué en lujo de detalle (y en un lenguaje que personas no-técnicas pudiesen entender) qué es lo que hace diferente a estos microprocesadores de Apple. Sin embargo, como se que muchos no leerán el artículo, he aquí la versión ultra-resumida (y obviamente dejando fuera muchos datos interesantes) de uno de los puntos en ese artículo: A diferencia de la mayoría de otras empresas que licencian los chips ya diseñados por la empresa ARM Holdings, Apple lo que hace es que licencia lo que se llama el “ISA” de ARM, es decir, el lenguaje común que deben hablar todos los procesadores ARM, y después Apple toma ese lenguaje de bajo nivel y desde cero ha creado su propia implementación de esta arquitectura. O en otras palabras, lo único que Apple tiene de ARM es la definición de su lenguaje básico, pero el diseño que implementa ese lenguaje en silicio fue creado desde cero por Apple, utilizando algunos de los más legendarios diseñadores de microprocesadores de todos los tiempos. Aparte de eso, es importante destacar que debido a que es Apple quien diseña su propia versión de la arquitectura ARM, que esta puede tomar todo tipo de decisiones para lograr hacer de estos aun mejores microprocesadores, y eso es precisamente lo que ha hecho, integrando en estos unos circuitos adicionales propietarios, diseñados para acelerar los procesos más comunes en sus sistemas operativos, así como los procesos más comunes en las aplicaciones que estos corren. Como ejemplo, una laptop genérica de Windows con un procesador x86 (sea de Intel o AMD), aun corriendo a la misma velocidad que una laptop MacBook Air de Apple con el nuevo chip M1 es casi seguro que con aplicaciones de la vida real esta sea más lenta que la laptop de Apple. ¿Por qué? Pues utilicemos el ejemplo de alguien que vive de editar videos, y digamos que lo que estás haciendo es editando videos en el formato H.265. En el mundo Android/Windows es posible que ese trabajo se pueda hacer “a fuerza bruta” utilizando el gran poder computacional crudo de los chips de última generación en esas plataformas, y es incluso posible que se puedan aceleran algunos cálculos con “motores vectoriales” que existen usualmente en el GPU (el chip dedicado a manipular gráficos), pero en el entorno de Apple Silicon, Apple ha creado circuitos dedicados específicamente para codificar y descodificar video H.265, y en tiempo real. ¿Qué significa eso en la práctica? Que mientras tu PC con Windows está arduamente tratando de codificar y descodificar el “stream” de video H.265 mientras editas tu video, que esta está esencialmente utilizando su CPU y GPU casi al máximo con poco margen para que hagas otras cosas, haciendo que tu PC se sienta pesada y lenta. En el lado de Apple Silicon sin embargo la situación es diferente... Mientras editas tu video, circuitos dedicados están constantemente codificando y descodificando tu stream de H.265 en tiempo real, liberando esencialmente a tu CPU y GPU para que tengan ciclos de sobra para otras labores como manejo de audio, internet, labores de Office, etc, haciendo que tu sistema operativo se sienta ta fluido como la mantequilla. Incluso, ya se hizo público que incluso la nueva Mac Mini anunciada de US$699 dólares puede editar video en resolución 8K en tiempo real, algo inaudito en un equipo de tan bajo costo, de tan pequeño tamaño, y de tan bajo consumo energético (para los que no sepan de estos temas técnicos, noten que una señal 8K está compuesta de 16 señales de video “Full HD” 1080p como lo conocen los consumidores, así que hablamos de una máquinas de US$699 dólares capaz de editar el equivalente a 16 pantallas de video FullHD en tiempo real). Y notar que video es solo un ejemplo. Desde hace años en iOS y recientemente en el mundo de las Macs (con procesadores adicionales en los modelos clásicos con chips Intel, y ya integrado en el chip M1 hoy día), Apple tiene circuitos dedicados para en tiempo real cifrar todos los datos que fluyen en la memoria de la máquina así como la escritura y lectura de almacenamiento (sea a disco duro tradicional o SSD en estado sólido). Eso significa que en los entornos de Apple, la seguridad por medio de cifrado de datos está habilitada por defecto, ocurre en tiempo real, y tiene un impacto casi cero en el rendimiento del resto de la máquina, mientras que en la mayoría de los entornos Android/Windows, esas son funciones que tiene que hacer el CPU en adición a sus funciones cotidianas. Y esos fueron solo dos ejemplos. Apple dedica espacio para circuitos dedicados en sus chips a todo tipo de cosas que van desde sonido 3D hasta imágenes de alto rango dinámico (HDR), y desde reconocimiento facial y de huellas digitales hasta Inteligencia Artificial (por medio de Machines Learning). Así que los chips de Apple Silicon tienen las siguientes razones para ser no solo más eficientes que una máquinas tradicional x86 con Windows, sino para ser mucho más eficientes: 1. Para empezar, no inician con un diseño genérico de ARM, sino que un diseño creado desde cero por Apple mismo optimizado para las necesidades de su ecosistema y de sus usuarios. 2. Utilizan circuitos dedicados para acelerar tareas comunes de un usuario, liberando al resto del chip para otras labores más genéricas y haciendo que todo se sienta más fluido. 3. Aunque un tema un poco más técnico, Apple está liderando también en pruebas de “rendimiento por vatio”. Esto significa que sus chips consumen mucho menos energía haciendo el mismo trabajo que la competencia, lo que se traduce a que o (1) puedan trabajar sin calentarse tanto y sin perder velocidad o (2) tener un rendimiento aún superior bajo calentamiento y enfriamiento activo. Y a propósito, ese último punto es la razón por la cual la nueva MacBook Air M1, aun teniendo un chip con 8 núcleos de CPU y 8 núcleos de GPU, y decenas de otras microceldas de computación integradas, no solo no require abanicos para enfriar el chip, sino que de paso su batería dura fácilmente hasta 20 horas de uso, lo que liberará a muchas personas para que trabajen sin miedo el día entero sin tener que cargar un cargador encima todo el tiempo, que es otro de los beneficios no cuantificables sobre papel que esta arquitectura de Apple ofrece al usuario común. Sin embargo, no tienen que llevarse de todo lo que digo, ya surgieron los primeros benchmarks (medidas de rendimiento) de las primeras MacBook Air M1 que han llegado temprano a los laboratorios que hacen este tipo de mediciones, y los resultados hablan por sí mismos de lo contundente que son. Por ejemplo, el reconocido portal Tom’s Guide ha anunciado en su titular (traducido del inglés) “Revelan los benchmarks de la MacBook Air M1 y destruyen a las laptops con Windows”. Y si buscan en Google encontrarán otros resultados similares que han surgido en los últimos 2 días. Es importante aclarar que la MacBook Air M1 que acaba de salir a un precio de US$999 dólares no es que solo es más rápida que laptops de Windows en su rango de precio, sino que es más rápida que cualquier laptop con Windows que exista en el mercado, sin importar su precio. O En otras palabras, aun si compararas una laptop con Windows en US$3,000 dólares, esta seguiría siendo más lenta que el modelo más básico de Apple (la excepción a esto serían las laptops con GPU separados “discretos” de gama alta para video-juegos y de alto costo, pero noten que los benchmarks indican que el M1 supera hasta en un 30% a una tarjeta NVIDIA GeForce GTX 1050, lo que indica que al menos en el sector de chips integrados en laptops no hay comparación en el mundo de Windows por el momento). O en otras palabras, esto ha cambiado no solo las reglas del juego sino que el terreno de juego en sí. Ahora curiosamente la mesa ha dado vueltas y ahora se tendrán que considerar las laptops de Apple como no solo las más baratas para el rendimiento que ofrecen sino además las más potentes, dos condiciones que generalmente eran mutuamente exclusivas en el mercado, particularmente en el mercado profesional. Y ojo (como si ya no fuera suficiente dolor de cabeza para Intel y AMD), que este es apenas el primer chip M1 de Apple, que en apenas su primera encarnación básica ya es el chip más potente del mundo en el área que compite, y que todavía no hemos visto lo que Apple tiene planeado para la gama alta de su línea “Pro” en los próximos dos años, que pueden apostar será aun más potente, y en el caso de la Mac Pro será muchísimo más potente, posiblemente con decenas de núcleos o quizás configuraciones multi-chip en paralelo. ¿Qué significa todo esto? Que estamos literalmente al inicio de una nueva revolución en el mercado, una revolución que empujará ahora a Intel, AMD y Microsoft a ponerse las pilas y responder. Aquí alguien más que tiene de ganar aparte de Apple es ARM Holdings, quien ya está entrando en el diseño de chips ARM para uso en escritorio y laptops, y hay que ver si Microsoft se lanzará a seguir los pasos de Apple en el 2021 y por fin lanzar una versión de Windows optimizada para ARM. Y ojo, antes de que comenten al respecto: Sí, Microsoft creó una versión de Windows para ARM que sacó con sus tabletas con el llamado “Windows RT”, pero fue un total fracaso. Si Microsoft realmente quiere competir contra macOS con Windows, tendrá que hacerlo saltado de pie a cabeza en el mundo ARM, y de paso por fin dejar atrás a x86 y seguir soportando las aplicaciones tradicionales por medio de herramientas como Rosetta 2 en las nuevas Macs con el chip M1. Y hablando de Rosetta 2, hablemos de qué sucederá con la aplicaciones que ya poseen en sus Macs tradicionales... Para esto Apple ofrece Rosetta 2, que es una herramienta que en tiempo real toma un binario creado para x86 (la arquitectura de Intel y AMD) y lo “transcompila” a Apple Silicon, esencialmente generando un nuevo binario nativo para Apple Silicon. Según Apple (y aparenta ser cierto en la práctica), debido a la alta optimización de la transcompilación y debido al gran poder y eficiencia del M1, curiosamente muchas aplicaciones de Intel correrán mejor en las nuevas Macs con M1. Sin embargo esta transcompilación aunque funcionará para la vasta mayoría de aplicaciones, habrá un pequeño porcentaje de aplicaciones (menos del 1%) que no funcionarán, pero son aplicaciones muy específicas que tienen que ver con virtualización. Así que por ejemplo, aplicaciones como VMWare y Parallels Desktop que te permiten emular a Windows o Linux en Mac, inicialmente no funcionarán en sus versiones tradicionales, pero si lo harán desde que sus desarrolladores creen nuevas versiones específicas para Apple Silicon, y eso nos lleva a otra herramienta que ha traído Apple a la mesa para suavizar la transición entre las Macs tradicionales y las nuevas: Binarios Universales. Un Binario Universal en el mundo de Apple tiene dos sentidos, y ambos han sido utilizados tradicionalmente por Apple a través de los años. En el primer sentido, un Binario Universal puede ser un App para la misma arquitectura pero que funciona en dos plataformas diferentes. El mejor ejemplo de esto son las Apps Universales para iPhone y iPad. Esencialmente el mismo App funciona en ambos entornos, aun estos sean diferentes (pero compartiendo la misma arquitectura de los chips Series A de Apple que comparten los iPhones y iPads). En el segundo sentido, por Binario Universal Apple se refiere a un solo archivo que contiene los binarios para dos arquitecturas totalmente diferentes, como la del x86 y la de Apple Silicon. Y esta es la ruta que durante unos años Apple seguirá. Bajo este modelo, cuando los desarrolladores creen sus Apps utilizando las herramientas de Apple, tras bastidores Apple compilará dos versiones de la aplicación, una optimizada para x86, y otra para su propio Apple Silicon, y las empaquetará ambas en un solo archivo instalador. ¿Qué significa eso? Que al menos por los próximos años cualquier usuario de Mac, sin importar que la Mac sea de la tradicional x86 o Apple Silicon podrán compartir archivos normalmente entre sí y los programas funcionarán transparentemente. Esto significa también que las Macs que hayas comprado recientemente no dejarán de funcionar, y que casi todos los programas que se hagan para las nuevas Macs funcionarán en tu Mac (salvo obviamente aquellos casos que tomen ventaja de cosas nuevas que no existan en las Macs anteriores, como podría ser un sensor de FaceID que espero llegue algún día a las Macs). Según Apple, la empresa planea seguir dando soporte a las Macs tradicionales “por varios años más”. Si nos llevamos de su historial con transiciones pasadas, lo más probable es que el tema de los binarios universales sea la norma por dentro al menos 3 o 4 años más, y quizás por un máximo de 5 o 6. Y noten un par de temas más. El primero es que Apple ya podrá crear aplicaciones mega-universales, que no solo funcionarán en las Macs con x86 y las de Apple Silicon, sino además en iPhone y iPad, cosa que ha anunciado oficialmente. Y esto se hará cada vez más fácil debido a que cada año macOS y iOS y iPadOS comparten cada vez más sus cimientos. Incluso, por si no sabían, una de las nuevas cosas que puedan hacer las nuevas Macs con M1 es ejecutar aplicaciones de iPhone y iPad (aunque son los desarrolladores de cada App los que decidirán si permitirán ejecutar sus Apps de iPhone y iPad en macOS, pues quizás quieran optimizar su interfaz para cada entorno), lo que traerá cientos de miles de Apps de iPhone (y particularmente iPad) a macOS. Yo por ejemplo sueño con una futura iMac cuya pantalla se recline y se convierta en una tableta gigante para utilizar aplicaciones optimizadas para touch, o por ejemplo utilizar a ProCreate para dibujar/pintar con el Apple Pencil (dicen que soñar no cuesta nada). Y el otro tema es que es bueno que sepan que esta no es la primera vez que Apple hace semejante transición, incluso, esta es la tercera vez que lo hace. La primera vez fue cuando transicionó sus Macs de los chips Motorola 68xxx a los PowerPC, la segunda vez fue cuando transicionó a sus Macs con OS X desde PowerPC a x86, y esta vez es la tercera, así que la empresa ya tiene experiencia con estas transiciones, y por sobre todo que no tiene el temor de hacerlas, cosa que siempre he deseado de Microsoft, quien testarudamente al día de hoy quiere seguir soportando aplicaciones de hace décadas atrás, y esa resistencia al cambio es precisamente lo que le costará mercado ahora, pues pueden esperar que al menos en los próximos dos años Apple tomará una ventaja significativa sobre el mercado de Windows, al menos en el sector profesional. Para que tengan una idea a lo que me refiero, herramientas como Pixelmator ya están reportando esta semana que la versión M1 es entre 3 y 15 veces más rápida que la versión x86, y esa ventaja puede dejar atrás aquellas otras aplicaciones profesionales que solo existen en Windows si no se apuran rápidamente a migrar sus apps a macOS. Adobe por ejemplo ha respondido que migrará toda su plataforma creativa a Apple Silicon precisamente para no quedarse atrás, y esperen lo mismo de aplicaciones de otra índole en ramas de la ingeniería, medicina, arquitectura, etc. Habiendo dicho todo eso, y para concluir, quiero decir que es verdad que ahora vendrán las guerras de los Fanboys y los Haters, pero al final de cuentas somos los consumidores los que seremos beneficiados de estos saltos tecnológicos, y debo decir que el mundo de las PCs de escritorio y laptops (de Windows y Macs) necesitaban algo como esto, pues ese mundo se había casi paralizado debido a los grandes avances en el sector móvil. Así que amen u odien a Apple, hay que darle su debido crédito de querer siempre innovar y empujar (o a veces halar) al resto de la industria hacia adelante... Los próximos dos años serán verdaderamente emocionantes. autor: josé elías |
20 comentarios
1,479,289 vistas |
Apple / OS X , Futuro Digital , Hardware , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, agosto 24, 2020
|
Hola amig@s lectores,
En estos días una noticia ha explotado en el mundo de la tecnología llamando bastante la atención tanto de desarrolladores de software como empresarios y políticos: La empresa Epic Games anunció que está demandando a Apple y a Google por lo que consideran es un tratado injusto en sus respectivas cuentas de aplicaciones, y citan específicamente su popular juego Fortnite que es en actualidad uno de los juegos más populares del mundo. Pero antes de continuar, entendamos el contexto... En el 2008 Apple anunció el App Store ("La Tienda de Apps"), una tienda que por primera vez y de forma super segura y super fácil permitía a consumidores instalar aplicaciones adicionales a las que venía instaladas por defecto en sus iPhones, algo que muy poco tiempo después fue replicado por Google en su tienda para Android y el Play Store. Sin embargo, es bueno aclarar que estas tiendas no fueron creadas por puro altruismo, sino que son parte de un modelo de negocio de estas empresas para generar más dinero post-compra del equipo celular. En el caso de Apple en particular, esto le ha funcionado increíblemente bien, y particularmente en el ambiente de video-juegos, ya que el poder adquisitivo de los usuarios de iPhones en promedio es mayor que el de usuarios de Android, y a eso se agrega que para desarrolladores es mucho más fácil hacer juegos para iOS que para Android debido a que en el entorno iOS hay mucha más homogeneidad, mientras que en el entorno Android hay demasiada variedad de dispositivos con demasiadas variaciones en poder de procesamiento, pixeles por pantalla, potencia de los gráficos, etc. Y ojo que esto no es una opinión subjetiva mía, pues lo que acabo de decir es el consenso general de la industria avalado por cifras. Como ejemplo relevante a esta conversación de hoy, noten que la misma Epic Games anunció que en el mes pasado de Julio sus ventas en iOS fueron de US$43.4 Millones de dólares, mientras que en Android fueron de apenas US$3.4 millones de dólares (o en otras palabras con Apple la empresa Epic Games vende unas 13 veces más que en Android. Y a propósito, la razón de citar estas cifras es porque es importante que entiendan que Apple representa para Epic Games su mayor fuente de ingresos en al menos el espacio móvil, por lo que cualquier ahorro que la empresa pueda tener en el ecosistema de Apple representaría una gran diferencia monetaria para Epic. Habiendo dicho eso notarán entonces por qué es que Epic ha creado toda una campaña de Relaciones Públicas en contra de Apple específicamente, aun esté también demandando a Google (y hago paréntesis porque he notado las redes de usuarios de Android felices que Epic está demandando a Apple, desconociendo obviamente que la demanda aplica igual a Google, pero así es el mundo de los fanboys). Epic ha llegado a un extremo tal que incluso creó su propia versión del famoso anuncio de Apple "1984", pero esta vez poniendo a Apple como el opresor, y de paso ha organizado eventos masivos anti-Apple dentro de Fortnite. Sin embargo, aunque Epic tiene un punto (en algo que mencionaré al final en donde estoy de acuerdo con ellos), en gran parte toda esta jugada de Epic ha sido algo totalmente premeditado y extremadamente hipócrita, y les mostraré cómo a continuación... Primero, se hizo obvio que todo esto fue premeditado por Epic ya que en la misma semana no solo violó los términos de uso del App Store (lanzando una funcionalidad que le permite cobrar dinero dentro del App pero sin pasar por la tienda de Apple, algo que está terminando prohibido y que hicieron clandestinamente) y segundo lanzaron el video de "1984" que ya tenían listo desde hace tiempo (un video de esa naturaleza no se planifica y hace en 48 horas, es algo que tomas literalmente semanas en el mejor de los casos), lo que indica que Epic tenía toda esta estrategia planificada desde hace tiempo, lo que incluye de paso enviar información falsa a sus usuarios para ponerlos a su favor y en contra de Apple. ¿Cuál información falsa? Pues para eso pasemos ahora cómo es que son unos hipócritas... Para empezar, Epic le ha hecho creer a sus usuarios y fans que Apple es el demonio que quiere acabar con sus opciones de juegos, cobrándoles un 30% de comisión por lo que sea que paguen. Pero lo que Epic no les dice es que la empresa paga también ese mismo exacto 30% en las tiendas de Microsoft, Sony y Nintendo. La otra cosa que Epic tampoco les dice es que a diferencia de Microsoft, Sony y Nintendo, que Apple en el segundo año de subscripción cobra solo el 15%, la mitad de esos competidores. Pero la parte verdaderamente hipócrita es que Epic están demandando (en una carta que enviaron a Apple el 30 de Junio y que recién se hizo pública) que Apple le permita (1) poder cobrar dentro del ecosistema de Apple como les de la gana sin darle un centavo a Apple y (2) poder tener su propia tienda de Apps en el iPhone, iPad, Apple TV, Apple Watch y Macs, sin pagarle un solo centavo a Apple, y lo hipócrita de esto es que Epic tiene su propio ecosistema de herramientas que cobra a quienes la utilizan, así como cobra a los mismos jugadores por usar sus juegos y comprar cosas dentro de esos juegos. En otras palabras, Epic está demandando acceso 100% gratuito dentro de Apple, pero ellos mismos sí quieren poder cobrarle a otros. Y no, nada de esta información "no conveniente" la ha dicho Epic a ninguno de las manadas de fans, fanboys y haters que ha reclutado en su guerra santa contra Apple. Y creo que hay que pausar un segundo para entender bien esta parte. La analogía de lo que Epic quiere hacer es que si tu eres propietario de un Shopping Mall (mega-centro de tiendas, o plaza, como le dicen en algunos países latinos), Epic quiere que no solo le cedas un espacio dentro de ese Mall sin pagarte renta alguna, sino que además quieren poner en ese espacio dentro de tu Mall una tienda desde la cual ellos puedan administrar y vender más locales dentro de tu Mall, y todo eso sin darte un solo centavo. Esto ni siquiera es comunismo, esto es depredación sin ningún tipo de vergüenza de los recursos de otros. Y si se preguntan, ¿y no es eso libre mercado? Pues no. Libre mercado es que Apple no obliga a Epic a entrar a su ecosistema. Epic entró no solo porque fue su voluntad, sino que entró después de estar 100% de acuerdo con las normas y reglas de Apple, y al Epic violar el acuerdo Apple hizo lo que haría cualquiera de nosotros en su lugar: Le dio una advertencia que eso tenía que parar o que se arriesgaban a ser sacados del App Store. También es bueno destacar que Apple no cobra ese dinero sin ninguna justificación (como lo quiere hacer ver Epic). Apple ha invertido literalmente miles de millones de dólares en desarrollar su ecosistema, y para mantenerlo necesita también de grandes recursos (solo piensen en los centenares de miles de servidores que la empresa tiene que mantener mensualmente para manejar la carga de los más de mil millones de usuarios del App Store, y sus demandas en descargas y procesamiento de pagos en tiempo real), por lo que aun Apple quisiera (y no lo va a estar porque es una empresa con inversionistas que demandan ganancias, como debe ser) esta no podría proveer el App Store de forma gratuita a nadie. Agreguen a eso todos los sistemas de protección contra Apps malignas que Apple tiene, que garantizan en la medida de los posible que sus usuarios estén lo más protegidos posible (obviamente no son perfectos en esto, pero las cifras hablan por sí mismas: Más del 99% de los problemas de seguridad de Apps afectan a Android y no a iOS, revisen por ejemplo los datos de Checkpoint para este punto). Así que en resumen, lo que Epic demanda es totalmente injusto, y lo hizo de una forma realmente innecesaria, premeditada, y con obvias malas intenciones, de paso utilizando una táctica de baja moral al reclutar a sus seguidores haciéndoles creer que Apple es el malo del juego y quien quiere cobrarles, cuando Epic mismo les cobra a ellos. Así que esta no es una pelea legal entre David vs Goliat, esto es más una pelea de intereses en donde Epic sabe que su mayor fuente de ingresos proviene de Apple y quiere buscar la forma de cortar los ingresos a la mano que le da de comer. Ahora bien, aun habiendo dicho todo eso de Epic, sí hay algo en lo que estoy parcialmente de acuerdo con ellos, y es en ese 30% inicial. En mi opinión, aunque Apple está en todo su derecho de demandar el porcentaje que le plazca, ya que es su plataforma, yo creo que algo más factible para ambas partes debería rondar entre el 10% y 20% como mucho, quizás fijado en un 15%, sin embargo esto es algo que Epic muy bien pudo solicitarle a Apple (o incluso organizar pacíficamente un grupo de los grandes usuarios del App Store) sin necesidad de violar sus reglas y sin necesidad de iniciar una campaña sucia contra la empresa. Hoy lunes 24 de agosto 2020 será la primera audiencia legal sobre este caso en las cortes de EEUU, y ya veremos lo que sucede de ahora en adelante (mantendré este artículo actualizado acá abajo conforme pasen grandes hitos con este caso), pero mientras tanto, una predicción de mi parte: Epic va a perder esta batalla en el sentido de que no va a lograr que Apple ceda en darle tratamiento especial, y mucho menos permitirle que ponga su propia tienda dentro de la tienda de Apple, pues permitir esto sentaría un gran y peligroso precedente en los EEUU que afectaría todo su sistema capitalista y provocaría un éxodo de empresas buscando otras fronteras más amigables a la inversión y que proteja mejor la propiedad intelectual y trabajo de visionarios. Por otro lado, esto sí posiblemente al largo plazo haga que Apple, Google, Microsoft, Sony y Nintendo ponderen si 30% es quizás un poco más de lo justo o apropiado o aceptable para sus clientes, y de ellos aceptar una baja (aun sea a un 20%) en cierta forma esa sería una victoria para Epic. Sin embargo, no pierdan de vista el hecho de que si Apple le cierra las puertas a Epic (y tiene todo el derecho legal de hacerlo) que esto afectaría enormemente las finanzas de Epic al largo plazo, pues recuerden que facturan por medio del App Store más de US40 Millones de dólares mensuales. Pero como si fuera poco, Epic es la creadora del motor de juegos Unreal Engine, utilizado por decenas de miles de juegos y apps en el App Store, y si Apple le revoca la licencia del App Store a Epic, es posible que juegos que utilicen el Unreal Engine tampoco podrán ser aceptados en el App Store, dando un tremendo golpe a las finanzas de Epic, por lo que no creo la empresa esté realmente pensando en llevar esto para largo y creo que está haciendo un bluf como en poker, pues no solo afectaría esto sus finanzas gravemente, sino que le daría una gran ventaja a su competencia principal, Unity, que hacen el otro gran motor de juegos multi-plataforma popular de la industria. Respuesta a una pregunta frecuente que quizás algunos de ustedes tengan: Si se preguntan qué va a pasar con los que ya tengan el juego instalado en sus iPhones u otros dispositivos de Apple, la respuesta es que por ahora si tienen la versión anterior a la más reciente (la que viola las normas de Apple) el juego continuará funcionando normalmente, sin embargo es posible que en los próximos días Apple remueva la última versión que viola las normas, invaliden el juego a los que la tienen instalada, y ustedes tengan que volver a recargar la versión anterior (que Apple no removerá del App Store ya que no viola las normas). O en otras palabras, por el momento podrán seguir teniendo acceso a al menos la versión más reciente del juego que no viola las normas del App Store, sin embargo ya no podrán tener actualizaciones del juego, lo que significa que al largo plazo el juego podría dejar de funcionar conforme salen nuevas versiones de iOS. Todo esto claro, si no se llega a un acuerdo antes, y ese acuerdo sería que Apple no cambiaría absolutamente nada y Epic Games de un paso atrás y acepte las normas del App Store. Actualización 1: Un lector hizo la observación sobre este artículo en el grupo oficial de eliax en Facebook de que Microsoft oficialmente se ha unido a la batalla apoyando a Epic, y es bueno que entiendan por qué: Microsoft, similar a Epic, quiere que Apple le de acceso a instalar un App en el iPhone, iPad y Apple TV que daría acceso remoto a los juegos de Microsoft en la nube, sin pagarle un centavo a Apple, a lo que Apple también se ha negado. Actualización 2: Similar a Microsoft, Facebook también simpatiza con Epic, y por la misma razón que Microsoft: Facebook quiere que Apple le permita poner su tienda de mini-apps y juegos dentro del App Store, sin pagarle un centavo a Apple, cosa que como podrán entender es inaceptable para Apple. Actualización 3: En primera audiencia la jueza a cargo del caso dijo que "está más a favor de Apple" en este caso aunque no completamente (eso quizás signifique que permitiría que Apple continue bloqueando el juego Fortnite si Epic no se acopla a las reglas del App Store pero que quizás impida que Apple bloquee otros juegos que utilizan el Unreal Engine de Epic), y que dictará una sentencia "a futuro". Actualización 4: La cuenta de Epic Games en el App Store ha sido oficialmente cerrada por Apple ya que Epic decidió no apegarse a las reglas aún después de Apple cederle dos semanas de gracia. A tal fin, nuevos jugadores de Fortnite no podrán descargar el juego en iOS, y todos los otros juegos de Epic también fueron removidos del App Store. Actualización 5 del 9 de Sept. 2020: Epic ahora quiere que Apple le permita regresar al App Store, pero no quiere ceder en tener que pagar como todos los demás clientes en la tienda de Apple. Debido a esto y la insistencia de Epic, Apple ha decidido contra-demandar a Epic, y parte del documento legal que se envió a las cortes incluye estos dos párrafos escrito por abogados de Apple (que pongo en inglés y después traduzco para los que no sepan el idioma): ″Epic’s lawsuit is nothing more than a basic disagreement over money. [...] Although Epic portrays itself as a modern corporate Robin Hood, in reality it is a multi-billion dollar enterprise that simply wants to pay nothing for the tremendous value it derives from the App Store.” Traducción: "La demanda de Epic no es más que un desacuerdo por dinero. Aunque Epic se quiere presentar como un Robin Hood corporativo moderno, lo cierto es que en realidad es una empresa que genera miles de millones de dólares que sencillamente no quiere pagar un centavo por el tremendo valor que deriva del App Store." Y continúan: Apple is now going one step further, asking the court to hold Epic liable for breach of contract and other counts, seeking restitution of all money Fortnite collected through its payment system, and seeking a permanent injunction banning its external payment mechanism in all apps, including Fortnite. Traducción: "Apple ahora tomará un paso más, solicitando al tribunal que responsabilice a Epic por incumplimiento de contrato y otros cargos, y que buscamos restitución de todo el dinero que la empresa colectó por su sistema de pagos [circundando el sistema de pago de Apple que contractualmente estaba obligada a utilizar], y buscando una orden judicial permanente que prohíba su mecanismo de pago externo en todas sus aplicaciones, incluyendo a Fortnite." Noten que Epic ya ha sentido el duro golpe de no existir en el App Store, reduciéndose sus ventas significativamente en el período que ha estado fuera del App Store, lo que de por sí es evidencia de que la empresa obtiene un valor por utilizar la plataforma de Apple, y razón por la cual Apple requiere ser remunerada por proveer ese valor. autor: josé elías |
37 comentarios
1,552,245 vistas |
Apple / OS X , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Video-juegos , Windows / Microsoft |
miércoles, julio 22, 2020
|
Hola amig@s lectores,
Como ya sabrán, Apple recientemente anunció que sus Macs transicionarán a sus propios procesadores que ha bautizado como "Apple Silicon", y aunque no han proveído información detallada al respecto noten que llevo desde el 2007 prediciendo esta integración (ver los enlaces de "previamente en eliax" al final de este artículo en donde verán los principales artículos históricos que he escrito acá en eliax sobre el tema), y por tanto tengo una muy buena idea de todo lo que ocurre tras bastidores (ayudado también por contactos en ciertas empresas, rumores de fuentes confiables, y dado que mi profesión de carrera universitaria fue precisamente el diseño de microprocesadores, tema que entiendo en profundidad). Habiendo hecho esa breve introducción déjenme aclararles algo de entrada: Apple no está fabricando los típicos chips de arquitectura ARM para sus Macs (ni tampoco para sus otros productos que utilizan Apple Silicon como son el iPhone, iPad, Apple Watch, AirPods, Apple HomePod, o Apple TV), y para entender eso deben entender cómo funciona el ecosistema ARM, que es muy diferente al ecosistema tradicional de Intel (y AMD) con la arquitectura x86 y sus derivados recientes como X86-64. En el mundo de x86, empresas como Intel y AMD diseñan sus chips, los fabrican (sea en sus propias fábricas, como Intel, o de otros, como AMD) y después los venden a clientes (como Dell, HP, Lenovo, etc) que después integran esos chips adentro de sus productos. Bajo este modelo el cliente de x86 por lo general no tiene muchas opciones a la hora de decidir qué va dentro de esos chips (que por lo general son CPUs, o el cerebro principal del sistema) y a veces GPUs (encargado de gráficos, y más recientemente también de temas como Inteligencia Artificial de forma parcial). Sin embargo empresas como Intel lo que hacen es que tienen una gran diversidad de familias (como la i3, i5, i7, i9, Xeon, etc) y modelos (como por ejemplo el Core i9-10980HK), con la esperanza de que algunos de esos modelos le serán de utilidad al mercado dependiendo de las necesidades (como por ejemplo, laptops, o potentes servidores, o PCs para jugar, etc). En el mundo ARM la situación es totalmente distinta. La empresa que mantiene la arquitectura ARM es ARM Holdings, cuyo propietario es actualmente el SoftBank Group de Japón (curiosamente, noten que Apple fue de las 3 empresas que iniciaron a ARM, junto con Acorn Computer y VLSI Technology). En este mundo, la empresa ARM no fabrica sus propios chips, sino que licencia sus diseños en dos modalidades muy particulares. Bajo la primera modalidad, ARM diseña chips y licencia sus planos a empresas que deciden utilizar esos diseños para sus productos. Así que por ejemplo alguien como Samsung puede licenciar los planos de un modelo específico de chips de ARM, y después procede a enviar esos planos a una fábrica para que les fabrique millones de chips con esos planos y después poner el producto en sus celulares. ARM también provee servicios donde bajo ciertos arreglos puede ligeramente modificar algunos aspectos de sus diseños para clientes en particular (Huawei por ejemplo puede solicitar a ARM que le provea planos de un chip que contenga 4 núcleos de CPU de alta potencia y 4 más de bajo consumo energético). Pero lo importante a entender es que bajo este modelo los creadores de productos (como Samsung o Huawei) simplemente licencian los planos de tales chips, y después es labor de ellos buscar un fabricante que se los fabrique. El otro tipo de licencia, que muy pocos tienen, siendo Apple una de esas exclusivas empresas, no es para licenciar los planos genéricos de los chips que implementan la arquitectura ARM, sino para licenciar lo que se llama el "ISA" (Instruction Set Arquitecture). Les explico a continuación ya que esto es extremadamente importante lo entiendan... Cuando alguien habla de "X86" o "ARM" se refiere por lo general al paquete completo, al producto final, al chip ya empacado y listo para utilizarse en un celular o tableta. Sin embargo, en la jerga de la industria esas palabras tienen significados muy diferentes dependiendo de a qué nos estamos refiriendo. Una cosa es un chip que implementa una arquitectura, otra es la arquitectura en sí. En el mundo de los microprocesadores uno generalmente inicia con el ISA, que no es más que el lenguaje que hablaría el microprocesador a bajo nivel. Así que por ejemplo, imaginemos una arquitectura de microprocesador que implementará este ultra-sencillo juego de instrucciones (ISA): - ESCRIBIR (algo en memoria) - MODIFICAR (algo en memoria) - COPIAR (de un lugar en memoria a otro lugar) - BORRAR (algo en memoria) - SUMAR (dos números) - CONDICION (para hacer algo dependiendo de algo) Esa lista de 6 "comandos" sería el ISA, o "La Arquitectura del Juego de Instrucciones". En la realidad, obviamente la cosa es muchisisísimo más compleja, pero para fines didácticos este ejemplo es más que suficiente. Ahora bien, asumamos que ese es el ISA de la arquitectura ARM. ¿Qué sucede ahora? Pues obviamente el ISA no es más que una especificación técnica sobre papel, no hace absolutamente nada hasta que alguien haga un diseño (un "plano") que implemente esa ISA en un plano que después se pueda enviar a una fábrica para crear el chip. Y eso es precisamente una de las cosas que hace ARM: La empresa toma su especificación de ISA y diseña planos de chips que implementan ese ISA para distintos mercados. Es bueno notar que ARM hace distintas familias de diseños de sus chips para diferentes mercados, tal cual lo hace Intel, así que por ejemplo ARM tiene familias como son los Cortex-A, Cortex-M, Ethos-N, Neoverse, etc. Es también bueno entender que aunque los chips son diferentes y para distintos mercados (como puede ser desde un super pequeño chip de bajo consumo energético para ser utilizado en un la computadora de un refrigerador, hasta un super potente chip con 8 núcleos para el más reciente celular de Google) que todos esos chips utilizan exactamente el mismo ISA, lo que significa que un programa que pongas en uno de ellos funcionará hasta cierto punto en otro (aunque obviamente de forma más rápida o lenta dependiendo del caso). Y esa es una de las grandes ventajas de ARM: Un desarrollador de software puede utilizar esencialmente las mismas herramientas para desarrollar para una aplicación que va en un refrigerador, hasta una aplicación que va para una nave espacial, ya que la arquitectura de bajo nivel es la misma. Pero la otra cosa que hace ARM (como es el caso de Apple) es licenciar la ISA en sí, para que sea entonces el cliente de ARM (en este caso Apple) quien diseñe sus propios planos basados en la arquitectura ISA de ARM. Y es por eso que aunque Apple licencia el ISA de ARM, que técnicamente hablando al bajo nivel los chips de Apple son totalmente diferentes a los chips ARM genéricos que utilizan empresas como Samsung, Huawei y Google en sus productos. Y eso es extremadamente importante entenderlo porque muchos se preguntan que cuál es la fórmula mágica que permite que año tras años los chips "ARM" de Apple en sus celulares y tabletas sean considerablemente superiores en rendimiento y consumo energético a los de la competencia, y la razón es que Apple ha invertido miles de millones de dólares en contratar (literalmente) a los mejores diseñadores de microprocesadores del mundo, con la finalidad de tener su propia implementación del ISA de ARM al que llama "Apple Silicon". Pero antes de explicarles qué otras cosas está haciendo Apple para hacer que su Apple Silicon sea mucho más eficiente que los chips genéricos de ARM, es bueno responder también la pregunta "¿Por qué ARM en primer lugar y no x86?" Es decir, qué hizo que empresas como Apple, Samsung y miles de otras decidieran adoptar a ARM para sus productos... Y la respuesta es sorpresivamente sencilla: Eficiencia, costos y simpleza. Sucede que filosóficamente han existido tradicionalmente dos escuelas de pensamiento sobre cómo diseñar microprocesadores. La primera escuela es llamada CISC, y la segunda RISC. Intel es de la vieja escuela de CISC que significa "Complex Instruction Set Computing", y ARM es de la nueva generación de RISC (Reduced Instruction Set Computing). En CISC la idea es diseñar microprocesadores que con una sola instrucción puedan hacer varias operaciones a la vez, mientras que RISC prefiere la filosofía de preferir hacer varias operaciones simples una detrás (o en paralelo, de ser posible) de las otras. Aunque ojo que hoy día ambas arquitecturas han tomado prestado de la otra, pero para fines de este artículo lo que les dije es lo primordial. Como analogía didáctica, imaginen un ejemplo en donde un usuario quiere sumar 4 números que llamaremos A, B, C y D. En el mundo CISC de Intel es posible que exista una instrucción que sume los 4 números de una sola vez, con una instrucción similar a esta: SUMAR 4 NÚMEROS: A + B + C + D = X Pero en el mundo RISC quizás solo tengamos una simple instrucción que sume dos números a la vez, por lo que tendríamos que ejecutar varias instrucciones simples secuenciasmente para llegar al total, similar a esto: SUMAR 2 NÚMEROS: A + B = X SUMAR 2 NÚMEROS: X + C = X SUMAR 2 NÚMEROS: X + D = X Ahora bien, a simple vista se puede perdonar que alguien ingenuamente opine que la primera forma de sumar los números es "la más eficiente", puesto que se hace todo en un solo paso. Sin embargo, y como dice el viejo dicho, el demonio está en los detalles... Sucede que en el primer ejemplo, así como Intel tendría una instrucción especial para sumar 4 números, lo más probable es que también tenga que tener dos instrucciones más adicionales en el chip, una para sumar grupos de 3 números, y otra para sumar grupos de 2 números, como esto: SUMAR 4 NÚMEROS: A + B + C + D = X SUMAR 3 NÚMEROS: A + B + C = X SUMAR 2 NÚMEROS: A + B = X O en otras palabras, mientras que la arquitectura RISC tiene un solo comando que se llama "SUMAR 2 NÚMEROS" y que reutiliza una y otra vez para sumar la cantidad de números que uno desea, la arquitectura CISC tiene comandos específicos para sumar entre 2, 3 o 4 números (y obviamente puede combinarlos igual que RISC para múltiples operaciones). ¿Qué significa eso? Pues significa lo siguiente: 1. Implementar la instrucción de sumar dos números en ambas arquitectura posiblemente tome una cantidad de circuitos (y correspondiente espacio) en el chip muy similar. Pero para implementar la suma de 3 o 4 números la arquitectura CISC va a necesitar de más circuitos y más espacio en el chip (en nuestro ejemplo, entre 3 y 5 veces más espacio debido a que también se necesita espacio para guardar todos los números que se suman a la vez). 2. Debido a que un chip CISC necesita muchísimo más espacio que un chip RISC para poder hacer computación, eso significa también que (1) son más complejos y (2) más grandes ya que ocupan mucho más espacio. 3. Debido a que los chips CISC son más grandes, eso también significa que son mucho más caros para fabricar, ya que los chips se fabrican en wafers (similares a un disco compacto pero sin el agujero del centro), y mientras menos chips quepan en un wafer mayor su costo de fabricación y de paso mayor la posibilidad de que tengan impurezas lo que daña los chips y por tanto sube aun más los costos de fabricación. 4. Pero como si fuera poco, el hecho de que los chips son más grandes, y que de paso las instrucciones del ISA de un chip CISC manipulan más datos a la vez, eso también significa que (1) consumen significativamente más energía y (2) por tanto se calientan mucho más, lo que para ciertas aplicaciones es un grave problema ya que se necesitaría de enfriamiento activo (como son los ventiladores conectados directamente en los chips como es común en las PCs de Intel con Windows). Habiendo dicho todo eso, espero que vayan entendiendo por qué entonces al inicio de la revolución móvil que inició en los días del primer iPhone (y los anteriores líderes como fueron el Palm Pilot o Blackberry) los fabricantes de tales dispositivos decidieron irse mejor con ARM (y su arquitectura RISC) ya que los microprocesadores ARM son (1) más baratos, (2) consumen menos energía, y (3) ocupan menos espacio. Y como pueden ver estos son tres requerimientos esenciales para aplicaciones móviles hoy día. Intel, lamentablemente, no predijo todo esta revolución móvil que se venía llegar tarde o temprano, no se adaptó a tiempo a las nuevas tendencias, decidió seguir pensando en PCs de escritorio y laptops tradicionales con Windows, y cometió de paso su error más monumentalmente nefasto al no solo no decidir crear una arquitectura que compitiera realmente contra ARM, sino que de paso fue tan torpe como para vender una licencia de ISA ARM que poseía (de las muy pocas que existían en el mundo, y que de no haberla vendido, hubiese podido estar fabricando sus propios chips ARM hoy en día). Noten que debido a todo eso, hace 10 años escribí un artículo titulado "Análisis eliax: La arquitectura ARM se convierte en la más grande amenaza al negocio de Intel", pero parece que los ejecutivos de Intel no leían a eliax en ese entonces... Pero las ventajas de ARM no se quedan ahí. A diferencia de los chips x86 cuyos únicos diseñadores son Intel y AMD, en el mundo ARM un cliente de ARM puede solicitar que en el mismo chip se integre también todo tipo de otros diseños y módulos, como por ejemplo integrar un GPU o un procesador de señales dentro del mismo chip, para así hacer todo más eficiente aun y de mucho menor costo. Y es ahí en donde viene el concepto (que encontrarán en donde sea que lean estos temas) de un "SoC". Un SoC (System on-a Chip) no es más que la técnica de poner varios microprocesadores que usualmente estarían empacados en chips diferentes, dentro de un solo chip. En el mundo x86 esto también existe pero de forma muy limitada, como por ejemplo los chips de Intel que vienen con un GPU integrado, pero en el mundo ARM eso se lleva a todo un nuevo nivel ya que ARM le da permiso a cualquier fabricante de integrar cualquier otro circuito personalizado que desee dentro de sus diseños. Y es bueno notar también que cuando empacas varios diseños de microprocesadores en un solo chip que las distancias de comunicación interna se reducen considerablemente mejorando de forma sustancial el rendimiento de interacción entre las partes. Y todo esto nos lleva de regreso a Apple... A diferencia de (por ejemplo) los fabricantes de equipos Android que están a la merced de ARM para diseñar sus propios módulos opcionales para incluir en un SoC, o de tener que contratar a terceros que les provean esos módulos en forma de "IP" (cuando lean "IP" en este contexto no están hablando de "dirección IP de Internet", sino de "Intellectual Property, es decir, planos de circuitos que son propiedad intelectual de sus diseñadores y que te venden o licencian), o en algunos casos de tener que contratar de forma interna o externa a expertos que les diseñen esos componentes adicionales, mientras que Apple por su parte lo que ha hecho es que dentro de su propia empresa ha creado toda una división de diseño de microprocesadores cuyo único cliente es Apple mismo. Y esto, tiene implicaciones profundas... Para empezar, Apple fabrica cientos de millones de productos cada año, y todos utilizan y utilizarán su propio Apple Silicon, lo que le permite lograr una extremadamente eficiente economía de escala, ya que tiene el uso y consumo de tales chips garantizados. Debido a que Apple es el único "cliente" de Apple Silicon, eso significa que los diseñadores de esos chips están diseñando circuitos exclusivamente para las necesidades de Apple y de nadie más. Eso a diferencia de los diseños genéricos de ARM, que por pura necesidad deben ser lo más genéricos posibles ya que deben satisfacer las diversas necesidades que pudieran tener los distintos clientes que licencien esos diseños (es el caso similar con el sistema operativo Android, debe ser lo más genérico posible para poder ser utilizado en equipos de diversos fabricantes y por tanto por motivos lógicos y técnicos jamás podrá ser tan eficiente como lo es iOS por ejemplo en un iPhone). Así que por ejemplo, ARM no tiene el menor incentivo en crear circuitos de alta eficiencia para escáners 3D de reconocimiento facial, ya que solo tendría uno que otro cliente para esa aplicación (grandes como Samsung o Huawei que puedan invertir en eso), y por tanto prefiere mejor que tales fabricantes implementen esas funcionalidades en software en vez de hardware. Eso significa también que los chips genéricos de ARM tienen incluso "circuitos de más" que están ahí para satisfacer al más común denominador, que son diseños que aunque son optimizados para un bajo consumo energético y cierto poder de procesamiento, no están optimizados para las necesidades de un cliente en particular. Un ejemplo sería que la nueva versión de Android soporte escáneres faciales en 3D de forma nativa (sin que un integrador como Samsung o Huawei tenga que hacer su propia implementación sobre el Android base). Sería genial si ARM pudiese implementar los algoritmos ultra-demandante de procesamiento de CPU que este tipo de funcionalidad demanda, en hardware, para que sea más eficiente en términos de velocidad y consumo de memoria y energético, pero ARM no tiene incentivo de hacer tal cosa ya que asume que empresas como Samsung o Huawei utilizarán sus talentos internos para proveer u obtener módulos de IP que puedan integrar con los planos de ARM, y al menos que todo el mercado empiece a demandar tal funcionalidad ARM no levantará un dedo, y para cuando lo haga ya Apple habrá implementado lo mismo par de años antes. Un buen ejemplo de esto fue la movida de chips ARM de 32 bits a 64 bits. Fue Apple (y asombrosamente, no ARM) que lanzó el primer procesador ARM de 64-bits en el 2013, y el mundo Android tuvo que esperar casi 3 años después para poder tener algo similar viniendo de ARM. Y todo esto nos trae de re-regreso a Apple: El único cliente de Apple Silicon es... Apple. Si Apple le dice al equipo de ingenieros de Apple Silicon que en par de años planean lanzar unas gafas de Realidad Aumentada y que necesitan poner circuitos dedicados en sus chips para que los algoritmos que utilizarán esas gafas y los iPhones del momento puedan lidiar de forma eficiente con el flujo de datos que eso genera, eso más que una sugerencia sería una orden, y 12 meses después pueden apostar a que los nuevos iPhones y diseños de Apple Silicon ya contendrán circuitos dedicados para esa tarea. Esa es la razón principal por la cual el iPhone SE que cuesta US$400 ha sido comprobado que es mucho más rápido que el celular más caro de Samsung que cuesta cerca de US$1,500 dólares. Y es la misma razón por la cual un iPhone con 3GB de memoria RAM funciona marcadamente más fluido que un celular Android con 6GB de RAM, ya que en el ecosistema de Apple todo está integrado eficientemente y diseñado como un "todo". Esa es también la razón por la cual las baterías de los celulares iPhone son por lo general de menor capacidad que los celulares genéricos Android y aun así "misteriosamente" duran la misma cantidad de horas funcionando. Tiene que ver con el hecho de que en Android muchas de las funcionalidad básicas ejecutan en software y no en hardware de bajo nivel, lo que aumenta su consumo energético y los hace más lentos de paso. Un buen ejemplo de esto es el módulo de seguridad de Apple, el Digital Enclave. Este es un chip propietario de Apple que en tiempo real cifra todo lo que haces en tu iPhone, iPad o Mac, sin afectar ni en un 0.0001% el rendimiento de lo que hace tu dispositivo ya que todo el cifrado ocurre en circuitos dedicados creados especialmente para tal fin, dejado a tu dispositivo seguir trabajando en otras cosas. Esta es también la razón por la cual quien no entiende de estas cosas no se debe dejar llevar de benchmarks (programas que miden la velocidad de tu dispositivo) cuando comparan cosas muy diferentes como son los iPhones o Android. Aunque en actualidad prácticamente todos los benchmarks indican que los dispositivos de Apple son más potentes que la competencia, lo cierto es que esos programas no son un indicador del rendimiento real del sistema cuando pones en el paquete todas las optimizaciones que hace Apple tras bastidores. Lo que sí tiene más sentido es comparar un benchmark de un celular Android con otro Android, o un modelo de iPhone vs otro modelo de iPhone. Habiendo escrito esta kilométrica explicación, esto nos lleva finalmente al tema de moda hoy día: Apple Silicon en Macs... Muchos se le han reído en la cara a Apple con este anuncio alegando que "Apple planea utilizar un simple chip de celular en una computadora de trabajo serio, ¡nos jodimos!", pero les puedo asegurar que todo el que dice eso no sabe absolutamente nada de microprocesadores, o de lo que ocurre tras bastidores como les he explicado a ustedes en este artículo, o son simples haters que ya tienen nuevo material para hacer sus aburridas vidas menos miserables, o sencillamente son el tipo de personas que repiten como loros todo lo que leen en Internet sin revisar fuentes o investigar de lo que están opinando. Y lo primero que les voy a decir sobre Apple Silicon en Macs es lo siguiente: Prepárense para una gran sorpresa. Una buena sorpresa. Para los que no lo sepan, Apple ya ha entregado decenas de miles de "kits de transición" a desarrolladores de aplicaciones para que vayan adaptando sus aplicaciones a Apple Silicon en Macs, y los resultados no pudieron ser más positivos... Para iniciar, el kit contiene lo que es esencialmente una Mac Mini con el chip A12Z Bionic de Apple utilizando una versión beta de macOS 14 Big Sur. Sucede que ese chip es el utilizado en el iPad Pro de hace dos años atrás, y aún así los benchmarks (para los que les gusta comparar) indicen que esa Mac Mini con un chip no optimizado de hace dos años atrás obtiene una calificación de 4669 puntos en su CPU, comparada con la Surface Pro X de Microsoft que viene con un procesador Intel i5 que sacó una calificación de 2966. Pero eso no es nada: Sucede que el kit de Apple sacó esa calificación de 4669 corriendo en modo de emulación, es decir, el programa de benchmark en la Mac no estaba corriendo código nativo como el que correrá en las Macs reales cuando estas salgan a la venta a fin de año, y de paso estaba utilizando (reitero) un chip (1) de hace dos años atrás, (2) destinado para una iPad, y (3) no optimizado para Macs. ¿Qué significa todo eso? Pues para empezar podremos esperar que lo que sea que Apple tiene pensado para las nuevas Macs será marcadamente más potente que ese chip de iPad, y si nos llevamos de rumores tras bastidores esos nuevos chips vendrán con 12 núcleos (en vea de los tradicionales 2 o 4 núcleos en las Macs con Intel), lo que aumentará aun más su poder. Y lo mejor de todo (y ahora entenderán mejor todo lo escrito hasta ahora) esos chips de Apple Silicon vendrán con circuitos especializados específicamente creados para optimizar las funciones más comunes y/o importantes de macOS (cosa que Apple no le podía solicitar a Intel para sus chips x86-64), lo que aumentará aun más su rendimiento. De paso, esperen que las MacBooks de Apple ahora por fin dejarán de ser tan calientes (quien se haya puesto una MacBook Pro en sus piernas para trabajar sabe exactamente a lo que me refiero) y sus baterías pueden estar seguros que se extenderán considerablemente. Y esto de paso también incrementará los márgenes de ganancias para Apple (que aunque muchos se quejen, es precisamente lo que permite que Apple haga estas innovaciones), lo que al menos le da un colchón de costo a Apple para si la competencia se pone fuerte en un futuro esta pueda bajar sus precios cómodamente. Todo esto de paso significa también que tecnologías que tradicionalmente estaban destinadas a iPhone y iPad llegarán más rápidamente a Macs. Yo por ejemplo espero que las nuevas Macs vengan con FaceID para permitirme dejar trabajar con yo solo estar frente a mi máquina sin nececidad de entrar claves (cosa que ya puedo hacer con mi Apple Watch en combinación con mi Mac, pero sería mejor que no dependa ni de eso para entrar directo a trabajar, como lo hago con mi iPhone y iPad). Habiendo dicho todo eso, tengo que también aclararles algo que para algunos resultarán desagradable: Debido a las obvias diferencias entre el ISA de Intel y ARM, las nuevas Macs ya no podrán ejecutar Windows de forma nativa (con BootCamp), y por otro lado emuladores de Windows en x86 (como VMWare, Parallels Desktop y Virtual Box) tendrán que ser recreados para poder emular las instrucciones x86 en ARM (en actualidad ese paso no era necesario ya que los emuladores simplemente pasaban las instrucciones de Windows directo al CPU de la Mac que ya era x86). ¿Qué significa ese tema con Windows? Pues para empezar a Apple no creo le importe mucho ya que por lo general los que quieren el uso exclusivo de Windows no compran una Mac para tal fin por motivos de costos. Similarmente los gamers (comunidad de video-juegos) tradicionalmente nunca han comprado Macs para tal fin. Eso solo deja a los que compran una Mac como computadora principal y utilizan a Windows para temas de desarrollo de software u otros trabajos, y la realidad es que la gran mayoría de estos (yo incluido) no optan por BootCamp sino por virtualizar a Windows dentro de macOS. Así que la única incógnita que queda es qué tan bien podrán estos virtualizadores emular a Windows cuando tendrán que traducir en tiempo real las instrucciones de x86 a ARM en tiempo real, y para esto hay un par de respuestas potencialmente esperanzadoras... La primera es que Apple también anunció que incluirá un Hypervisor super avanzado en las nuevas Macs, con características que a la fecha solo existían en ambientes de servidores avanzados. El Hypervisor de Apple esencialmente permitirá particionar tu Mac en varias Macs virtuales de forma ultra-eficiente, y en donde cada Mac virtual podrá ejecutar otras versiones de macOS u otros sistemas operativos en paralelo (Apple habló especificamente de Linux como ejemplo), lo que será una mucho mejor manera de virtualizar en macOS que en actualidad. Y la segunda es que Apple muy bien puede crear circuitos especiales en Apple Silicon diseñados para hacer la traducción de x86 a ARM más eficiente (algo que si tuviera que apostar, diría ya está implementado). Así que como pueden ver, esto de Apple Silicon no es algo que Apple hizo a la ligera, sino algo extremadamente bien pensado que Apple ha venido cocinando desde años, y el futuro solo se pondrá mejor... Finalmente, es bueno mencionar mi predicción de enero 2007 en donde escribí (entre otras predicciones): "[...] imagínense que dentro de 5 años el iPhone sea tan poderoso y tenga tanta memoria como las computadoras personales mas potentes de hoy día. Eso significaría que con agregar un teclado, ratón y pantalla externa (todos inalámbricos), que no hay razón para que el iPhone no sea nuestra computadora personal en cualquier lugar." Esa visión, ahora que un iPhone podrá ejecutar macOS (si Apple así lo decide), ya está a la vuelta de la esquina. Similarmente y como he predicho antes, no me sorprendería que ahora que Apple ya tiene todos sus productos bajo una misma arquitectura que ahora decida crear una versión universal de su sistema operativo a la que llamo "appleOS" y que las distintas versiones para iPhone, iPad, Mac etc sean sencillamente variaciones o "Editions" de esta. ¿Y ustedes, qué opinan de todo esto? Si tienen preguntas o quieren que les aclare o expande algo, o tienen algún comentario adicional, escriban abajo y como siempre les contestaré en la brevedad. autor: josé elías |
37 comentarios
1,549,731 vistas |
Apple / OS X , Hardware , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
viernes, mayo 1, 2020
|
Hola amig@s lectores,
Como ya muchos lectores del blog sabrán, desde el 2006 todos los años a inicios del año suelo escribir mi lista de predicciones anuales sobre todo lo que creo sucederá durante el año a seguir, particularmente en el sector tecnológico, y usualmente también incluyo otro tipo de predicciones de ciencia, sociedad y hasta sobre el mundo del entretenimiento. Este año como muchos notaron no subí las acostumbradas predicciones sino que las compartí en formato crudo con un reducido número de personas allegadas, ya que aunque escribirlas para mi me resulta relativamente fácil, pasarlas a un formato Web y de forma amigable a la lectura es algo que me toma muchísimo tiempo, y a inicios de año pasé por unos temas personales bastante fuertes que me impactaron mucho con los tiempos. Y para colmo poco después llegó el tema del Coronavirus/COVID-19 y el mundo cambió y realmente tuve otras prioridades (como proteger a mi familia). Sin embargo en el Live que hice el domingo pasado alguien mencionó que debía sacarlas aunque fuese tarde, y la verdad es que me he animado a hacerlo, ya que en este formato en vivo no tendría que sentarme a escribirlas sino que sencillamente repasaría "en vivo" con ustedes lo que había escrito a inicios de año en mis notas crudas. La cita será este próximo domingo 3 de Mayo 2020 a las 2pm (14:00 horas) en horario de New York (acá abajo les dejo otros horarios dependiendo de donde residan, pero si no está el país de ustedes en la lista simplemente entren a Google y pregunten "time in new york" lo que les dará la hora actual en New York y en base a eso pueden calcular cuantas horas más o menos serán en dónde están). La cita será por el canal oficial de @eliax en instagram. Sabrán cuando inicie la transmisión en vivo en el momento que el logo redondo de eliax al tope izquierdo de mi perfil cambie con una etiqueta roja que dirá "Live" ("en vivo"). Acá los horarios exactos: Argentina, 3pm Bolivia, 2pm Brazil, 3pm Chile, 3pm Colombia, 1pm Costa Rica, 12 del medio día Ecuador, 1pm El Salvador, 12 del medio día España, 8pm Estados Unidos, central (Texas), 1pm Estados Unidos, costa este (New York, Miami), 2pm Estados Unidos, costa oeste (San Francisco), 11am Guatemala, 12 del medio día Honduras, 12 del medio día México, 1pm Nicaragua, 12 del medio día Panamá, 1pm Paraguay, 2pm Perú, 1pm Puerto Rico, 2pm Uruguay, 3pm República Dominicana, 2pm Venezuela, 2pm ¡Nos vemos en par de días! Actualización: A continuación el video del Live para los que no pudieron asistir: autor: josé elías |
19 comentarios
1,379,876 vistas |
Opinión / Análisis , Predicciones , Videos |
jueves, marzo 26, 2020
|
Como millones de dominicanos, esperé anoche impacientemente el discurso del Presidente de nuestra nación, esperado con ansias las medidas que tomaríamos ahora que se ha hecho evidente que hemos entrado en una etapa crítica con el coronavirus (COVID-19) en República Dominicana, y aunque ciertamente hay mucho que aplaudir del discurso (muy orientado a las clases menos pudientes que son las más afectadas en estos casos), creo que hay para mejorar, y aquí con todo el respeto posible expreso cómo.
El gran problema que tenemos con este virus es que como escribí hace unos días, ya estamos en la curva de crecimiento exponencial de este en el país (las primeras cifras oficiales de infecciones concuerdan increíblemente bien con las predicciones que hice en ese artículo), y por tanto ya pasamos la etapa y la oportunidad de poder contener el virus con medidas menos drásticas. El gobierno hizo bien en alertar a la población de los estragos del virus y de la importancia de mantener una distancia interpersonal, pero ahora hay que ponerse más estrictos, y para eso vamos a estudiar brevemente las dos formas que han demostrado ser efectivas en detener el virus... La primera fue aplicada en Corea del Sur, en donde desde que se detectó el primerísimo caso del virus las autoridades reaccionaron sin titubear e identificaron a los primeros portadores, efectivamente deteniendo el crecimiento exponencial del virus antes de que fuese demasiado tarde. Sin embargo, esa opción ya no la tenemos en nuestro país. La segunda forma que ha probado ser efectiva (y que siempre ha sido efectiva en casos similares) conlleva el aislamiento total de la población (como lo hizo el muy inteligente Presidente de El Salvador, Nayib Bukele). Y aclaremos por si no queda claro, con aislamiento total se quiere decir explícitamente eso, un período de cuarentena durante el cual la vasta mayoría de la población (salvo personal de emergencia y primeras necesidades) permanezca en sus hogares las 24 horas del día, posiblemente durante unas 3 semanas. ¿Por qué? Porque al cabo de ese período se habrán identificado esos hogares en donde (1) se encuentren personas infectadas o que se sospecha estén infectadas, (2) se habrá detenido el contagio entre la población por contacto directo, y (3) se habrá eliminado el virus de superficies en lugares públicos o comunes (el contacto indirecto). Sin embargo muchos (y es fácil entender por qué a simple vista) dicen que un período de cuarentena nacional impone un gran peso económico sobre la sociedad, así como sería desastroso para la clase que vive del día a día con escasos recursos, pero siendo enteramente racionales ¿qué creen ustedes tendrá un efecto más desastroso, (1) una cuarentena ordenada y planificada ahora, o (2) una cuarentena forzada en medio del caos? La lógica y el sentido común dicen que una cuarentena después costará varias órdenes de magnitud más que hacer una ahora, así como se salvarían incontables vidas, eso sin mencionar el gran costo de salud que nos ahorraremos, ya que hay evidencia irrefutable de que una buena parte de los que están sobreviviendo al virus terminan con problemas respiratorios que muy posiblemente tendrán su secuela durante toda la vida, poniendo así una estrés adicional en el sistema de salud público y privado. Pero, ¿por qué sería el problema más serio después? Pues cómo expliqué en mi artículo anterior, la intuición humana es muy mala a la hora de entender lo que significa que algo crece "exponencialmente". Cuando algo como el coronavirus que duplica su ritmo de infección cada 2 o 3 días ya tiene 20,000 casos de infectados al cabo de 4 semanas, ya para la 8va semana esa cifra alcanzaría los 10 millones (y no 40,000 como diría la intuición ignorante a simple vista). Pero lo peor es que no es solo eso... Si no se toman medidas drásticas ya (cosa que debió hacerse hace 6 semanas atrás como mínimo), y se frena el crecimiento exponencial del virus, nuestro sistema de salud colapsará por la demanda (ya colapsó en Italia, España, y en la ciudad de New York en EEUU), y en un país de tercer mundo como el nuestro con tantas precariedades públicas eso solo puede significar una cosa: infección y muertes a gran escala. Pero es no es todo... Para ese momento debido a que será necesario el aislamiento para los que deseen sobrevivir, colapsará también la economía por falta de mano de obra y de personal capaz de poder laboral remotamente, y al colapsar la economía colapsarán las necesidades básicas de los ciudadanos, y los primeros que sentirán ese azote será la clase que vive del día a día, y cuando estas personas vean a sus hijos pasando hambre o enfermos, no duden que naturalmente empezarán a saquear mercados, supermercados, farmacias, y pronto después se recurrirá al vandalismo, y próximo después a la anarquía y al caos (y en medio de todo ese escenario continuaría creciendo el virus y la cantidad de víctimas en un efecto dominó). Y para entonces ya no habrá marcha atrás. Cualquier plan del gobierno de asistir con sueldos suplementarios, tarjetas de solidaridad, o paquetes de comida no podrá tener efecto porque no tendremos ni los medios para ejecutar tales programas, y ya será cuestión de "sobreviva quien pueda". La pesadilla cesará con los que logren sobrevivir tanto al virus como a la demencia social generalizada. Entonces, ¿cuál es la recomendación?, pues la más lógica matemáticamente, aislamiento total de las personas en sus hogares por 3 semanas, de forma rápidamente planificada, para que la gente se prepare en la medida de lo posible y mantener personal activo solo para las necesidades básicas (electricidad, luz, gas, agua, telefonía, internet) y siguiendo un protocolo super estricto (relacionado de hace 11 años en eliax). Y por estricto me refiero a que toda persona que ande en las calles sea fuertemente multada, que se le cree automáticamente un expediente delictivo (pues está intencionalmente atentando contra la vida de los demás de forma masiva, y por tanto debe ser considerado un acto terrorista), y que solo se pueda salir de la casa para casos extremos de emergencia (nacimientos, accidentes, ataques cardíacos, etc). Sé que sería un sacrificio inmenso sin precedentes, pero la alternativa sería descomunalmente peor y a un costo inmensurablemente superior, no solo en términos económicos sino particularmente en vidas. Y ahora finalizo con una predicción: Las matemáticas no mienten (y prueba de ello es que el virus se está esparciendo de forma extremadamente similar a como predije haría en mi artículo previo a este): En los próximos días lo más prudente que el gobierno verá como opción para resolver la crisis será declarar una cuarentena obligatoria de la nación por unas semanas. Y si mi predicción falla, prepárense... - p.d. Favor compartir este artículo con el hashtag #QuieroCuarentenaRD - autor: josé elías |
34 comentarios
634,792 vistas |
Educación , Opinión / Análisis , Predicciones , Salud , Tecno-Seguridad |
lunes, marzo 16, 2020
|
Hace unos minutos acabo de ver la esperada rueda de prensa del Ministerio de Salud Pública de la República Dominicana (donde actualmente resido), un día después de las elecciones municipales, en donde gran parte de la ciudadanía esperaba un mensaje contundente de parte del gobierno sobre cómo vamos a lidiar con el tema del brote del coronavirus (científicamente conocido como COVID-19) en el país.
Pero tremenda decepción. La "rueda de prensa" no fue más que una simple lectura de par de páginas diciendo que ya hay 21 casos confirmados, con una muerte, y que existen 25 casos más en estudio (para un posible total de 46 casos). Y en cuanto a qué hacer al respecto se limitaron esencialmente a decir que nos cuidemos de los que llegan viajando de otros países y a decir que ya en días pasados habían hablado de estos temas. Punto. Hablaron por unos 5 minutos. Hasta ahí todo bien, pues es obvio (y correcto) hablar de datos y cifras concretas que se tienen a mano. El problema sin embargo es que se obvió lo más importante... Salud Pública asumo que entiende que este no es el primer país en donde surge un brote del coronavirus, y asumo también que cuando menos han visto las noticias de los estragos que está causando en el resto del mundo, y asumo (y sinceramente espero) que entre su personal tengan a al menos una persona que tenga aunque sea conocimientos básicos de estadísticas, y sobre todo que sepa de epidemiología, y que de paso entienda el concepto de "crecimiento exponencial". Para los que no sepan de esto, he aquí una versión resumida de por qué el coronavirus es tan peligroso, y de paso por qué si no se toman medidas extremas esto en pocas semanas será todo un caos. Sucede que hay tres cosas que hacen a un virus en particular especialmente peligroso. La primera de ellas es la forma de contagio del virus (uno que se esparza por el aire por ejemplo es mucho más peligroso que uno que requiera contacto, como el coronavirus). La segunda es qué tan resistente es el virus a métodos conocidos de ataque (el resfriado común, por ejemplo, es ya bastante conocido, y según va mutando cada temporada sabemos cómo contrarrestarlo, lo que en la práctica no lo hace tan peligroso). Sin embargo, el tercer punto es crucial, y tiene que ver con qué tan rápido los pacientes presentan síntomas del virus, y es aquí en donde tenemos el gran problema con el coronavirus... Sucede que la vasta mayoría de personas que contraen el virus no saben que lo tienen hasta varios días después, pasándose de un período de incubación (se cree que en la garganta) que puede durar sus 3 a 4 días, hasta después bajar a los pulmones, para cuyo tiempo uno todavía o se cree que está saludable, o confunde el virus con un simple resfriado o gripe. El problema está en que para cuando uno viene a ser diagnosticado con el virus, ya uno ha infectado a innumerables personas en el medio ambiente, y lo mismo harán esas personas. Lo que significa que para cuando se encuentra y confirma un caso "oficial", eso significa que en la realidad ya tenemos al menos 10 veces más casos incubándose en la sociedad. Y eso es lo que no está diciendo abiertamente Salud Pública. Matemáticamente, el número de casos de coronavirus en el país debe ser muy superior al citado por las autoridades, y no solo eso, sino que matemáticamente ya se ha medido en otras naciones que el ritmo de infección de coronavirus es de aproximadamente un duplicado de casos cada 2 a 3 días. ¿Qué significa eso? Que cada 2 a 3 días el número de personas infectadas está duplicándose en el país, bajo las mismas narices (y conocimiento pleno e irresponsable) de Salud Pública. Y ojo, que no pueden negar desconocer ese dato, porque de hacerlo o (1) estarían mintiendo o (2) demostrarían que son unos ineptos o incompetentes que no deberían estar haciendo ese trabajo. Pero eso no es lo peor. Lo peor es, que ese duplicado de casos cada 2 a 3 días se conoce como un "crecimiento exponencial", y para explicarlo sigamos un ejemplo, asumiendo que el virus duplica su número de víctimas cada 3 días en vez de 2 (para darle el beneficio de la duda a los incrédulos)... Si asumimos que tenemos tan solo 20 casos conocidos (pero como ya les expliqué, deben haber muchísimos más, pero una vez más, vamos a darles el beneficio de la duda), eso significa que en 3 días más tendremos unos 40 casos. En 6 días más tendremos 80 casos. En 9 días tendremos 160, y si seguimos la secuencia terminamos con la siguiente situación (noten lo rápido que suben las cifras de personas contagiadas): Día 0 = 20 contagiados Día 3 = 40 contagiados Día 6 = 80 contagiados Día 9 = 160 contagiados Día 12 = 320 contagiados Día 15 = 640 contagiados Día 18 = 1,280 contagiados Día 21 = 2,560 contagiados Día 24 = 5,120 contagiados Día 27 = 10,240 contagiados Día 30 = 20,480 contagiados O en otras palabras, en un mes tendremos al menos unas 20 mil personas infectadas. Pero eso no es nada, pues cuando las cosas crecen exponencialmente las cifras se disparan muy rápidamente mucho más rápido que lo que la intuición cotidiana nos dice es correcto, y para demostrar el punto vamos a seguir el ejercicio por unos cuantos días más... Día 33 = 40,960 contagiados Día 36 = 81,920 contagiados Día 39 = 163,840 contagiados Día 42 = 327,680 contagiados Día 45 = 655,360 contagiados Día 48 = 1,310,720 contagiados Día 51 = 2,621,440 contagiados Día 54 = 5,242,880 contagiados Día 57 = 10,485,760 contagiados O en otras palabras, las matemáticas nos están diciendo en la misma cara que al ritmo que vamos dentro de aproximadamente 2 meses la población completa dominicana estará infectada. Al menos que hagamos algo. Y ese algo es que debemos poner al país entero en cuarentena. La rueda de prensa de hoy debió ser para no solo informar los casos que ya tenemos confirmados, sino para dar directrices sobre cómo llevar a cabo la cuarentena nacional de una forma ordenada y civilizada, antes de que las cosas se salgan de control. A tal fin, ya que Salud Pública ha fallado en su labor de salvaguardar nuestra salud pública, he aquí lo que recomiendo (y ojo, que son simples recomendaciones de sentido común, y ni siquiera de mi invento o autoría, solo hay que ver lo que están haciendo las otras naciones que han pasado o están pasando por esto en estos precisos instantes): 1. Crear una cuarentena nacional. Aislarse por completo en sus hogares. Eso significa cortar al 100% (en la medida de lo posible) el contacto con otras personas fuera de casa. Y eso incluye a los vecinos de al lado. 2. El punto anterior por defecto implica entonces el cese de inmediato de toda actividad laborar a nivel nacional, salgo labores críticas de seguridad nacional como es el sistema eléctrico, de suministro de agua, de las telecomunicaciones (celular e Internet), y suministro de alimentos y medicinas. 3. Esto debe perdurar por al menos unas 3 semanas para así aislar los casos existentes y tratarlos, y evitar el contagio exponencial de la población. 4. Se deben tomar medidas serias contra quienes violen el período de cuarentena, considerándose un hecho delictivo penado por fuertes multas, al menos que se tenga un debido permiso y excusa válida para salir de casa. 5. Se debe educar a toda la población sobre la forma de propagación del virus de forma masiva por todos los medios de comunicación de forma constante, explicando cómo se transmite el virus y explicando qué hacer en caso de detectarse un caso. Los medios de comunicación deben colaborar con esto, es un tema de supervivencia nacional. Y eso es lo que quería decirles hoy. Estoy seguro que algunos me tildarán de "alarmista", otros de "irresponsable" por querer informar de estos datos a la población, y otros incluso irán tan lejos hasta querer politizar este mensaje para desacreditar su contenido. A esos que opinan así lo único que puedo decirles es que espero estén preparados en sus hogares para lo que viene si no hacemos algo, y sinceramente de corazón desearles lo mejor. A los demás dispuestos a escuchar, tomen esto como una guía de supervivencia y dosis de realidad, y traten de permanecer en sus hogares aislados lo más posible en las próximas semanas (yo ya inicié de forma voluntaria), y esperemos que el mensaje llegue a Salud Pública y las altas instancias de nuestros empleados en el Estado (pues sí, todos los políticos en altos puestos del Estado son empleados nuestros, y a veces se nos olvida eso). Suerte a todos. -- Actualización del 26 de marzo 2020: 10 días después de este artículo escribí uno nuevo ya que el gobierno todavía se rehusa a ponernos a todos en una real cuarentena. Pueden leer el artículo en este enlace. Actualización del 14 de Julio 2020: Algunas personas me han escrito para notar que aparentemente estas cifras de crecimiento exponencial no se dieron tal cual, y es importante notar (como especificado en el artículo) que esas son cifras de crecimiento en base a que se duplique la cantidad de casos cada 2 o 3 días, como era el caso tal cual antes de que se tomaran medidas del uso de mascarillas y del distanciamiento social. Sin embargo aun así, las cifras hasta hace dos días en República Dominicana ya iban por 45,506 casos, con una curva claramente creciendo vertiginosamente (como referencia, un mes antes el mismo día la cantidad de casos era de 22,008, y un mes anterior a ese eran de 10,900, y un mes anterior a ese eran de apenas 2,759). O en otras palabras, el crecimiento exponencial continúa tal cual citado en el artículo, solo que extendido en el tiempo. O en otras palabras, al menos que se tomen medidas extremas (ahora mismo literalmente no estamos bajo ningún tipo de cuarentena) eventualmente la gráfica completa se hará realidad y solo sobrevivirán los que se cuiden mejor o los que sean naturalmente más inmunes al virus (supervivencia Darwiniana an ambos casos). Acá pueden ver una gráfica generada por mí mismo basado en los datos proveídos por el gobierno diariamente entre los días 1ro de Marzo 2020 al 13 de Julio 2020, sobre la cantidad de contagios detectados cada día. Creo que la gráfica habla por sí misma: autor: josé elías |
40 comentarios
648,439 vistas |
Educación , Opinión / Análisis , Predicciones , Salud , Tecno-Seguridad |
miércoles, septiembre 11, 2019
|
Hola amig@s lectores,
Ayer fue el esperado lanzamiento el nuevo iPhone 11 (lo pueden ver aquí otra vez), y escondido en especificaciones técnicas de los nuevos iPhones podrán encontrar una referencia a una entrada que dice "Ultra Wideband chip for spatial awareness", que los que estamos empapados con el tema a bajo nivel sabemos que se refiere a un nuevo chip desarrollado por Apple y al que simplemente llaman el “U1”, y que es descrito como un chip de ubicación espacial utilizando bandas de frecuencias ultra-anchas. Es decir, un chip que permite localizar objetos en interiores (como en tu casa o algún negocio) de forma tridimensional, similar a como utilizamos el GPS del celular para ubicar el celular mismo en un mapa. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Pero, ¿a qué realmente se refiere eso? Pues esto se refiere sin duda a la funcionalidad de las rumoreadas “Apple Tags” (etiquetas) de las cuales les hablé hace unos días en mis redes sociales de @eliax bajo el término tentativo "AirTags", que se puede definir esencialmente como "un GPS para interiores”. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Con esta tecnología cualquier objeto físico dotado de una etiqueta/tag de Apple (que podría ser no más grande que un pequeño llavero) podría ser localizado en tu proximidad y en 3D, y de una forma relativamente precisa. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Así que imaginen por ejemplo utilizar la funcionalidad de Realidad Aumentada del iPhone para superimponer en tiempo real sobre el video de la cámara la ubicación de algún objeto perdido cerca de ti (y esto funcionaría aún mejor con las rumoreadas gafas de Realidad Aumentada que se rumora está desarrollando Apple). Con esta tecnología por ejemplo encenderías la cámara de tu iPhone y al girar la cámara hacia tu sofá podrías ver exactamente detrás de cual almohada de tu sofá dejaste el control remoto de tu TV. O incluso esto serviría para tú poder enviar un archivo vía AirDrop con solo “apuntar” tu iPhone a otro iPhone cercano, o incluso enviar un video a una pantalla en específico cerca de ti (por ejemplo, apuntando con tu celular a un proyector cercano). ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Esta es una tecnología que aunque no es nueva (ver por ejemplo la empresa Tile que no ofrece todo esto pero al menos permite encontrar objetos por proximidad) tiene el potencial de convertirse en práctica y de fácil uso y por tanto masificada, gracias al control e influencia que tiene Apple sobre su ecosistema. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Se rumora también que estas Tags podrían comunicarse incluso con otros equipos de Apple para crear una red ad-hoc de Internet-de-las-Cosas (IoT) en donde podrías ubicar objetos perdidos incluso si estos están a miles de kilómetros de distancia de ti (utilizando primero Bluetooth para llegar a un dispositivo de Apple cercano, y después de ahí saltar a Internet por WiFi o vía datos celulares), lo que para muchos fines sería algo genial y extremadamente útil (y para otros un tema de privacidad que me encantaría ver cómo Apple planea solucionar). ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Esta es una de esas tecnologías que uno sabe tarde o temprano tenia que llegar (yo mismo llevo alrededor de dos décadas aludiendo a este concepto en mis charlas) y solo se necesitaba de un titán como Apple para hacerla práctica y masificarla. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Entre posibles usos de esta tecnología están el obviamente encontrar objetos perdidos, el transferir archivos con solo apuntar a alguien, pero también la creación de video-juegos más físicos, el uso de mesas inteligentes en restaurantes, etiquetadores de personas en eventos, seguimiento de mascotas y niños, seguimiento de objetos valiosos, ciber-seguridad (y espionaje), marcador virtual para promociones en tiendas, marcadores de turismo, información expandida en museos, etc. En cuanto a la pregunta de por qué vienen los nuevos iPhone 11 con esta tecnología pero Apple no mencionó nada en su evento de ayer, una pista clara al respecto la pudimos notar al ver que la presentación no duró 2 horas exactas como acostumbre Apple, sino que finalizó unos 20 minutos antes. Eso me dice que Apple sacó de la presentación algún anuncio importante (que bien podría ser esto) de último minuto, lo que también me sugiere que es posible que veamos anunciado todo esto en algún evento especial en los próximos meses cercanos. Esta es una de las tecnologías que creo a Apple le gustaría tener en su lugar antes de desplegar sus futuras gafas de Realidad Aumentada en las que se sabe está trabajando desde hace años... Así que crucen los dedos para que todas estas especulaciones se hagan realidad, y de paso que sean rápidamente copiadas por Google para que el ecosistema Android también puede tener algo similar al nivel del sistema operativo, y quizás podamos incluso tener un futuro en donde estas etiquetas sean universales y funciones con cualquier plataforma de cualquier proveedor (para allá vamos, es solo cuestión de tiempo). autor: josé elías |
9 comentarios
797,849 vistas |
Apple / OS X , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Realidad Virtual , Software , Tecno-Seguridad |
martes, mayo 21, 2019
|
Hola amig@s lectores,
En los últimos dos días una noticia ha enviado temblores a través de todo el panorama tecnológico, y no podía dejar de opinar al respecto. Se trata de la noticia de que Google anunció que le quitaba la licencia de Android a Huawei de forma permanente, dejando a esta (y los usuarios de sus celulares) en el limbo. Sin embargo antes de dar mi opinión al respecto aclaremos exactamente qué es lo que está sucediendo... La situación actual... Google anunció de forma repentina este fin de semana pasado que Huawei ya no tendrá una licencia de Android en lo absoluto. ¿Qué significa eso si tienes un equipo Huawei? Pues que esencialmente su valor acaba de disminuir considerablemente, pues esencialmente ya no lo podrás actualizar más a versiones oficiales de Android de aquí a no más de 2 años o menos (cuando expiran los contratos entre Google y Huawei para equipos existentes), aunque no está claro si esas medidas toman efecto inmediatamente (actualizaré este artículo al final desde que tenga más informaciones al respecto). La buena noticia es que al menos por el momento los equipos actuales no serán afectados, pero Huawei tiene prohibido vender nuevos equipos y modelos con Android de ahora en adelante. ¿Significa eso que realmente ya no podrás instalar nuevas versiones de Android en tu celular Huawei? Oficialmente sí (cuando expire el período de soporte oficial de Google para nuevos celulares, que es actualmente de 2 años), pero en la práctica lo más probable es que no, ya que posiblemente la comunidad de hackers creará versiones "no autorizadas" de Android para dispositivos actuales. Sin embargo al menos que seas un usuario técnico yo no recomiendo instalar versiones no autorizadas de Android, particularmente si provienen de desconocidos, pues no sabes qué tipo de malware alguien haya instalado en esas versiones con miras a espiarte, extorsionarte o robarte. Mi recomendación es que terminen la vida útil del celular y lo vendan a alguien que le pueda dar uso (como fotógrafos o desarrolladores de software que los pueden utilizar para pruebas por los próximos dos años), pero prepárense a venderlo bien barato... ¿Pero puedo instalar alguna otra versión de Android legalmente, como el AOSP? Google solo le cortó soporte de Android a Huawei, pero nada impide que Huawei utilice la versión open source (software libre) de Android, llamada Android Open Source Project (AOSP), sin embargo el problema es que esa versión de Android es una versión del sistema operativo base en sí, y no contiene ninguno de los servicios básicos de Google, como son el acceso a la tienda Play Store, y otros servicios y aplicaciones que muchos consideran esenciales como GMail, Google Drive, YouTube, etc. O en otras palabras, Huawei no puede hacer mucho con eso al menos que decida lanzar sus propios servicios y su propia tienda de aplicaciones (más abajo hablo de esa posibilidad). Y noten que incluso si Huawei adoptara a AOSP, que esta no podría llamar esa versión "Android" en lo absoluto, ni referirse en la documentación o publicidad o empaque con la palabra "Android", y mucho menos utilizar el logo oficial de Android (el robot verde), pues Google es dueña de la marca y tiene todos los derechos registrados (que todo esto sirva de lección a los que discuten y defienden a Android como un proyecto "libre y abierto que cualquiera puede utilizar", en la práctica la situación es diferente). ¿Pero por qué hizo Google esto? La versión oficial dice que lo hicieron para acatar unas medidas del gobierno de Trump que pone a Huawei en una "lista negra" de empresas extranjeras con las cuales empresas estadounidenses no deben ni pueden hacer negocios. ¿Y esto afecta a todos los celulares Huawei fuera de EEUU? Lamentablemente sí, ya que Google tiene prohibido permitir que Huawei utilice Android en cualquiera de sus formas, y eso incluye distribución internacional. ¿Esto afecta exclusivamente a los celulares de Huawei? No, también afecta los celulares Honor (que es una subsidiaria de Huawei), así como la empresa ZTE. El verdadero problema en contexto... Pues bien ya vieron lo que está sucediendo, veamos ahora un poco del contexto en donde está ocurriendo todo esto y ya entonces estaremos mejor preparados para emitir una opinión sobre lo que realmente está pasando tras bastidores, y para eso hablemos muy brevemente de Huawei... Huawei fue fundada en Shenzhen, China, en 1987, y sus problemas con los EEUU datan desde esa fecha, ya que su fundador Ren Zhengfei era un ingeniero en las Fuerza Armadas de la Liberación del Pueblo, o en otras palabras, era un militante activo del Partido Comunista. Se sabe además que el gobierno chino invirtió decena de miles de millones de dólares en la formación de Huawei, y según reportes de las mayores agencias de inteligencia e investigación estadounidenses (el FBI, la CIA y la NSA) el gobierno chino tiene muchos intereses en todo lo que ocurre a nivel técnico en Huawei. Incluso, según legisladores estadounidenses, Huawei representa una amenaza a la seguridad nacional de los EEUU, ya que según reportes, en todos los dispositivos de Huawei el gobierno chino tiene acceso a circuitos de vigilancia que daría acceso al gobierno chino a tales dispositivos remotamente, para fines de espionaje o ataques cibernéticos, y no solo con celulares, sino además con todos los equipos de redes que también vende Huawei. Debido a eso tanto los EEUU como países como Canadá y el Reino Unido han prohibido (desde el 2014) la compra y uso de dispositivos de Huawei, Honor y ZTE a nivel gubernamental, y particularmente a nivel militar. Y en estos días no ha sido solo Google que ha dejado de negociar con estas empresas, también lo han hecho Intel, Broadcom, Qualcomm, e Infineon, empresas que proveen componentes claves para Huawei en varios aspectos tecnológicos. En resumen, los EEUU ven a Huawei como una estrategia bélica de China, en un mundo post-nuclear, en donde es más fácil hacer daño a una nación por medios del caos cibernético que por medio de armas convencionales. Y con este contexto es fácil ver como en enero del 2018, apenas días antes de que Huawei entrara en grande y de forma oficial al mercado estadounidense (hasta ese entonces los celulares Huawei se vendían de forma informar por medio de portales como Alibaba o minoristas en Amazon), su principal aliado AT&T decidió cancelar la sociedad, siendo esa una primicia de lo que veríamos este fin de semana pasado. Pero, ¿qué fue lo que sucedió este fin de semana pasado? Pues como ya muchos sabrán, hace poco el gobierno de Trump inició su guerra de intercambio comercial con China (y China ha respondido recíprocamente), y dado el contexto que acabo de exponer, esta guerra económica fue la excusa perfecta para que las fuerzas militares y de inteligencia de los EEUU pidieran al gobierno de Trump que pusiera a Huawei en una lista negra (junto a naciones como Corea del Norte y Cuba), para evitar que la tecnología china entrara lo menos posible a suelo estadounidense. O en resumen, esto no tiene nada que ver con la excusa oficial de que esto es simplemente parte de una "guerra económica", sino más bien que sirvió de excusa para pelear de forma semi-diplomática una guerra cibernética tras bastidores. La guerra económica de Trump ha servido como un escudo virtual para la invasión de China a EEUU por medio de Huawei. Y gran invasión iba a ser, ya que es bueno notar que Huawei gracias a la inyección de capital del gobierno chino creció en pocos años a ser la empresa de celulares (en términos de unidades vendidas) #2 de todo el mundo, por encima de Apple y detrás de Samsung (que si no hubiese sido por estos acontecimientos, hubiese sucumbido el puesto #1 ante Huawei posiblemente este mismo año). ¿Y necesitan más evidencia de que esta no es una simple guerra económica sino cibernética?: A finales del año pasado las autoridades canadienses arrestaron por solicitud del Departamento de Justicia de los EEUU a Meng Wanzhou, nada más y nada menos que el Gerente General de Finanzas de Huawei, con 23 cargos criminales en su contra que iban desde lavado de dinero y malversación de fondos, hasta fraude electrónico, robo de Secretos de Estado, y conspiración de defraudar al gobierno de los EEUU. Bienvenidos a la nueva forma de hacer guerra en el Siglo 21... ¿Quiénes se benefician de esto y qué sucederá en el futuro? Para responder esta pregunta es importante notar que Huawei hasta este fin de semana pasado era el fabricante de celulares con el más rápido crecimiento del mundo, pisándole casi los talones a Samsung, por lo que es fácil notar que en el sector privado el mayor ganador de todo esto será posiblemente Samsung, quien sin duda recibirá una gran migración de usuarios de Huawei que desde ya deben estar pensando en sus opciones... Sin embargo, no den por vencida a Huawei... Algo que muchos en el mundo occidental desconocen es que en China los celulares Android que se venden allá por defecto no se venden con los servicios o aplicaciones de Google pre-instalados (ya que son controladas y/o prohibidas por el gobierno, que requiere en tierra China un control absoluto de la población), por lo que los chinos ya están acostumbrados a vivir sin Google, y ya tienen aplicaciones equivalentes a GMail, youTube, Chrome, y el Play Store, y adaptadas a la cultura local. Y otro punto a favor de Huawei en China es que esta es considerada localmente como un orgullo nacional, y es utilizada en propaganda nacional como un emblema en contra de occidente, y una herramienta con la cual los chinos pueden demostrar una "superioridad tecnológica" en contra de los estadounidenses. Incluso, horas después de Google haber realizado su anuncio el fin de semana, las noticias más populares en portales y redes sociales chinas como Weibo y Douyin eran en apoyo nacional a Huawei. Incluso una de las noticias más calientes en actualidad es sobre el sistema operativo "HongMeng" que Huawei en cooperación con la Universidad Jiatong en Shanghai ha estado desarrollando desde el 2012. Y eso nos lleva al otro ganador en esto: Google. Google sabe desde hace años que Huawei ha estado preparándose para hacer un intento de destronar a Android, con un proyecto que internamente llaman "Kirin OS" (que se cree está basado en HongMeng), que es esencialmente una capa altamente optimizada encima del sistema operativo Linux, y optimizado tanto para dispositivos móviles como dispositivos de mayor tamaño (como laptops y estaciones de trabajo de escritorio), por lo que con esta movida Google empuja (o fuerza) a Huawei a jugar su As bajo la manga y sacar (si se atreve) a Kirin a la luz pública lo antes posible. Pero, de hacer Huawei esto, ¿tendría éxito? Mi opinión es que solo tendría posibilidades de éxito en territorio chino (y quizás otros mercados de tercer mundo o de lugares similares a China como la India), ya que no veo a consumidores asumir una nueva plataforma más cuando ya tienen la opción de iPhone o decenas de fabricantes Android con un vibrante ecosistema de aplicaciones, y al menos en gran parte de occidente dudo que la mayoría de consumidores compren un equipo en donde no puedan tener a Google, Chrome, YouTube o GMail, por lo que en este aspecto Huawei va cuesta arriba. Ahora bien, ¿significa esto que Google jamás podrá vender Android a Huawei? No necesariamente... Notemos que Trump está utilizando a Huawei realmente para dos fines aquí: Por un lado está utilizando la excusa de la guerra económica como una manera de frenar la entrada de equipos Huawei a tierra estadounidense, pero por otro lado la está también utilizando como un mecanismo de negociación. Una cosa es que a Huawei se le prohíba vender equipos al gobierno estadounidense, pero otra es que empresas estadounidenses no puedan hacer negocio con Huawei. Eso significa que si Trump logra alguna concesión de China, que nada evita que a cambio permita que Google pueda volver a negociar con Huawei, permitiendo así que Huawei continúe creciendo globalmente, aun no pueda tener acceso al gobierno estadounidense (y potencialmente a los consumidores estadounidenses a gran escala). En resumen: Huawei se ha convertido realmente en una ficha estratégica, en donde por un lado el gobierno estadounidense se protege de una potencial invasión cibernética china, y por el otro lado obtiene un arma de negociación en su guerra económica contra esa nación. Así que no duden que no hemos visto el final de esta novela, aun faltan capítulos interesantes por ver... - Recuerden seguir @eliax por instragram para noticias y curiosidades diarias, y a @cineliax por instagram para recomendaciones y curiosidades diarias sobre el mundo del cine. - ACTUALIZACIÓN 1: La Cámara de Comercio de los EEUU anunció hoy lunes 21 de Mayo 2019 (apenas horas de yo haber escrito esto artículo) que oficialmente permitirá por un período de 90 días iniciando hoy (hasta el 19 de Agosto) que empresas estadounidenses puedan lidiar con Huawei/Honor/ZTE por un periodo especial de 90 días con fines de poder actualizar los equipos de usuarios existentes con actualizaciones de seguridad. Esta noticia por un lado es buena ya que oficialmente extiende la vida de uso para los usuarios de celulares de estas empresas un poco más, pero por otro lado también parece indicar que pasado el 19 de Agosto Google no podrá ofrecer ningún tipo de actualización a tales equipos, independientemente del tiempo restante de soporte que Google tenga para tales equipos. ACTUALIZACIÓN 2: Hoy 22 de Mayo 2019 se filtró un documento de la empresa ARM quien ha dado instrucciones a todos sus empleados de cortar toda relación con Huawei. Esto es super importante ya que si Huawei pierde su licencia de procesadores ARM eso significa que no podrá fabricar ningún tipo de celular Android en lo absoluto por el momento, ya que ARM es la base del 100% de la industria celular (incluyendo a Apple con sus procesadores A-Series que utilizan la arquitectura ARM como base). Nota a técnicos: Android OS como ya sabrán es una capa por encima de Linux, por lo que en teoría Android puede ejecutar en cualquier arquitectura que ejecute Linux, e incluso en los primeros días de Android surgieron equipos que utilizaban chips de Intel x86. Sin embargo, la gran ventaja de ARM es su bajo consumo energético en relación a x86 y otras arquitecturas, por lo que esto se la pone difícil a Huawei. Aparte de eso está el hecho de que a través de los años Google ha hecho optimizaciones a Android que dependen específicamente de ARM (que se ha convertido en el estándar por defecto para móviles). ACTUALIZACIÓN 3: Siguiendo con la novela, lo último que vemos (23 de Mayo 2019) es que ahora varias empresas de telefonía también le están dando la espalda a Huawei, eso incluyendo a empresas telefónicas en el Reino Unido, Corea del Sur, Taiwan y Japón, por lo que la situación se pone cada vez más fea para Huawei. Todo esto lo que está es empujando a Huawei (y por extensión, al resto de las empresas chinas) a que desarrollen su propia linea de procesadores, sistemas operativos y ecosistemas de aplicaciones, lo que hará del panorama tecnológico algo bastante interesante en los próximos años... ACTUALIZACIÓN 4: La WiFi Alliance, la SD Card Alliance, (y se espera que también la Bluetooth Alliance) han emitido que se desvinculan de Huawei también. Ojo, que eso no significa que Huawei no podrá incluir esas tecnologías en sus futuros dispositivos, sino que ya no podrá colaborar en esos estándares ni tampoco se le validará implementaciones de ellos con esas tecnologías, lo que significa que tendrán que comprar esas implementaciones a terceros en vez de ellos mismos poder implementarlas con sus propios chips, lo que sin duda incrementaría los costos de sus equipos. ACTUALIZACIÓN 5: Facebook, Instagram, o WhatsApp ahora se unen al bloqueo a Huawei y no podrán venir pre-instalado en celulares de la empresa, y desde que expire el periodo de gracia de 90 días tampoco podrán ser instalados en sus equipos (ya que de todas formas después de esos 90 días los equipos Huawei tampoco podrán tener acceso al Play Store para instalar aplicaciones en general desde la tienda de Google). ACTUALIZACIÓN 6: El fin de semana del 29 de Junio 2019, se hizo público que Trump ha autorizado a algunas empresas de EEUU a reanudar hacer negocios con Huawei (específicamente empresas como Intel que proveen piezas a Huawei para sus equipos). Sin embargo esto ha sido interpretado por los medios como que ya todo ha regresado a la normalidad con Huawei, lo que no es cierto. Esto solo permite que algunas empresas estadounidenses vendan sus productos a Huawei, pero no que Huawei pueda volver a vender sus equipos y actualizar sus tiendas de Google Play con sus celulares. Sin embargo, la administración Trump sí ha emitido comentarios de que es posible que en los próximos días se regularicen las relaciones entre Huawei y los EEUU (esto según analistas, como una concesión de Trump hacia China, que también está dispuesta a negociar con los EEUU con tema de las tarifas). La novela continúa... ACTUALIZACIÓN 7: Acaba de salir a la luz (Dic 25 2019) un articulo del prestigioso periódico Wall Street Journal (WSJ) en donde después de una exhaustiva investigación encontraron que Huwaei definitivamente tenía lazos muy fuertes y estrechos con el gobierno chino. Entre las evidencias que encontraron se encuentran cosas como que el gobierno chino le dio acceso a Huwaei a más de US$75,000 Millones de dólares, de los cuales tomó prestado US$46,000 millones, y de paso el gobierno le dio incentivos fiscales por un valor de US$25,000 Millones de dólares, y todo esto después de Huwey haber alegado que la poca ayuda que había recibido del gobierno chino había sido "pequeña y no material". Pueden leer el artículo investigativo original en este enlace del WSJ, y acá en un resumen de Tech Crunch. ACTUALIZACIÓN 8: El mismo WSJ acaba de obtener información (12 de febrero 2020) de que los EEUU por fin demostró evidencia clara de que Huawei definitivamente modificó sus equipos (particularmente celulares) para que el gobierno Chino tenga acceso a estos dispositivos remotamente. Según el WSJ, los EEUU acaban de presentar la evidencia tras bastidores en una reunión con el Reino Unido y Alemania (fuente) autor: josé elías |
53 comentarios
767,588 vistas |
Celulares / Móviles , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Tecno-Seguridad |
lunes, marzo 25, 2019
|
Hola amig@s lectores,
Hace unas horas Apple tuvo su esperado evento orientado a Servicios, en donde anunció 4 nuevas iniciativas: Apple Card, Apple tv+, Apple News+, Apple Arcade. Y aunque hay mucha emoción sobre una que otra cosa (y decepciones como es normal por el camino), hoy creo es un día monumental para Apple, y no por su nueva estrategia con video-juegos o noticias o televisión, sino por su Apple Card, debido a algo que predije en mis conferencias del 2011 en adelante (y que hice mención escrita en este artículo del 2013, mucho antes de existir incluso rumores sobre Apple Pay y sus derivados). Sin embargo resumamos brevemente lo anunciado con los otros servicios, así como déjenme expresarles mi opinión sobre cada uno de ellos, antes de entrar en materia sobre lo que realmente les quiero hablar hoy (la entrada del Apple al sector financiero). Leer el resto de este artículo... autor: josé elías |
27 comentarios
697,562 vistas |
Apple / OS X , Cine / DVD / Blu-ray , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Tecno-Seguridad , Video-juegos |
sábado, febrero 23, 2019
|
Hola amig@s lectores,
Si siguen noticias sobre tendencias tecnológicas, es posible que en estos días hayan escuchado bastante la palabra "Marzipan" con relación a Apple, y de paso quizás hayan leído algo hablando sobre la posibilidad de que Apple aparenta que no solo integrará sus sistemas operativos macOS y iOS (en lo desde hace tiempo yo llamo el "appleOS"), sino que además hablen de rumores de que Apple incluso abandonará a Intel en sus Macs y adoptará sus propios chips ARM. Si son lectores asiduos a #eliax ya sabrán que estos analistas, influencers y gurús han llegado un tanto tarde a la fiesta, por lo que repasemos para ellos un poco antes de entrar en materia... Leer el resto de este artículo... autor: josé elías |
13 comentarios
638,738 vistas |
Apple / OS X , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
"¿Sabes qué es lo bueno de verlo acá?, EL LENTE con el que se ve. Cualquiera puede verlo como unos viejos borrachos haciendo idioteces, pero en este caso es una exaltación a la amistad, al sentimiento, así no parezca."
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax