Software
miércoles, septiembre 4, 2024
|
Hola amig@s lectores,
Si les dijera que este artículo completo fue escrito por una Inteligencia Artificial (IA), ¿me lo crearían? Hace apenas dos años atrás quizás no, pero con la llegada de una nueva generación de IAs del tipo LLM (Large Language Model) como ChatGPT es posible que muchos de ustedes no sepan qué responderme. Y eso, es un problema. Aunque por un lado estamos adentrándonos en uno de los más emocionantes (sino, el más emocionante) momentos de la humanidad, a la misma vez esto trae consigo un nuevo tipo de problemas, problemas que aunque no son totalmente nuevos (me refiero a la capacidad de hacer creer que algo ficticio es real) sí podemos decir que amplifica de forma exponencial esos problemas anteriores. Como ejemplo, el año pasado se hizo viral una imagen del Papa Francisco aparentemente modelando un abrigo de nieve en una pasarela, y poco después se hizo viral otra imagen de Elon Musk aparentemente enamorado de una mujer cibernética, y recientemente hemos visto personas como Donald Trump utilizar tecnología deep fake e imágenes de famosos creadas enteramente por software para hacer aparentar que esas personalidades apoyan su segunda candidatura presidencial en los EEUU. Pero eso apenas es el comienzo… Nos estamos adentrando a un mundo en donde no vamos poder estar seguros de nada de lo que leemos, vemos o escuchamos, y esto tendrá graves repercusiones sociales de forma masiva, al menos que tomemos medidas al respecto (medidas que sugiero más adelante en este mismo artículo). Imaginen por ejemplo si llega un reclamo a una empresa de seguros, con no solo evidencia de audio de una llamada telefónica pidiendo auxilio, sino además fotografías desde múltiples ángulos del accidente reportado, y hasta video de una cámara de seguridad cercana a los hechos. Hasta hace par de años esta evidencia se hubiese considerado prueba contundente de que el supuesto accidente reclamado realmente sucedió, y la empresa aseguradora hubiese sido obligada a pagar potencialmente millones en daños. Pero, hoy día, ¿cómo podemos estar seguros de que esa llamada telefónica, esas fotos y ese video no fueron generados por las más recientes versiones de programas como Midjourney o Sora de OpenAI? Similarmente, si recibes una llamada de emergencia de un familiar cercano, y la voz es idéntica a esa persona, e incluye incluso el tipo de lenguaje que utilizaría, con las mismas expresiones que caracteriza a esa persona, ¿enviarías algo dinero de ayuda a esa persona para sacarla de un apuro? Si la pregunta anterior les intrigó, noten el caso de un ejecutivo de una empresa multinacional con sede en Corea del Sur, a quienes unos hackers estafaron US$25 Millones de dólares al convencer a alguien en la empresa para que transfiriera esa cantidad de dinero. ¿Y cómo lo lograron? Pues convocaron a una víctima en el departamento de finanzas (que teníala capacidad de hacer transferencias bancarias) a una reunión virtual con el supuesto General General de Finanzas y varios otros ejecutivos de alto nivel de la empresa para discutir un asunto urgente, y sucede que todos los “ejecutivos” de la reunión habían sido personificados con tecnología deep fake para crear avatars/clones de ellos que se veían, hablaban y comportaban como los seres humanos que reemplazaban. Es decir, en esa llamada de videoconferencia grupal, la única persona real era la víctima, y todos los demás integrantes que participaron en la videollamada eran clones digitales de sus otros compañeros de trabajo y superiores de la empresa. Estos avances en Inteligencia Artificial Generativa (IA que genera desde cero cualquier tipo de contenido que puedas imaginar) están proveyendo a una nueva generación de criminales digitales un nuevo conjunto de herramientas para engañar, estafar, atacar, sabotear, sobornar y robar a una escala hasta hace poco inimaginable. Estamos literalmente entrando a un umbral en donde se está haciendo extremadamente difícil (por no decir casi imposible) distinguir lo real de lo falso. Y el gran problema que eso trae es que la sociedad humana desde sus orígenes se mantiene estable en base a una sola cosa: La confianza. ¿Y cómo podrá funcionar una sociedad en donde no exista confianza a nivel personal, profesional, institucional o a cualquier otro nivel? Es decir, ¿cómo sabes que la tienda a la cual le estás comprando algo online es real? ¿Cómo sabes que el portal o app de tu banco no es uno falso? ¿Cómo sabes que con quien estés hablando en una videoconferencia es quien dice ser? ¿Cómo sabes que el video que viste de un ser querido supuestamente haciendo una fechoría es real? ¿Cómo sabes que los resultados de tus búsquedas en Internet son reales? ¿Cómo sabes que el video de tu hija haciendo pornografía no es real? ¿Cómo sabes que la empresa con la cual llevas semanas negociando es real? ¿Cómo sabes que las autoridades gubernamentales que te están demandando un pago de impuestos es real? ¿Cómo sabes que un documento científico que estás leyendo es real y cita fuentes reales y contiene datos reales? ¿Cómo sabes que las noticias que estás viendo es real? ¿Cómo sabes que lo que dice el próximo candidato presidencial es reall? Bajo este nuevo esquema social que estamos entrando gracias a la IA Generativa se hará casi imposible operar, creer o maniobrar, y podríamos fácilmente llegar a un estancamiento social de proporciones épicas. Sin embargo, hay soluciones que podemos implementar como sociedad. La primera es una recomendación que hago a nivel familiar y de amigos cercanos, y es la de crear una palabra o frase clave que solo ustedes conozcan, y que nunca hayan comunicado de forma digital en ningún momento, de modo que si algún día reciben una llamada de emergencia o de alguna otra índole dudosa, ustedes puedan preguntar la palabra o frase clave para verificar la identidad de la persona al otro extremo de la comunicación. Así que por ejemplo, si en una reunión familiar nos ponemos de acuerdo de que nuestra palabra de seguridad será “Segismundo”, y posteriormente recibes una llamada de un familiar aludiendo una emergencia y pidiendo una transferencia de dinero, lo primero que le preguntarías es la palabra clave secreta. Si la persona no pueda contestarla (o al menos decirte el lugar y otros datos del día en que acordaron la clave) eso significa entonces que esa persona está posiblemente siendo personificada por un hacker con tecnología deep fake. La segunda sugerencia es una sugerencia tecnológica que debemos exigir se integre a toda tecnología que capture o genere contenido en cualquier formato (sea texto, sonido, imágenes o videos), y tiene que ver en que desde su misma fuente debemos poder codificar una firma digital que podamos verificar contra alguna fuente. Así que por ejemplo, bajo este esquema toda cámara digital, todo celular, todo micrófono y toda IA que genere imágenes, texto, sonido o video debe poder incrustar información que permita comprobar que el cotenido o fue (1) generado por medios “orgánicos” (como por ejemplo, un video que capturaste en un cumpleaños) o (2) por medios sintéticos (como un video de un cumpleaños imaginario generado por una IA), así como proveer información de su fuente (como el autor, fecha de creación, etc). De esta manera, si vemos una noticia o leemos un libro o artículo, o recibimos una llamada de audio o participamos en una videoconferencia, podemos tener algún grado de certeza de que lo que percibimos es real o sintético y de su actual procedencia. Para esto es necesario desarrollar estándares tecnológicos en la industria para que la información capturada (por ejemplo) por una cámara digital esté cifrada desde el momento que es capturada por su sensor de imagen, y para que una firma digital sea parte de la imagen antes de que esta se almacene o esté disponible para distribuirse, y de paso que en cualquier momento se pueda detectar si el contenido fue alterado en lo más mínimo. Una buena noticia es que ya existe una iniciativa de parte de algunos fabricantes de cámaras y líderes de la industria para crear algo similar, e incluso ya existen algunas cámaras profesionales del mercado con tecnología similar a esto, y de paso ya existe investigación para crear sistemas que incluyan watermarks (“sellos de agua” digitales) en habla generada por IA Generativa, e incluso ya existe una propuesta de ley en el estado de California en EEUU para requerir que todo contenido sintético tenga que venir con un watermark, por lo que poco a poco veremos este tipo de tecnología esparcirse a todo sistema que genere contenido de alguna forma. Y esperemos que estas soluciones ocurran más temprano que tarde, ya que de no ser así nos arriesgamos a que la falta de confianza en nuestros sentidos nos lleven a un caos social con resultados posiblemente catastróficos para la humanidad. - p.d.: Para los curiosos sobre la pregunta que puse al inicio del artículo, no, este articulo no fue escrito por una IA. O al menos eso le digo a ustedes… Actualización El lector Sergio Hernandez hizo una buena observación en los comentarios sobre el tema de firmas digitales, y respondí a su comentario para aclarar que cuando hablamos de una firma de agua digital hablamos de una firma criptográfica basada en el concepto de un Hash (y por extensión en cifrado de datos con llaves públicas y privadas), sin embargo esos son conceptos demasiados técnicos que extenderían demasiado este artículo, lo importante es el concepto de poder verificar la fuente de algo. autor: josé elías |
21 comentarios
197,808 vistas |
Audio / mp3 , Cámaras Digitales , Celulares / Móviles , Ciencia , Derecho Digital , Educación , Futuro Digital , Internet , Negocios , Opinión / Análisis , Predicciones , Psicología , Redes Sociales , Robots & I.A. , Software , Tecno-Seguridad , Tecnología Visual |
miércoles, agosto 17, 2022
|
¿Imaginan un futuro en donde por fin no tengan que entrar una clave más en una página web o app para poder acceder? Pues ese futuro ya está aquí, y hoy les explico cómo funciona.
Lo que permite esto es una técnica que en sí existe desde hace años y se llama "criptografía de llaves públicas y privadas", sin embargo hasta recientemente esa técnica se ha utilizado para temas muy específicos de bajo nivel de los cuales la mayoría de usuarios desconoce (por ejemplo, es lo que permite que salga "el candado" que protege tu navegador de Internet cuando estás entrando tus credenciales y compras, y es lo que también permite que distintas entidades bancarias transmitan entre sí información de forma segura por el internet público). Pero desde el 2016, una de las entidades que vela por la estandarización del internet (la W3C) emitió un estándar llamado WebAuthn que por fin está siendo adoptado por las grandes empresas que tienen plataformas con miras al usuario común (como Apple, Google y Microsoft), y que permitirá que por fin nunca tengas más ni que crear, memorizar o escribir claves. Y la razón que escribo este artículo hoy es porque estamos a semanas de que Apple lance su tecnología PassKeys en iOS 16 y en macOS Ventura, que permitirá que cientos de millones de personas inicien a utilizar esta tecnología, lo que la popularizará y masificará y hará que otras plataformas como Android y Windows (que también ya ha sacado tecnologías similares) también expandan su base de usuarios con sus respectivas tecnologías libres de claves que también interoperarán por medio del estándar WebAuthn. Ok, ¿cómo funciona esto? Para entender utilicemos una analogía de cómo funcionan los sistemas tradicionales de "login" de hoy día: Hoy día cuando entras a una página web o app que solicita tu usuario y clave, en esencia lo que está ocurriendo es que la página web o app te está pidiendo que le pases la llave de un candado digital que ellos tienen almacenados en su servidor o app. Y si tu llave abre ese candado entonces eso significa que tus credenciales son válidos y te permiten entrar. Pero en el caso de WebAuthn y PassKeys, lo que sucede es que la página web o app te envía a ti tu candado, y si tu logras abrirlo para ellos entonces esa es la señal de que tus credenciales son válidos ya que tú debiste haber tenido la llave que abre el candado. Eso de paso significa que los administradores de la página web o app nunca tienen acceso a tan siquiera ver tu llave que abre el candado de seguridad, ya que la llave la mantienes tú en todo momento. Pero, ¿cómo es esto posible? Pues lo que sucede tras bastidores es realmente bastante simple: Se utiliza un par de llaves, una privada y una pública, que están relacionadas matemáticamente entre sí, en donde lo que tú cifres con la llave privada solo puede ser descifrado por la llave pública, y viceversa. La llave privada siempre permanece almacenada localmente en tu dispositivo local (digamos, tu celular como ejemplo), y la llave pública (que en este caso podemos ver más como un candado) se la das a todo el mundo que desee poder darte acceso a su página web o app. Y de la manera que funciona el mecanismo es que en el momento que visitas una página web o app por primera vez tu dispositivo le provee automáticamente tu llave pública (el "candado") junto con cualquier otra información requerida (nombre, email, etc). Esto crea tu cuenta y nota que nunca tuviste que escribir una clave. Después de ahí cuando desees entrar a tu cuenta lo que sucede es que la página web o app le pregunta a tu celular quien eres, y este le da tu usuario (digamos, tu email) en cuyo momento la página web o app responde enviándole a tu dispositivo un mensaje cifrado con tu llave pública (el candado), y lo que tu dispositivo tiene que hacer ahora es utilizar tu llave privada (que solo tienes tu) para descifrar el mensaje y que la página web o app sepa que tú eres realmente quien dices ser. Esto es posible ya que solo tu llave privada puede descifrar un mensaje cifrado con tu llave pública. Y es bueno notar que en el paso en donde la página web o app envía tu llave pública que en ese momento tu dispositivo utiliza los datos biométricos asociados a tu dispositivo (como por ejemplo tu huella digital o cara, con tecnologías como Touch ID o Face ID de Apple) para enviar el mensaje cifrado al chip de seguridad de tu celular para que este descifre el mensaje con tu llave privada. O en otras palabras, tus datos biométricos ahora se convierten en tu forma de acceder a una página web o app. Así que en la práctica para entrar por ejemplo a una página web o app el procedimiento sería el siguiente: 1. Visitas la página web o abres el app. 2. Escaneas tu huella digital o cara en el celular. 3. Y esto es todo. Entras inmediatamente al app. Pero ojo, que no es tan solo que ahora con tu huella o cara puedes entrar a una página web o app sin tu hacer nada, la otra gran ventaja de esto es que no existen claves en ningún paso que tengas que crear, almacenar o recordar. Esto es sin duda alguna la forma más transparente que existe a la fecha para que accedas a tus datos sin necesidad alguna de utilizar claves. Pero aparte de que ya no existirían claves que tengas que manejar, la otra gran ventaja de este mecanismo es que eliminarían gran parte de los riesgos de seguridad que existen en el momento que hackers malignos traten de adivinar o robarte tu clave, ya que no hay clave para robar por ningún lado. Incluso si un hacker tuviese grabando todo lo que haces en la pantalla de tu celular, o instalara uno de esos programas troyanos que monitorean tu teclado, aun así no podrán acceder a tus páginas web o app ya que el mecanismo realmente depende de que tu celular utilice tu llave digital privada para descifrar mensajes cifrados con tu llave pública, y esa operación ocurre en un área protegida de tu celular (en iPhones ocurre en el Digital Enclave, un chip que solo puede ser desbloqueado por ti y cuya firma digital almacenada no puede sacarse de ese chip incluso por medio de programación de software; y en Windows y Android existen mecanismos similares: en Windows con la tecnología TPM y en Android hay ejemplos como la tecnología Knox de Samsung). Habiendo dicho todo eso, he aquí ahora algunas respuestas a preguntas que quizás tengan sobre esta tecnología: 1. ¿Cuál es la diferencia entre esto y el usar un Password Manager (Gestionador de Claves) que utiliza mis datos biométricos? Un Gestionador de Claves con lo único que te ayuda es en almacenar tus claves en un lugar centralizado en una zona relativamente segura, y en escribir las claves por ti en páginas web y apps, pero sufren del tema de que todavía estás teniendo que depender de una clave que hay que escribir en algún formulario, y por tanto no te protege en lo absoluto de las más populares formas de ataque (como leer tu teclado, infectar una página web con malware, o simplemente adivinar tu clave de forma bruta probando millones de combinaciones una a la vez). 2. ¿Qué sucede si quiero que alguien más entre a mi cuenta con mis credenciales, no podrán hacerlo si no tienen mis datos biométricos? Para esto esos usuarios tendrían o que (1) entrar de forma tradicional con un usuario y clave, lo que no es muy seguro, o (2) imagino que en un futuro cercano será posible que desde tu celular des permiso en tiempo real a esa otra persona de forma remota para que entre (similar a como con el sistema de ScreenTime de Apple los padres podemos autorizar que nuestros hijos compren cosas por Internet desde sus propios celulares). 3. Si soy usuario de Apple o Google y quiero acceder a un servicio de otro proveedor como Microsoft, Amazon, eBay u otro ¿tengo que tener un dispositivo en esa plataforma para acceder o recrear mis datos biométricos con ellos de alguna forma? La tecnología WebAuthn es totalmente interoperable, por lo que funcionará de forma transparente entre distintas plataformas, proveedores y dispositivos. Eso significa por ejemplo que un usuario de Android que haya instalado el app iTunes de Apple en su celular podrá seguir utilizando sus credenciales de su celular Android para acceder a los servicios de subscripción de Apple sin necesidad de entrar claves. 4. ¿Qué sucede si mi dispositivo no tiene capacidades biométricas para por ejemplos leer mi huella digital o escanear mi cara en 3D? Es posible (a opción del proveedor de tu celular o laptop por ejemplo) de utilizar WebAuthn sin datos biométricos, utilizando un PIN de unos cuantos dígitos, sin embargo esta opción no es tan segura ni conveniente como la opción biométrica, aunque ciertamente es más segura y conveniente que la forma tradicional de hacer login. Mi recomendación es que opten por celulares que al menos puedan leer la huella digital, y noten que ya la nueva generación de laptops y teclados están soportando leer tus huellas digitales (como por ejemplo todas las nuevas laptops de Apple, así como sus teclados externos con Touch ID), por lo que en cuestión de 2 a 5 años esta será la norma. 5. He leído que hackers han podido sacar copias 3D de huellas digitales, ¿no comprometerá eso la seguridad de esta tecnología? Una ventaja de esta tecnología es que tu llave privada está almacenada en tu celular o laptop a mano, por lo que incluso si alguien clonara tu huella digital no les serviría de nada al menos que también tengan acceso físico a tu celular para poner la huella en el lector. 6. ¿Y qué tal de hackers que ponen fotos o estatuas de réplica de una persona para engañar el sistema biométrico de tu cara? El mismo comentario anterior de huellas digitales aplica aquí, si los hackers no tienen acceso a tu celular físicamente no pueden tener acceso a tus credenciales. Noten además que hay dos tipos de reconocimiento facial. Hay una que es utilizada por muchos celulares Android que lo que hacen simplemente es sacarle una foto a tu cara y compararla con una foto previamente tomada. Esta forma no es segura para acceder a tu celular (y recomiendo no utilizarla) ya que es fácilmente penetrable con solo mostrarle una foto de tu cara al celular (lo he hecho personalmente con amigos). La otra forma es lo que hace Apple con Face ID que es totalmente diferente: El iPhone dispara más de 30,000 puntos invisibles a tu cara con los cuales crea una máscara virtual en 3D, cuyos datos combina también con una imagen previamente tomada de tu cara en 2D y 3D, y de paso el iPhone observa tus pupilas para asegurarse de que estés vivo y atento a la pantalla (por eso es que el iPhone te solicita que veas el celular directo). Esto es muchísimo más seguro y es la forma recomendada de implementar reconocimiento facial, y razón por la cual para temas biométricos el iPhone es permitido por varias instituciones financieras para asegurar tus transacciones con tu cara, mientras que no lo permite con varios otros tipos de celulares. En el mundo Android, cuando estés en duda, opta por el momento de escribir este artículo en autenticación biométrica con tu huella digital, al menos que al leer las especificaciones técnicas de tu celular sepas y entiendas qué tipo de autenticación biométrica facial realiza. --- Actualización Febrero 2023: Apple recientemente con iOS 16.3 y macOS 13.2 permite el uso de llaves en hardware para sus dispositivos iPhones, iPad y Macs, lo que se une a la misma funcionalidad que también se puede obtener en Windows y en algunas versiones de Android. Con este tipo de llaves o "Hardware Keys" es posible asegurar aun más tu cuenta, ya que para iniciar sesión en cualquier nuevo dispositivo con tu cuenta debes conectar físicamente (en un puerto USB-A o USB-C o Lightning) o de forma inalámbrica cercana (con NFC, como en todos los iPhones recientes) una llave en forma de memoria USB que contiene tus credenciales para poder entrar. En la implementación de Apple es requerido que tengas que activar dos llaves como mínimo (y un máximo de 6) con la finalidad de que si se te pierde, avería o te roban una, tengas una segunda de repuesto para emergencias. Nota que si por alguna razón pierdes accedo a tus llaves, que Apple te permite devolver a entrar de forma manual con tu clave y PIN siempre y cuando tengas habilitada la función de Autenticación de Dos Factores (2FA, o Two-Factor Authentication), pues es la única forma que pueden asegurarse (en la medida de lo posible) que nadie te pueda hackear remotamente. autor: josé elías |
24 comentarios
879,430 vistas |
Apple / OS X , Futuro Digital , Google , Internet , Linux , Negocios , Pregunta a eliax , Software , Tecno-Seguridad , Windows / Microsoft |
martes, diciembre 21, 2021
|
Hola amig@s lectores,
Antes de finalizar el año quiero hacer una breve reseña de las cosas tecnológicas más relevantes de este año 2021, desde sorpresas hasta cosas que cambiarán nuestras vidas en el futuro. Así que sin mucho más que decir, y sin ningún orden en particular, he aquí mi lista: 1. Iniciativa del Año: El Metaverso, por Meta (previamente llamada Facebook) El Metaverso no ha sido inventado por nadie en particular, pero Mark Zuckerberg se apropió del término y hasta renombró a su empresa Meta para demostrar lo serio que está con este tema. Y aunque falta ver si Meta será el principal o uno de los principales jugadores en todo esto del Metaverso (piensen de ello como el inicio a un mundo similar al de Matrix), lo cierto es que hay que darles crédito por no solo popularizar el término en la cultura popular, sino por animar al resto de a industria a tomar el concepto totalmente en serio. 2. Tendencia del año: NFT Si hay algo que junto con el Metaverso será parte fundamental de nuestro futuro tecnológico, es el concepto de los NFT (o Tókens No-Fungibles), que son el equivalente digital a tu ser propietario de cosas en el mundo fuera del ciberespacio. Lean más sobre NFTs aquí. 3. Palabra del año: NFT Y en segundo lugar "Metaverso". 4. Cripto-plataforma del año: Ethereum Aunque Bitcoin fue lo que indudablemente puso el tema de las criptomonedas en el mapa, en realidad ha sido Ethereum con su plataforma y su Ether que han estado revolucionando el espacio de las cripto-transacciones, permitiendo no solo pagar con monedas digitales sino proveyendo herramientas para crear toda una nueva generación de aplicaciones desentralizadas (como los NFTs). Y si les interesa el cripto-trading, acá un artículo al respecto. 5. Visor de Realidad Virtual del Año: Oculus Quest 2 Aunque este visor salió el año pasado, continúa al día de hoy siendo la mejor introducción al Metaverso que puedan comprar, y lo mejor de todo es que dependiendo dónde y cuándo compren su precio ronda entre los US$250 y US$300 dólares, que en mi opinión es una mejor compra que una consola tradicional de video-juegos que cuesta mucho más y no ofrece ni cerca del grado de inmersión que este equipo ofrece. Esta es una de las compras tecnológicas que más recomiendo a cualquiera. 6. Innovación Cinematográfica del Año: Empate entre (1) la cámara DJI Ronin 4D con tecnología flotante y LIDAR, y (2) la tecnología Cinema ProRes en el iPhone 13 Pro. La cámara DJI Ronin 4D es una cámara totalmente diferente a todas las que vinieron antes. No solo tiene un diseño en donde el sensor y el lente flotan delante de la cámara (para hacer imágenes super estables) sino que además incluye tecnología LIDAR para enfocar, lo que significa que la cámara crea una representación tridimensional de su entorno por medio de rayos láser para saber la distancia exacta entre el lente y el sujeto a grabar, permitiendo enfocar de manera super precisa no solo de día sino incluso en casi total oscuridad (la tecnología LIDAR es utilizada también por algunos fabricantes de automóviles robóticos para entender su entorno). Y en cuanto a la tecnología Cinema ProRes, de alguna manera Apple logró meter dentro del espacio de un celular (en este caso la versión Pro del iPhone 13) un encodificador del estándar de codificación de cine, ProRes, lo que le permite grabar video en crudo con una calidad que hasta ahora era solo posible en cámaras que costaban decenas de miles de dólares. Y de paso le agregaron un modo de desenfoque computacional a las imágenes para darle un "look" más cinemático a los videos. Si tienen un iPhone 13 Pro noten que esto deben activarlo en Configuración, y que si no saben lo que hacen no recomiendo lo utilicen ya que este tipo de videos genera archivos varias veces más grandes que videos normales. Esto está diseñado específicamente para profesionales que necesitan la más alta calidad posible (que tampoco será evidente hasta que sepan como manipular los parámetros del video generado para cambiar su exposición y otros factores). 7. Cámara Computacional del Año: Google Pixel 6 Hay dos maneras principales de crear imágenes fotográficas: De forma óptica (es decir, lo que sea que entre al sensor por el lente) y de forma computacional (es decir, se toman datos del lente y después se mejoran con computación), y un ejemplo de fotografía computación es la funcionalidad que popularizó Apple que permite desenfocar el fondo de una foto después de esta haber sido tomada. Sin embargo ha sido Google quien ha llevado esto a otro nivel con su nuevo celular Pixel 6, que en mi opinión es el mejor valor por tu dinero en el mundo Android en estos momentos. 8. Tecnología Revolucionaria del Año: Los procesadores M1 Pro/Max de Apple Cada cierta cantidad de años una tecnología surge que estremece los cimientos de su industria ocasionando grandes cambios, y la serie de procesadores M1 Pro/Max acaban de hacer eso. Estos procesadores no solo han creado un abismo en la relación precio/rendimiento entre Macs y las tradicionales PCs con Windows, sino que han creado toda una revolución que ahora están forzando a Microsoft y los demás participantes del mundo Windows a adoptar procesadores con tecnología ARM. Solo para que tengan una idea, una laptop MacBook Pro 2021 con el procesador M1 Max puede manipular en tiempo real hasta 7 fuentes de video 8K en crudo y HDR, lo que significa el manipular 56 veces más flujos de datos en tiempo real que un video 4K tradicional. Lograr eso en una PC tradicional requiere en la actualidad de comprar tarjetas de video especializadas que cuestan por sobre los US$5,000 dólares, y aun así no pueden manejar 7 flujos de 8K HDR simultáneos. Y todo eso lo hace un solo chip dentro de una MacBook Pro ahora. Y esto no es solo mercadeo. Todas las pruebas que ya se han hecho públicas por profesionales creativos han confirmado que una MacBook Pro M1 ya es entre 3 y 15 veces más rápida que una PC super potente costando varias veces más, utilizando el mismo programa en ambas máquinas (como Photoshop, Lightroom, etc). Y como si fuera poco, Apple logra todo eso con un super bajo consumo energético que permite que todo ese poder se pueda utilizar en una laptop corriendo en batería todo el día, sin conectar la corriente eléctrica a una pared, mientras que en el mundo Windows hacer lo mismo por lo general significa PCs de escritorio con power supplies halando al menos 250 vatios continuos como mínimo. Esto está provocando una ola de adopción y migración hacia Macs como nunca antes vista en la historia de Apple, y acelerando la llegada de una nueva generación de procesadores ARM para Windows en el 2022. Aprende más sobre la tecnología de chips propietarios de Apple aquí. 9. Sistema de Computación Personal del Año: Apple MacBookPro M1 Pro/Max Debido a las razones enumeradas en el punto anterior, en estos momentos no hay nada ni siquiera remotamente cercano a lo que puedes obtener en términos de rendimiento por tu dinero al comprar una MacBook Pro 2021 con procesador M1 Pro o M1 Max. 10. Innovación Cotidiana del Año: AirTags de Apple Los AirTags son objetos del tamaño de monedas grandes que dejas en tu automóvil, mochila, mascota, cartera o cualquier cosa que se te pueda perder o te puedan robar, y que te permite localizarlo rápidamente. Los AirTags es bueno notar que no tienen función de GPS con ellos, sino que dependen de que cerca de ellos existan personas con un iPhone, ya que Apple ha creado una red global en donde todos los iPhones del mundo se comunican de forma segura con los AirTags, y reportan su ubicación. Así que por ejemplo si te roban tu automóvil, y dejaste un AirTag adentro, es bastante posible que en algún momento algún desconocido que tenga un iPhone estará cerca de tu vehículo, en cuyo caso el AirTag se comunicará contigo y sabrás donde está tu auto (y claro está, que como todo en la vida, esto tiene sus usos buenos y malos como ya ha sido reportado de bandidos pegando AirTags a autos que desean robar para saber la ubicación de su propietario). 11. Sorpresa visual del año: La cámara Nikon Z9. Nikon salió literalmente de la nada con una cámara mirrorless (sin espejo) que ha no solo dejado atónitos a todos sino que dejado hasta mal parada a la competencia. Esta cámara aparte de poder disparar fotos a 20fps en RAW, 30fps en JPG, también tiene un modo especial para capturar 120 fotos por segundo en menor resolución. Esto la hace en una cámara ultra potente para deportes y acción. La cámara además tiene 45 Megapixeles con un impresionante rango dinámico lo que la hace también excelente para fotografía de bodas, retratos artísticos, y moda. Como si fuera poco graba video crudo con resolución 8K lo que de paso la hace una máquina ultra potente para el cine profesional. Una actualización gratuita próxima le permitirá grabar video12-bit 8K N-Raw y 4K ProRes RAW internamente, con 8K/60fps. Algo inaudito. Como si fuera poco, tiene un ultra-rápido sistema de enfoque automático 3D que se asegura que tus fotos salgan nítidas sin importar cuánto se mueva el sujeto que estás capturando en fotos o video. Y noten que aunque la cámara cuesta US$5,500 dólares, que eso es más barato que las cámaras de gama alta de Canon (la EOS R3) y Sony (la A1). 12. Renacimiento del año: Nikon Gracias a su cámara Z9, la empresa se acaba de levantar como el ave Fenix de sus cenizas. La empresa no ha podido fabricar suficientes para satisfacer la demanda. 13. Herramienta de Desarrollo de Software del Año: Microsoft Visual Studio Code No confundir con su otro producto llamado simplemente "Visual Studio", esta es la versión open-source que se ha tornado indispensable para toda una nueva generación de desarrolladores de software, gracias a su expandabilidad por medio de plug-ins que expanden su funcionalidad a esencialmente cualquier área imaginable de la computación. 14. Plataforma de Desarrollo Multi-Plataforma del Año: Google Flutter Si planean arrancar desde cero un App que deba compilar tanto para Android como iPhone, iPad, y ahora hasta Web, Windows, Linux y Mac, no creo exista mejor opción en el mercado que Flutter de Google. No solo genera Apps multi-plataforma sino que de muy alto rendimiento, y la más reciente versión ahora incluye librerías para video-juegos 2D de alto rendimiento. 15. Plataforma de Streaming del Año: Disney+ Disney+ no tiene ni cerca del contenido de Netflix, sin embargo se ha enfocado en algunos nichos que ha hecho que despegue más rápido que Speedy Gonzalez. Parte de su truco ha sido capitalizar sus franquicias de Marvel, creando series originales que solo se pueden ver por esa vía, como la excelente Loki. 16. Tecnología Científica del Año: El James Webb Space Telescope Si todo sale bien este telescopio se lanzará este próximo 25 de Diciembre 2021, y durará 1 mes para llegar a su destino a 1.5 millones de km de distance a un punto calmado y equilibrado grabitacionalmente, en donde desplegará una gran sombrilla espacial para bloquear la luz solar y poder observar el universo en tranquilidad como ningún otro instrumento en la historia de la humanidad. Su misión principal será la de observar los primeros 100 a 250 millones del años después del Big Bang (es decir, cuando nuestro universo era un bebé) para así entender mejor nuestros orígenes. Sin embargo la ciencia que hará será mucho más extensa que eso, tocando todos los campos de la astronomía y astrofísica a nuestro alcance, desde agujeros negros y posible materia oscura hasta la evolución de galaxias y el estudio de objetos exóticos como los cuásares. El lanzamiento de este instrumento es algo que hemos estado esperando desde el 1989 (a un costo de casi 10 mil millones de dólares) cuando se propuso por primera vez, por lo que esta será la misión con más nervios jamás lanzada al espacio por la humanidad. 17. Avance de Salud del Año: AlphaFold por DeepMind DeepMind es una inteligencia artificial de Google, y uno de los proyectos en que participó se llama AlphaFold, que ha permitido en tiempo record predecir como se doblan de forma tridimensional todo tipo de moléculas, específicamente proteínas de ADN. Esto es un paso monumental que en pocos años acelerará el descubrimiento de medicinas y tratamientos para todo tipo de enfermedades. 18. Viaje Espacial del Año: William Shatner (“Captain Kirk”) en la nave de Blue Origin Jeff Bezos (fundador de Amazon y Blue Origin) ganó muchos puntos de mercadeo este año al anunciar que enviaría al espacio a William Shatner, mejor conocido como el Capitán Kirk en la serie clásica de Star Trek ("Viaje a las Estrellas"), logrando con eso un sueño de muchos geeks de ver a este actor subir al espacio en la realidad. 19. Empresa Espacial del Año: SpaceX ¿Qué más podemos decir de esta empresa? Sencillamente no tiene igual. No solo hizo decenas de pruebas y lanzamientos (de cargo a naves espaciales exploratorias, de viajes a la Estación Espacial Internacional, y subiendo todo tipo de satélites), sino que está bien encaminada a cumplir su misión de llevar la humanidad al planeta Marte, como lo prometió su fundador Elon Musk. 20. Nave Espacial del Año: StarShip de SpaceX ¿Podrían imaginar un edificio rascacielos no solo despegando sino que volviendo a aterrizar de espalda nuevamente? Pues eso es exactamente lo que hace la nave StarShip que en el 2021 SpaceX logró demostrar que podrá cumplir su misión no solo de subir grandes cantidades de cargo al espacio, sino de llevarnos al planeta Marte. 21. Tecnología Espacial del Año: StarLink de SpaceX ¿Internet satelital de alta velocidad y baja latencia en cualquier parte del mundo y a un costo razonable? Envíenme el contrato rápidamente... Elon Musk es un genio certificado. 22. Empresa Automovilística del Año: Tesla Tesla casi por su propia cuenta ha sido la principal responsable a nivel mundial de popularizar los vehículos eléctricos, y no vemos fin a su buena racha. Cuando salga a la venta el Cybertruck será todo un fenómeno de ventas y de cultura popular. Una vez más, Elon Musk a la cabeza. 23. Personaje del Año: Elon Musk No hay sorpresas aquí. Este año ni siquiera hubo competencia remota para un segundo lugar a ponderar. Este hombre se está consagrando como el Leonardo DaVinci de nuestros tiempos, y todavía le falta mucho por vivir. autor: josé elías |
4 comentarios
1,150,111 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Cine / DVD / Blu-ray , Google , Negocios , Opinión / Análisis , Realidad Virtual , Redes Sociales , Salud , Software , Tecnología Espacial , Tecnología Visual , Vehículos , Video-juegos , Windows / Microsoft |
sábado, octubre 30, 2021
|
Hola amig@s lectores, Este artículo me lo han solicitado por años, e incluso es el tema que más me han solicitado para escribir, y la verdad es que hasta hoy me había negado a escribirlo de forma concienzuda. Verán, que por motivos que no detallaré aquí, que soy una persona que no le gusta apostar al azar (salvo uno que otro día que juego la lotería cuando viajo a EEUU o gasto US$20 dólares cuando visitó Las Vegas). Son muchas las personas que he visto en mi vida que a causa de las apuestas, el vicio de los juegos y de temas como proyectos piramidales y otras estafas, lo han perdido todo. Y la verdad es que no me gustaría sentirme jamás que he sido responsable de destrozar una familia o una sola vida a causa de mis consejos. Sin embargo, el mundo ha llegado a un punto el día de hoy, debido al auge de las criptomonedas, que millones de personas están apostando a ellas y lamentablemente muchas están perdiendo los ahorros de su vida en ello, sea por inexperiencia, ingenuidad o sencillamente por seguir consejos e invertir en personas sin escrúpulos o que sencillamente no saben lo que hacen. A tal fin, este artículo servirá tanto como una guía como una lista de advertencias básicas para que no caigan en ciertas trampas. Así que sin nada más que decir al respecto, iniciemos… El tema de hoy será el crypto-trading, que no es más que el acto de comprar y vender (o quizás sería más apropiado decir, apostar) al mercado de las criptomonedas, como lo es bitcoin (que por mucho es la más conocida en la actualidad en la cultura popular). Y es bueno mencionar que el crypto-trading en muchos sentidos es bastante similar al simple trading en la bolsa de valores tradicional, pero con algunas diferencias… En el trading tradicional por lo general utilizas un intermediario, pero en el crypto-trading no solo no necesitas intermediarios si no deseas, sino que incluso puedes permanecer anónimo en tus transacciones, lo que significa que si así lo deseas puedes incluso mantenerte al margen del radar del ministerio que regule el fisco en tu país (aunque aclaro, en países como los EEUU está prohibido el no reportar acciones en criptomonedas por temas de impuestos, así que es importante que estés al tanto de las leyes que regulan el mundo de las criptomonedas en tu nación si quieres evitar violentar alguna ley fiscal). Sin embargo, aunque puedes definitivamente hacer tus propias transacciones directamente con otros que deseen comprar tus criptomonedas (o comprar las de ellos), lo cierto es que en la mayoría de los casos los usuarios que particularmente están iniciándose en este mundo optan por elegir alguna plataforma que funciona similar a un mercado de bolsa de valores, en donde unos ponen un precio al cual están dispuesto a vender una criptomoneda y otros están dispuestos (o no) a pagar ese precio. A tal fin entre las plataformas más populares en la actualidad para Cryptotrading están Binance, Coinbase, Kraken, Crypto, Robinhood, y otras. Es bueno aclarar que estas plataformas funcionan por medio de Wallets o Carteras Digitales, y que existen distintos tipos de Wallets, desde unas que alojan tus criptomonedas enteramente en la nube, hasta otras que lo alojan en tu PC o celular. Sin embargo las carteras más seguras alojan tus criptomonedas en equipos de hardware especial que tienen formas que van desde memorias USB hasta tarjetas de crédito que accedes por Bluetooth y que vienen con la particularidad de que generalmente están totalmente desconectados de cualquier red que pueda acceder a su preciado contenido. Y hablando de estas carteras he acá la primera gran advertencia de la cual debes estar al tanto y entender bien: Las criptomonedas son esencialmente una serie de tokens o códigos con los cuales transmites esas monedas a otras personas, y si alguien llega a tener acceso a tu cartera y transfiere ese dinero a cualquier otra cuenta (por lo general anónima), hay un 99.9999% de que vas a perder ese dinero y no tendrás a quien reclamarle en lo absoluto. Y eso se debe a la naturaleza de las criptomonedas que fueron creadas específicamente para evitar la centralización corporativa y el control de gobiernos centrales (aunque ya países como China han creado criptomonedas que sí están bajo control del estado), lo que significa que por un lado tienes la ventaja de que nadie tiene que saber sobre el dinero que tienes o donde lo tienes o incluso a quien le transfieres o quien te transfiere a ti, pero eso también significa (y esta parte rara vez te la dicen los que utilizan carnada para que inviertas en estos mercados) que si alguien algún día llega a tener acceso a tu cartera, que eso es lo mismo que tomar todo el dinero que tengas en el banco y prenderle fuego. Sucede, que al las criptomonedas no ser centralizadas, que por lo general eso significa que *tu* eres el responsable de salvaguardar tus criptomonedas, y por eso es que es tan importante el tomar medidas conscientes sobre cómo proteger esas carteras. En máquinas tradicionales con Windows por ejemplo, o en celulares Android (salvo si tienen versiones especializadas y actualizadas como la tecnología Knox de Samsung y su Samsung Blockchain Keystore), en donde a diario son atacados por miles de malware, el riesgo es altamente alto para el usuario común que le da “ok” a todo lo que ve en Internet o que no mantiene actualizada su máquina o celular constantemente, o que sencillamente descarga programas pirateados, ya que los hackers criminales que se encargan de robar criptomonedas por lo general utilizan debilidades en esos sistemas operativos y en aplicaciones descargadas para monitorear la actividad en tu equipo y observar sus claves y posteriormente blanquear tu cartera antes de que te des cuenta. Y esto es un fenómeno que ocurre con muchísima más frecuencia de lo que se imaginan (o de lo que muchos quieren admitir por temor a pasar vergüenza o admitir que no se llevaron de las advertencias de los expertos). A tal fin, si planean realmente adentrarse en este mercado, lo primero que tienen que asegurarse es de tener un equipo seguro, de mantenerlo actualizado constantemente, de no instalar programas que no sean originales, y de mantener un respaldo de sus datos en caso de que la máquina o celular se pierda, sea robada o se averíe, ya que en esos casos si no tienes respaldo también perderás todo (al menos que utilices una cartera que haga respaldo en la nube). Similarmente, si utilizas una cartera en la nube, debes asegurarte de tener extrema precaución y utilizar una clave difícil de adivinar, así como evitar compartir esa clave con nadie, y de paso debes también evitar escribir esa clave en máquinas de otras personas (que bien pudiesen estar infectadas con programas que monitorean los teclados para robar tus credenciales). De forma similar, si optas por el sistema más seguro de todos, que es el de carteras en hardware externo, debes también tomar medidas ya que si ese dispositivo externo se te pierde o avería o se rompe, perderás para siempre todas las criptomonedas almacenadas en este. Y por último, en muchos casos estas carteras te dan un “token de acceso” y te dicen en letras bien grandes que lo anotes a mano y pongas en un lugar seguro, y lo dicen bastante en serio, pues si pierdes ese token (esencialmente una clave de acceso) nunca jamás en tu vida podrás tener acceso a tus criptomonedas, las perderás para siempre, ya que ese token es lo que quita el candado digital de las criptomonedas almacenadas en la nube o en tu celular. Si pierdes el token ni los mismos creadores de la cartera podrán ayudarte, perdiste ese dinero para siempre. Una buena práctica para aquellos que decidan invertir grandes cantidades de dinero en estro es utilizar varias carteras, dejando la mayor cantidad de dinero en carteras de hardware en distintos lugares diferentes para evitar que si alguien algún día tiene acceso a una de esas carteras que solo pierdas lo que contiene esa cartera y no todo lo demás. He leído incluso de usuarios que viajan físicamente a distintos lugares del mundo y depositan sus carteras en bancos externos o las esconden en lugares específicos para evitar así casos extremos como cierre de bancos locales, incendios en sus hogares, revuelos contra el gobierno, etc. Ahora bien, ¿por qué con tantos peligros la gente está viendo a las criptomonedas como la nueva fiebre del oro? Pues la respuesta sencilla es por novedad y volatilidad. Con novedad me refiero a que el mercado, aun con tanta actividad a escala global, está en su infancia, y millones de personas están invirtiendo en estas criptomonedas sin incluso entender bien qué hacen, quién las genera, cómo se generan, si tendrán futuro, o incluso si tiene sentido invertir en ellas. La gente invierte en ellas porque todos los demás lo están haciendo. Así que a diario vemos cientos de miles de personas invirtiendo en criptomonedas que poco después se devalúan y pierden todo lo invertido, beneficiando a los que vendieron sus monedas inicialmente. Pero, ¿y por qué la gente continúa invirtiendo? Pues por el otro factor que mencioné: Volatilidad. El mercado de las criptomonedas es tan volátil en la actualidad (es decir, los precios varían tanto de día a día) que eso ha abierto una brecha increíblemente grande a la especulación. Así como tradicionalmente existe un mercado que especula en que el precio del dólar sube o baje, y compra o vende acorde, así mismo lo que está inyectando capital en la economía del cryptotrading es la especulación. La moda ahora es esencialmente tomar una moneda que sea popular y que varíe de precio constantemente (el ejemplo clásico es el bitcoin) y comprar cuando baja de precio con el propósito de vender cuando el precio suba al otro día o a los pocos días después y lograr un margen de ganancia. Obviamente que así como el dinero no crece en árboles es bueno entender que los expertos en cryptotrading que hacen dinero con estas tácticas hacen dinero a consta de otros pierden. Por cada persona que en el mundo de las criptomonedas está haciendo dinero hay otros que lo están perdiendo, por lo que el mundo del cryptotrading realmente es un mundo sobre quién es más vivo que quien, quién tiene más conocimiento que quien, quién tiene más suerte que quien, y quién se puede aprovechar mejor de quien. Y sobre eso último les quiero dar mi segunda advertencia: Si alguien se les acerca y les dice que si inviertes tu dinero en criptomonedas que te pueden “garantizar” un porcentaje X de ganancia cada X tiempo, sal corriendo, aléjate lo más posible de esa persona, bloquea su contacto, y date tres golpes en el pecho y da gracias a todos los cielos de que evitaste caer en una trampa. Quien sea que te prometa algo así cae en solo una de estas dos categorías: Es alguien que definitivamente te quiere engañar y te está vendiendo sueños. Es alguien que no tiene ganas de engañarte pero ha tenido suerte en sus transacciones y cree que ya sabe lo que está haciendo hasta que le llegue la mala racha (generalmente con tu dinero) Ahora bien, ¿existen cryptotraders serios? Pues por supuesto que sí, aquellos que te dirán todas las advertencias que les estoy dando yo aquí, que te explicarán los riesgos, y que tratarán de que no tomes un préstamo con hipoteca de tu casa para invertirlo todo de una vez (y no, no me pregunten si les puedo ayudar a invertir, no me dedico a eso). Y acá ahora les quiero dar la tercera advertencia: Es casi seguro que se toparán en algún momento con alguien que les dirá algo similar a “Invertí en criptomoneda X y me gané tantos miles de dólares”, cosa que te dejará pensando en “¡yo también quiero ser como tú y ganarme esos miles de dólares!”, y he ahí el gran error. La mayoría de esos que te dicen eso confunden el que el precio de sus acciones haya subido un día con el haber ganado dinero, sin embargo tu no ganas un solo centavo hasta el día que vendas tus criptomonedas y conviertas ese dinero en efectivo (léase, dólares o alguna moneda tradicional, al menos hasta el día en que las criptomonedas en sí se puedan parar sobre sus propios hombros). Esa misma persona que te dice que hoy “ganó” US$10,000 dólares muy posiblemente al otro día “perdió” US$12,000 dólares. En el mundo de las finanzas el único dinero seguro es dinero el liquidéz, depositado en efectivo en alguna cuenta o en tus propias manos, no se olviden de eso. Y esto es algo que pasa con las bolsas de valores tradicionales también: Alguien invierte US$100 dólares en alguna empresa, las acciones suben de precio y ahora sus acciones valen US$300, y la persona le anuncia a todos sus amigos que “acaba de ganarse US$200 dólares”, pero al otro día se desploman las acciones (o incluso quiebra la empresa) y las acciones bajan a US$5 dólares, y la persona vende sus acciones a US$5 antes de perderlo todo quedándose con una pérdida de US$95 dólares, sin embargo pueden estar seguros que esta persona no va a correr a decirle a sus amigos de su fracaso. La gente por lo general solo mercadea los triunfos, y eso que pasa con la bolsa de valores tradicional ocurre tal cual con el cryptotrading, por lo que no crean todas esas historias de “¡hice tantos miles de dólares en un día!”, cuando la realidad es que en la mayoría de casos los que invierten en criptomonedas pierden dinero si no saben lo que están haciendo. Pero, ¿cómo hacer dinero en el mercado con cryptotrading? Pues hay tres formas: Con trabajo arduo todo el tiempo, comprando y vendiendo sin parar y durmiendo pocas horas al día. Con mucho conocimiento de los mercados de las criptomonedas y entendiendo realmente lo que se mueve, cuáles son las tendencias, etc. Con suerte. En el primer punto, la idea es aparentemente sencilla: Observas los mercados de las criptomonedas que tienes en tu mira objetivo, y compras cuando bajan los precios y vendes cuando suban de precio. El problema aquí es que en la práctica debes estar atento constantemente al movimiento de los mercados, y si no sabes cuándo salirte definitivamente es posible que termines con una criptomoneda que al final no tendrá valor alguno y terminarás perdiendo todo lo invertido en esa criptomoneda. Con el segundo punto prepárate a invertir *mucho* tiempo leyendo, analizando, buscando noticias, viendo la opinión de expertos, descartando exageraciones, detectando los líderes del mercado, etc, y en base a eso haciendo tus inversiones. Si le dedicas tiempo y realmente entiendes el mercado, quizás puedas detectar alguna criptomoneda que crecerán, y otras que tendrán mucha volatilidad y tomar ventaja de ellas. Así quizás inviertas en una que otra para el largo plazo. Y en cuanto al tercer punto, el depender de la suerte, solo digamos que no recomiendo esa ruta al menos que tengas dinero para quemar (en cuyo caso quizás no tengas incentivo para invertir en criptomonedas…). Ahora bien, ¿en cuáles criptomonedas invertir? Pues esa es una tarea para ustedes, sin embargo si la quieren jugar a lo seguro por ahora lo más “seguro” (y eso es un término muy relativo en este mercado) es la venerable bitcoin. Y si quieren apostar a algo que podría ser bastante grande en el futuro, quizás quieran estudiar a Ethereum, que es la segunda criptomoneda en importancia y la que para mi ofrece un mejor valor a largo plazo, ya que aparte de ser una criptomoneda es también toda una plataforma programable que está permitiendo toda una nueva generación de aplicaciones (como los NFT de los cuales les hablé recientemente). En el otro extremo hay toda una familia de criptomonedas que realmente nadie sabe si tendrán futuro o no pero que son extremadamente volátil y con ellas pueden jugar el juego de comprar y vender y cruzar los dedos para no estar ahí invirtiendo en ellas el día que posiblemente se desplomen. Entre ellas están Dogecoin (popularizada por varios tweets de Elon Musk), Shiba, Litecoin, y otras. Personalmente mi mayor preocupación actual (y tomen esto como una “predicción eliax”) es el hecho de que están surgiendo decenas de nuevas criptomonedas continuamente, y el sentido común nos dice que será insostenible y que eventualmente habrá que “menear el árbol” para que solo caigan las frutas maduras (es decir, hasta que solo queden las criptomonedas principales, en el orden de 5 a 10 como mucho). Creo que tarde o temprano llegaremos a una gran burbuja en donde la gran mayoría de esas criptomonedas explotarán (y de mala forma) y se perderá mucho dinero cuando eso ocurra, a nivel tal que podría afectar la economía no solo del núcleo familiar, sino de todo el planeta. Incluso no lo llamaría una burbuja, más bien podría ser una supernova económica. ¿Y cuándo ocurrirá esa explosión? Pues en el momento que un suficiente porcentaje de la población entienda qué son realmente las criptomonedas, y qué uso y valor real tienen más allá de una simple apuesta (por eso me gusta tanto Ethereum, pues fue creada con miras a ser toda una plataforma financiera descentralizada con aplicaciones prácticas en la vida real). Habiendo dicho todo eso, y sabiendo que diga lo que sea que yo diga muchos continuarán y entrarán con los dos pies a este mercado, he aquí unas cuantas recomendaciones que les hago para cuando menos tratar de reducir los riesgos e incrementar las posibilidades de éxito: 1. No inviertan todo su dinero en criptomonedas. Por más tentador que suenen las historias de los que se hicieron millonarios haciendo eso de la noche a la mañana después de obtener préstamos y vender todo lo que tenían para invertirlo en criptomonedas, esas son historias de una en un millón. Sean prudentes. 2. Si van a invertir en criptomonedas no lo inviertan todo en criptomonedas de poca circulación, o en criptomonedas poco populares. Ciertamente si “la pegan” en una de estas comprando super barato y después vendiendo super caro eso sería genial, pero esa es la excepción (por mucho) y no la regla, por lo que procedan con precaución. 3. Traten de balancear su portafolio invirtiendo una parte en monedas relativamente estables (como bitcoin y Ethereum), y otra parte en criptomonedas que crean tendrán futuro o que tienen alta volatilidad (si es que están dispuestos a invertir el tiempo en comprar y vender constantemente). 4. Muchas monedas menos populares (o nuevas) cuestan literalmente milésimas de un dólar cada una. En estas podrías invertir una pequeña cantidad de dinero ya que si despegan es posible que una inversión de US$10 dólares termine valiendo hasta US$10,000 unos meses o años después si esta por alguna razón explota positivamente en valor (como ocurrió con Dogecoin, antes de desplomarse su valor). Sin embargo hagan estas pequeñas inversiones a sabiendas que lo más probable es que perderán esos US$10 dólares. Piensen de estas pequeñas inversiones como una lotería a modo de hobby. Si la pegas bien, sino, solo perdiste US$10. 5. Antes de hacer transacciones infórmense sobre los costos de transacción (si utilizan intermediarios). No haces nada comprando y vendiendo pequeñas cantidades si los costos operativos son mayores a las potenciales ganancias del día. 6. Hablen con amigos que ya estén invirtiendo en criptomonedas ya que ellos les asesorarán sobre carteras digitales y sobre cuáles mercados de compra y venta de criptomonedas funcionan en sus respectivos países (no todas las carteras funcionan en todos los países y muchas requieren identificación en forma de documentos de identidad oficiales). 7. Hay cientos de tutoriales, guías, preguntas frecuentes, grupos de Facebook, páginas de Instagram, portales de noticias, cuentas de Twitter, grupos de Whatsapp y Telegram, videos de YouTube, e innumerables recursos sobre estos temas. Google es el mejor amigo que tendrán para encontrar esos recursos, así como otros amigos en sus comunidades. Esto no es algo con lo que se harán ricos sin esfuerzo, como cualquier otra cosa deben invertir tiempo y recursos para ver los beneficios. Quien les diga que esto es “fácil” es alguien que o no sabe de lo que habla o está exagerando para animarlos a entrar a este mundo sin estar bien preparados. 8. Reitero, por sobre todas las cosas, procedan con precaución. Esto es sin duda un mundo emocionante y estamos viviendo unos tiempos en donde abundan muchas oportunidades, pero a la misma vez los riesgos y aquellos que quieren aprovecharse de ustedes, abundan. Ejerzan moderación. Y si les gustó este artículo compártanlo con aquellas otras Mentes Curiosas de este mundo... autor: josé elías |
10 comentarios
1,136,409 vistas |
Educación , Futuro Digital , Negocios , Pregunta a eliax , Software , Tecno-Seguridad |
domingo, julio 4, 2021
|
Hola amig@s lectores,
Microsoft está en un renacimiento. Hace 7 años (en el 2014) la empresa tomó una decisión bastante importante al elegir a Satya Nadella como su nuevo CEO, y ese mismo día escribí un artículo con mi opinión al respecto (que recomiendo leer para poner en contexto lo que escribo hoy), expresando lo que creía debería hacer ese hombre si quería sacar a Microsoft del agujero negro que la había metido Steve Ballmer, y curiosamente Nadella se enfocó en precisamente las cosas que sugerí debía enfocarse, poniendo atención al sector empresarial (miren el éxito de Azure en la nube), eliminando cientos de productos (lo cual hizo), hacer Windows gratis (que lo acaba de hacer en el anuncio de Windows 11 hace unos días), y concentrarse también en el mercado de consumidores (que es su nueva lanza y de la cual les voy a hablar hoy). Si se leyeron el artículo que sugerí en el párrafo anterior ya entenderán que Microsoft ha estado pasando por unos momentos muy transformadores en la última década, y si hay algo que puedo decir para resumir los últimos 7 años de Microsoft bajo la tutela de Nadella, es que se ha ganado una calificación de “A” en ejecución. Estoy seguro que muchos hubiesen querido ver el recién anunciado Windows 11 varios años antes, y ver el Microsoft que tenemos hoy (que incluso ha abrazado la cultura de Linux bajo su organización, algo que hubiese sido inaudito bajo Ballmer o Bill Gates) mucho tiempo atrás, pero hay que entender también la titánica labor que tenía Nadella bajo su liderazgo: Primero tenía que desmontar toda la burocracia impuesta por Ballmer dentro de la organización, enemistarse de cientos de Project Managers, ganarse la confianza de los desarrolladores internos, y mientras hacía malabarismo con esas tareas de paso trazar el rumbo futuro de Microsoft, eficientizar la empresa, y desarrollar una nueva generación de productos y apostar a la Nube, los video-juegos, y de vuelta al sector de consumidores. Para mi a Nadella no le están dando el debido crédito de lo que ha logrado en tan relativo poco tiempo. Literalmente se ha ganado mi admiración. Sin embargo, y desafortunadamente para Microsoft, la vida fuera de sus paredes corporativas continuó, y empresas como Google, Amazon y Apple se adelantaron en todas las áreas que Microsoft tenía debilidades, o que desantendíó. Hoy día Amazon AWS es el líder indiscutible en soluciones en la nube (aunque gracias a Nadella, Microsoft Azure ya es un número 2 creciendo vertiginosamente), Google Docs le ha comido gran parte del mercado a Microsoft Office, GMail Corporativo le ha comido gran parte del negocio a Microsoft Exchange y Outlook, Internet Explorer fue aplastado por Google Chrome, MySQL ha estado comiendo sin piedad el mercado de Microsoft SQL Server, Android y iOS completamente desterraron a Windows Mobile, y la Web junto a el iPad y macOS han estado haciendo a Windows (en un momento, la principal fuente de ingresos de Microsoft) en algo cada vez menos relevante. En esencia, Microsoft, que una vez era el epicentro del mundo tecnológico, cada vez está siendo desterrada más y más a los brazos exteriores de la galaxia tecnológica terrestre. Sin embargo, se ha hecho obvio que Nadella ha estado viendo hacia dónde soplan los vientos y esto lo ha hecho notar con varias decisiones que están ya tomando efecto exitosamente en el mercado. La empresa por ejemplo ha puesto un renovado interés en la versión online de Office 365, ha tomado un gran interés en Microsoft Teams (al punto tal que vendrá integrado por defecto en Windows 11), le da dado su corazón por completo a la plataforma de juegos Xbox (innovando con cosas como el GamePass), ha hecho de Azure su punto de lanza para el sector corporativo y de desarrolladores de software grandes y pequeños, se ha abierto a colaborar con soluciones de Linux, y ahora con Windows 11 está haciendo algo que muchos aun no han notado pero que sin duda es la razón principal de la existencia de Windows 11: Un ataque frontal al iPad, y por tanto a Apple. ¿Y por qué me refiero al iPad y no al iPhone o macOS en las Macs? Pues porque se ha hecho evidente que el futuro de la computación personal fuera de celulares inteligentes son las tabletas, o más específicamente, dispositivos compactos de fácil uso, gestionados mayoritariamente a través de tiendas de aplicaciones, con larga duración de batería, y con interfaces amigables y simples (y con la opción de convertirse en PCs o laptops por medio de teclados externos, monitores, ratones, etc). Apple no planea dejar por ahora el negocio de las Macs (y al contrario, ha apostado el doble a ese segmento con sus Macs M1 y próximas sucesoras), sin embargo a la empresa se la ha hecho evidente que en el sector de consumidores el futuro son dispositivos más parecidos en funcionalidad a un iPad que a una Mac, razón por la cual si son usuarios tanto de iPads como Macs ya habrán notado que las últimas tres versiones de macOS cada vez se acercan más a parecerse un interfaz de iPad, y estamos llegando a un punto tal en donde desde el punto del vista del consumidor final el iPadOS y el macOS serán casi la misma cosa. Es por eso que ya el iPad (particularmente el iPad Pro con el teclado y trackpad y soporte para monitores externos y ratones) ya están empezando a hacer funciones tradicionalmente de las Macs, e incluso ya hay cosas en las iPads en lo que son enormemente mejores (por ejemplo, el programa de dibujo Procreate con el Apple Pencil, que ya ha desterrado casi por completo a Photoshop en varios nichos). Y no duden que poco a poco veremos cada vez más y más aplicaciones “Pro” salir en simultáneo para iPad y Mac, y en particular gracias a que ya Apple ha entregado a desarrolladores una serie de herramientas que les permite hacer aplicaciones que funcionan en ambos ambientes. Así que habiendo dicho eso, podemos decir que el principal nuevo enemigo de Microsoft en el ámbito de computación personal (fuera de celulares) no es la Mac ni el iPhone, sino que el iPad. El iPad ha dominado tanto que incluso las tabletas Android son casi irrelevantes en ese mercado. La mayoría de tabletas Android (o Kindle de Amazon) que se venden se compran por su bajo costo y para labores usualmente específicas (para que los niños jueguen, o para leer, o para ver videos, y el ocasional uso de Google Drive o navegar el internet), y muy rara vez para labores profesionales o de uso continuo con aplicaciones equivalentes a una laptop. Y la razón es la calidad de las Apps. Desde el día 1 Apple diferenció el iPad del iPhone y creó una forma diferente de crear Apps optimizadas para el tamaño mayor de pantallas. Sin embargo en el mundo Android eso ha sido un reto ya que la mayoría de Apps en tabletas Android no son más que versiones ampliadas de la misma App en el celular, y la realidad es que son desastrosas en la mayoría de los casos, particularmente al compararlas con sus equivalentes en iPad. Sin embargo, es ahí donde entra Microsoft con Windows 11… Para mi el cambio más importante que ha dado Windows con la nueva versión es que por fin aparenta que será optimizado para tabletas (y sí, estoy súper consciente y he utilizado las Surface de Microsoft), y al Windows 11 soportar la arquitectura ARM para procesadores de eficiente consumo energético y menor costo, y al Microsoft hacer ahora mucho más fácil colocar aplicaciones en la mejorada tienda que estrenará con Windows 11 (y de paso permitiendo que se cobren productos y servicios por vías alternativas, a diferencia de Apple y Google que requieren que los pagos se realicen a través de sus propias pasarelas de pago), creo que esto hará por fin que una nueva generación de tabletas con Windows 11 salga al mercado, con precios bastante competitivos, ofreciendo la primera real alternativa al iPad en el mercado. Recordemos que hoy día muchos prefieren pagar entre 2 y 5 veces más por un iPad que una tableta Android debido a que las aplicaciones que utilizan y la experiencia de usuario que obtienen con el iPad son marcadamente superior a una tableta Android, pero si un usuario puede obtener aplicaciones de alta calidad, con elementos visuales optimizados realmente para tabletas, y en equipos de relativo bajo costo, creo que eso podría ser una fórmula ganadora para aflojar un poco el control de Apple en ese espacio. Y lo mejor de todo (para Microsoft) es que diseñó a Windows 11 con un núcleo que se puede adaptar a distintos factores de uso, por lo que no me sorprendería en un futuro ver un dispositivo “Microsoft TV Stick” similar al Amazon Fire TV, o interfaces para automóviles y casas inteligentes con tecnología de Microsoft. Y más intrigante aun, es que si Microsoft logra ejecutar bien y logra capturar una buena parte del mercado de tabletas, que podría quizás considerar volver entrar al mercado de celulares inteligentes con una nueva versión de celulares basados en futuras versiones de Windows, aunque algo me dice que por ahora eso es solo eso, una intrigante posibilidad y no el enfoque inicial de Microsoft con Windows 11. Otra cosa que aplaudo de Microsoft es haber tomado la sabia decisión de ofrecer a Windows 11 como una actualización gratuita para usuarios existentes de Windows 10 (un práctica que Apple lleva desde hace muchos años exitosamente), para así acelerar la adopción de su nueva estrategia, pues el nuevo Microsoft no es una empresa para ganar dinero vendiendo licencias de Windows sino vendiendo servicios (locales y en la nube), subscripciones, y obteniendo comisiones de ventas desde sus tiendas. Y finalizo diciendo algo que repito constantemente en mis artículos, comentarios y charlas: Estos tipos de desarrollos no solo son emocionantes sino que beneficiosos para todos, pues la competencia al final del día es una herramienta más para mejorar la vida de los consumidores. autor: josé elías |
8 comentarios
1,294,152 vistas |
Apple / OS X , Celulares / Móviles , Dispositivos , Google , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
domingo, marzo 14, 2021
|
Hola amig@s lectores,
Hace unos días una obra de arte se vendió en US$69 Millones de dólares en la prestigiosa casa de subastas Christie’s, pero lo interesante de esa venta no fue el precio, sino el hecho de que lo que se vendió fue una obra de arte digital, de la cual cualquiera puede obtener una copia 100% exacta pixel-por-pixel y tenerla en su celular, tableta, laptop o incluso impresa. Así que viene la pregunta, ¿por qué alguien pagaría tanto dinero por algo tan fácilmente reproducible (a diferencia de por ejemplo un cuadro de Picasso en donde solo tú tienes “el original”)? Pues bienvenidos al nuevo mundo de los NFTs... Una nueva revolución tecnológica en el tema de la propiedad intelectual y la sociedad en general. Pero iniciemos con lo básico. NFT es un acrónimo en inglés que significa “Non-Fungible Token”, y ya de por sí resulta curiosa la definición. La palabra “fungible” es de uso muy infrecuente en español (e inglés), y en esencia se refiere a algo que se puede reemplazar por algo de lo mismo. Un ejemplo es una moneda de 1 peso. Si la intercambias por otra moneda de 1 peso continúas teniendo un peso. Sin embargo, si lo que tienes es (por ejemplo) una pintura de Picasso, no la puedes cambiar por otra pintura de Picasso y terminar con lo mismo, ya que son irremplazables, o no-fungibles. Así que en el mundo de los NFT no-fungible significa que el Token que obtienes (y que avala que eres el propietario) no es genérico y reemplazable, sino que es único y solo existe uno, similar a como existe una sola pintura en particular de Picasso sin otras copias exactas o que puedan intercambiarse. Y para continuar tenemos que hacer un breve paréntesis y explicar que los NFTs están ligados intrínsecamente a la misma tecnología que hace posible las criptomonedas, una tecnología llamada Blockchain (“Cadena de Bloques”). O en otras palabras, la misma tecnología que permite la creación y uso de algo como los bitcoins, es la que se utiliza en los NFTs. ¿Y qué es un Blockchain? En esencia es una técnica que permite agrupar una secuencia de datos en el tiempo de forma tal que matemáticamente es virtualmente imposible modificar cualquier elemento de la cadena para falsificarlo, removerlo o modificarlo, algo que se logra con una herramienta matemática llamada un “hash”, que no es más que una función uni-direccional en donde un bloque de datos puede generar un código (piensen de ello como una clave, pero pública) pero de ese código no se puede volver atrás para obtener los datos desde donde surgió (no se preocupen si no entienden bien esto, no es necesario para entender el tema de hoy). Así que con un Blockchain por ejemplo sería posible decir algo como “Hoy lunes Fulanito de Tal compró US$10 dólares en bitcoins”, y al otro día decir “Y hoy martes transfirió US$2 de esos bitcoins a Fulanita de Tal”, y así sucesivamente en transacciones posteriores, con la gran salvedad que aunque Fulanito tenga acceso total a su base de datos de Blockchain y trate de engañar al sistema borrando la transacción del martes, que no podrá hacerlo por más que intente, debido a que por su naturaleza los Blockchains funcionan de forma distribuida por lo que miles (o millones) de otras personas tienen también una copia de esas transacciones, por lo que Fulanito tendría que no solo hackear la base de datos de todo el planeta Tierra que aloje ese Blockchain (o al menos, la mitad de ellas más una), sino además reconstruir matemáticamente todos los hashes de esas transacciones desde el momento que él quiere hacer trampa hasta el día de hoy (algo que les aseguro no es trivial hacer, y se los dice alguien que entiende bien este tema de los hash, criptografía, etc). Habiendo dicho todo eso, hagamos una aclaración final: En el mundo de los Blockchains hay dos grandes tipos de transacciones que pueden ocurrir, (1) transacciones monetarias o de criptomonedas como son los bitcoins, o (2) transacciones sobre evidencias de que algo ocurrió, o como se les llama en la jerga de la industria, criptotokes, o simplemente Tokens (que en el caso de los NFTs ocurren por ahora en la plataforma Ethereum). De esos Tokens es que estamos hablando cuando nos referimos a los NFTs, y ejemplos de estos son documentos notarizados, títulos de propiedad, actas de nacimiento, pasaportes, etc. En el contexto de los NFT, por Token nos referimos entonces explícitamente a una evidencia digital de que algo te pertenece a ti. Y aquí es bueno hacer una curiosa observación: Mientras que las criptomonedas se basan en algo que es fungible (pues estas se consumen con su uso) y de uso anónimo (en la red bitcoin por ejemplo, nadie en teoría sabe en qué gastas tu dinero ni en dónde ni con quien), en el mundo de los criptotokens es todo lo contrario, en donde la idea es saber quien es el dueño de qué (por lo que es no-anónimo) y de paso es no-fungible (ya que no puedes “gastar” un contrato por más que le des uso). Así que regresando del paréntesis, vamos ahora armados con esa información a describir qué es un NFT, y por qué alguien pagó US$69M por una pintura digital... Un NFT es esencialmente una evidencia digital de que tú eres el propietario de algo, pero ojo, un NFT no necesariamente te da derechos de propiedad de la obra intelectual original, aunque es una opción. Una analogía es una pintura de Salvador Dalí. Este en vida hizo varias serigrafías (copias de alta calidad) de sus obras que firmaba con su propia mano de forma individual. Así que por ejemplo Dalí pudo haber hecho 100 copias en serigrafía de su obra “La Persistencia de la Memoria”, y firmado cada una de ellas a mano con una numeración del 1 al 100. Aunque estas no eran la obra original, hoy día valdrían mucho dinero ya que estarían firmadas por el mismo Dalí. Es un producto escaso y limitado que naturalmente incrementa el valor del artículo en cuestión. Similarmente, puedes hacer un NFT de una novela que acabas de escribir, y hacer 10 copias “especiales” de ellas en formato NFT que creas y vendes a través de un portal como opensea.io. Los que compren esas 10 copias saben que tienen una versión exclusiva que nadie más tiene, y que de paso tiene el nombre de ellos asociados a la obra para la eternidad en el Blockchain. Y no solo eso, sino que si tienes una de esas 10 copias, esa copia tiene un valor volátil basado en el mercado, y puedes traspasar ese NFT a otra persona vendiéndosela, y al hacerlo, esa transacción queda registrada en el Blockchain de manera irrefutable, y se tiene un histórico en todo momento sobre quien es el propietario de ese NFT. Y claro está, que (siguiendo la analogía con Dalí), quizás quieras vender el cuadro original junto con los derechos de su explotación comercial, en cuyo caso también puedes hacerlo con un NFT creando una sola copia y dotando a su comprador de todos los derechos (que como podrán imaginar, tiene un valor mucho más alto). Eso fue lo que hizo el artista denominado “Beeple” al vender su obra titulada “Los Primeros 5,000 días” en donde hizo un compuesto de 5,000 obras que hizo durante 5,000 días consecutivos, y cuyo precio inició en subasta en US$100 dólares y terminó en US$69 Millones de dólares. Muchos dirán que esto es una estupidez, ya que si es una obra digital cualquiera puede copiarla y tener una copia exacta para admirar en su casa impresa y puesta en un cuadro en la pared, pero la idea es que el comprador de ese NFT ahora no solo tiene derechos sobre la obra original sino que de paso puede decir que aunque millones de otras personas tienen “copias” que él o ella es la única persona que tiene derecho sobre un “original” (y su explotación comercial, pues algo interesante de los NFTs es que opcionalmente puedes recibir comisiones por su posterior venta, en esencia continuando recibiendo un ingreso mientras más uso le den al NFT). Esto es medio chocante ya que tradicionalmente uno piensa de un “original” como algo tangible (como un cuadro de Dalí colgado en un museo), y no como un simple algoritmo que diga que entre mil trillones de copias solo al de Fulanito de Tal es la original y que solo Fulanito de Tal puede explotar los derechos de esa obra (para vender t-shirts, hacer murales, trabajos derivados, etc). O en otras palabras, e independientemente de lo que alocado o no que le parezca esto a algunos, la gran revolución de los NFTs es que por fin dota a obras que son netamente virtuales/digitales de un mecanismo por el cual sus creadores (o futuros propietarios) puedan alegar derecho sobre la obra y explotarla de forma fácil y segura. Noten que un problema actual (antes de llegar los NFTs) que tenían muchos artistas digitales es que sus obras eran fácilmente copiadas en Internet, y se hacía bastante difícil comprobar quién es el original autor y propietario de la obra, cosa que ahora se hará trivial hacer ya que en el momento de un artista hacer una nueva obra, lo primero que podría hacer es crear un NFT de esta para que exista una evidencia en el tiempo de que él o ella es el original autor de la obra, y de paso utilizar este mecanismo para hacer trivial el poder venderla en mercados en línea. Es bueno notar que ya se ha formado una industria millonaria alrededor de los NFTs, y no solo con arte visual, sino con todo tipo de creaciones que puedan imaginar, desde canciones y novelas, hasta fotos de memorabilia o videos deportivos de la NBA. Incluso, ya hay video-juegos en donde puedes obtener objetos virtuales dentro del juego que solo controlas tú al comprarlos como un NFT (es decir, ni los creadores del mismo juego tienen derecho al objeto después que lo adquieres). Habiendo dicho todo eso, la pregunta ahora es, ¿Es esto una moda pasajera o algo con perspectiva de largo plazo?, y mi respuesta a eso es que creo será la nueva norma hacia el futuro. Hace tiempo que hacía falta una solución al tema de la propiedad intelectual en el mundo virtual/digital, y los NFTs caen como anillo al dedo como solución a ese problema, y de paso esto es bueno notar que pone de cabeza abajo la tradición de que cuanto tenías un objeto valioso lo que lo hacía valioso es que tenías el original, mientras que ahora todos pueden tener una copia exacta del original y lo que lo hace valioso es el NFT que avala que tú y solo tú eres el propietario de esa creación. Quiero finalizar este artículo con una preocupación (y así vemos el otro lado de la moneda): Aunque los NFTs son una excelente idea, hay un tema con su implementación actual y es que consumen una gran cantidad de energía (fuente) para su creación y verificación (similar al problema que tienen los bitcoins con su uso de energía actual en el minado), lo que significa que si se popularizan los NFTs (y todo apunta a que así será) que estamos dirigiéndonos a un futuro en donde tendremos una carga significativa de energía que podría traer serios problemas al medio ambiente terrestre. Solo esperemos que antes de que esto sea un gran problema que ya tengamos fuentes de energía renovables que puedan lidiar con la carga adicional... Nota: Si les gustan estos temas les recomiendo seguir el canal oficial de eliax en Telegram, o si desean interactuar conmigo y la comunidad eliax en general, consideren también unirse al grupo oficial en Telegram Actualización: Por si se interesan, he aquí el primer NFT creado por mí, y a la venta por si alguien se interesa (esto fue un experimento más que otra cosa, pero si quisieran tener una pedacito de eliax, aquí está). autor: josé elías |
10 comentarios
1,434,772 vistas |
Arte , Curiosidades , Derecho Digital , Educación , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Tecno-Seguridad |
sábado, noviembre 14, 2020
|
Hola amig@s lectores,
El día por fin llegó y este martes pasado Apple anunció las primeras Macs con su propio microprocesador integrado (tipo “SoC”, o Sistema-en-un-Chip) al que ha bautizado el M1, un chip derivado de los chips Ax utilizados en iPhones, iPads, AppleTVs y Apple Watches, y para muchos las primeras pruebas de rendimiento los ha tomado por real sorpresa, aunque quizás no tanto para otros que ya hayan leído mis artículos acá en eliax sobre el tema a través de los años (iniciando quizás con este en el 2007, que curiosamente pronosticó desde ese entonces con bastante certeza a la Apple de hoy). Y hablando de artículos técnicos, recomiendo fuertemente leer el artículo que escribí este pasado Julio 2020 titulado “Análisis #eliax: Apple Silicon, todo lo que querías saber (y lo que no sabías que te gustaría saber)” en donde expliqué en lujo de detalle (y en un lenguaje que personas no-técnicas pudiesen entender) qué es lo que hace diferente a estos microprocesadores de Apple. Sin embargo, como se que muchos no leerán el artículo, he aquí la versión ultra-resumida (y obviamente dejando fuera muchos datos interesantes) de uno de los puntos en ese artículo: A diferencia de la mayoría de otras empresas que licencian los chips ya diseñados por la empresa ARM Holdings, Apple lo que hace es que licencia lo que se llama el “ISA” de ARM, es decir, el lenguaje común que deben hablar todos los procesadores ARM, y después Apple toma ese lenguaje de bajo nivel y desde cero ha creado su propia implementación de esta arquitectura. O en otras palabras, lo único que Apple tiene de ARM es la definición de su lenguaje básico, pero el diseño que implementa ese lenguaje en silicio fue creado desde cero por Apple, utilizando algunos de los más legendarios diseñadores de microprocesadores de todos los tiempos. Aparte de eso, es importante destacar que debido a que es Apple quien diseña su propia versión de la arquitectura ARM, que esta puede tomar todo tipo de decisiones para lograr hacer de estos aun mejores microprocesadores, y eso es precisamente lo que ha hecho, integrando en estos unos circuitos adicionales propietarios, diseñados para acelerar los procesos más comunes en sus sistemas operativos, así como los procesos más comunes en las aplicaciones que estos corren. Como ejemplo, una laptop genérica de Windows con un procesador x86 (sea de Intel o AMD), aun corriendo a la misma velocidad que una laptop MacBook Air de Apple con el nuevo chip M1 es casi seguro que con aplicaciones de la vida real esta sea más lenta que la laptop de Apple. ¿Por qué? Pues utilicemos el ejemplo de alguien que vive de editar videos, y digamos que lo que estás haciendo es editando videos en el formato H.265. En el mundo Android/Windows es posible que ese trabajo se pueda hacer “a fuerza bruta” utilizando el gran poder computacional crudo de los chips de última generación en esas plataformas, y es incluso posible que se puedan aceleran algunos cálculos con “motores vectoriales” que existen usualmente en el GPU (el chip dedicado a manipular gráficos), pero en el entorno de Apple Silicon, Apple ha creado circuitos dedicados específicamente para codificar y descodificar video H.265, y en tiempo real. ¿Qué significa eso en la práctica? Que mientras tu PC con Windows está arduamente tratando de codificar y descodificar el “stream” de video H.265 mientras editas tu video, que esta está esencialmente utilizando su CPU y GPU casi al máximo con poco margen para que hagas otras cosas, haciendo que tu PC se sienta pesada y lenta. En el lado de Apple Silicon sin embargo la situación es diferente... Mientras editas tu video, circuitos dedicados están constantemente codificando y descodificando tu stream de H.265 en tiempo real, liberando esencialmente a tu CPU y GPU para que tengan ciclos de sobra para otras labores como manejo de audio, internet, labores de Office, etc, haciendo que tu sistema operativo se sienta ta fluido como la mantequilla. Incluso, ya se hizo público que incluso la nueva Mac Mini anunciada de US$699 dólares puede editar video en resolución 8K en tiempo real, algo inaudito en un equipo de tan bajo costo, de tan pequeño tamaño, y de tan bajo consumo energético (para los que no sepan de estos temas técnicos, noten que una señal 8K está compuesta de 16 señales de video “Full HD” 1080p como lo conocen los consumidores, así que hablamos de una máquinas de US$699 dólares capaz de editar el equivalente a 16 pantallas de video FullHD en tiempo real). Y notar que video es solo un ejemplo. Desde hace años en iOS y recientemente en el mundo de las Macs (con procesadores adicionales en los modelos clásicos con chips Intel, y ya integrado en el chip M1 hoy día), Apple tiene circuitos dedicados para en tiempo real cifrar todos los datos que fluyen en la memoria de la máquina así como la escritura y lectura de almacenamiento (sea a disco duro tradicional o SSD en estado sólido). Eso significa que en los entornos de Apple, la seguridad por medio de cifrado de datos está habilitada por defecto, ocurre en tiempo real, y tiene un impacto casi cero en el rendimiento del resto de la máquina, mientras que en la mayoría de los entornos Android/Windows, esas son funciones que tiene que hacer el CPU en adición a sus funciones cotidianas. Y esos fueron solo dos ejemplos. Apple dedica espacio para circuitos dedicados en sus chips a todo tipo de cosas que van desde sonido 3D hasta imágenes de alto rango dinámico (HDR), y desde reconocimiento facial y de huellas digitales hasta Inteligencia Artificial (por medio de Machines Learning). Así que los chips de Apple Silicon tienen las siguientes razones para ser no solo más eficientes que una máquinas tradicional x86 con Windows, sino para ser mucho más eficientes: 1. Para empezar, no inician con un diseño genérico de ARM, sino que un diseño creado desde cero por Apple mismo optimizado para las necesidades de su ecosistema y de sus usuarios. 2. Utilizan circuitos dedicados para acelerar tareas comunes de un usuario, liberando al resto del chip para otras labores más genéricas y haciendo que todo se sienta más fluido. 3. Aunque un tema un poco más técnico, Apple está liderando también en pruebas de “rendimiento por vatio”. Esto significa que sus chips consumen mucho menos energía haciendo el mismo trabajo que la competencia, lo que se traduce a que o (1) puedan trabajar sin calentarse tanto y sin perder velocidad o (2) tener un rendimiento aún superior bajo calentamiento y enfriamiento activo. Y a propósito, ese último punto es la razón por la cual la nueva MacBook Air M1, aun teniendo un chip con 8 núcleos de CPU y 8 núcleos de GPU, y decenas de otras microceldas de computación integradas, no solo no require abanicos para enfriar el chip, sino que de paso su batería dura fácilmente hasta 20 horas de uso, lo que liberará a muchas personas para que trabajen sin miedo el día entero sin tener que cargar un cargador encima todo el tiempo, que es otro de los beneficios no cuantificables sobre papel que esta arquitectura de Apple ofrece al usuario común. Sin embargo, no tienen que llevarse de todo lo que digo, ya surgieron los primeros benchmarks (medidas de rendimiento) de las primeras MacBook Air M1 que han llegado temprano a los laboratorios que hacen este tipo de mediciones, y los resultados hablan por sí mismos de lo contundente que son. Por ejemplo, el reconocido portal Tom’s Guide ha anunciado en su titular (traducido del inglés) “Revelan los benchmarks de la MacBook Air M1 y destruyen a las laptops con Windows”. Y si buscan en Google encontrarán otros resultados similares que han surgido en los últimos 2 días. Es importante aclarar que la MacBook Air M1 que acaba de salir a un precio de US$999 dólares no es que solo es más rápida que laptops de Windows en su rango de precio, sino que es más rápida que cualquier laptop con Windows que exista en el mercado, sin importar su precio. O En otras palabras, aun si compararas una laptop con Windows en US$3,000 dólares, esta seguiría siendo más lenta que el modelo más básico de Apple (la excepción a esto serían las laptops con GPU separados “discretos” de gama alta para video-juegos y de alto costo, pero noten que los benchmarks indican que el M1 supera hasta en un 30% a una tarjeta NVIDIA GeForce GTX 1050, lo que indica que al menos en el sector de chips integrados en laptops no hay comparación en el mundo de Windows por el momento). O en otras palabras, esto ha cambiado no solo las reglas del juego sino que el terreno de juego en sí. Ahora curiosamente la mesa ha dado vueltas y ahora se tendrán que considerar las laptops de Apple como no solo las más baratas para el rendimiento que ofrecen sino además las más potentes, dos condiciones que generalmente eran mutuamente exclusivas en el mercado, particularmente en el mercado profesional. Y ojo (como si ya no fuera suficiente dolor de cabeza para Intel y AMD), que este es apenas el primer chip M1 de Apple, que en apenas su primera encarnación básica ya es el chip más potente del mundo en el área que compite, y que todavía no hemos visto lo que Apple tiene planeado para la gama alta de su línea “Pro” en los próximos dos años, que pueden apostar será aun más potente, y en el caso de la Mac Pro será muchísimo más potente, posiblemente con decenas de núcleos o quizás configuraciones multi-chip en paralelo. ¿Qué significa todo esto? Que estamos literalmente al inicio de una nueva revolución en el mercado, una revolución que empujará ahora a Intel, AMD y Microsoft a ponerse las pilas y responder. Aquí alguien más que tiene de ganar aparte de Apple es ARM Holdings, quien ya está entrando en el diseño de chips ARM para uso en escritorio y laptops, y hay que ver si Microsoft se lanzará a seguir los pasos de Apple en el 2021 y por fin lanzar una versión de Windows optimizada para ARM. Y ojo, antes de que comenten al respecto: Sí, Microsoft creó una versión de Windows para ARM que sacó con sus tabletas con el llamado “Windows RT”, pero fue un total fracaso. Si Microsoft realmente quiere competir contra macOS con Windows, tendrá que hacerlo saltado de pie a cabeza en el mundo ARM, y de paso por fin dejar atrás a x86 y seguir soportando las aplicaciones tradicionales por medio de herramientas como Rosetta 2 en las nuevas Macs con el chip M1. Y hablando de Rosetta 2, hablemos de qué sucederá con la aplicaciones que ya poseen en sus Macs tradicionales... Para esto Apple ofrece Rosetta 2, que es una herramienta que en tiempo real toma un binario creado para x86 (la arquitectura de Intel y AMD) y lo “transcompila” a Apple Silicon, esencialmente generando un nuevo binario nativo para Apple Silicon. Según Apple (y aparenta ser cierto en la práctica), debido a la alta optimización de la transcompilación y debido al gran poder y eficiencia del M1, curiosamente muchas aplicaciones de Intel correrán mejor en las nuevas Macs con M1. Sin embargo esta transcompilación aunque funcionará para la vasta mayoría de aplicaciones, habrá un pequeño porcentaje de aplicaciones (menos del 1%) que no funcionarán, pero son aplicaciones muy específicas que tienen que ver con virtualización. Así que por ejemplo, aplicaciones como VMWare y Parallels Desktop que te permiten emular a Windows o Linux en Mac, inicialmente no funcionarán en sus versiones tradicionales, pero si lo harán desde que sus desarrolladores creen nuevas versiones específicas para Apple Silicon, y eso nos lleva a otra herramienta que ha traído Apple a la mesa para suavizar la transición entre las Macs tradicionales y las nuevas: Binarios Universales. Un Binario Universal en el mundo de Apple tiene dos sentidos, y ambos han sido utilizados tradicionalmente por Apple a través de los años. En el primer sentido, un Binario Universal puede ser un App para la misma arquitectura pero que funciona en dos plataformas diferentes. El mejor ejemplo de esto son las Apps Universales para iPhone y iPad. Esencialmente el mismo App funciona en ambos entornos, aun estos sean diferentes (pero compartiendo la misma arquitectura de los chips Series A de Apple que comparten los iPhones y iPads). En el segundo sentido, por Binario Universal Apple se refiere a un solo archivo que contiene los binarios para dos arquitecturas totalmente diferentes, como la del x86 y la de Apple Silicon. Y esta es la ruta que durante unos años Apple seguirá. Bajo este modelo, cuando los desarrolladores creen sus Apps utilizando las herramientas de Apple, tras bastidores Apple compilará dos versiones de la aplicación, una optimizada para x86, y otra para su propio Apple Silicon, y las empaquetará ambas en un solo archivo instalador. ¿Qué significa eso? Que al menos por los próximos años cualquier usuario de Mac, sin importar que la Mac sea de la tradicional x86 o Apple Silicon podrán compartir archivos normalmente entre sí y los programas funcionarán transparentemente. Esto significa también que las Macs que hayas comprado recientemente no dejarán de funcionar, y que casi todos los programas que se hagan para las nuevas Macs funcionarán en tu Mac (salvo obviamente aquellos casos que tomen ventaja de cosas nuevas que no existan en las Macs anteriores, como podría ser un sensor de FaceID que espero llegue algún día a las Macs). Según Apple, la empresa planea seguir dando soporte a las Macs tradicionales “por varios años más”. Si nos llevamos de su historial con transiciones pasadas, lo más probable es que el tema de los binarios universales sea la norma por dentro al menos 3 o 4 años más, y quizás por un máximo de 5 o 6. Y noten un par de temas más. El primero es que Apple ya podrá crear aplicaciones mega-universales, que no solo funcionarán en las Macs con x86 y las de Apple Silicon, sino además en iPhone y iPad, cosa que ha anunciado oficialmente. Y esto se hará cada vez más fácil debido a que cada año macOS y iOS y iPadOS comparten cada vez más sus cimientos. Incluso, por si no sabían, una de las nuevas cosas que puedan hacer las nuevas Macs con M1 es ejecutar aplicaciones de iPhone y iPad (aunque son los desarrolladores de cada App los que decidirán si permitirán ejecutar sus Apps de iPhone y iPad en macOS, pues quizás quieran optimizar su interfaz para cada entorno), lo que traerá cientos de miles de Apps de iPhone (y particularmente iPad) a macOS. Yo por ejemplo sueño con una futura iMac cuya pantalla se recline y se convierta en una tableta gigante para utilizar aplicaciones optimizadas para touch, o por ejemplo utilizar a ProCreate para dibujar/pintar con el Apple Pencil (dicen que soñar no cuesta nada). Y el otro tema es que es bueno que sepan que esta no es la primera vez que Apple hace semejante transición, incluso, esta es la tercera vez que lo hace. La primera vez fue cuando transicionó sus Macs de los chips Motorola 68xxx a los PowerPC, la segunda vez fue cuando transicionó a sus Macs con OS X desde PowerPC a x86, y esta vez es la tercera, así que la empresa ya tiene experiencia con estas transiciones, y por sobre todo que no tiene el temor de hacerlas, cosa que siempre he deseado de Microsoft, quien testarudamente al día de hoy quiere seguir soportando aplicaciones de hace décadas atrás, y esa resistencia al cambio es precisamente lo que le costará mercado ahora, pues pueden esperar que al menos en los próximos dos años Apple tomará una ventaja significativa sobre el mercado de Windows, al menos en el sector profesional. Para que tengan una idea a lo que me refiero, herramientas como Pixelmator ya están reportando esta semana que la versión M1 es entre 3 y 15 veces más rápida que la versión x86, y esa ventaja puede dejar atrás aquellas otras aplicaciones profesionales que solo existen en Windows si no se apuran rápidamente a migrar sus apps a macOS. Adobe por ejemplo ha respondido que migrará toda su plataforma creativa a Apple Silicon precisamente para no quedarse atrás, y esperen lo mismo de aplicaciones de otra índole en ramas de la ingeniería, medicina, arquitectura, etc. Habiendo dicho todo eso, y para concluir, quiero decir que es verdad que ahora vendrán las guerras de los Fanboys y los Haters, pero al final de cuentas somos los consumidores los que seremos beneficiados de estos saltos tecnológicos, y debo decir que el mundo de las PCs de escritorio y laptops (de Windows y Macs) necesitaban algo como esto, pues ese mundo se había casi paralizado debido a los grandes avances en el sector móvil. Así que amen u odien a Apple, hay que darle su debido crédito de querer siempre innovar y empujar (o a veces halar) al resto de la industria hacia adelante... Los próximos dos años serán verdaderamente emocionantes. autor: josé elías |
20 comentarios
1,479,349 vistas |
Apple / OS X , Futuro Digital , Hardware , Linux , Negocios , Opinión / Análisis , Predicciones , Software , Windows / Microsoft |
lunes, agosto 24, 2020
|
Hola amig@s lectores,
En estos días una noticia ha explotado en el mundo de la tecnología llamando bastante la atención tanto de desarrolladores de software como empresarios y políticos: La empresa Epic Games anunció que está demandando a Apple y a Google por lo que consideran es un tratado injusto en sus respectivas cuentas de aplicaciones, y citan específicamente su popular juego Fortnite que es en actualidad uno de los juegos más populares del mundo. Pero antes de continuar, entendamos el contexto... En el 2008 Apple anunció el App Store ("La Tienda de Apps"), una tienda que por primera vez y de forma super segura y super fácil permitía a consumidores instalar aplicaciones adicionales a las que venía instaladas por defecto en sus iPhones, algo que muy poco tiempo después fue replicado por Google en su tienda para Android y el Play Store. Sin embargo, es bueno aclarar que estas tiendas no fueron creadas por puro altruismo, sino que son parte de un modelo de negocio de estas empresas para generar más dinero post-compra del equipo celular. En el caso de Apple en particular, esto le ha funcionado increíblemente bien, y particularmente en el ambiente de video-juegos, ya que el poder adquisitivo de los usuarios de iPhones en promedio es mayor que el de usuarios de Android, y a eso se agrega que para desarrolladores es mucho más fácil hacer juegos para iOS que para Android debido a que en el entorno iOS hay mucha más homogeneidad, mientras que en el entorno Android hay demasiada variedad de dispositivos con demasiadas variaciones en poder de procesamiento, pixeles por pantalla, potencia de los gráficos, etc. Y ojo que esto no es una opinión subjetiva mía, pues lo que acabo de decir es el consenso general de la industria avalado por cifras. Como ejemplo relevante a esta conversación de hoy, noten que la misma Epic Games anunció que en el mes pasado de Julio sus ventas en iOS fueron de US$43.4 Millones de dólares, mientras que en Android fueron de apenas US$3.4 millones de dólares (o en otras palabras con Apple la empresa Epic Games vende unas 13 veces más que en Android. Y a propósito, la razón de citar estas cifras es porque es importante que entiendan que Apple representa para Epic Games su mayor fuente de ingresos en al menos el espacio móvil, por lo que cualquier ahorro que la empresa pueda tener en el ecosistema de Apple representaría una gran diferencia monetaria para Epic. Habiendo dicho eso notarán entonces por qué es que Epic ha creado toda una campaña de Relaciones Públicas en contra de Apple específicamente, aun esté también demandando a Google (y hago paréntesis porque he notado las redes de usuarios de Android felices que Epic está demandando a Apple, desconociendo obviamente que la demanda aplica igual a Google, pero así es el mundo de los fanboys). Epic ha llegado a un extremo tal que incluso creó su propia versión del famoso anuncio de Apple "1984", pero esta vez poniendo a Apple como el opresor, y de paso ha organizado eventos masivos anti-Apple dentro de Fortnite. Sin embargo, aunque Epic tiene un punto (en algo que mencionaré al final en donde estoy de acuerdo con ellos), en gran parte toda esta jugada de Epic ha sido algo totalmente premeditado y extremadamente hipócrita, y les mostraré cómo a continuación... Primero, se hizo obvio que todo esto fue premeditado por Epic ya que en la misma semana no solo violó los términos de uso del App Store (lanzando una funcionalidad que le permite cobrar dinero dentro del App pero sin pasar por la tienda de Apple, algo que está terminando prohibido y que hicieron clandestinamente) y segundo lanzaron el video de "1984" que ya tenían listo desde hace tiempo (un video de esa naturaleza no se planifica y hace en 48 horas, es algo que tomas literalmente semanas en el mejor de los casos), lo que indica que Epic tenía toda esta estrategia planificada desde hace tiempo, lo que incluye de paso enviar información falsa a sus usuarios para ponerlos a su favor y en contra de Apple. ¿Cuál información falsa? Pues para eso pasemos ahora cómo es que son unos hipócritas... Para empezar, Epic le ha hecho creer a sus usuarios y fans que Apple es el demonio que quiere acabar con sus opciones de juegos, cobrándoles un 30% de comisión por lo que sea que paguen. Pero lo que Epic no les dice es que la empresa paga también ese mismo exacto 30% en las tiendas de Microsoft, Sony y Nintendo. La otra cosa que Epic tampoco les dice es que a diferencia de Microsoft, Sony y Nintendo, que Apple en el segundo año de subscripción cobra solo el 15%, la mitad de esos competidores. Pero la parte verdaderamente hipócrita es que Epic están demandando (en una carta que enviaron a Apple el 30 de Junio y que recién se hizo pública) que Apple le permita (1) poder cobrar dentro del ecosistema de Apple como les de la gana sin darle un centavo a Apple y (2) poder tener su propia tienda de Apps en el iPhone, iPad, Apple TV, Apple Watch y Macs, sin pagarle un solo centavo a Apple, y lo hipócrita de esto es que Epic tiene su propio ecosistema de herramientas que cobra a quienes la utilizan, así como cobra a los mismos jugadores por usar sus juegos y comprar cosas dentro de esos juegos. En otras palabras, Epic está demandando acceso 100% gratuito dentro de Apple, pero ellos mismos sí quieren poder cobrarle a otros. Y no, nada de esta información "no conveniente" la ha dicho Epic a ninguno de las manadas de fans, fanboys y haters que ha reclutado en su guerra santa contra Apple. Y creo que hay que pausar un segundo para entender bien esta parte. La analogía de lo que Epic quiere hacer es que si tu eres propietario de un Shopping Mall (mega-centro de tiendas, o plaza, como le dicen en algunos países latinos), Epic quiere que no solo le cedas un espacio dentro de ese Mall sin pagarte renta alguna, sino que además quieren poner en ese espacio dentro de tu Mall una tienda desde la cual ellos puedan administrar y vender más locales dentro de tu Mall, y todo eso sin darte un solo centavo. Esto ni siquiera es comunismo, esto es depredación sin ningún tipo de vergüenza de los recursos de otros. Y si se preguntan, ¿y no es eso libre mercado? Pues no. Libre mercado es que Apple no obliga a Epic a entrar a su ecosistema. Epic entró no solo porque fue su voluntad, sino que entró después de estar 100% de acuerdo con las normas y reglas de Apple, y al Epic violar el acuerdo Apple hizo lo que haría cualquiera de nosotros en su lugar: Le dio una advertencia que eso tenía que parar o que se arriesgaban a ser sacados del App Store. También es bueno destacar que Apple no cobra ese dinero sin ninguna justificación (como lo quiere hacer ver Epic). Apple ha invertido literalmente miles de millones de dólares en desarrollar su ecosistema, y para mantenerlo necesita también de grandes recursos (solo piensen en los centenares de miles de servidores que la empresa tiene que mantener mensualmente para manejar la carga de los más de mil millones de usuarios del App Store, y sus demandas en descargas y procesamiento de pagos en tiempo real), por lo que aun Apple quisiera (y no lo va a estar porque es una empresa con inversionistas que demandan ganancias, como debe ser) esta no podría proveer el App Store de forma gratuita a nadie. Agreguen a eso todos los sistemas de protección contra Apps malignas que Apple tiene, que garantizan en la medida de los posible que sus usuarios estén lo más protegidos posible (obviamente no son perfectos en esto, pero las cifras hablan por sí mismas: Más del 99% de los problemas de seguridad de Apps afectan a Android y no a iOS, revisen por ejemplo los datos de Checkpoint para este punto). Así que en resumen, lo que Epic demanda es totalmente injusto, y lo hizo de una forma realmente innecesaria, premeditada, y con obvias malas intenciones, de paso utilizando una táctica de baja moral al reclutar a sus seguidores haciéndoles creer que Apple es el malo del juego y quien quiere cobrarles, cuando Epic mismo les cobra a ellos. Así que esta no es una pelea legal entre David vs Goliat, esto es más una pelea de intereses en donde Epic sabe que su mayor fuente de ingresos proviene de Apple y quiere buscar la forma de cortar los ingresos a la mano que le da de comer. Ahora bien, aun habiendo dicho todo eso de Epic, sí hay algo en lo que estoy parcialmente de acuerdo con ellos, y es en ese 30% inicial. En mi opinión, aunque Apple está en todo su derecho de demandar el porcentaje que le plazca, ya que es su plataforma, yo creo que algo más factible para ambas partes debería rondar entre el 10% y 20% como mucho, quizás fijado en un 15%, sin embargo esto es algo que Epic muy bien pudo solicitarle a Apple (o incluso organizar pacíficamente un grupo de los grandes usuarios del App Store) sin necesidad de violar sus reglas y sin necesidad de iniciar una campaña sucia contra la empresa. Hoy lunes 24 de agosto 2020 será la primera audiencia legal sobre este caso en las cortes de EEUU, y ya veremos lo que sucede de ahora en adelante (mantendré este artículo actualizado acá abajo conforme pasen grandes hitos con este caso), pero mientras tanto, una predicción de mi parte: Epic va a perder esta batalla en el sentido de que no va a lograr que Apple ceda en darle tratamiento especial, y mucho menos permitirle que ponga su propia tienda dentro de la tienda de Apple, pues permitir esto sentaría un gran y peligroso precedente en los EEUU que afectaría todo su sistema capitalista y provocaría un éxodo de empresas buscando otras fronteras más amigables a la inversión y que proteja mejor la propiedad intelectual y trabajo de visionarios. Por otro lado, esto sí posiblemente al largo plazo haga que Apple, Google, Microsoft, Sony y Nintendo ponderen si 30% es quizás un poco más de lo justo o apropiado o aceptable para sus clientes, y de ellos aceptar una baja (aun sea a un 20%) en cierta forma esa sería una victoria para Epic. Sin embargo, no pierdan de vista el hecho de que si Apple le cierra las puertas a Epic (y tiene todo el derecho legal de hacerlo) que esto afectaría enormemente las finanzas de Epic al largo plazo, pues recuerden que facturan por medio del App Store más de US40 Millones de dólares mensuales. Pero como si fuera poco, Epic es la creadora del motor de juegos Unreal Engine, utilizado por decenas de miles de juegos y apps en el App Store, y si Apple le revoca la licencia del App Store a Epic, es posible que juegos que utilicen el Unreal Engine tampoco podrán ser aceptados en el App Store, dando un tremendo golpe a las finanzas de Epic, por lo que no creo la empresa esté realmente pensando en llevar esto para largo y creo que está haciendo un bluf como en poker, pues no solo afectaría esto sus finanzas gravemente, sino que le daría una gran ventaja a su competencia principal, Unity, que hacen el otro gran motor de juegos multi-plataforma popular de la industria. Respuesta a una pregunta frecuente que quizás algunos de ustedes tengan: Si se preguntan qué va a pasar con los que ya tengan el juego instalado en sus iPhones u otros dispositivos de Apple, la respuesta es que por ahora si tienen la versión anterior a la más reciente (la que viola las normas de Apple) el juego continuará funcionando normalmente, sin embargo es posible que en los próximos días Apple remueva la última versión que viola las normas, invaliden el juego a los que la tienen instalada, y ustedes tengan que volver a recargar la versión anterior (que Apple no removerá del App Store ya que no viola las normas). O en otras palabras, por el momento podrán seguir teniendo acceso a al menos la versión más reciente del juego que no viola las normas del App Store, sin embargo ya no podrán tener actualizaciones del juego, lo que significa que al largo plazo el juego podría dejar de funcionar conforme salen nuevas versiones de iOS. Todo esto claro, si no se llega a un acuerdo antes, y ese acuerdo sería que Apple no cambiaría absolutamente nada y Epic Games de un paso atrás y acepte las normas del App Store. Actualización 1: Un lector hizo la observación sobre este artículo en el grupo oficial de eliax en Facebook de que Microsoft oficialmente se ha unido a la batalla apoyando a Epic, y es bueno que entiendan por qué: Microsoft, similar a Epic, quiere que Apple le de acceso a instalar un App en el iPhone, iPad y Apple TV que daría acceso remoto a los juegos de Microsoft en la nube, sin pagarle un centavo a Apple, a lo que Apple también se ha negado. Actualización 2: Similar a Microsoft, Facebook también simpatiza con Epic, y por la misma razón que Microsoft: Facebook quiere que Apple le permita poner su tienda de mini-apps y juegos dentro del App Store, sin pagarle un centavo a Apple, cosa que como podrán entender es inaceptable para Apple. Actualización 3: En primera audiencia la jueza a cargo del caso dijo que "está más a favor de Apple" en este caso aunque no completamente (eso quizás signifique que permitiría que Apple continue bloqueando el juego Fortnite si Epic no se acopla a las reglas del App Store pero que quizás impida que Apple bloquee otros juegos que utilizan el Unreal Engine de Epic), y que dictará una sentencia "a futuro". Actualización 4: La cuenta de Epic Games en el App Store ha sido oficialmente cerrada por Apple ya que Epic decidió no apegarse a las reglas aún después de Apple cederle dos semanas de gracia. A tal fin, nuevos jugadores de Fortnite no podrán descargar el juego en iOS, y todos los otros juegos de Epic también fueron removidos del App Store. Actualización 5 del 9 de Sept. 2020: Epic ahora quiere que Apple le permita regresar al App Store, pero no quiere ceder en tener que pagar como todos los demás clientes en la tienda de Apple. Debido a esto y la insistencia de Epic, Apple ha decidido contra-demandar a Epic, y parte del documento legal que se envió a las cortes incluye estos dos párrafos escrito por abogados de Apple (que pongo en inglés y después traduzco para los que no sepan el idioma): ″Epic’s lawsuit is nothing more than a basic disagreement over money. [...] Although Epic portrays itself as a modern corporate Robin Hood, in reality it is a multi-billion dollar enterprise that simply wants to pay nothing for the tremendous value it derives from the App Store.” Traducción: "La demanda de Epic no es más que un desacuerdo por dinero. Aunque Epic se quiere presentar como un Robin Hood corporativo moderno, lo cierto es que en realidad es una empresa que genera miles de millones de dólares que sencillamente no quiere pagar un centavo por el tremendo valor que deriva del App Store." Y continúan: Apple is now going one step further, asking the court to hold Epic liable for breach of contract and other counts, seeking restitution of all money Fortnite collected through its payment system, and seeking a permanent injunction banning its external payment mechanism in all apps, including Fortnite. Traducción: "Apple ahora tomará un paso más, solicitando al tribunal que responsabilice a Epic por incumplimiento de contrato y otros cargos, y que buscamos restitución de todo el dinero que la empresa colectó por su sistema de pagos [circundando el sistema de pago de Apple que contractualmente estaba obligada a utilizar], y buscando una orden judicial permanente que prohíba su mecanismo de pago externo en todas sus aplicaciones, incluyendo a Fortnite." Noten que Epic ya ha sentido el duro golpe de no existir en el App Store, reduciéndose sus ventas significativamente en el período que ha estado fuera del App Store, lo que de por sí es evidencia de que la empresa obtiene un valor por utilizar la plataforma de Apple, y razón por la cual Apple requiere ser remunerada por proveer ese valor. autor: josé elías |
37 comentarios
1,552,305 vistas |
Apple / OS X , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Video-juegos , Windows / Microsoft |
miércoles, julio 22, 2020
|
Hola amig@s lectores,
Como ya sabrán, Apple recientemente anunció que sus Macs transicionarán a sus propios procesadores que ha bautizado como "Apple Silicon", y aunque no han proveído información detallada al respecto noten que llevo desde el 2007 prediciendo esta integración (ver los enlaces de "previamente en eliax" al final de este artículo en donde verán los principales artículos históricos que he escrito acá en eliax sobre el tema), y por tanto tengo una muy buena idea de todo lo que ocurre tras bastidores (ayudado también por contactos en ciertas empresas, rumores de fuentes confiables, y dado que mi profesión de carrera universitaria fue precisamente el diseño de microprocesadores, tema que entiendo en profundidad). Habiendo hecho esa breve introducción déjenme aclararles algo de entrada: Apple no está fabricando los típicos chips de arquitectura ARM para sus Macs (ni tampoco para sus otros productos que utilizan Apple Silicon como son el iPhone, iPad, Apple Watch, AirPods, Apple HomePod, o Apple TV), y para entender eso deben entender cómo funciona el ecosistema ARM, que es muy diferente al ecosistema tradicional de Intel (y AMD) con la arquitectura x86 y sus derivados recientes como X86-64. En el mundo de x86, empresas como Intel y AMD diseñan sus chips, los fabrican (sea en sus propias fábricas, como Intel, o de otros, como AMD) y después los venden a clientes (como Dell, HP, Lenovo, etc) que después integran esos chips adentro de sus productos. Bajo este modelo el cliente de x86 por lo general no tiene muchas opciones a la hora de decidir qué va dentro de esos chips (que por lo general son CPUs, o el cerebro principal del sistema) y a veces GPUs (encargado de gráficos, y más recientemente también de temas como Inteligencia Artificial de forma parcial). Sin embargo empresas como Intel lo que hacen es que tienen una gran diversidad de familias (como la i3, i5, i7, i9, Xeon, etc) y modelos (como por ejemplo el Core i9-10980HK), con la esperanza de que algunos de esos modelos le serán de utilidad al mercado dependiendo de las necesidades (como por ejemplo, laptops, o potentes servidores, o PCs para jugar, etc). En el mundo ARM la situación es totalmente distinta. La empresa que mantiene la arquitectura ARM es ARM Holdings, cuyo propietario es actualmente el SoftBank Group de Japón (curiosamente, noten que Apple fue de las 3 empresas que iniciaron a ARM, junto con Acorn Computer y VLSI Technology). En este mundo, la empresa ARM no fabrica sus propios chips, sino que licencia sus diseños en dos modalidades muy particulares. Bajo la primera modalidad, ARM diseña chips y licencia sus planos a empresas que deciden utilizar esos diseños para sus productos. Así que por ejemplo alguien como Samsung puede licenciar los planos de un modelo específico de chips de ARM, y después procede a enviar esos planos a una fábrica para que les fabrique millones de chips con esos planos y después poner el producto en sus celulares. ARM también provee servicios donde bajo ciertos arreglos puede ligeramente modificar algunos aspectos de sus diseños para clientes en particular (Huawei por ejemplo puede solicitar a ARM que le provea planos de un chip que contenga 4 núcleos de CPU de alta potencia y 4 más de bajo consumo energético). Pero lo importante a entender es que bajo este modelo los creadores de productos (como Samsung o Huawei) simplemente licencian los planos de tales chips, y después es labor de ellos buscar un fabricante que se los fabrique. El otro tipo de licencia, que muy pocos tienen, siendo Apple una de esas exclusivas empresas, no es para licenciar los planos genéricos de los chips que implementan la arquitectura ARM, sino para licenciar lo que se llama el "ISA" (Instruction Set Arquitecture). Les explico a continuación ya que esto es extremadamente importante lo entiendan... Cuando alguien habla de "X86" o "ARM" se refiere por lo general al paquete completo, al producto final, al chip ya empacado y listo para utilizarse en un celular o tableta. Sin embargo, en la jerga de la industria esas palabras tienen significados muy diferentes dependiendo de a qué nos estamos refiriendo. Una cosa es un chip que implementa una arquitectura, otra es la arquitectura en sí. En el mundo de los microprocesadores uno generalmente inicia con el ISA, que no es más que el lenguaje que hablaría el microprocesador a bajo nivel. Así que por ejemplo, imaginemos una arquitectura de microprocesador que implementará este ultra-sencillo juego de instrucciones (ISA): - ESCRIBIR (algo en memoria) - MODIFICAR (algo en memoria) - COPIAR (de un lugar en memoria a otro lugar) - BORRAR (algo en memoria) - SUMAR (dos números) - CONDICION (para hacer algo dependiendo de algo) Esa lista de 6 "comandos" sería el ISA, o "La Arquitectura del Juego de Instrucciones". En la realidad, obviamente la cosa es muchisisísimo más compleja, pero para fines didácticos este ejemplo es más que suficiente. Ahora bien, asumamos que ese es el ISA de la arquitectura ARM. ¿Qué sucede ahora? Pues obviamente el ISA no es más que una especificación técnica sobre papel, no hace absolutamente nada hasta que alguien haga un diseño (un "plano") que implemente esa ISA en un plano que después se pueda enviar a una fábrica para crear el chip. Y eso es precisamente una de las cosas que hace ARM: La empresa toma su especificación de ISA y diseña planos de chips que implementan ese ISA para distintos mercados. Es bueno notar que ARM hace distintas familias de diseños de sus chips para diferentes mercados, tal cual lo hace Intel, así que por ejemplo ARM tiene familias como son los Cortex-A, Cortex-M, Ethos-N, Neoverse, etc. Es también bueno entender que aunque los chips son diferentes y para distintos mercados (como puede ser desde un super pequeño chip de bajo consumo energético para ser utilizado en un la computadora de un refrigerador, hasta un super potente chip con 8 núcleos para el más reciente celular de Google) que todos esos chips utilizan exactamente el mismo ISA, lo que significa que un programa que pongas en uno de ellos funcionará hasta cierto punto en otro (aunque obviamente de forma más rápida o lenta dependiendo del caso). Y esa es una de las grandes ventajas de ARM: Un desarrollador de software puede utilizar esencialmente las mismas herramientas para desarrollar para una aplicación que va en un refrigerador, hasta una aplicación que va para una nave espacial, ya que la arquitectura de bajo nivel es la misma. Pero la otra cosa que hace ARM (como es el caso de Apple) es licenciar la ISA en sí, para que sea entonces el cliente de ARM (en este caso Apple) quien diseñe sus propios planos basados en la arquitectura ISA de ARM. Y es por eso que aunque Apple licencia el ISA de ARM, que técnicamente hablando al bajo nivel los chips de Apple son totalmente diferentes a los chips ARM genéricos que utilizan empresas como Samsung, Huawei y Google en sus productos. Y eso es extremadamente importante entenderlo porque muchos se preguntan que cuál es la fórmula mágica que permite que año tras años los chips "ARM" de Apple en sus celulares y tabletas sean considerablemente superiores en rendimiento y consumo energético a los de la competencia, y la razón es que Apple ha invertido miles de millones de dólares en contratar (literalmente) a los mejores diseñadores de microprocesadores del mundo, con la finalidad de tener su propia implementación del ISA de ARM al que llama "Apple Silicon". Pero antes de explicarles qué otras cosas está haciendo Apple para hacer que su Apple Silicon sea mucho más eficiente que los chips genéricos de ARM, es bueno responder también la pregunta "¿Por qué ARM en primer lugar y no x86?" Es decir, qué hizo que empresas como Apple, Samsung y miles de otras decidieran adoptar a ARM para sus productos... Y la respuesta es sorpresivamente sencilla: Eficiencia, costos y simpleza. Sucede que filosóficamente han existido tradicionalmente dos escuelas de pensamiento sobre cómo diseñar microprocesadores. La primera escuela es llamada CISC, y la segunda RISC. Intel es de la vieja escuela de CISC que significa "Complex Instruction Set Computing", y ARM es de la nueva generación de RISC (Reduced Instruction Set Computing). En CISC la idea es diseñar microprocesadores que con una sola instrucción puedan hacer varias operaciones a la vez, mientras que RISC prefiere la filosofía de preferir hacer varias operaciones simples una detrás (o en paralelo, de ser posible) de las otras. Aunque ojo que hoy día ambas arquitecturas han tomado prestado de la otra, pero para fines de este artículo lo que les dije es lo primordial. Como analogía didáctica, imaginen un ejemplo en donde un usuario quiere sumar 4 números que llamaremos A, B, C y D. En el mundo CISC de Intel es posible que exista una instrucción que sume los 4 números de una sola vez, con una instrucción similar a esta: SUMAR 4 NÚMEROS: A + B + C + D = X Pero en el mundo RISC quizás solo tengamos una simple instrucción que sume dos números a la vez, por lo que tendríamos que ejecutar varias instrucciones simples secuenciasmente para llegar al total, similar a esto: SUMAR 2 NÚMEROS: A + B = X SUMAR 2 NÚMEROS: X + C = X SUMAR 2 NÚMEROS: X + D = X Ahora bien, a simple vista se puede perdonar que alguien ingenuamente opine que la primera forma de sumar los números es "la más eficiente", puesto que se hace todo en un solo paso. Sin embargo, y como dice el viejo dicho, el demonio está en los detalles... Sucede que en el primer ejemplo, así como Intel tendría una instrucción especial para sumar 4 números, lo más probable es que también tenga que tener dos instrucciones más adicionales en el chip, una para sumar grupos de 3 números, y otra para sumar grupos de 2 números, como esto: SUMAR 4 NÚMEROS: A + B + C + D = X SUMAR 3 NÚMEROS: A + B + C = X SUMAR 2 NÚMEROS: A + B = X O en otras palabras, mientras que la arquitectura RISC tiene un solo comando que se llama "SUMAR 2 NÚMEROS" y que reutiliza una y otra vez para sumar la cantidad de números que uno desea, la arquitectura CISC tiene comandos específicos para sumar entre 2, 3 o 4 números (y obviamente puede combinarlos igual que RISC para múltiples operaciones). ¿Qué significa eso? Pues significa lo siguiente: 1. Implementar la instrucción de sumar dos números en ambas arquitectura posiblemente tome una cantidad de circuitos (y correspondiente espacio) en el chip muy similar. Pero para implementar la suma de 3 o 4 números la arquitectura CISC va a necesitar de más circuitos y más espacio en el chip (en nuestro ejemplo, entre 3 y 5 veces más espacio debido a que también se necesita espacio para guardar todos los números que se suman a la vez). 2. Debido a que un chip CISC necesita muchísimo más espacio que un chip RISC para poder hacer computación, eso significa también que (1) son más complejos y (2) más grandes ya que ocupan mucho más espacio. 3. Debido a que los chips CISC son más grandes, eso también significa que son mucho más caros para fabricar, ya que los chips se fabrican en wafers (similares a un disco compacto pero sin el agujero del centro), y mientras menos chips quepan en un wafer mayor su costo de fabricación y de paso mayor la posibilidad de que tengan impurezas lo que daña los chips y por tanto sube aun más los costos de fabricación. 4. Pero como si fuera poco, el hecho de que los chips son más grandes, y que de paso las instrucciones del ISA de un chip CISC manipulan más datos a la vez, eso también significa que (1) consumen significativamente más energía y (2) por tanto se calientan mucho más, lo que para ciertas aplicaciones es un grave problema ya que se necesitaría de enfriamiento activo (como son los ventiladores conectados directamente en los chips como es común en las PCs de Intel con Windows). Habiendo dicho todo eso, espero que vayan entendiendo por qué entonces al inicio de la revolución móvil que inició en los días del primer iPhone (y los anteriores líderes como fueron el Palm Pilot o Blackberry) los fabricantes de tales dispositivos decidieron irse mejor con ARM (y su arquitectura RISC) ya que los microprocesadores ARM son (1) más baratos, (2) consumen menos energía, y (3) ocupan menos espacio. Y como pueden ver estos son tres requerimientos esenciales para aplicaciones móviles hoy día. Intel, lamentablemente, no predijo todo esta revolución móvil que se venía llegar tarde o temprano, no se adaptó a tiempo a las nuevas tendencias, decidió seguir pensando en PCs de escritorio y laptops tradicionales con Windows, y cometió de paso su error más monumentalmente nefasto al no solo no decidir crear una arquitectura que compitiera realmente contra ARM, sino que de paso fue tan torpe como para vender una licencia de ISA ARM que poseía (de las muy pocas que existían en el mundo, y que de no haberla vendido, hubiese podido estar fabricando sus propios chips ARM hoy en día). Noten que debido a todo eso, hace 10 años escribí un artículo titulado "Análisis eliax: La arquitectura ARM se convierte en la más grande amenaza al negocio de Intel", pero parece que los ejecutivos de Intel no leían a eliax en ese entonces... Pero las ventajas de ARM no se quedan ahí. A diferencia de los chips x86 cuyos únicos diseñadores son Intel y AMD, en el mundo ARM un cliente de ARM puede solicitar que en el mismo chip se integre también todo tipo de otros diseños y módulos, como por ejemplo integrar un GPU o un procesador de señales dentro del mismo chip, para así hacer todo más eficiente aun y de mucho menor costo. Y es ahí en donde viene el concepto (que encontrarán en donde sea que lean estos temas) de un "SoC". Un SoC (System on-a Chip) no es más que la técnica de poner varios microprocesadores que usualmente estarían empacados en chips diferentes, dentro de un solo chip. En el mundo x86 esto también existe pero de forma muy limitada, como por ejemplo los chips de Intel que vienen con un GPU integrado, pero en el mundo ARM eso se lleva a todo un nuevo nivel ya que ARM le da permiso a cualquier fabricante de integrar cualquier otro circuito personalizado que desee dentro de sus diseños. Y es bueno notar también que cuando empacas varios diseños de microprocesadores en un solo chip que las distancias de comunicación interna se reducen considerablemente mejorando de forma sustancial el rendimiento de interacción entre las partes. Y todo esto nos lleva de regreso a Apple... A diferencia de (por ejemplo) los fabricantes de equipos Android que están a la merced de ARM para diseñar sus propios módulos opcionales para incluir en un SoC, o de tener que contratar a terceros que les provean esos módulos en forma de "IP" (cuando lean "IP" en este contexto no están hablando de "dirección IP de Internet", sino de "Intellectual Property, es decir, planos de circuitos que son propiedad intelectual de sus diseñadores y que te venden o licencian), o en algunos casos de tener que contratar de forma interna o externa a expertos que les diseñen esos componentes adicionales, mientras que Apple por su parte lo que ha hecho es que dentro de su propia empresa ha creado toda una división de diseño de microprocesadores cuyo único cliente es Apple mismo. Y esto, tiene implicaciones profundas... Para empezar, Apple fabrica cientos de millones de productos cada año, y todos utilizan y utilizarán su propio Apple Silicon, lo que le permite lograr una extremadamente eficiente economía de escala, ya que tiene el uso y consumo de tales chips garantizados. Debido a que Apple es el único "cliente" de Apple Silicon, eso significa que los diseñadores de esos chips están diseñando circuitos exclusivamente para las necesidades de Apple y de nadie más. Eso a diferencia de los diseños genéricos de ARM, que por pura necesidad deben ser lo más genéricos posibles ya que deben satisfacer las diversas necesidades que pudieran tener los distintos clientes que licencien esos diseños (es el caso similar con el sistema operativo Android, debe ser lo más genérico posible para poder ser utilizado en equipos de diversos fabricantes y por tanto por motivos lógicos y técnicos jamás podrá ser tan eficiente como lo es iOS por ejemplo en un iPhone). Así que por ejemplo, ARM no tiene el menor incentivo en crear circuitos de alta eficiencia para escáners 3D de reconocimiento facial, ya que solo tendría uno que otro cliente para esa aplicación (grandes como Samsung o Huawei que puedan invertir en eso), y por tanto prefiere mejor que tales fabricantes implementen esas funcionalidades en software en vez de hardware. Eso significa también que los chips genéricos de ARM tienen incluso "circuitos de más" que están ahí para satisfacer al más común denominador, que son diseños que aunque son optimizados para un bajo consumo energético y cierto poder de procesamiento, no están optimizados para las necesidades de un cliente en particular. Un ejemplo sería que la nueva versión de Android soporte escáneres faciales en 3D de forma nativa (sin que un integrador como Samsung o Huawei tenga que hacer su propia implementación sobre el Android base). Sería genial si ARM pudiese implementar los algoritmos ultra-demandante de procesamiento de CPU que este tipo de funcionalidad demanda, en hardware, para que sea más eficiente en términos de velocidad y consumo de memoria y energético, pero ARM no tiene incentivo de hacer tal cosa ya que asume que empresas como Samsung o Huawei utilizarán sus talentos internos para proveer u obtener módulos de IP que puedan integrar con los planos de ARM, y al menos que todo el mercado empiece a demandar tal funcionalidad ARM no levantará un dedo, y para cuando lo haga ya Apple habrá implementado lo mismo par de años antes. Un buen ejemplo de esto fue la movida de chips ARM de 32 bits a 64 bits. Fue Apple (y asombrosamente, no ARM) que lanzó el primer procesador ARM de 64-bits en el 2013, y el mundo Android tuvo que esperar casi 3 años después para poder tener algo similar viniendo de ARM. Y todo esto nos trae de re-regreso a Apple: El único cliente de Apple Silicon es... Apple. Si Apple le dice al equipo de ingenieros de Apple Silicon que en par de años planean lanzar unas gafas de Realidad Aumentada y que necesitan poner circuitos dedicados en sus chips para que los algoritmos que utilizarán esas gafas y los iPhones del momento puedan lidiar de forma eficiente con el flujo de datos que eso genera, eso más que una sugerencia sería una orden, y 12 meses después pueden apostar a que los nuevos iPhones y diseños de Apple Silicon ya contendrán circuitos dedicados para esa tarea. Esa es la razón principal por la cual el iPhone SE que cuesta US$400 ha sido comprobado que es mucho más rápido que el celular más caro de Samsung que cuesta cerca de US$1,500 dólares. Y es la misma razón por la cual un iPhone con 3GB de memoria RAM funciona marcadamente más fluido que un celular Android con 6GB de RAM, ya que en el ecosistema de Apple todo está integrado eficientemente y diseñado como un "todo". Esa es también la razón por la cual las baterías de los celulares iPhone son por lo general de menor capacidad que los celulares genéricos Android y aun así "misteriosamente" duran la misma cantidad de horas funcionando. Tiene que ver con el hecho de que en Android muchas de las funcionalidad básicas ejecutan en software y no en hardware de bajo nivel, lo que aumenta su consumo energético y los hace más lentos de paso. Un buen ejemplo de esto es el módulo de seguridad de Apple, el Digital Enclave. Este es un chip propietario de Apple que en tiempo real cifra todo lo que haces en tu iPhone, iPad o Mac, sin afectar ni en un 0.0001% el rendimiento de lo que hace tu dispositivo ya que todo el cifrado ocurre en circuitos dedicados creados especialmente para tal fin, dejado a tu dispositivo seguir trabajando en otras cosas. Esta es también la razón por la cual quien no entiende de estas cosas no se debe dejar llevar de benchmarks (programas que miden la velocidad de tu dispositivo) cuando comparan cosas muy diferentes como son los iPhones o Android. Aunque en actualidad prácticamente todos los benchmarks indican que los dispositivos de Apple son más potentes que la competencia, lo cierto es que esos programas no son un indicador del rendimiento real del sistema cuando pones en el paquete todas las optimizaciones que hace Apple tras bastidores. Lo que sí tiene más sentido es comparar un benchmark de un celular Android con otro Android, o un modelo de iPhone vs otro modelo de iPhone. Habiendo escrito esta kilométrica explicación, esto nos lleva finalmente al tema de moda hoy día: Apple Silicon en Macs... Muchos se le han reído en la cara a Apple con este anuncio alegando que "Apple planea utilizar un simple chip de celular en una computadora de trabajo serio, ¡nos jodimos!", pero les puedo asegurar que todo el que dice eso no sabe absolutamente nada de microprocesadores, o de lo que ocurre tras bastidores como les he explicado a ustedes en este artículo, o son simples haters que ya tienen nuevo material para hacer sus aburridas vidas menos miserables, o sencillamente son el tipo de personas que repiten como loros todo lo que leen en Internet sin revisar fuentes o investigar de lo que están opinando. Y lo primero que les voy a decir sobre Apple Silicon en Macs es lo siguiente: Prepárense para una gran sorpresa. Una buena sorpresa. Para los que no lo sepan, Apple ya ha entregado decenas de miles de "kits de transición" a desarrolladores de aplicaciones para que vayan adaptando sus aplicaciones a Apple Silicon en Macs, y los resultados no pudieron ser más positivos... Para iniciar, el kit contiene lo que es esencialmente una Mac Mini con el chip A12Z Bionic de Apple utilizando una versión beta de macOS 14 Big Sur. Sucede que ese chip es el utilizado en el iPad Pro de hace dos años atrás, y aún así los benchmarks (para los que les gusta comparar) indicen que esa Mac Mini con un chip no optimizado de hace dos años atrás obtiene una calificación de 4669 puntos en su CPU, comparada con la Surface Pro X de Microsoft que viene con un procesador Intel i5 que sacó una calificación de 2966. Pero eso no es nada: Sucede que el kit de Apple sacó esa calificación de 4669 corriendo en modo de emulación, es decir, el programa de benchmark en la Mac no estaba corriendo código nativo como el que correrá en las Macs reales cuando estas salgan a la venta a fin de año, y de paso estaba utilizando (reitero) un chip (1) de hace dos años atrás, (2) destinado para una iPad, y (3) no optimizado para Macs. ¿Qué significa todo eso? Pues para empezar podremos esperar que lo que sea que Apple tiene pensado para las nuevas Macs será marcadamente más potente que ese chip de iPad, y si nos llevamos de rumores tras bastidores esos nuevos chips vendrán con 12 núcleos (en vea de los tradicionales 2 o 4 núcleos en las Macs con Intel), lo que aumentará aun más su poder. Y lo mejor de todo (y ahora entenderán mejor todo lo escrito hasta ahora) esos chips de Apple Silicon vendrán con circuitos especializados específicamente creados para optimizar las funciones más comunes y/o importantes de macOS (cosa que Apple no le podía solicitar a Intel para sus chips x86-64), lo que aumentará aun más su rendimiento. De paso, esperen que las MacBooks de Apple ahora por fin dejarán de ser tan calientes (quien se haya puesto una MacBook Pro en sus piernas para trabajar sabe exactamente a lo que me refiero) y sus baterías pueden estar seguros que se extenderán considerablemente. Y esto de paso también incrementará los márgenes de ganancias para Apple (que aunque muchos se quejen, es precisamente lo que permite que Apple haga estas innovaciones), lo que al menos le da un colchón de costo a Apple para si la competencia se pone fuerte en un futuro esta pueda bajar sus precios cómodamente. Todo esto de paso significa también que tecnologías que tradicionalmente estaban destinadas a iPhone y iPad llegarán más rápidamente a Macs. Yo por ejemplo espero que las nuevas Macs vengan con FaceID para permitirme dejar trabajar con yo solo estar frente a mi máquina sin nececidad de entrar claves (cosa que ya puedo hacer con mi Apple Watch en combinación con mi Mac, pero sería mejor que no dependa ni de eso para entrar directo a trabajar, como lo hago con mi iPhone y iPad). Habiendo dicho todo eso, tengo que también aclararles algo que para algunos resultarán desagradable: Debido a las obvias diferencias entre el ISA de Intel y ARM, las nuevas Macs ya no podrán ejecutar Windows de forma nativa (con BootCamp), y por otro lado emuladores de Windows en x86 (como VMWare, Parallels Desktop y Virtual Box) tendrán que ser recreados para poder emular las instrucciones x86 en ARM (en actualidad ese paso no era necesario ya que los emuladores simplemente pasaban las instrucciones de Windows directo al CPU de la Mac que ya era x86). ¿Qué significa ese tema con Windows? Pues para empezar a Apple no creo le importe mucho ya que por lo general los que quieren el uso exclusivo de Windows no compran una Mac para tal fin por motivos de costos. Similarmente los gamers (comunidad de video-juegos) tradicionalmente nunca han comprado Macs para tal fin. Eso solo deja a los que compran una Mac como computadora principal y utilizan a Windows para temas de desarrollo de software u otros trabajos, y la realidad es que la gran mayoría de estos (yo incluido) no optan por BootCamp sino por virtualizar a Windows dentro de macOS. Así que la única incógnita que queda es qué tan bien podrán estos virtualizadores emular a Windows cuando tendrán que traducir en tiempo real las instrucciones de x86 a ARM en tiempo real, y para esto hay un par de respuestas potencialmente esperanzadoras... La primera es que Apple también anunció que incluirá un Hypervisor super avanzado en las nuevas Macs, con características que a la fecha solo existían en ambientes de servidores avanzados. El Hypervisor de Apple esencialmente permitirá particionar tu Mac en varias Macs virtuales de forma ultra-eficiente, y en donde cada Mac virtual podrá ejecutar otras versiones de macOS u otros sistemas operativos en paralelo (Apple habló especificamente de Linux como ejemplo), lo que será una mucho mejor manera de virtualizar en macOS que en actualidad. Y la segunda es que Apple muy bien puede crear circuitos especiales en Apple Silicon diseñados para hacer la traducción de x86 a ARM más eficiente (algo que si tuviera que apostar, diría ya está implementado). Así que como pueden ver, esto de Apple Silicon no es algo que Apple hizo a la ligera, sino algo extremadamente bien pensado que Apple ha venido cocinando desde años, y el futuro solo se pondrá mejor... Finalmente, es bueno mencionar mi predicción de enero 2007 en donde escribí (entre otras predicciones): "[...] imagínense que dentro de 5 años el iPhone sea tan poderoso y tenga tanta memoria como las computadoras personales mas potentes de hoy día. Eso significaría que con agregar un teclado, ratón y pantalla externa (todos inalámbricos), que no hay razón para que el iPhone no sea nuestra computadora personal en cualquier lugar." Esa visión, ahora que un iPhone podrá ejecutar macOS (si Apple así lo decide), ya está a la vuelta de la esquina. Similarmente y como he predicho antes, no me sorprendería que ahora que Apple ya tiene todos sus productos bajo una misma arquitectura que ahora decida crear una versión universal de su sistema operativo a la que llamo "appleOS" y que las distintas versiones para iPhone, iPad, Mac etc sean sencillamente variaciones o "Editions" de esta. ¿Y ustedes, qué opinan de todo esto? Si tienen preguntas o quieren que les aclare o expande algo, o tienen algún comentario adicional, escriban abajo y como siempre les contestaré en la brevedad. autor: josé elías |
37 comentarios
1,549,791 vistas |
Apple / OS X , Hardware , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
viernes, abril 24, 2020
|
Hola amig@s lectores, Como ya sabrán algunos, al final del artículo que escribí hace una semana sobre la increíble nueva herramienta científica de los Hiper-gráficos, que posiblemente nos ayude a responder a las más fundamentales preguntas de nuestra existencia (como ¿de dónde y cómo surgió nuestro universo? ¿qué es el tiempo, masa, energía, y materia?), propuse la posibilidad de hacer un evento en vivo por alguna red social para que hablemos un poco más del tema, y de paso puedan hacer sus preguntas. Así que me complace anunciar que la cita será este próximo domingo 26 de abril 2020 a las 11am en horario de New York (acá abajo les dejo otros horarios dependiendo de donde residan, pero si no está el país de ustedes en la lista simplemente entren a Google y pregunten "time in new york" lo que les dará la hora actual en New York y en base a eso pueden calcular cuantas horas más o menos serán en dónde están). La cita será por el canal oficial de @eliax en instagram. Sabrán cuando inicie la transmisión en vivo en el momento que el logo redondo de eliax al tope izquierdo de mi perfil cambie con una etiqueta roja que dirá "Live" ("en vivo"). Y ojo, esta no será una charla formal, sino que un simple conversatorio super informal con ustedes, en donde les pueda expandir o aclarar un poco más el tema mientras respondo a sus posibles inquietudes. Noten además que elegí este horario relativamente temprano en el continente americano para que los seguidores de España y otros países europeos también puedan sintonizar. Acá los horarios exactos: Argentina, 12 del medio día Bolivia, 11am Brazil, 12 del medio día Chile, 11am Colombia, 10am Costa Rica, 9am Ecuador, 10am El Salvador, 9am España, 5pm Estados Unidos, central (Texas), 10am Estados Unidos, costa este (New York, Miami), 11am Estados Unidos, costa oeste (San Francisco), 8am Guatemala, 9am Honduras, 9am México, 10am Nicaragua, 9am Panamá, 10am Paraguay, 11am Perú, 10am Puerto Rico, 11am Uruguay, 12 del medio día República Dominicana, 11am Venezuela, 11am Y recuerden leer el artículo antes del Live, si les gustan estos temas creo que quedarán tan intrigados como yo sobre este fascinante adelanto científico. Actualización: ¡Gracias a todos los que sintonizaron! ¡La pasamos genial y las preguntas al final fueron muy interesantes! Actualización 2: A continuación el video del Live para los que no pudieron asistir: autor: josé elías |
6 comentarios
844,045 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Software , Tecnología Espacial , Videos |
jueves, abril 16, 2020
|
Hola amig@s lectores, Tengo dos días leyendo en cualquier tiempo libre que puedo encontrar sobre uno de los acontecimientos de la humanidad más increíbles de todos los tiempos, algo que fue anunciado antes de ayer (en un artículo de más de 25,000 palabras de largo), que me tiene alucinando, y que quiero comunicar de forma “eliaxística” a todos ustedes. Amárense los cinturones porque esto será una paseo divertido… Leer el resto de este artículo... autor: josé elías |
45 comentarios
804,709 vistas |
Ciencia , Curiosidades , Educación , Opinión / Análisis , Software , Tecnología Espacial |
miércoles, septiembre 11, 2019
|
Hola amig@s lectores,
Ayer fue el esperado lanzamiento el nuevo iPhone 11 (lo pueden ver aquí otra vez), y escondido en especificaciones técnicas de los nuevos iPhones podrán encontrar una referencia a una entrada que dice "Ultra Wideband chip for spatial awareness", que los que estamos empapados con el tema a bajo nivel sabemos que se refiere a un nuevo chip desarrollado por Apple y al que simplemente llaman el “U1”, y que es descrito como un chip de ubicación espacial utilizando bandas de frecuencias ultra-anchas. Es decir, un chip que permite localizar objetos en interiores (como en tu casa o algún negocio) de forma tridimensional, similar a como utilizamos el GPS del celular para ubicar el celular mismo en un mapa. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Pero, ¿a qué realmente se refiere eso? Pues esto se refiere sin duda a la funcionalidad de las rumoreadas “Apple Tags” (etiquetas) de las cuales les hablé hace unos días en mis redes sociales de @eliax bajo el término tentativo "AirTags", que se puede definir esencialmente como "un GPS para interiores”. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Con esta tecnología cualquier objeto físico dotado de una etiqueta/tag de Apple (que podría ser no más grande que un pequeño llavero) podría ser localizado en tu proximidad y en 3D, y de una forma relativamente precisa. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Así que imaginen por ejemplo utilizar la funcionalidad de Realidad Aumentada del iPhone para superimponer en tiempo real sobre el video de la cámara la ubicación de algún objeto perdido cerca de ti (y esto funcionaría aún mejor con las rumoreadas gafas de Realidad Aumentada que se rumora está desarrollando Apple). Con esta tecnología por ejemplo encenderías la cámara de tu iPhone y al girar la cámara hacia tu sofá podrías ver exactamente detrás de cual almohada de tu sofá dejaste el control remoto de tu TV. O incluso esto serviría para tú poder enviar un archivo vía AirDrop con solo “apuntar” tu iPhone a otro iPhone cercano, o incluso enviar un video a una pantalla en específico cerca de ti (por ejemplo, apuntando con tu celular a un proyector cercano). ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Esta es una tecnología que aunque no es nueva (ver por ejemplo la empresa Tile que no ofrece todo esto pero al menos permite encontrar objetos por proximidad) tiene el potencial de convertirse en práctica y de fácil uso y por tanto masificada, gracias al control e influencia que tiene Apple sobre su ecosistema. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Se rumora también que estas Tags podrían comunicarse incluso con otros equipos de Apple para crear una red ad-hoc de Internet-de-las-Cosas (IoT) en donde podrías ubicar objetos perdidos incluso si estos están a miles de kilómetros de distancia de ti (utilizando primero Bluetooth para llegar a un dispositivo de Apple cercano, y después de ahí saltar a Internet por WiFi o vía datos celulares), lo que para muchos fines sería algo genial y extremadamente útil (y para otros un tema de privacidad que me encantaría ver cómo Apple planea solucionar). ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Esta es una de esas tecnologías que uno sabe tarde o temprano tenia que llegar (yo mismo llevo alrededor de dos décadas aludiendo a este concepto en mis charlas) y solo se necesitaba de un titán como Apple para hacerla práctica y masificarla. ⠀⠀⠀⠀⠀⠀⠀⠀⠀ Entre posibles usos de esta tecnología están el obviamente encontrar objetos perdidos, el transferir archivos con solo apuntar a alguien, pero también la creación de video-juegos más físicos, el uso de mesas inteligentes en restaurantes, etiquetadores de personas en eventos, seguimiento de mascotas y niños, seguimiento de objetos valiosos, ciber-seguridad (y espionaje), marcador virtual para promociones en tiendas, marcadores de turismo, información expandida en museos, etc. En cuanto a la pregunta de por qué vienen los nuevos iPhone 11 con esta tecnología pero Apple no mencionó nada en su evento de ayer, una pista clara al respecto la pudimos notar al ver que la presentación no duró 2 horas exactas como acostumbre Apple, sino que finalizó unos 20 minutos antes. Eso me dice que Apple sacó de la presentación algún anuncio importante (que bien podría ser esto) de último minuto, lo que también me sugiere que es posible que veamos anunciado todo esto en algún evento especial en los próximos meses cercanos. Esta es una de las tecnologías que creo a Apple le gustaría tener en su lugar antes de desplegar sus futuras gafas de Realidad Aumentada en las que se sabe está trabajando desde hace años... Así que crucen los dedos para que todas estas especulaciones se hagan realidad, y de paso que sean rápidamente copiadas por Google para que el ecosistema Android también puede tener algo similar al nivel del sistema operativo, y quizás podamos incluso tener un futuro en donde estas etiquetas sean universales y funciones con cualquier plataforma de cualquier proveedor (para allá vamos, es solo cuestión de tiempo). autor: josé elías |
9 comentarios
797,850 vistas |
Apple / OS X , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Realidad Virtual , Software , Tecno-Seguridad |
sábado, febrero 23, 2019
|
Hola amig@s lectores,
Si siguen noticias sobre tendencias tecnológicas, es posible que en estos días hayan escuchado bastante la palabra "Marzipan" con relación a Apple, y de paso quizás hayan leído algo hablando sobre la posibilidad de que Apple aparenta que no solo integrará sus sistemas operativos macOS y iOS (en lo desde hace tiempo yo llamo el "appleOS"), sino que además hablen de rumores de que Apple incluso abandonará a Intel en sus Macs y adoptará sus propios chips ARM. Si son lectores asiduos a #eliax ya sabrán que estos analistas, influencers y gurús han llegado un tanto tarde a la fiesta, por lo que repasemos para ellos un poco antes de entrar en materia... Leer el resto de este artículo... autor: josé elías |
13 comentarios
638,739 vistas |
Apple / OS X , Futuro Digital , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software |
domingo, diciembre 9, 2018
|
Hola amig@s lectores, Este año, solo para divertirnos un rato, decidí crear un premio #eliax para aquellas tecnologías, empresas y personas que creo se destacaron en el 2018. Les recuerdo que todos los ganadores son elecciones personales, y que quizás ustedes no estén de acuerdo con algunas de ellas. Sin embargo, en cada caso trato de justificar el por qué de mi elección. Y ojo, que cada año salen centenares de productos, y que estoy consciente de que hay muchos más fuera de esta lista que son productos increíbles, pero quise concentrarme solo en la "crema de la nata", en aquellos que sobresalen por innovación y/o ejecución presente, o por el potencial que representan hacia futuro. Si creen que me faltó algún producto, empresa, persona o categoría en la lista, comenten en los comentarios y consideraré incluirlo con una actualización, pues es obvio que algo se me pudo haber pasado por alto (esta lista me sentí a escribirla literalmente en unos 10 minutos, recuerden que hago esto por puro hobby). Finalmente, una aclaración para los conspiranóicos: Ninguna de las empresas aquí mencionadas me paga o favorece ni directa ni indirectamente (ni en dinero, bienes o favores) por hablar bien de sus productos. Así que sin más que decir, acá vamos... Producto Tecnológico del año (empate) Amazon Basics Microwave Oven with Alexa ¿Un horno de microondas es el producto tecnológico del año? ¿en serio? ¿qué tiene de especial ese aparato? Eso de seguro es lo que le ha pasado por la mente a todo el que haya sido sorprendido por esta elección (y que no hayan asistido a una de mis charlas en donde menciono en detalle esta iniciativa de Amazon). Pero este no es un simple horno de microondas. Es un horno de microondas con Inteligencia Artificial al cual le puedes hablar con Alexa (toda la inteligencia del microondas reside en la nube, por lo que necesitas conectarlo a Internet por WiFi) para que te cocine, por fin liberándote de tener que descifrar esos interfaces extraños con los cuales vienen estos dispositivos. Ahora en vez de presionar botones solo pones la comida adentro y dices algo como "Alexa, calienta la sopa", o "Alexa, cocina esta lasaña", o "Alexa, descongela la pizza". De ahí el adelante el microondas se encarga. Esto a simple vista no aparenta gran cosa, pero aparte de eso este microondas tiene sensores que detectan si por ejemplo pones fundas de palomitas de maíz adentro, y desde que nota que se te van a agotar ordena más automágicamente tras bastidores con tu cuenta de Amazon Prime para que te lleguen a tu casa lo antes posible y siempre tengas palomitas disponibles (solo imaginen el potencial que tiene esto para Amazon en todo tipo de productos). En mi opinión, esto es apenas el inicio de toda una estrategia y serie de electrodomésticos inteligentes que Amazon está introduciendo bajo el radar, y explica además el por qué recientemente compró la cadena de supermercados de Whole Foods en EEUU por unos US$13,400 Millones de dólares. Imagínense ahora refrigeradores que automáticamente detecten cuando las comidas vayan a vencer y te sugiera recetas (con otros ingredientes que te recomendará Amazon para que compres), o lavadoras de ropa que automáticamente ordenen detergentes desde Amazon. Y eso es tan solo el inicio... Es bueno notar que de este tipo de dispositivos hogareños inteligentes se viene hablando desde hace literalmente décadas, e incluso han salido uno que otro producto al mercado, pero este es en mi opinión el primero que hace la mezcla mágica de un producto práctico, con una Inteligencia Artificial probada (Alexa), a un bajo costo, y con potencial de ser parte de toda una plataforma y ecosistema. Al menos que otro competidor se de cuenta de lo que está ocurriendo y actúe rápido, Amazon se convertirá en el centro de nuestra vida digital hogareña cotidiana... Lo pueden obtener en este enlace por US$59 dólares desde Amazon.com Google Duplex Para los que tampoco hayan asistido a mis charlas, Google Duplex es una tecnología que permite que tu celular funcione como un asistente real para hacer llamadas por ti y hacerte la vida mucho más fácil. En un ejemplo que mostró Google (enlace al video más abajo), una mujer le dice a su celular que le agende una cita en un salón de belleza para cierto día de la semana, y el celular arranca por su cuenta, hace la llamada, y habla como un ser humano (con todas las idiosincracias, incluyendo sonidos y ruidos que hacemos involuntariamente al hablar), y coordina con la persona al otro lado de la linea telefónica que en ningún momento se percata que con quien habla es con una Inteligencia Artificial. Durante la demostración, el sistema incluso negoció una hora en base a disponibilidad con la otra persona en la linea, y después de ahí obviamente de seguro puso en la agenda del celular un recordatorio, así como recordó el lugar para mostrar como llegar ese día con Google Maps, y quien sabe si hasta cobrar con Google Pay... Y para los que no han notado el patrón en #eliax a través de los años: Sí, nos acercamos a una titánica batalla entre los distintos servicios de Inteligencia Artificial, en donde estos poco a poco reemplazarán los típicos interfaces de usuarios con lo que yo llamo desde hace años en mis charlas "Desinterfaces de Usuario". Acá pueden ver la demostración de Google Duplex (la tecnología está disponible ya en algunas ciudades de EEUU en modo de pruebas con un grupo selecto de usuarios de los celulares Google Pixel 3, y se espera salga de forma global en el 2019). Innovación en industria médica del año Apple Watch Series 4 con ECG Hasta hace poco el tan solo sugerir que se podría reducir todo el equipo de hacer un electrocardiograma (ECG) a algo más pequeño que un celular hubiese parecido ciencia ficción, y mucho menos que cabria dentro de un reloj inteligente, que fue precisamente lo que hizo Apple sorpresivamente con su Apple Watch Series 4 que salió en este 2018. Es cierto que quizás no sea tan versátil como un equipo dedicado que cueste decenas de miles de dólares, pero para el fin que fue creado es algo sencillamente asombroso y super útil con capacidad de salvar y mejorar vidas. Gracias a estos sensores en el nuevo Apple Watch tu reloj podrá monitorear en tiempo real (o en demanda, dependiendo de lo profundo que quieras hacer el estudio) tu ritmo cardíaco y compartir esa información (si así lo decidas y cuando lo decidas) con tu médico, ofreciendo así un mucho mejor diagnóstico de anomalías cardíacas, y en muchos casos hasta salvarte la vida (como ya se ha reportado ha sucedido entre los primeros usuarios en EEUU). Es importante destacar que en muchos casos cuando los pacientes van a hacerse un electrocardiograma, que muchas veces la anomalía no se presenta en ese instante, pero si el Apple Watch puede proveerle al doctor un ECG del momento anterior en que te sentiste mal (o del comportamiento de tu corazón en tu vida cotidiana), este puede hacer un mucho más acertado y rápido diagnóstico de tu condición. Ah, y como si fuera poco, el nuevo Apple Watch también detecta caídas (utilizando sus acelerómetros con unos algoritmos muy avanzados que evitan falsos positivos) y que automáticamente pueden alertar a un familiar o amigo cercano junto con la ubicación del accidente, lo que está genial para nuestros amados abuelos o padres. El Apple Watch representa apenas el inicio de una tendencia global que veremos en donde dispositivos como este vendrán con todo tipo de sensores para prevenir y diagnosticar decenas de males, mejorando nuestras expectativas y calidad de vida. Página oficial del Apple Watch Tecnología fotográfica del año Fotografía Computacional del Google Pixel 3 y Night Sight Asombrosamente la gran innovación del año en el mundo fotográfico no vino de una cámara digital tradicional o incluso de las empresas líderes en ese mercado (como Canon, Nikon o Sony), sino de un celular de Google. El Google Pixel 3 lleva el concepto de "Fotografía Computacional" a todo un nuevo nivel. En vez de depender de lentes caros y grandes sensores, el Pixel 3 depende más de poder combinar muchas imágenes en tiempo real, analizarlas con algoritmos de Inteligencia Artificial, y deducir como la imagen debería verse, produciendo una imagen final que en cierta medida es sintética (o "computada", de ahí el término). Esto se hace efectivamente evidente en su modo Night Sight ("Visión Nocturna") en donde el Pixel 3 puede generar imágenes en ambientes de casi total oscuridad, con calidad comparable a cámaras y lentes que cuestan miles de dólares. Acá en mi cuenta @eliax en Instagram pueden ver varios ejemplos del modo Night Sight del Pixel 3 Innovación en cinema del año (triple empate) BlackMagic RAW Casi todas la cámaras que graban video hoy día en ambientes de consumidores (o incluso "pro-sumidores") deben comprimir bastante la imagen y almacenarla en formatos como mp4 o Apple ProRes debido al tamaño inmenso de los archivos, pero eso tiene el problema de que ya temas como exposición y balance de color están "quemados" en la imagen, similar a como cuando una cámara fotográfica crea una imagen JPG (en vez de una imagen en crudo, o RAW, que retiene todas las características capturadas por el sensor de la cámara). En el mundo profesional del video sin embargo es normal capturar en formatos de video RAW (como CinemaDNG RAW), pero esto produce unos archivos inmensos, y por tanto es bastante costoso grabar video en estos formatos, ya que incluso con un disco duro de 1TB podrás grabar apenas unos pocos minutos de video. Y es ahí donde entra el nuevo formato BRAW de la empresa BlackMagic. Acá no tengo espacio para explicarles las increíbles facultades técnicas de este formato (pero incluyo un enlace a un video explicativo de BlackMagic más abajo que recomiendo ver si son usuarios técnicos), pero su gran innovación es que es un formato que genera archivos de tamaño comparables a los de formatos de imágenes comprimidas, y de paso es un formato super ligero para editar, lo que significa que se hace posible editar video 4K (o incluso 8K) en equipos de actualidad sin inversiones adicionales. ¿Y qué significa eso? Que esto permitirá toda una nueva generación de contenido generado con equipos de bajo costo cuya calidad de imagen no distará mucho de equipos que hasta hace poco costaban un riñón y algo más, en esencia democratizando la calidad del cinema a toda una nueva generación de cineastas. La primera cámara que soporta este formato es la URSA Mini de BlackMagic, pero el formato es abierto (para los que son programadores, ya tienen un SDK público) y se espera que pronto otros fabricantes lo adopten. La próxima cámara que adoptará este formato será la BMPCC 4K (leer el próximo punto). Este video les explica en más detalle cómo funciona BRAW BackMagic Pocket Cinema Camera 4K (BMPCC 4K) Si siempre han deseado hacer cine, y tienen un presupuesto relativamente humilde, no tienen que ir lejos para hacer sus sueños realidad, esta es la cámara que necesitan (a finales del 2018). Punto. De alguna manera BlackMagic puso un sensor equivalente a Super-35mm (y montura MFT), con salida de video RAW de 10-bit, 13-stops de Rango Dinámico, entrada de micrófonos XLR, resolución 4K a 60fps, más una pantalla de 5" detrás, por menos de US$1,300 dólares. Como si fuera poco viene con un puerto USB-C por lo que podrás conectarle SSDs como los micro SSD de Samsung que son geniales (y certificados por BlackMagic para 4K60fps) para estos usos intensos. Y lo mejor de todo es que soportará BRAW en las próximas semanas/meses según BlackMagic. En cuanto a las pocas cosas negativas de esta cámara está su funcionalidad de enfoque automático (que no está a la par de la competencia, pero en cine por lo general se enfoca manualmente), y que no tiene IBIS (estabilización de imágenes interno, pero para resolver este tema lean sobre el próximo ganar más abajo). Sin embargo dada sus otras prestaciones y a este precio esas son cosas que se dejan pasar para esta cámara. Ah, y como si fuera poco, BlackMagic incluye con la BMPCC 4K una copia completa de DaVinci Resolve, que es un super-editor de video que de paso es el estándar hoy día para hacer grading (corrección de color) en Hollywood. La página oficial de la BMPCC 4K DJI Ronin-S Handheld 3-Axis Gimbal Stabilizer Han existido muchos dispositivos para estabilizar el video en cámaras (una habilidad que es lo que más fácilmente separa el video de un profesional al video de un amateur), pero nunca uno como este y a este precio. Por unos US$700 dólares ya puedes deshacerte (o tener que comprar) equipos que cuestan entre 5 y 50 veces más. Y lo mejor de todo es que funciona bastante bien con la BMPCC4K. Este dispositivo (junto a un buen micrófono y sistema de iluminación) es una de las cosas que más fácilmente harán que tu producción se sienta como un producto realmente profesional. Y ojo, es bueno notar que ya existen varios dispositivos similares en el mercado (incluso antes de salir este modelo), pero este es el que funciona de manera fluida mejor que todos, y el que por fin te da un resultado profesional en la palma de la mano (literalmente). Página oficial del DJI RONIN-S Cámara Digital del año (empate) Sony α7 III La Sony A7 III rompió terreno en muchos aspectos, desde su precio (unos US$2,000 dólares) hasta su excepcional calidad de imagen en un sensor full-frame de 35mm mirrorless, así como video 4K de excelente calidad, y como si fuera poco estabilización de imagen interna (IBIS) y posiblemente la mejor implementación de enfoque automático a los ojos del mercado. Si Sony continúa innovando como va, Canon va a tener mucho de qué preocuparse en par de años, particularmente después de su anémica EOS-R. Página oficial de la Sony A7 III Fujifilm X-T3 Si el presupuesto solo les llega a US$1,500, no creo que exista una mejor cámara en el mercado que la X-T3. La gran diferencia con la Sony A7 III es que esta tiene un sensor APS-C de menor tamaño, pero super optimizado para fotos y video (el video 4K de esta cámara es sencillamente espectacular). Y reitero que no se dejen llevar por el precio de esta cámara, muchos alegarían que salvo el tamaño del sensor, que la X-T3 en muchos aspectos se siente no solo mejor que la Sony A7 III, sino que cámaras que cuestan 2 o 3 mil dólares más. Esta cámara junto con la A7 III ha sido la gran ganadora de este año en casi todas las listas de fotógrafos como cámaras del año, y en mi opinión ambas han ganado de forma bien justificada. Pocos años hemos visto tanto favoritismo unánime hacia un par de cámaras como en este 2018. Página oficial de la Fujifilm X-T3 Teléfono Inteligente del Año (empate) Apple iPhone XR El iPhone XR se lleva el premio (por sobre el iPhone XS o XS Mas) porque cuesta muchísimo menos (unos US$300 menos) pero contiene exactamente el mismo procesador (CPU) y chip de gráficos (GPU) interno que sus hermanos, así como exactamente la misma cámara principal (siendo la única diferencia que el XS y XS Max tienen una cámara adicional secundaria para mejorar el tema de zoom y de fondo difuso o bokeh). De paso también contiene el excepcional sistema de reconocimiento facial tridimensional FaceID, con el cual ya no tienes que volver a entrar o recordar claves, o incluso tener que poner el dedo en un sensor biométrico (y de paso, es super-seguro, no permitiendo que una simple fotografía o incluso estatua de tu cara acceda a tus datos). ¿Pero por qué la diferencia en precio entre el XR y los XS/XS Max? Pues porque el XR viene con una pantalla tipo LCD en vez de una OLED. Muchos les dirán que es una gran diferencia, pero en la práctica la pantalla del XR se ve extraordinariamente bien, y solo si se ponen a revisar el contraste de forma minuciosa se percatarán de las diferencias (la excelente pantalla del iPhone 8 por ejemplo es LCD y se ven super, y es de inferior calidad a la del XR, para que tengan una idea). Y si creen que el XR no puede hacer efectos de fotografía de retratos de fondo difuso (con "bokeh") porque tiene una sola cámara, se equivocan, ya que con la tecnología de dual-pixel que incluye e Inteligencia Artificial el XR puede lograr un efecto similar (aunque quizás no tan preciso), de forma parecida como el Google Pixel 3 logra fondos difusos con una sola cámara. Google Pixel 3 Yo personalmente siempre he preferido iPhone sobre Android (aunque utilizo ambos) debido a su simpleza y a que el interfaz se siente más fluido, pero las novedades técnicas del Pixel 3 no puedo dejar de pasar por alto, particularmente su cámara (que es en mi opinión mejor que la del iPhone XS) y su increíble funcionalidad de Google Duplex. Y a propósito, es importante notar que Google se ha dado cuenta de que tiene un reto con respecto al interfaz de usuario de Android, razón por la cual ha decidido diferenciarse por medio de otras cosas, como fotografía computacional y un asistente digital más inteligente. Me gusta por donde va Google en estos aspectos... Página oficial del Google Pixel 3 Juguete del Año Nintendo LABO Nintendo este año lanzó uno de los juguetes más sorpresivos, divertidos y originales con su sistema LABO. Estos juguetes que vienen en kits en esencia son extensiones a la consola Nintendo Switch fabricadas con cartón y otros componentes, que los niños tienen que literalmente armar, para después conectar el Switch (en una de varias maneras) y "crear" un nuevo tipo de juguete, que puede ser desde un traje de robot hasta un piano (totalmente funcional), o desde una casa interactiva hasta una caña de pescar (con juego incluido para darle uso). Para ver esto en acción, vean este video. Personaje del Año Elon Musk Este hombre por su cuenta ha decidido reinventar el negocio de las baterías hogareñas, el de los autos eléctricos, el de los vehículos autónomos, el de la Inteligencia Artificial, el de los viajes al espacio, el del transporte bajo tierra, y el de llevarnos a Marte. ¿Realmente necesito decir algo más? Tony Stark le está quedando pequeño (vamos a tener que iniciar una campaña con Marvel para que reemplace los cameos de Stan Lee ahora que ya no está con nosotros). Ah, y no dejen de ver un video que hice hace par de años sobre Elon Musk. Lo encontrarán más abajo en el premio que le otorgo a Tesla. Empresa del Año (triple empate) Amazon Amazon poco a poco (bajo el liderazgo de su super visionario fundador Jeff Bezos) se está transformando en el nuevo Windows con su AWS, y en el nuevo Apple con sus productos de consumidores, y en el nuevo Google con sus productos con Alexa. Esta es en mi opinión la empresa más peligrosa del mundo para competidores que no se adapten e innoven tan rápidamente como este titán en el espacio tecnológico. Tesla Ante todas las predicciones, Tesla ha cumplido y revolucionado el mercado de vehículos eléctricos. Así como el original iPhone aceleró la llegada de toda una nueva industria, así Elon Musk está acelerando la llegada de toda una nueva generación de vehículos limpios e inteligentes. Y lo ha logrado en contra de innumerables obstáculos legales y logísticos que en buena medida le han creado sus competidores, quienes en vez de estar obstruyendo el progreso sobornando a legisladores deberían mejor ponerse a innovar antes de que Tesla los haga a todos obsoletos. Acá los dejo con un video que hice hace un par de años en donde les explico por qué siempre he confiado en Tesla (tiene mucho que ver con Elon Musk). Netflix Netflix de por sí sola ha influenciado más la industria del cinema que todos los estudios de Hollywood y cableras tradicionales combinadas en años recientes. Su software para consumir sus producciones originales están en todas partes (desde televisores y tabletas hasta cajas de cable), soporta estándares como 4K y HDR, y se expande cada vez más a mercados internacionales. Su influencia ha sido tal que ya es el modelo a seguir por competidores como Amazon, Google y Apple, así como el próximo servicios de Disney+ con contenido clásico de Disney, Marvel, Star Wars y PIXAR. Regreso Meritorio del Año Microsoft Lo mejor que le ocurrió a Microsoft en sus inicios fue Bill Gates (independientemente de sus tácticas un tanto cuestionables), pero lo peor que le ocurrió fue su sucesor Steve Ballmer, quien en vez de adaptar la empresa a los nuevos tiempos lo que hizo fue tratar de defender el duopolio de Windows y Office. Durante su cargo Microsoft obvió por completo tendencias como móviles inteligentes (Ballmer dijo en video que nadie compraría jamás un iPhone por ser tan caro, e incluso organizó un funeral para Apple y el iPhone transmitido por TV nacional), también hizo caso omiso al crecimiento empresarial en la Nube (cediendo el mercado a Amazon), y un sinnúmero de tecnologías que cada día más hacían más obsoleto a Microsoft. Sin embargo el 4 Febrero del 2014 Microsoft eligió un nuevo CEO, a Satya Nadella (acá mis impresiones de ese evento en ese día junto a un poco más de historia y predicciones que al final se hicieron realidad, particularmente este año), y poco a poco todo cambió. Nadella es bueno destacar tenía (o tiene) una tarea muy cuesta arriba, pues Microsoft es un gigante en muchos aspectos con mucha burocracia, pero poco a poco Nadella a conseguido remaniobrar el barco de Microsoft para dejar el énfasis en Windows (que cada vez se hace menos relevante en un mundo móvil dominado por Apple y Google) y enfocarse más en servicios. Bajo Nadella por ejemplo Microsoft ha revivido el mercado de Office ofreciendo versiones por subscripción y versiones especiales de Office en la Nube que han empezado a rendir grandes frutos. Nadella además entró con ambos pies para expandir su estrategia de Azure, que también está creciendo vigorosamente, siendo ahora posiblemente el mayor competidor al Amazon AWS. De paso Nadella decidió ser pragmático y ha acogido a Linux y la comunidad del software libre, haciéndolo aliados y de paso hasta beneficiándose de sus frutos. De forma similar ha forjado todo tipo de pactos y acuerdos con co-petidores como Apple y Google, para traer versiones por subscripción de Office a sus plataformas. ¿El resultado actual? Hace par de semanas (aunque solo durante un par de días) Microsoft superó en valor del mercado a Apple, y ya ha vuelto a competir fuertemente en muchos aspectos con los titanes de la industria. Bajo Nadella Microsoft ha vuelto a despertar, y se ha transformado en un titán de los servicios para consumidores y empresariales, literalmente salvando la empresa para los años venideros, y por eso es para mi el mayor comeback (regreso) que hemos visto en años recientes desde aquella vez cuando Steve Jobs regresó a Apple para sacarla de bancarrota y convertirla en la empresa mas valorada del mundo en tan solo una década. Mis aplausos y respetos a Nadella y al gran talento que yacía oculto en Microsoft. El éxito es totalmente merecido. - Pues ahí tienen mi lista. Y ustedes, ¿qué opinan? Me encantaría leer sus impresiones en los comentarios así como sugerencias para incluir en la lista. Actualización 26 de Dic. 2018: Ingresé a la lista a Nintendo LABO, el cual en el momento que fue anunciado alabé en las redes sociales, y ahora al verlo funcionar me convenzo aun más de su increíble originalidad y visión. autor: josé elías |
10 comentarios
747,516 vistas |
Apple / OS X , Cámaras Digitales , Celulares / Móviles , Ciencia , Curiosidades , Dispositivos , Futuro Digital , Google , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Salud , Software , Tecnología Visual , Windows / Microsoft |
lunes, octubre 29, 2018
|
Wow... pero... ¿por qué?
Esa fue posiblemente la expresión en la bolsa de valores de Wall Street cuando IBM y Red Hat hicieron público este domingo (tal cual anuncié en las redes sociales de #eliax) que IBM compraría a Red Hat por la increíble suma de cerca de US$34 Mil Millones de dólares (de paso siendo una de las top-5 adquisiciones tecnológicas de todos los tiempos). Yo mismo quedé perplejo de la noticia y sobre todo medio perdido pensando en el primer instante que supe del hecho por qué IBM haría tal cosa... Lo primero que de seguro le pasó por la mente a muchos fue ¿por qué gastar US$34MM en una empresa que popularmente se conoce por su distribución de Linux? ¿No podían simplemente dedicar uño y Mil Millones de esos dólares y contratar al mejor talento del mundo para crear su propia distribución de Linux y ahorrarse los otros US$33MM? Debo admitir que hasta a mi me pasó por la mente eso, pero anoche (después de salir de un Baby Shower al que estuve invitado) y por fin llegar a mi apartamento, me recosté en la cama a ponderar sobre este tema... Así que hoy, al final del día, después de llegar a casa de un largo día, les escribo mis impresiones de esta noticia... Para empezar, no creo que esto tenga mucho que ver con Linux en sí, o incluso con el mercado del software open source (que son las dos razones que todo el mundo cree ser el motivo de esta compra), sino que esta compra tiene todo que ver con un solo concepto: La Nube. Les explico... Pero antes de explicarles, repasemos de forma muy breve cuáles han sido las grandes plataformas de los últimos tiempos, pues después de eso entenderemos mejor hacia donde voy. La primera gran plataforma en el mundo empresarial de la computación la creó IBM, con sus titánicas Mainframes. Sistemas monolíticos que ocupaban grandes espacios y que eran la base para todo el mundo financiero (y varias otras industrias) de hace medio siglo atrás. La próxima gran plataforma fue UNIX (y todas sus variantes), y sobre la cual se crearon cosas como el Internet que tenemos hoy día. Después vino la gran plataforma de los 1980s e inicios de este siglo: Windows de Microsoft, empoderada por hardware relativamente económico (comparado con Mainframes y servidores/workstations con UNIX) y su gran socio Intel (creando el duopolio "Wintel"). Y más recientemente estamos viviendo el mundo de la plataforma móvil, con Apple/iOS y Google/Android liderando el camino. Pero como todos saben, esta última revolución ha venido acompañada en paralelo por una revolución aun en proceso, la de La Nube. Cuando hablamos de "La Nube" podríamos estarnos refiriendo a mil cosas distintas, pero en el contexto de hoy me refiero a la nube en términos de que empresas pueden programar aplicaciones que sencillamente despliegan en servidores de terceros y se olvidan en gran medida de temas de infraestructura de bajo nivel. Hoy día el mayor ejemplo de esto es la plataforma AWS de Amazon, y siguiéndole los pasos están Microsoft Azure y Google Cloud. Y de forma casi tangencialmente a ellos tenemos empresas como Dell con EMC y VMWare, ofreciendo soluciones de virtualización y servicios similares (Oracle se me ocurre como otra empresa que pudo adquirir a Red Hat, a propósito de esta lista). Pero junto a estos jugadores hemos tenido también tras bastidores una revolución en conceptos de alojamiento de aplicaciones en la nube a través de tecnologías como contenedores Docker y técnicas de programación de microservicios en ambientes denominados serverless, en donde por un lado Amazon lidera con Amazon Lambda, y por el otro tenemos proyectos como el Apache OpenWhisk (que curiosamente, es la base del producto OpenShift de Red Hat). Y es en este mercado en donde Red Hat ha hecho decenas de adquisiciones en años recientes creando un stack para el desarrollo, deployment, monitoreo y escalabilidad de aplicaciones del tipo serverless, culminando todo en su plataforma OpenShift. Por otro lado (y ya continuando con el análisis), Red Hat se ha solidificado en tener la más extensa cartera de clientes de una distribución de Linux empresarial, tanto así que los que son competidores de IBM (como Microsoft, Oracle, Google, y Amazon) ahora de la noche a la mañana despertarán sabiendo que están utilizando la distribución de Linux de su competencia. Red Hat en el mundo empresarial del open source es rey indiscutible, con unos 100,000 usuarios empresariales e ingresos anuales que ya casi llegan a los US$3 Mil Millones de dólares. Y como si fuera poco, Red Hat no solo posee ingresos y clientes por su distribución de Red Hat Linux, sino además que ha sabido sacarle provecho al tema de servicios, en donde ha conseguido crear una fórmula ganadora para amarrar clientes no por venta de software, sino por mantenimiento de soporte técnico anual para temas que van desde soporte técnico primario, hasta consultoría de soluciones. Por si no lo sabían, la empresa que muchos creen es solo "una empresa que tiene una distribución de Linux" tiene más de 12,000 empleados directos. Red Hat es literalmente un titán en su industria. Y entra por la puerta izquierda al escenario... IBM. IBM es una empresa que lleva años (yo diría cerca de dos décadas, quizás más) con serios problemas internos, que van desde falta de dirección hasta híper-burocracia, y desde incapacidad de poder monetizar sus mejores ideas y proyectos (recuerden que IBM fue uno de los grandes apoyadores de Java y Linux) hasta vivir para manipular la bolsa de valores y hacer creer que todo va "ok". Lo más importante de todo es que desde las Mainframes y un éxito parcial con las PCs de escritorio (la empresa terminó vendiendo todo ese negocio a Lenovo de China) IBM ha estada ambulando como un zombie, un muerto en vida, a espera de que en algún momento sus cofres se sequen o de que algún milagro ocurra o de que quizás en un futuro alguien decida adquirirla (cosa que el orgullo de ellos jamás les permitiría admitir). Pero más importante aun es que IBM, quien en una vez era sinónimo de "la primera empresa a consultar en cuestiones de negocios y tecnología" ahora se ha estado convirtiendo en un dinosaurio más, siendo desplazada por empresas que ni siquiera existían hace alrededor de par de décadas, como Amazon y Google. Así que IBM realmente tenía tres opciones: La primera era tirar la toalla (cosa que no iba a hacer), la segunda era desarrollar toda una plataforma para competir en el mercado de la nube (quizás sintió que ya no tenía tiempo para esto), o la tercera hacer una gran adquisición, y hoy día la única empresa que realmente tiene lo que IBM busca (al precio que podría pagar) era Red Hat. Incluso, estoy seguro que Red Hat sabía eso perfectamente y de ahí el precio exhorbitante a pagar, y IBM sabía que Red Hat sabía... Pero ojo, que no estoy aludiendo a que aquí IBM estaba rogando con todo su dinero y que Red Hat sencillamente quería llenar sus bolsillos de dólares y por fin retirar a su alta gerencia con miles de millones cada uno. Para nada. Este acuerdo es también una ventaja estratégica para Red Hat ya que independientemente del dinosaurio en que se estaba convirtiendo IBM, esta tiene una extensa cartera de clientes que incluso al día de hoy no tienen la menor idea de cómo efectivamente subirse o migrar sus sistemas al tren de la nube, y Red Hat ahora va a tratar de enseñarles como. Así que por un lado tenemos a IBM por fin adquiriendo una plataforma (OpenShift) que podría competir contra AWS, y por otro Red Hat potencialmente expandiendo su cartera de clientes dramáticamente. En resumen, esto aparenta ser una situación de ganar-ganar para ambas empresas. Ahora, ¿significa esto que de la noche a la mañana los clientes competidores de Red Hat van a decir cambiar las soluciones de Red Hat por otra distribución de Linux?, difícil que lo puedan hacer muy rápidamente, pero aun si lo hicieran el punto aquí es que a IBM no le importa ya si Amazon o Google o Microsoft utilizan Red Hat para sus nubes, lo que a IBM le importará de ahora en adelante es que IBM tenga su propia plataforma que pueda competir contra la de ellos. Incluso, lo más probable es que a largo plazo los competidores de IBM (y ahora Red Hat, que pasa de socio a competidor con los competidores de IBM) adopten otras distribuciones de Linux, pero realmente para ese entonces eso no importará, pues IBM lo que quiere es por fin entrar al terreno de juego. Sin embargo no todo será color de rosa, aquí lo primordial será ver cómo IBM y Red Hat ejecutarán esta nueva estrategia, pues les informo que las soluciones de Red Hat aunque son potentes, no son tan fáciles de utilizar como las de por ejemplo Microsoft Azure o incluso el complejo Amazon AWS, y en mi opinión se necesitará mucho más que solo buena voluntad y el favoritismo de la comunidad open source para hacer de OpenShift (y sus tecnologías asociadas) algo tan fácil de aprender y utilizar como lo fue en su momento Visual Basic, o incluso Java o la plataforma .Net Core. Si yo fuera IBM, hubiese reservado Mil Millones más para utilizarlos exclusivamente en crear herramientas amigables (como un IDE en la nube por ejemplo, integrado a algo como git). Y si se preguntan por qué poner tanto énfasis en simpleza, pues por la sencilla razón de que IBM va a entrar a esta pelea en un cuarto lugar (detrás de Amazon, Microsoft y Google), y debería ofrecer un factor diferenciador para enamorar a los desarrolladores y que estos adopten esta nueva estrategia. En cuanto al futuro inmediato de este tema, IBM dice que mantendrá a Red Hat como una entidad independiente, aunque no me sorprendería ver a Jim Whitehurst (el CEO de Red Hat) convertirse en el próximo CEO de IBM, reemplazando a Ginni Rometty quien está ya lista para dejar su cargo, y dada la historia reciente de IBM no me sorprendería que esta adquisición sería su forma de retirarse "en grande". En cuanto a mi opinión personal sobre el éxito de esta fusión, creo que al corto plazo no afectará a la distribución Red Hat Linux, ni a la empresa, y al mediano plazo incluso sea beneficiosa la relación debido a todas las puertas que IBM le abrirá a la fuerza de ventas de Red Hat (que entendamos prefiere mucho más al sector empresarial que pague dinero que al sector de fanáticos del open source). En cuando a cómo le irá a IBM con esto, creo que al corto plazo será indudablemente beneficioso, pero abría que esperar a ver si ya no están muy tarde para la carrera al largo plazo. Creo que la gran esperanza de IBM ahora mismo yace en que Jim Whitehurst logre influenciar la cultura estática (y burocrática) de IBM lo suficiente como para convertir la empresa en una mucho más ágil y enfocada y adaptada a nuestros tiempos. Los próximos 18 meses serán determinantes para saber por cuál dirección irá la empresa... autor: josé elías |
31 comentarios
622,643 vistas |
Google , Linux , Negocios , Opinión / Análisis , Predicciones , Pregunta a eliax , Software , Windows / Microsoft |
"Lo leo y no lo creo. Mis respetos José, es increíble la visión que tuviste en aquel momento [1993] para predecir lo que sucedería, y es aun más increíble como la mayoría de lo que mencionas, ya tiene un nombre y está en proceso."
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax