GParted Live 1.8.1-3ya está disponible como una nueva versión de mantenimiento de esta popular herramienta en formato live, incorporando actualizaciones clave como un kernel más reciente y mejoras generales en estabilidad. Esta versión llega unos dos meses después de la llegada de la serie 1.8.
Esta nueva revisión continúa la evolución de la mencionada rama 1.8, que ya introdujo cambios importantes en la base del sistema. En este caso, el enfoque vuelve a estar en ofrecer una experiencia más fiable, integrando paquetes actualizados y corrigiendo errores detectados en versiones previas.
GParted Live 1.8.1-3 llega con kernel actualizado y mejoras internas
Uno de los aspectos más destacados de esta versión es la inclusión de un kernel de Linux más reciente, lo que permite mejorar la compatibilidad con hardware moderno y optimizar el rendimiento general del sistema. Este tipo de actualizaciones resulta especialmente importante en una distribución live orientada a tareas críticas como la gestión de particiones.
Además, GParted Live 1.8.1-3 mantiene como base los repositorios de Debian Sid, lo que garantiza acceso a versiones muy actuales de paquetes y herramientas. Este enfoque permite ofrecer soporte ampliado para distintos dispositivos y sistemas de archivos, algo clave en entornos heterogéneos.
La herramienta principal incluida sigue siendo GParted 1.8.1, que aporta mejoras, correcciones de errores y ajustes en el manejo de particiones. Estas optimizaciones contribuyen a una mayor estabilidad durante operaciones delicadas como redimensionar, copiar o mover particiones.
Como en otras versiones de mantenimiento, también se han aplicado diversas correcciones menores y actualizaciones de componentes internos. Esto ayuda a reducir problemas inesperados y mejora la experiencia general, especialmente en escenarios donde se trabaja con múltiples discos o configuraciones complejas.
En conjunto, esta versión refuerza la fiabilidad de GParted Live como herramienta esencial para administración de discos, recuperación de sistemas y mantenimiento avanzado sin necesidad de instalar un sistema operativo completo.
Recuerdo hace muchos años a un usuario en un foro que hablaba del Nokia N900 y sus bondades. Hablaba de que podía cambiarlo todo con Maemo (basado en Linux), mientras que el resto preferíamos Symbian y todas las aplicaciones que tenía disponible. De hecho, Symbian tenía WhatsApp en 2010 o 2011. Hoy en día, la personalización de la interfaz es uno de los atractivos de Linux, pero ¿poder cambiarlo todo es algo tan positivo?
Depende. Pongamos como ejemplo Hyprland. Es un compositor que permite hacer de todo, y quien dice «de todo» dice de todo. Claro, uno va a YouTube y hace una búsqueda como «rice hyprland» o busca temas en GitHub y se queda «flipao». Ahora bien, conseguir algo así no es moco de pavo (de hecho Hyprland es feísimo tras su instalación). Sí, se puede encontrar un tema completo con sus dotfiles y tardar menos, pero cambiar de uno a otro no es tan sencillo como hacer un par de clics.
Cuando la personalización de la interfaz se convierte en obsesión
Vamos a resumir este artículo de opinión y a decir cómo lo veo yo ya: la personalización de la interfaz está bien, siempre y cuando uno no se vuelva loco con ella. Por ejemplo, Plasma permite cambiar el panel inferior para convertirlo en un Dock, con cajón de apps y aplicaciones abiertas, y en la parte superior se puede poner una barra con la hora en el centro y la bandeja del sistema a la derecha, tal y como lo encontramos en macOS. Incluso se pueden ver los menús de las aplicaciones en este panel, algo que hace Garuda.
En este enlace explicamos cómo hacer que cualquier KDE se viera como la versión Dr460nized de Garuda. No hace falta que lo leáis todo, sólo desplazaros para ver que el artículo no es corto. Se tienen que hacer muchos cambios. Si se hacen una vez y es lo que buscamos, esto es un «puntazo» para Linux, pero si se va a cambiar cada semana, al final se le da la razón a los que dicen que Linux es para el que no tiene vida y sólo quiere perder el tiempo solucionando cosas.
Ejemplo de lo que NO hay que hacer: yo y mi obsesión con la emulación
Hace varios años hice de mi portátil más viejo un centro de emulación. Tengo por ahí los romsets de Master System, Mega Drive/Genesis, NES, Super Nintendo, Game Boy, Game Boy Advance, no recuerdo si algo más y todos los juegos que hay de máquinas recreativas. Contando duplicados, tengo más de 20.000 roms, literal. Para conseguirlas hay que descargarlas todas, y para tener ES-DE con imágenes y metadatos tienes que pasarte días haciendo scrapping.
Debido a las limitaciones del raspado de datos, yo me tiraría más de una semana (haciendo otras cosas de por medio, claro está) para conseguir que todo estuviera como esperaba. Y al final, ¿cuántas horas me he tirado con estos juegos? Bueno, creo que muchas porque, probando, al menos me he pasado God of War y God of War 2. Pero sin contar con eso, creo que no habré jugado más de dos horas, y gran parte de ese tiempo se lo ha quedado el Dragon’s Trap de Master System.
Pero lo tengo. Y el tiempo empleado para conseguirlo ha sido divertido.
También recuerdo el caso de un informático. Decía que tenía un portátil con Arch Linux totalmente personalizado… pero no lo usaba. Lo tenía ahí parado, de soporte. Tenía la satisfacción de haberlo conseguido y tenerlo, y de ahí su utilidad no pasaba. ¿Para qué quieres algo que no vas a usar? Y lo que es peor: ¿por qué perder el tiempo con ello?
La moraleja es que las posibilidades no son malas si se usan, pero no molan tanto si no. Los usuarios de Windows y macOS tienen razón, en parte: instalas el sistema y lo usas. Fin. El diseño de Apple me gusta más, y no tienes que pensar un segundo en qué vas a hacer con él. Es plug’n’play, básicamente.
Nosotros mandamos en Linux
Linux nos permite cambiar todo lo que queramos. Nosotros mandamos. Somos Dios. Pero también podemos romper unas cosas y perder el tiempo en otras que no vamos a usar. De nosotros depende de si hacemos un buen uso de las libertades que nos aporta.
WineHQ ha lanzado una nueva versión de desarrollo de su software para ejecutar aplicaciones de Windows en otros sistemas operativos, siendo Linux el más beneficiado. Lo que nos ha entregado es WINE 11.6, y ha llegado, dos semanas tras la versión anterior, en un momento en el que muchas personas están de vacaciones por todo el mundo. No se ha notado demasiado en cantidad de bugs corregidos y cambios totales, pero sí en una lista de destacados no demasiado llamativa.
Esa lista de destacados recoge comienzos de revivir el controlador de Android (esto sí es más destacado), heurísticas de orden de carga de DLL para admitir mejor los mods de juegos y más correcciones de compatibilidad con VBScript, a lo que se le une el habitual punto de varias correcciones de errores. En número, han corregido 28 bugs, los de la siguiente lista, y realizado un total de 261 cambios.
Bugs corregidos en WINE 11.6
Error en findfirst/findnext.
El Bloc de notas de Win3.1 se bloquea al abrir un archivo grande.
Homesite+ (v5.5): el botón de opción en el cuadro de diálogo Buscar no se establece correctamente al usar el atajo de teclado (Alt+U).
StarOffice51 se bloquea al abrir un archivo.
Wine bloquea algunos programas si se compila con soporte AVX.
La configuración de aplicaciones .NET nunca se guarda.
El instalador de Google Earth se muestra mayormente en negro.
DigiCertUtil muestra un tamaño de ventana incorrecto.
Falta chakra.dll para ejecutar Minecraft Windows 10 Edition.
El juego NSFW «Creature reaction inside the ship! 1.5» detiene los vídeos tras repetirse varias veces.
El instalador de PDFSam muestra una lista de idiomas vacía.
Varias aplicaciones no se ejecutan en Wine 10.3 porque detectan erróneamente un depurador en ejecución (DVDFab, actualizador de DCS World).
HWiNFO 8.24 no funciona a menos que winecfg esté configurado como Windows 7.
fw_manager_IsPortAllowed no está implementado.
Treeview con TVS_CHECKBOXES recorre todos los estados de imagen con índice distinto de cero.
pdf-xchange editor v10.8.4.409 se bloquea al iniciar.
Falta WINHTTP_OPTION_SERVER_CERT_CHAIN_CONTEXT.
El commit 20b34866 rompe la lista de servidores multijugador en línea de Mount & Blade: Warband.
El emulador Neko Project ya no funciona con frecuencia de muestreo de 96 kHz (Gentoo Linux).
Buhl Tax 2026 muestra una vista previa en blanco y se bloquea al crear la geometría.
Las DLL de ICU provocan que algunos juegos se bloqueen (Cyberpunk 2077).
DOAXVV (versión DMM) no inicia debido a un error de red.
Faltan funciones de interoperabilidad D3D11 necesarias para navegadores basados en Gecko.
VICE: la versión GTK de x64sc.exe se bloquea al iniciar.
printf no admite el especificador %Z.
Regresión introducida por el soporte de descompresión en winhttp.
EIZO ColorNavigator 6 se bloquea debido a la función no implementada mscms.dll.WcsGetCalibrationManagementState.
Regresión en 11.5: la tienda del menú dentro del juego Diablo IV ya no es accesible.
Ya disponible
WINE 11.6 ya se puede descargar desde el botón que tenéis debajo de estas líneas. En su página de descargas hay también información sobre cómo instalar esta y otras versiones en sistemas operativos Linux y otros como macOS e incluso Android.
Dentro de dos semanas, si se sigue con el calendario habitual y nada nos hace pensar que no será así, llegará WINE 11.7, también con decenas de cambios para preparar el WINE 12.0 que llegará, todo atendiendo a lanzamientos pasados, a principios de 2027. El ritmo seguirá así hasta finales de año, cuando se aumentará la frecuencia de lanzamientos a Release Candidate por semana, luego estable (WINE 12) y luego ya se comenzará el desarrollo de WINE 13.0.
Firefox 149 llegó hace un par de semanas, y entre sus novedades más destacadas encontramos la vista dividida. Su lista de novedades no incluye directamente lo que llaman Smart Window, pero ya es posible usarla como explicaremos más adelante, incluso en Linux. Ya os adelanto mi opinión: por lo menos de momento, no parece ser para mí, pues todo lo que ofrece ya me lo he preparado en mi Vivaldi o no me interesa. Siempre dejando en claro que es «de momento».
Antes de seguir, hay que explicar que no está activada por defecto en Firefox 149. Para poder usarla hay que ir a about:config y activar browser.smartwindow.enabled, o lo que es lo mismo, hacer que pase de false a true. Sin necesidad de reiniciar, al lado de los botones de minimizar, restaurar y cerrar aparecerá un logotipo de Firefox, y es haciendo clic en él cuando veremos las opciones Classic Window o Smart Window, actualmente en inglés. Para entrar a la ventana inteligente, lógicamente, hay que seleccionar Smart Window.
Qué puede hacer la Smart Window y por qué no me interesa… de momento
Después de un rato trasteando con la Smart Window, y ver que no parece aportar mucho a un usuario como yo, le he preguntado directamente qué puede hacer. Su respuesta han sido 8 puntos:
Obtener información de lo que estás viendo.
Buscar información actualizada.
Comparar productos, servicios o ideas.
Ayudarte a tomar decisiones.
Recordar cosas importantes de tu navegación.
Resumir páginas largas o múltiples pestañas.
Explorar temas paso a paso.
Sugerir siguientes pasos.
De lo anterior, los puntos 2, 3, 4, 7 y 8 no son diferentes a usar un modelo de LLM tipo ChatGPT. Sugerir el siguiente paso se refiere a proponer preguntas que puedan estar relacionadas, y esto lo he visto yo en algún modelo de IA, creo recordar que en Copilot de Microsoft.
Lo que sí interesa
Los puntos 1 y 6 sí son interesantes (aunque «viendo» puede llevar a confusión, pues no puede «ver» vídeos de plataformas como YouTube), pero yo no necesito toda una ventana inteligente para ello. En mi caso, y es algo que se puede hacer en cualquier navegador, se pueden configurar búsquedas personalizadas, y yo tengo varias para que me explique o me resuma el contenido. Por ejemplo, si me sitúo en la barra de URL y delante de un enlace pongo «resume «, abrirá el siguiente enlace:
que hará que me resuma el contenido DuckAI. Y lo mismo se puede hacer si quiero que me explique algo.
Otro punto interesante es el 5… si funcionara bien o fuera más potente. Su modelo de IA me ha dicho textualmente «Puedes pedirme que recuerde información clave (como contraseñas no sensibles, nombres de productos, enlaces útiles), aunque no puedo guardar datos automáticamente«, lo que es una promesa a medias: permite que le pidas, por ejemplo, que guarde un enlace en el historial o para leer más tarde, a lo que te responderá cómo hacerlo.
Aún a medio hacer
El panel del chat aparece en la derecha, y se nota que está todo en construcción. Para empezar, en el botón de dicho panel pone «Ask», en inglés, y se supone que ese texto debería ser diferente en el futuro. Lo que sí me ha gustado es que, cuando le escribimos algo de texto con el interrogante al final, automáticamente el botón de enviar pasará a ser «Ask», con lo que le hará una pregunta; pero si no está el interrogante, buscará en la web. Si no nos ofrece lo que esperábamos, con las teclas de navegación podemos elegir que pregunte, busque u otras opciones.
Lo malo es que esto último no funciona todo lo bien que debería en la actualidad. A veces, cuando se queda en el botón de búsqueda, pero lo que queremos es preguntar, elegimos que pregunte y lo que hace es abrir una búsqueda en blanca, en mi caso la página principal de DuckDuckGo.
Cuando esté todo perfilado y bien acabado, es posible que sea de lo más interesante para usuarios medios, pero no estoy seguro de que lo sea para mí. No sé, quizá dentro de unos años cambie de opinión.
Coreboot 26.03ya está disponible como una nueva versión de este firmware de código abierto diseñado para sustituir BIOS y UEFI propietarios en numerosos sistemas. Este lanzamiento introduce varias mejoras técnicas, pero destaca especialmente por añadir soporte completo para los nuevos SoC Intel Panther Lake, ampliando así la compatibilidad con futuras plataformas de hardware.
La nueva versión continúa el desarrollo activo del proyecto con numerosas contribuciones de la comunidad y mejoras internas en distintos componentes del firmware. Además del soporte para nuevos procesadores y placas base, esta edición también incorpora cambios orientados a reforzar la seguridad, optimizar la configuración en tiempo de ejecución y mejorar la fiabilidad general del arranque del sistema.
Coreboot 26.03 añade soporte completo para los SoC Intel Panther Lake
Una de las novedades más importantes de Coreboot 26.03 es la incorporación de soporte completo para los procesadores Intel Panther Lake, pertenecientes a la familia Core Ultra Series 3. Estos chips fueron presentados recientemente y representan la próxima generación de plataformas de Intel, por lo que su integración en Coreboot prepara el terreno para futuros dispositivos compatibles con firmware abierto. El soporte inicial se centra principalmente en la placa de referencia utilizada para el desarrollo de estas plataformas, lo que permite a los desarrolladores comenzar a trabajar con el nuevo hardware y facilitar la futura adopción por parte de fabricantes de equipos y proyectos basados en firmware abierto.
Además del soporte para Panther Lake, esta versión también introduce compatibilidad con nuevo hardware, incluyendo el mini PC Qotom QDNV01 basado en Intel Atom Denverton, placas Siemens MC EHL7 y EHL8, y el portátil Star Labs StarBook Horizon equipado con un procesador Intel Core i3 N305.
En el apartado técnico, Coreboot 26.03 incluye mejoras en el sistema de configuración en tiempo de ejecución basado en CFR, lo que permite exponer más opciones de configuración para diferentes plataformas y simplificar la gestión de dependencias entre componentes. Estas mejoras buscan facilitar tanto el desarrollo como la personalización del firmware en sistemas compatibles.
También se han introducido cambios relacionados con la seguridad y la integridad del sistema, como el aumento de la capacidad de SMMSTORE, mejoras en la gestión de TPM y actualizaciones en los mecanismos relacionados con blobs seguros firmados. Estas modificaciones ayudan a reforzar la protección del proceso de arranque y la fiabilidad del firmware.
Por último, el proyecto continúa trabajando en la ampliación del soporte para nuevas plataformas y arquitecturas, manteniendo su objetivo de ofrecer una alternativa abierta y ligera al firmware tradicional. Coreboot, cuyo objetivo es inicializar el hardware y entregar el control al sistema operativo lo antes posible, sigue siendo una pieza clave para proyectos que buscan mayor transparencia y control sobre el proceso de arranque.
KaOS 2026.03ya está disponible como la nueva actualización de esta distribución independiente de GNU/Linux, que continúa evolucionando con cambios profundos en su arquitectura interna. La nueva versión llega con el kernel Linux 6.19 y forma parte del proceso iniciado en versiones recientes para reducir progresivamente la dependencia de componentes ligados a systemd.
La distribución mantiene su enfoque en ofrecer un sistema moderno, optimizado y relativamente compacto, con software actualizado y un entorno gráfico basado en tecnologías recientes. Además, el proyecto sigue apostando por cambios estructurales que afectan al arranque del sistema y al entorno de escritorio, consolidando la transición iniciada en versiones anteriores.
KaOS continúa eliminando componentes vinculados a systemd
Uno de los cambios más importantes de esta versión es la eliminación de más elementos relacionados con systemd. Los desarrolladores han retirado el cargador de arranque systemd-boot, sustituyéndolo por Limine como alternativa para gestionar el arranque del sistema.
Otro cambio relevante es la eliminación de mkinitcpio, la herramienta utilizada tradicionalmente para generar el initramfs. En su lugar, el sistema adopta Dracut, una solución más flexible utilizada también en otras distribuciones modernas. Con estas decisiones, el proyecto continúa avanzando hacia un sistema con menos dependencias de componentes específicos del ecosistema systemd.
Esta estrategia forma parte de una transición más amplia iniciada recientemente por KaOS. En versiones anteriores, la distribución ya había comenzado a replantear varios elementos de su base tecnológica para reducir el peso de determinadas piezas del sistema y explorar alternativas más modulares.
KaOS 2026.03 introduce nuevo entorno basado en Niri y Noctalia
Otra de las novedades destacadas es la consolidación del nuevo entorno gráfico basado en el compositor Wayland Niri junto con la shell Noctalia. Esta combinación reemplaza al histórico escritorio KDE Plasma que KaOS utilizó durante más de una década.
En esta versión se incluyen Niri 25.11 y Noctalia 4.7, junto con mejoras en la integración del entorno y del sistema gráfico moderno basado en Wayland. Este cambio pretende ofrecer una experiencia más ligera y adaptada a un flujo de trabajo basado en mosaicos desplazables.
Base actualizada con Linux 6.19
En el apartado técnico, KaOS 2026.03 incorpora el kernel Linux 6.19, una versión reciente del núcleo que introduce mejoras en compatibilidad de hardware, controladores y rendimiento general del sistema.
Al integrar un kernel actualizado y software reciente, la distribución continúa con su modelo de desarrollo orientado a mantener un sistema moderno y bien optimizado, sin perder su enfoque en ofrecer una experiencia relativamente coherente y controlada.
En conjunto, esta nueva edición representa otro paso en la evolución de KaOS hacia una plataforma más independiente en sus componentes clave. Con cambios en el arranque, el sistema base y el entorno de escritorio, el proyecto sigue redefiniendo su identidad dentro del ecosistema de distribuciones GNU/Linux.
OpenAI ha decidido dar carpetazo a Sora, su plataforma de generación de vídeo con inteligencia artificial, apenas unos meses después de haberla convertido en uno de sus productos estrella de consumo. La compañía detrás de ChatGPT pone fin tanto a la aplicación independiente como a las herramientas para desarrolladores asociadas, en un movimiento que supone un giro de calado en su hoja de ruta.
La empresa ha confirmado que cerrará el acceso a la app y a la API de Sora, y que también retirará progresivamente las funciones de vídeo integradas en ChatGPT. Aunque por ahora no ha detallado un calendario completo para el apagón, sí ha adelantado que ofrecerá instrucciones a los usuarios para exportar y conservar el contenido que habían generado dentro de la plataforma.
Cierre de Sora: qué se apaga exactamente
La decisión se ha comunicado de forma interna por Sam Altman y se ha hecho pública a través de la cuenta oficial de Sora en la red social X, donde la empresa publicó un mensaje de despedida: “Nos estamos despidiendo de la app de Sora. A todos los que creasteis con Sora, la compartisteis y construisteis una comunidad: gracias”. En el mismo aviso, OpenAI avanzaba que próximamente dará más detalles sobre los plazos para el cierre de la app y la API, así como sobre las opciones para preservar los vídeos generados por los usuarios.
Según han adelantado medios como The Wall Street Journal y CNN, el cierre no se limita a la aplicación móvil que se lanzó como red social de vídeos cortos generados por IA. La compañía también desmantelará la versión de Sora para desarrolladores y retirará las capacidades de vídeo que se habían integrado en ChatGPT, de forma que la marca Sora deje de estar presente como producto comercial.
De app viral a cambio de rumbo estratégico
Sora se presentó inicialmente en 2024 como un modelo capaz de generar vídeos a partir de texto y ampliar clips ya existentes. Poco después, OpenAI lo transformó en una app independiente con un feed social al estilo TikTok, donde los usuarios podían publicar y compartir sus creaciones audiovisuales. La idea era competir por la atención y los ingresos publicitarios asociados al vídeo de formato corto dominado por plataformas como TikTok, YouTube Shorts o Instagram Reels.
El lanzamiento fue sonado: en sus primeros días, la aplicación llegó a situarse en lo más alto de la App Store del iPhone en varios mercados y alcanzó cifras de descargas muy elevadas en poco tiempo. Altman llegó a animar públicamente a los usuarios a generarse a sí mismos en escenas icónicas de la cultura popular, alimentando un flujo constante de clips virales y demostraciones espectaculares de lo que podía hacer el modelo.
Consumo de recursos y dudas internas
Tras ese arranque fulgurante, empezaron a acumularse dudas dentro de la propia compañía. De acuerdo con fuentes citadas por el WSJ, en OpenAI existía preocupación por el enorme consumo de capacidad de cómputo que exigía Sora frente a una demanda que no terminaba de consolidarse como negocio claro. Generar vídeo hiperrealista en masa disparaba los costes, justo en un momento en el que la infraestructura de la IA generativa se está convirtiendo en un cuello de botella para todo el sector.
Ante esa presión, la dirección ha optado por reorientar parte de sus recursos computacionales y de talento hacia áreas que considera con mayor impacto económico a medio plazo, como las herramientas de productividad para empresas, las soluciones de programación avanzada o los llamados sistemas “agénticos”, capaces de ejecutar tareas de forma autónoma en el ordenador del usuario, desde escribir código hasta analizar grandes volúmenes de datos.
Menos vídeo y más negocio: el nuevo foco de OpenAI
El cierre de Sora encaja en una estrategia más amplia con la que OpenAI quiere simplificar y unificar su catálogo de productos. En las últimas semanas, la compañía ha anunciado la integración de la aplicación de escritorio de ChatGPT, su herramienta de programación Codex y su navegador en una especie de “superapp”, con la que pretende alinear a sus equipos en torno a una visión de producto más coherente y menos fragmentada.
En paralelo, la empresa está virando con fuerza hacia soluciones orientadas a clientes empresariales. La idea es competir de frente con rivales como Anthropic, cuyo producto Claude Code se ha convertido en favorito entre desarrolladores, y con Google, que empuja su modelo Gemini apoyándose en la potencia de su buscador y su ecosistema de servicios. En este contexto, OpenAI da por cerrado el capítulo de las aplicaciones de vídeo para el gran público y prioriza herramientas con un retorno más directo en entornos corporativos.
El papel de la robótica y la “simulación del mundo”
Aunque Sora desaparece como producto comercial, OpenAI no abandona del todo la tecnología que hay detrás. Un portavoz de la compañía ha explicado que el equipo de investigación de Sora seguirá trabajando en simulación del mundo con el objetivo de impulsar el desarrollo de robótica. La generación de vídeo se utilizará internamente para crear entornos y secuencias que permitan entrenar robots y sistemas de IA capaces de desenvolverse en espacios físicos reales.
Este giro encaja con la tendencia de dar más peso a apuestas a largo plazo en robótica y agentes que interactúan con el mundo físico. Según ha señalado la propia OpenAI, el esfuerzo de cómputo que antes se destinaba a sostener Sora como producto de consumo pasará a alimentar proyectos de investigación y soluciones empresariales que, sobre el papel, tienen más recorrido como negocio.
Acuerdo con Disney y otros socios que se quedan en el aire
Una de las derivadas más visibles del cierre de Sora es el impacto en los acuerdos comerciales firmados alrededor de la plataforma. A principios de diciembre, Disney y OpenAI anunciaron un pacto de gran visibilidad que permitía a Sora utilizar más de 200 personajes de franquicias como Disney, Pixar, Marvel o Star Wars en los vídeos generados por los usuarios. El acuerdo contemplaba además una importante inversión de capital de Disney en OpenAI, cifrada en torno a los 1.000 millones de dólares en algunas informaciones.
Con el cambio de rumbo, ese entendimiento ha quedado descarrilado. Portavoces de Disney han señalado a distintos medios que el acuerdo no seguirá adelante tras la decisión de OpenAI de salir del negocio de la generación de vídeo, aunque la compañía de entretenimiento mantiene su intención de seguir colaborando con plataformas de IA que respeten la propiedad intelectual y los derechos de los creadores. El frenazo a Sora supone, por tanto, un golpe directo a una alianza que se presentaba como emblemática en la intersección entre Hollywood y la inteligencia artificial.
Polémicas por derechos de autor y deepfakes
Más allá del aspecto económico, Sora se vio envuelta desde el principio en controversias relacionadas con los derechos de autor y el uso de la imagen. El modelo permitía generar vídeos que imitaban escenas, estilos visuales y personajes reconocibles, lo que en la práctica abrió la puerta a un aluvión de contenidos que rozaban —o cruzaban— los límites de la propiedad intelectual.
Diversas organizaciones y titulares de derechos expresaron su malestar por la facilidad con la que se podían producir deepfakes y clips que utilizaban sin permiso la apariencia de personas famosas y personajes protegidos. Activistas, académicos y expertos alertaron de que la plataforma estaba contribuyendo a una ola de “basura de IA” y a la proliferación de imágenes generadas sin consentimiento. En algunos casos, OpenAI se vio obligada a reaccionar a posteriori, restringiendo la creación de vídeos con figuras públicas concretas solo después de recibir quejas de herederos y sindicatos de actores.
Ante este clima de presión, la compañía introdujo controles adicionales para que los propietarios de contenidos pudieran bloquear el uso de su propiedad intelectual dentro de Sora y ajustó las políticas para intentar frenar los usos más problemáticos. Sin embargo, esas medidas no evitaron que la app siguiera siendo un foco de debate sobre el impacto de la IA generativa en los derechos de autor, un frente especialmente sensible en Europa por la regulación y por las reclamaciones de la industria cultural.
Presión competitiva y contexto de mercado
El desenlace de Sora no se entiende solo por las cuestiones técnicas o legales. OpenAI opera en un entorno en el que la competencia entre grandes modelos de IA generativa se ha intensificado notablemente. Anthropic, fundada por antiguos empleados de OpenAI, ha ido ganando terreno con modelos muy bien valorados por programadores y empresas. Por su parte, Google empuja con fuerza Gemini, aprovechando su ventaja en infraestructura y distribución a través del buscador y otros servicios.
A diferencia de lo que sucede en redes sociales, donde los efectos de red y la masa crítica de usuarios dan una ventaja clara al primero que se impone, en la IA generativa avanzada la brecha entre modelos punteros es menos evidente para el usuario medio. Esto obliga a OpenAI a demostrar que su oferta aporta valor diferencial en entornos profesionales y a justificar un gasto de cómputo enorme con productos que generen ingresos sostenibles, más allá del impacto mediático de las demos espectaculares.
Impacto en usuarios y desarrolladores en Europa
El cierre de Sora afecta también a usuarios y desarrolladores en España y en el resto de Europa que habían empezado a experimentar con la herramienta, tanto desde un punto de vista creativo como profesional. Para creadores de contenido, estudios pequeños y agencias que exploraban formatos de vídeo generativo, la desaparición de la app y su API implica tener que migrar a otras soluciones o replantear sus flujos de trabajo.
En el ámbito europeo, donde la regulación sobre IA y derechos de autor es especialmente estricta, la marcha atrás de OpenAI con Sora se interpreta también como una señal de que los modelos de negocio basados en contenido audiovisual generado masivamente por IA tienen que ajustarse a un marco normativo complejo. Compañías y desarrolladores de la UE deberán estar atentos a cómo se reorienta la oferta de OpenAI hacia productos empresariales y herramientas de programación para valorar si encajan mejor con los requisitos legales y de cumplimiento que marca, por ejemplo, la nueva legislación europea sobre inteligencia artificial.
Con el adiós a Sora, OpenAI cierra una etapa marcada por el experimento de llevar la generación de vídeo con IA al gran público y abre otra en la que el foco pasa claramente por los productos de negocio, la programación avanzada y la investigación en robótica. La tecnología detrás de Sora no desaparece, pero deja de ser escaparate de consumo para convertirse en pieza de fondo en la construcción de la próxima generación de sistemas inteligentes con los que la compañía aspira a mantener su posición en un mercado cada vez más exigente.
Los nuevos móviles POCO X8 Series llegan al mercado con una idea que ya es habitual en la marca: ofrecer mucho por poco precio, pero esta vez con una diferencia bastante clara en el planteamiento. A un lado queda el POCO X8 Pro Iron Man Edition Gold, una edición especial que convierte el diseño y la identidad visual en parte fundamental del producto. Al otro, el POCO X8 Pro Max se presenta como el modelo más ambicioso de la gama, con una ficha técnica superior en varios puntos clave y una orientación mucho más centrada en la experiencia completa de uso.
Aunque ambos comparten apellido, capa de software, resistencia IP68, carga rápida de 100 W y una base muy competitiva para la gama media-alta, basta pasar unos días con ellos para comprobar que no están pensados exactamente para el mismo tipo de usuario. Uno entra por los ojos y tiene un valor añadido evidente como edición limitada; el otro da la sensación de haber sido afinado para convertirse en la opción más redonda de la familia.
La comparativa, por tanto, no consiste solo en ver cuál es mejor sobre el papel, sino en entender dónde destaca cada uno y qué sensaciones deja en el uso real. Así que, comencemos a analizar los nuevos móviles de POCO.
Diseño y construcción
Dos formas de llamar la atención
El diseño es, probablemente, el punto en el que más claramente se separan ambos terminales. El POCO X8 Pro Iron Man Edition Gold parte de la base del X8 Pro estándar, pero se transforma con un cuerpo negro con detalles dorados, un tema personalizado inspirado en Iron Man, una caja especial basada en la armadura MK5 y accesorios adaptados a la colaboración con Marvel, como el cable de datos personalizado o la herramienta de expulsión de SIM tematizada. En dimensiones, se sitúa en 157,53 x 75,19 x 8,38 mm, con un peso de 201,47 gramos, y mantiene certificación IP68 frente a agua y polvo.
El POCO X8 Pro Max, por su parte, opta por una línea mucho más sobria. Mide 162,9 x 77,9 x 8,2 mm, pesa 218 gramos y también cuenta con certificación IP68, pero en este caso la sensación general es la de un dispositivo construido para priorizar robustez, autonomía y presencia. No busca impresionar con elementos visuales temáticos, sino con un cuerpo más grande, más contundente y más coherente con el resto de su propuesta técnica.
Un modelo seduce por estética y el otro convence por ergonomía
La edición Iron Man resulta atractiva desde el primer momento, aunque con un matiz importante: su estética en negro y dorado transmite más una idea de lujo contenido que una reinterpretación especialmente agresiva del superhéroe.
Eso no es necesariamente un defecto, pero sí cambia un poco la expectativa. En lugar de apostar por un diseño más explosivo o más reconocible a simple vista, POCO ha preferido una aproximación más elegante, lo que seguramente hará que guste a un público más amplio, aunque también deja la sensación de que podía haber llevado todavía más lejos el homenaje a Iron Man.
En el uso diario, además, aparecen detalles que no se ven en una ficha técnica. El acabado del Iron Man Edition resulta algo más deslizante, y con la funda colocada el tacto no es del todo uniforme en la zona inferior, algo que se nota especialmente al jugar durante sesiones largas. El Pro Max, en cambio, aun siendo más grande y pesado, se siente más cómodo en mano para un uso intensivo. La mayor superficie de pantalla ayuda, pero también influye una sensación general de mejor equilibrio en el conjunto.
Uno destaca por personalidad; el otro, por comodidad. Y esa diferencia ya anticipa bastante bien cómo se comportan ambos en el resto de apartados.
Pantalla y experiencia multimedia
Dos AMOLED muy serias, con ventaja en tamaño para el Pro Max
La pantalla del POCO X8 Pro Iron Man Edition es una AMOLED ultrabrillante de 6,59 pulgadas, con resolución 1.5K de 2756 x 1268 píxeles, tasa de refresco de hasta 120 Hz, brillo máximo de 3500 nits y tiene compatibilidad con HDR10+ y Dolby Vision, además de protección Corning Gorilla Glass 7i. Sobre el papel, es un panel excelente para su rango y uno de esos apartados en los que POCO ha querido competir sin complejos.
El POCO X8 Pro Max sube ligeramente el listón con una AMOLED ultrabrillante de 6,83 pulgadas, resolución 2772 x 1280, también 120 Hz, mismo brillo y misma compatibilidad con HDR10+ y Dolby Vision. No solo es un panel más grande, sino uno claramente planteado para reforzar el perfil multimedia y gaming del terminal.
Dos pantallas muy buenas, pero una se disfruta más
Cuando estás usándolos, ambos paneles ofrecen muy buen resultado. La fluidez es excelente, la respuesta táctil acompaña y tanto la navegación como el consumo de vídeo o el juego se sienten ágiles y agradables en los dos dispositivos. No hay una diferencia radical en calidad visual que haga parecer anticuado al Iron Man Edition, ni mucho menos.
Sin embargo, el Pro Max termina resultando más satisfactorio en uso prolongado. Su mayor diagonal hace que jugar, ver contenido o simplemente interactuar con el sistema resulte más cómodo. No es una cuestión de “más es siempre mejor”, sino de que el extra de tamaño encaja muy bien con el resto de su planteamiento.
En la práctica, la pantalla del Iron Man Edition cumple de sobra y deja sensaciones muy buenas, pero el Pro Max aprovecha mejor su condición de dispositivo orientado a una experiencia más completa y envolvente.
Rendimiento y experiencia en gaming
Dos móviles potentes, pero con procesadores de distinto nivel
El POCO X8 Pro Iron Man Edition monta un MediaTek Dimensity 8500-Ultrafabricado en 4 nm, acompañado por memoria LPDDR5X y almacenamiento UFS 4.1. La unidad analizada, con 12 GB de RAM y 512 GB de almacenamiento, ya deja claro que no se trata de una edición especial construida solo para lucir, sino de un teléfono con una base de rendimiento muy seria.
El POCO X8 Pro Max juega en un escalón superior gracias al MediaTek Dimensity 9500s, fabricado en3 nm, con una CPU más avanzada, GPU Immortalis-G925 MC11 y la misma memoria LPDDR5X a 9600 Mbps junto a almacenamiento UFS 4.1. Sobre el papel, la diferencia existe y es relevante: el modelo Max cuenta con una plataforma más moderna, más potente y más eficiente.
La diferencia no está en si rinden bien, sino en cómo aguantan el esfuerzo
En juego real, ambos dispositivos se comportan muy bien. Títulos exigentes como Rainbow Six Mobile o Genshin Impact con los ajustes gráficos al máximo funcionan con fluidez, con FPS estables y sin tirones apreciables. Se nota especialmente al aprovechar funciones como Game Turbo, el modo Wildboost y los ajustes de mejora visual con HDR dentro del juego. En otras palabras, ninguno de los dos deja la sensación de ir justo de potencia.
Donde empiezan a aparecer diferencias es en el uso continuado. El Iron Man Edition tiende a calentarse un poco más, aunque sin llegar a convertirse en un problema serio, mientras que el Pro Max transmite una sensación de mayor estabilidad térmica. También en multitarea se percibe una pequeña ventaja del modelo Max, que responde con algo más de consistencia cuando se le exige con varias aplicaciones abiertas y un uso más intensivo. No se trata de una distancia enorme, pero sí suficiente como para que el Pro Max termine sintiéndose más sólido y más sólido en rendimiento sostenido.
Cámara
Misma resolución, distinta ejecución
Tanto la edición de Iron Man como el Pro Max apuestan por una cámara principal de 50 MP con OIS y sensor de 1/1.95″, acompañada por una ultra gran angular de 8 MP y una frontal de 20 MP. En el caso del Iron Man Edition, el sensor principal es un Sony IMX882 con apertura f/1.5, mientras que el Pro Max recurre al sensor Light Fusion 600, también con apertura f/1.5. Ambos permiten grabar en 4K a 30 y 60 fps, además de 1080p y varios modos a cámara lenta.
Sobre la hoja de especificaciones, por tanto, la base es muy parecida. Más allá del flash extra que trae el Pro Max, la diferencia real hay que buscarla en cómo interpreta cada uno la escena, cómo gestiona la luz y qué sensación deja el procesado de imagen. Bajo mi punto de vista, el Pro Max deja mejores sensaciones.
Una calidad de imagen difícil de mejorar en su gama
En fotografía diurna, ambos terminales ofrecen resultados nítidos y más que competentes para su segmento. Sin embargo, el Pro Max muestra una ligera ventaja en dos puntos concretos: el control de las luces intensas y la fidelidad del color. En escenas con sol o con fuentes de luz muy marcadas, reduce mejor los halos y reflejos en lente, mientras que el Iron Man Edition tiende a mostrar con mayor frecuencia esos efectos. Además, el color en el modelo Max se siente más natural, más realista.
En vídeo, la sensación también favorece ligeramente al Pro Max, aunque aquí la diferencia es menos evidente. Los dos graban bien, cuentan con una estabilización muy competente y permiten resultados muy aprovechables, pero el modelo Max vuelve a transmitir ese punto extra de refinamiento. La cámara frontal, por su parte, cumple bien en ambos y ofrece bastante nivel de detalle, incluso hasta el punto de verte como en el espejo. En conjunto, ninguno decepciona, pero el POCO X8 Pro Max vuelve a parecer la variante más afinada.
En conjunto, tanto en vídeo como en selfie, la serie POCO X8 mantiene un nivel sólido y coherente con su propuesta, sin grandes diferencias entre modelos, pero con ese pequeño margen a favor del Pro Max que ya se repite en otros apartados.
Batería, carga y autonomía
Aquí sí hay una diferencia clara desde la ficha técnica
La batería del POCO X8 Pro Iron Man Edition es de 6500 mAh, con 100 W HyperCharge y carga completa en 48 minutos en modo Boost según la marca. Son cifras ya muy ambiciosas y suficientes para situarlo por encima de muchos rivales directos en autonomía.
El POCO X8 Pro Max, sin embargo, lleva este apartado mucho más lejos gracias a una batería de 8500 mAh, también con 100 W HyperCharge, además de carga inversa por cable de hasta 27 W. Esa capacidad marca una diferencia enorme sobre el papel y define parte de la personalidad del dispositivo.
Los dos duran mucho, pero el Pro Max juega en otra liga
En uso real, ambos superan el día de autonomía con comodidad. No hay sensación de quedarse corto de batería en ninguno de los dos, ni siquiera con un uso exigente. Ahora bien, el Pro Max aguanta claramente más, y esa diferencia también se deja notar jugando. En una carga de trabajo comparable, el Iron Man Edition consume antes, mientras que el modelo Max conserva mejor la batería y transmite una mayor sensación de holgura.
A pesar de su enorme capacidad, los 100 W hacen magia: el Pro Max pasa del 0 al 50 % en apenas 24 minutos. No es el más rápido del mercado en tiempos totales (por pura física de su tamaño), pero la relación capacidad/velocidad es imbatible.
Además, ambos incluyen además el modo Ultimate, pensado para elevar el rendimiento a costa de un mayor consumo y más temperatura. Es una función útil, pero también una pequeña prueba de estrés para la batería. Y ahí, otra vez, el modelo Max demuestra que su enorme capacidad no está de adorno. Si la autonomía es uno de los criterios principales de compra, la balanza cae de forma bastante clara de su lado.
Audio, conectividad y extras
El modelo Max también está mejor armado en sonido y conectividad
El Iron Man Edition integra altavoces estéreo, doble micrófono, certificación Hi-Res Audio y Hi-Res Audio Wireless, además de compatibilidad con Dolby Atmos. El Pro Max también cuenta con estas certificaciones, pero añade un sistema de altavoces estéreo simétricos, algo que ya sobre el papel sugiere una experiencia sonora más equilibrada.
En conectividad, el Max hace honor a su nombre con Wi-Fi 7, Dual Bluetooth, compatibilidad con eSIM y lector de huellas ultrasónico en pantalla. Esto mejora con creces al Wi-Fi 6, Dual SIM tradicional y lector en pantalla del Iron Man Edition. Es verdad que todavía hay pocos router Wi-Fi 7, pero cuando se convierta en el estándar, será mucho más aprovechable.
Si nos paramos a escuchar a fondo ambos dispositivos, el Pro Max da una impresión más convincente. Los graves tienen más presencia y el conjunto se siente algo más lleno y equilibrado. No es una diferencia brutal, pero sí perceptible. El Iron Man Edition cumple sin problema, pero el modelo Max vuelve a sumar otro pequeño punto a favor en una comparativa donde, precisamente, lo que acaba marcando la distancia son esos detalles acumulados.
Software y experiencia de uso
HyperOS 3 y un planteamiento muy parecido en ambos
Los dos terminales llegan con Xiaomi HyperOS 3 y un conjunto de funciones de IA que incluye Google Gemini, Circle to Search, AI Writing, AI Speech Recognition, AI Interpreter y otras herramientas similares. También comparten elementos como el emisor IR yNFC. Es decir, vienen completos a nivel de ecosistema y experiencia base. Por tanto diría que la distancia entre ambos no es tan grande como en procesador o batería.
Muy fluidos, con el bloatware habitual como peaje
En el uso diario, los dos se sienten rápidos, ligeros y muy fluidos. La alta tasa de refresco se nota, el sistema responde bien y no hay sensación de software pesado en ninguno de ellos. La principal pega vuelve a ser la ya conocida presencia de aplicaciones preinstaladas y ciertos elementos molestos, como publicidad en algunas funciones del sistema, algo que sigue siendo mejorable en este tipo de dispositivos.
Aun así, más allá de ese detalle, la experiencia es buena en los dos. Solo cuando se busca un uso especialmente exigente o muy intensivo aparece esa pequeña diferencia que vuelve a favorecer al Pro Max. Para un usuario normal, ambos van sobrados. Para alguien que quiere exprimir cada apartado al máximo, el modelo Max resulta más convincente.
Veredicto final: ¿cuál merece más la pena?
La comparativa entre ambos deja una conclusión bastante clara. El POCO X8 Pro Max es el dispositivo más completo de los dos. Tiene una pantalla más grande, un procesador superior, mucha más batería, mejor conectividad, mejor sonido y una sensación general de mayor estabilidad en uso exigente. No es solo una impresión: la ficha técnica respalda bastante bien esa sensación.
Eso no significa que el POCO X8 Pro Iron Man Edition quede en mal lugar. Al contrario, comparte una base excelente, rinde muy bien, tiene una pantalla notable, una cámara solvente, carga rápida de 100 W, resistencia IP68 y una experiencia general que sigue siendo claramente premium. Además, añade algo que el Pro Max no tiene: carácter. Su presentación, su diseño y su valor como edición limitada le dan un atractivo especial que no se puede medir solo con cifras.
La edición de Iron Man es más cara y más exclusiva
Ahora bien, el factor precio introduce un matiz interesante en la ecuación. El POCO X8 Pro Iron Man Edition se sitúa en torno a los 499,99 €, una cifra que no solo refleja el dispositivo en sí, sino también todo el componente de edición especial que lo acompaña. No es únicamente un smartphone, sino un producto pensado también para quien valora el diseño, la exclusividad y ese punto diferencial que lo separa del resto.
El POCO X8 Pro Max, por su parte, se posiciona incluso ligeramente por debajo, con un precio aproximado de 469,99 €, lo que refuerza aún más su propuesta. Básicamente no se trata solo de cuál es mejor, sino de qué se está priorizando realmente en la compra.
La elección final depende, por tanto, del tipo de usuario. Quien busque la opción más equilibrada, más duradera y más redonda en el día a día encontrará en el POCO X8 Pro Max la propuesta más lógica, especialmente teniendo en cuenta que ofrece más por menos. Quien valore el diseño, el coleccionismo o simplemente quiera un móvil diferente, con una identidad propia muy marcada, verá en el POCO X8 Pro Iron Man Edition una alternativa con mucho encanto.
Uno convence por conjunto; el otro, por personalidad. Y pocas veces una misma familia de teléfonos deja tan claro que no siempre todo se reduce a cuál tiene más potencia, sino a qué tipo de experiencia se quiere tener desde el primer momento.
Costará acostumbrarse, pero es algo rompedor. Vivaldi 7.9llegó hace unas 24 horas, y sin lugar a dudas, la función «auto-hide» es lo más destacado. Con diferencia. Para alguien como yo, que ya suele hacer que las barras inferiores de los sistemas operativos se oculten automáticamente, es algo que, digámoslo así, va un poco con mi personalidad. La función es nueva y probablemente la mejoren, pero hay algo que, creo, tienen que solucionar lo antes posible.
Mirad la captura de cabecera. Si os fijáis, el panel lateral es flotante cuando la auto-ocultación está activada. Estéticamente queda mucho mejor (y a mí me recuerda al panel flotante de Plasma), pero ese margen actualmente es un problema. Por lo menos en Linux. ¿Qué pasa? Pues lo mismo que cuando se usa la propiedad :hover de CSS y no se tienen en cuenta algunas cosas: si se mantiene el cursor en un punto correcto, funciona como se espera; en caso contrario, tiene un comportamiento inesperado.
Vivadli 7.9, el «auto-hide» y el «gap»
Ese margen también lo encontramos cuando dividimos la vista en dos en el mismo Vivaldi o en gestores de ventanas Hyprland o Sway. Solemos referirnos a él por su término en inglés «gap», y el problema es que, si movemos el cursor al borde, que es el gesto más natural, quedará encima de ese milímetro sin el panel, y terminará por desaparecer. Esto también pasa en la barra de estado que se sitúa en la parte inferior y en la barra de pestañas que esta en la parte superior.
Actualmente, la solución a esto pasa sencillamente por tenerlo en cuenta: se pasa el cursor por el borde y se hace un pequeño gesto de «rebote» para que el cursor quede encima del panel. No es lo más elegante, y tampoco es perfecto: si el panel es grande (como el lateral), no pasa nada, pero hay que ser más preciso en la barra de estado y en la de pestañas.
Y por qué no me apasiona el correo del navegador
Desde que lo lanzaron creo que para Vivaldi 4.0, o incluso antes, porque se podía probar activando alguna bandera, yo suelo usar el correo de Vivaldi. En Vivaldi 7.9 ha mejorado un poco más, pero no me encanta por un motivo que no sé si tiene solución: el correo, como casi todos, se divide en tres partes, que son las bandejas, los correos y el contenido. Cuando se abre una pestaña con el correo muestra las dos últimas, pero no la primera. Las carpetas sólo están disponibles como un panel. He probado diferentes configuraciones, pero creo que la interfaz debería mostrar los tres apartados.
En cualquier caso, Vivaldi 7.9 es otro paso más en la dirección correcta, y seguro que le encanta a muchos usuarios exigentes como yo.
Calibre 9.5, la nueva versión estable del popular gestor de bibliotecas digitales de código abierto, ya está disponible. El desarrollador Kovid Goyal ha lanzado esta actualización que llega apenas dos semanas después de Calibre 9.4, introduciendo una práctica herramienta en el componente de edición de libros para eliminar imágenes no utilizadas, optimizando así el peso y la limpieza de los archivos.
Además de esta destacada función de limpieza, Calibre 9.5 incorpora un botón de reinicio en el panel de estadísticas de lectura del visor de libros electrónicos. También se ha añadido una opción para mostrar las páginas de la lista de páginas del libro en papel mientras se visualiza simultáneamente el número de la última página, mejorando la experiencia de lectura.
Calibre 9.5: Refinamientos y Nuevas Herramientas para Lectores Exigentes
El navegador de anotaciones también se ha mejorado significativamente, permitiendo ahora filtrar por estilo de resaltado. Para los usuarios más organizados, se añade soporte para crear una columna personalizada que muestre el progreso de lectura, accesible desde Preferencias > Añadir tus propias columnas.
En el apartado de compatibilidad, se ha actualizado el controlador Tolino para dar soporte a una nueva versión de su firmware. Además, esta versión mejora RB Input para asegurar que los archivos se extraigan correctamente dentro del directorio contenedor, y la edición de libros recupera el foco en el editor después de mostrar el mensaje emergente con el recuento de búsquedas.
Calibre 9.5 también soluciona varios problemas: corrige un error con los iconos personalizados del directorio de configuración que no cambiaban entre variantes claro/oscuro al modificar el tema; repara un bug en la eliminación de marcado KEPUB cuando hay tramos vacíos de kobo; y arregla el acceso directo Ctrl+Mayús+Flecha que no movía el libro seleccionado actualmente en la lista de libros.
Para los lectores de noticias, a partir de esta versión Calibre ahora es compatible con la fuente de noticias Truthout, mientras que el soporte para Naked Capitalism se ha mejorado. Como es habitual, puedes consultar las notas de lanzamiento oficiales para conocer todos los detalles técnicos de los cambios incluidos en Calibre 9.5.
La nueva versión ya está disponible para descargar desde el sitio web oficial, con binarios listos para usar en sistemas Linux de 64 bits y ARM64, así como para macOS y Windows. También se ofrece un archivo de código fuente para quienes prefieran compilarlo, y los usuarios de Linux pueden instalarlo fácilmente como aplicación Flatpak desde Flathub.
El viernes 13 de marzo tendrá lugar en el CSR Gamonal la segunda sesión de Viñetas & Subversióncon la presentación de Historias del punka partir de las 19:00 horas.
Historias del punk es un tebeo en el que Carlos Azagra y Encarna Revuelta, un tándem creativo que ha dado a la luz novelas gráficas como Pepe Buenaventura Durruti o El último aragonés vivo, han encargado a sus personajes Pedro Pico y Pico Vena que den un buen repaso a la historia del punk ibérico. Un viaje a pie por la memoria cruzando a través de eventos, conciertos, festivales, anécdotas bien jugosas, estilos y una barbaridad de grupos metiendo caña. Porque como bien dicen ellos mismos… “Si no somos nosotros los que contamos la historia… alguien la contará. Y seguramente mal.”
WineHQ ha lanzado una nueva versión de desarrollo de su software para ejecutar aplicaciones de Windows en otros sistemas operativos. Lo que hay disponible desde hace unas horas es WINE 11.4, y no viene mal recordar que no tiene nada que ver con un lanzamiento estable. La última estable es WINE 11.0, y la próxima será la v11.0.1, que llegará para corregir errores. Lo que lanzan cada dos semanas es para preparar la siguiente actualización mayor, pero aún queda mucho para eso.
WINE 11.4 ha llegado con lector SAX reimplementado en MSXML, optimizaciones de remuestreo en DirectSound, comienzos de una implementación adecuada de CFGMGR32 y mejor coincidencia de zonas horarias de Unix. En números, WINE 11.4 ha introducido 221 cambios y corregido 17 bugs, los de la siguiente lista.
Bugs corregidos en WINE 11.4
Xara Xtreme 4: Los controles de redimensionamiento no son visibles.
Los identificadores (handles) de CreateProcess se heredan incluso cuando bInheritHandles=FALSE.
El treeview de Explorer++ muestra signos más incluso cuando una carpeta no contiene subcarpetas.
CodeGear RAD Studio 2009 falla al iniciar (el método ISAXXMLReader::putFeature necesita soportar la característica ‘normalizar saltos de línea’).
El instalador de FL Studio 12.4, Janetter 4.1.1.0 falla por falta de la clave HKCU\Software\Microsoft\Windows\CurrentVersion\Internet Settings\ProxyEnable.
El instalador de Xilinx Vivado 2014.4 falla: systeminfo es un stub (función incompleta).
El juego Gag se bloquea.
El proceso de autorización del software iZotope falla.
Native Access 2: círculo de carga permanente después de ingresar credenciales.
ROMCenter se bloquea después de crear la base de datos > Excepción de E/S: no se puede localizar el recurso images/defaultsystemicon.png (MONO 8.1 es el problema).
La ventana de búsqueda de SSFpres aparece detrás de la ventana principal desde Wine 10.5.
Error con el software Pronote durante su actualización.
En C++, catch() uso después de liberar (use-after-free) con std::rethrow_exception().
Roblox Studio necesita msvcp140.dll.?_Xregex_error@std@@YAXW4error_type@regex_constants@1@@Z.
FormatMessageW falla para una llamada de función bien formada y bloquea la aplicación.
Elementos de TreeView que desaparecen al hacer TVM_INSERTITEM+TVM_EXPAND+TVM_EDITLABEL.
wine-staging no se puede compilar debido a que no encuentra -lvkd3d.
Ya disponible
WINE 11.4 ya se puede descargar desde el botón que tenéis debajo de estas líneas. En su página de descargas hay también información sobre cómo instalar esta y otras versiones en sistemas operativos Linux y otros como macOS e incluso Android.
Dentro de dos semanas, si se sigue con el calendario habitual y nada nos hace pensar que no será así, llegará WINE 11.5, también con decenas de cambios para preparar el WINE 12.0 que llegará, todo atendiendo a lanzamientos pasados, a principios de 2027. El ritmo seguirá así hasta finales de año, cuando se aumentará la frecuencia de lanzamientos a Release Candidate por semana, luego estable (WINE 12) y luego ya se comenzará el desarrollo de WINE 13.0.
OpenAI ha dado otro giro de tuerca a su estrategia en inteligencia artificial con el lanzamiento de GPT-5.4, un modelo que no solo promete más potencia de cálculo o mejores puntuaciones en pruebas sintéticas, sino que da un paso claro hacia la automatización de trabajo real. La compañía presenta este sistema como su modelo más capaz y eficiente hasta la fecha, con el foco puesto en entornos profesionales, tareas largas y agentes capaces de operar como si fueran una persona sentada frente al ordenador.
El anuncio llega, además, en un momento delicado para la firma de Sam Altman, inmersa en una crisis de reputación asociada a sus acuerdos con el Departamento de Defensa de Estados Unidos y a campañas de boicot como #QuitGPT. La presentación de GPT-5.4, apenas días después de GPT-5.3 Instant, funciona así como movimiento técnico y también político: enseñar músculo tecnológico mientras se intenta recuperar la confianza de usuarios y grandes clientes.
Dos variantes para distintos perfiles: GPT-5.4 Thinking y GPT-5.4 Pro
OpenAI ha lanzado GPT-5.4 en dos sabores principales. Por un lado, GPT-5.4 Thinking, disponible en los planes de pago de ChatGPT (Plus, Team y Pro), orientado al razonamiento profundo y multietapa. Este modelo muestra al usuario un esquema previo de cómo va a abordar la tarea, lo que permite intervenir a mitad de respuesta para redirigir instrucciones sin tener que empezar desde cero. Esta capacidad de “cortar y reconducir el razonamiento”, que OpenAI denomina steerability, está pensada para problemas complejos en los que el usuario quiera tener algo más de control sobre el proceso.
Por otro lado aparece GPT-5.4 Pro, dirigido a empresas y desarrollos de gran escala donde prima el rendimiento sostenido. Esta variante está optimizada para tareas intensivas y flujos de trabajo complejos, con especial énfasis en agentes que trabajen durante periodos largos, procesen muchos documentos y tengan que tomar decisiones encadenadas. En la API, ambas versiones pueden utilizarse como motor para productos propios, integrándose también con la plataforma orientada al código, heredera de Codex.
Una IA que maneja el ordenador como un usuario humano
La característica que más titulares está generando es que GPT-5.4 es el primer modelo generalista de OpenAI con capacidades nativas de uso del ordenador. La compañía habla de “computer use” para referirse a un modo en el que el sistema no se limita a generar texto, sino que interpreta lo que ve en la pantalla (mediante capturas y visión de alta resolución) y emite acciones de ratón y teclado para completar tareas.
En la práctica, esto permite plantear escenarios que hasta hace poco sonaban a ciencia ficción cotidiana: pedir a la IA que abra el correo, descargue facturas, extraiga datos clave y los vuelque en una hoja de cálculo, o que navegue por diferentes aplicaciones empresariales para rellenar formularios, consultar bases de datos o generar informes. Según los benchmarks internos, en la prueba OSWorld-Verified, que mide precisamente esa capacidad de manejar un entorno de escritorio, GPT-5.4 logra un 75 % de éxito, por encima del 47,3 % de GPT-5.2 y también del rendimiento medio humano, fijado en 72,4 %.
Este tipo de habilidades encajan de lleno con la tendencia hacia la IA basada en agentes. Herramientas como el agente OpenClaw, orientado a “coger las riendas” del ordenador del usuario para automatizar tareas repetitivas, se benefician directamente de un modelo que ya viene preparado de serie para interpretar la pantalla y ejecutar secuencias completas de acciones. Para empresas europeas que están probando agentes en departamentos de administración, finanzas o soporte técnico, la diferencia entre un chatbot que solo responde y un modelo que realmente actúa es sustancial.
Ventana de contexto de hasta un millón de tokens
Otro de los grandes titulares de GPT-5.4 está en su capacidad de memoria a corto plazo. En la API y en su integración con Codex, el modelo soporta ventanas de contexto de hasta un millón de tokens. Esto multiplica por más de dos la memoria operativa asociada a GPT-5.2, que se situaba en torno a los 400.000 tokens, y supone un salto importante para quienes trabajan con información masiva: contratos de cientos de páginas, repositorios de código voluminosos, bases de datos de clientes o informes financieros anuales.
Para empresas y despachos europeos, acostumbrados a lidiar con regulación extensa, desde normativa bancaria hasta documentación de cumplimiento como el RGPD, esta ampliación de contexto permite tratar conjuntos de documentos completos sin tener que trocearlos de forma artificial. La consecuencia directa es que se pierde menos contexto, se reducen errores por omisión y se mantiene mejor la coherencia en tareas que requieren seguir instrucciones precisas durante muchos pasos.
Además de la memoria, GPT-5.4 introduce lo que algunas fuentes han descrito como un modo de “razonamiento extremo”. Este enfoque permite dedicar mucha más capacidad de cómputo a preguntas complejas, ejecutando procesos que pueden prolongarse durante horas en lugar de segundos. No se trata solo de responder rápido, sino de ser capaz de mantener un análisis prolongado con más profundidad y consistencia, algo especialmente relevante para consultoras, auditoras o equipos de investigación que operan en Europa con proyectos de largo recorrido.
Tool Search y eficiencia en el uso de herramientas
Para los desarrolladores que construyen sobre la API, una de las novedades más prácticas es Tool Search. Hasta ahora, los modelos necesitaban recibir en el contexto la definición de todas las herramientas disponibles, lo que disparaba el consumo de tokens en sistemas con muchas funciones. Con Tool Search, GPT-5.4 es capaz de buscar dinámicamente la herramienta que necesita en cada momento, consultando solo la información imprescindible.
En pruebas con 250 tareas del benchmark MCP Atlas, utilizando 36 servidores de herramientas distintas, esta forma de acceso dinámico logró reducir el consumo total de tokens en torno a un 47 %, manteniendo el mismo nivel de precisión. Para compañías europeas que están diseñando plataformas de agentes con decenas de microservicios, desde sistemas de facturación hasta CRMs y ERPs internos, esta mejora se traduce en costes operativos más bajos y tiempos de respuesta más rápidos, sin renunciar a la complejidad de los flujos de trabajo.
Rendimiento profesional: del despacho a la hoja de cálculo
Más allá de los titulares técnicos, GPT-5.4 está pensado explícitamente para tareas de conocimiento profesional. En el test GDPval, que mide la capacidad de agentes de IA para producir trabajo real en 44 ocupaciones diferentes, el nuevo modelo iguala o supera a profesionales humanos en el 83 % de las comparaciones. Este tipo de tareas van desde la preparación de presentaciones comerciales hasta el análisis financiero básico o la redacción de documentos jurídicos.
OpenAI destaca especialmente las mejoras en el trabajo con hojas de cálculo y presentaciones. En un benchmark interno de modelado financiero, GPT-5.4 logra un 87,3 % de puntuación, frente al 68,4 % de GPT-5.2. Para bancos, aseguradoras o fintech europeas, que manejan modelos complejos en Excel o en herramientas equivalentes, esta diferencia puede marcar el salto entre una herramienta de apoyo y un asistente capaz de realizar tareas de un analista junior con supervisión limitada.
En el ámbito de las presentaciones, evaluadores humanos prefirieron en torno al 68 % de las veces las diapositivas generadas por GPT-5.4 frente a las de su predecesor, tanto por estética como por variedad visual. Ese tipo de mejoras encaja de lleno en el día a día de equipos de ventas, marketing o consultoría en España, donde preparar una presentación clara y bien estructurada puede consumir muchas horas de trabajo.
Menos errores, más fiabilidad en respuestas largas
Uno de los reproches habituales a los modelos anteriores era su tendencia a “alucinar”, es decir, a inventarse datos o mezclar fuentes de forma poco fiable. OpenAI afirma que GPT-5.4 es un 33 % menos propenso a emitir afirmaciones falsas que GPT-5.2, y que sus respuestas completas tienen un 18 % menos de probabilidades de contener errores. Estas cifras, aunque proceden de pruebas internas, apuntan a una IA más adecuada para sectores regulados como el financiero o el sanitario, donde cualquier información incorrecta puede suponer un problema serio.
La combinación de una ventana de contexto mucho más amplia, un modo de razonamiento extendido y la posibilidad de interrumpir el proceso a mitad para corregir el rumbo contribuye a esa mayor fiabilidad. Para un despacho de abogados en Madrid o una consultora en Bruselas, poder revisar el “plan de ataque” del modelo antes de que termine de redactar un informe completo permite detectar desvíos o malos enfoques a tiempo, sin malgastar recursos ni tiempo de revisión posterior.
Programación y rendimiento en benchmarks técnicos
En el terreno del desarrollo de software, GPT-5.4 hereda las capacidades de GPT-5.3-Codex y, según OpenAI, las iguala o supera en pruebas exigentes como SWE-Bench Pro con menor latencia. Las mejoras en puntuación no son espectaculares (hablamos de un salto moderado en el porcentaje de incidencias resueltas), pero la combinación de código, razonamiento y uso de ordenador nativo en un único modelo plantea un escenario interesante: agentes que leen repositorios de código, modifican archivos y prueban cambios en entornos reales, todo dentro del mismo flujo.
Para desarrolladores europeos que integran GPT-5.4 a través de la API, quizá la clave no sea tanto la cifraExacta de un benchmark, sino el hecho de que el modelo resuelva tareas similares usando menos tokens. OpenAI insiste en que GPT-5.4 es su sistema de razonamiento más eficiente en consumo de tokens hasta ahora, lo que significa que puede llegar a la misma conclusión con menos “palabras internas”. Para empresas que pagan por token, esa eficiencia puede compensar con creces el incremento de tarifa por millón de tokens.
Navegación web y búsquedas complejas
Otro terreno donde GPT-5.4 avanza respecto a sus predecesores es la interacción con la web. En benchmarks como BrowseComp, centrados en tareas de búsqueda e investigación online, el nuevo modelo alcanza alrededor del 82,7 %, frente al 65,8 % de GPT-5.2. OpenAI sostiene que GPT-5.4 es especialmente bueno a la hora de identificar información relevante entre grandes cantidades de datos, lo que llaman consultas tipo “aguja en un pajar”.
Para periodistas, analistas de mercado o investigadores europeos, esta capacidad supone poder delegar parte del trabajo de cribado de información en la IA, manteniendo un papel de supervisión y verificación final. El modelo puede rastrear múltiples fuentes, seleccionar las que parecen más fiables y ofrecer un resumen razonado, reduciendo el tiempo dedicado a búsquedas repetitivas.
Precios más altos, pero también más eficiencia
En el apartado económico, GPT-5.4 llega con un incremento de precios respecto a GPT-5.2. El modelo estándar cuesta 2,50 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida, frente a los 1,75 y 14 dólares, respectivamente, de GPT-5.2. La versión GPT-5.4 Pro es bastante más cara: 30 dólares por millón de tokens de entrada y 180 dólares por millón de tokens de salida, cifras claramente orientadas a proyectos empresariales de alto valor añadido.
OpenAI defiende estas tarifas apoyándose en la mayor eficiencia en el consumo de tokens y en la reducción de errores. Si un modelo necesita muchos menos tokens para resolver la misma tarea y además comete menos fallos que requieran corrección manual, el coste total por proyecto puede ser menor incluso con un precio por token más elevado. Para grandes cuentas en Europa, desde bancos sistémicos hasta grandes grupos industriales, el debate ya no se centra tanto en el precio nominal por millón de tokens, sino en el coste global de automatizar procesos con garantías.
Un lanzamiento en medio de polémicas y competencia feroz
GPT-5.4 no aparece en el vacío. Llega en medio de una competencia muy reñida con Anthropic y Google, y en pleno ruido mediático por los acuerdos de OpenAI con el Pentágono. Mientras que Anthropic ha ganado terreno en el segmento empresarial con modelos como Claude Opus 4.6 y un discurso más centrado en la seguridad, Google compite con su familia Gemini y capacidades multimodales avanzadas. En este contexto, GPT-5.4 busca colocarse como modelo de referencia en capacidad agéntica, uso de ordenador y contexto largo.
Al mismo tiempo, el movimiento llega tras campañas como #CancelChatGPT y QuitGPT, que han impulsado a cientos de miles de personas a cancelar sus suscripciones o a anunciar un boicot en redes sociales. La percepción de que OpenAI habría aceptado un contrato militar sin suficientes salvaguardas, mientras Anthropic lo rechazaba, ha erosionado parte del capital reputacional de la compañía. Desde Europa, donde el debate sobre el uso ético de la IA y la regulación avanza con marcos como la futura Ley de IA, estos acuerdos se observan con especial atención.
Costes de infraestructura y presión por la rentabilidad
Detrás de cada nueva versión de GPT hay una realidad menos visible: el coste de operar modelos cada vez más grandes y con ventanas de contexto gigantescas. OpenAI maneja cifras multimillonarias en gasto de infraestructura y computación, con proyecciones de pérdidas abultadas en los próximos años a pesar de un crecimiento notable de ingresos. Un modelo como GPT-5.4, con capacidad de procesar hasta un millón de tokens y modos de razonamiento que pueden extenderse durante horas, exige una potencia de cálculo considerable por solicitud.
Para contener esos costes, la compañía está apostando por hardware propio o especializado y por acuerdos con grandes proveedores de nube. También está segmentando su catálogo en varias gamas (Instant, Thinking, Pro, Codex) para ajustar cuánta potencia destina a cada tipo de petición. La introducción de modos configurables en GPT-5.4, que permiten elegir entre respuestas más rápidas y baratas o análisis más profundos, encaja con este intento de equilibrar capacidad y rentabilidad. En Europa, donde los centros de datos y el consumo eléctrico están bajo lupa regulatoria, este tipo de modelos también reabre el debate sobre el impacto energético de la IA.
Hacia una nueva normalidad: agentes, seguridad y cambios constantes
Más allá de la ficha técnica, GPT-5.4 refuerza una tendencia que ya se venía dibujando: la transición de los chatbots a los agentes autónomos. La combinación de uso nativo del ordenador, contexto largo y herramientas dinámicas apunta a sistemas capaces de gestionar procesos completos con intervención humana puntual. Firmas de análisis prevén que, para finales de 2026, una parte importante de las grandes corporaciones utilicen arquitecturas basadas en agentes de la serie GPT-5.x para tareas críticas, desde la atención al cliente hasta la gestión documental interna.
Ese movimiento viene acompañado de preguntas incómodas sobre seguridad y control. Si un modelo puede trabajar durante horas, consultando datos sensibles y ejecutando acciones en sistemas internos, los mecanismos de supervisión y las barreras de seguridad tienen que ser mucho más robustos. Voces dentro y fuera de la industria, incluida la comunidad investigadora europea, llevan tiempo advirtiendo de que la carrera por lanzar modelos cada vez más potentes no puede ir por delante del desarrollo de salvaguardas efectivas.
Con GPT-5.4, OpenAI intenta demostrar que puede ofrecer más potencia, más autonomía y más eficiencia sin perder de vista la fiabilidad. El modelo mejora en benchmarks, reduce errores, usa menos tokens y es capaz de manejar el ordenador con soltura, pero también llega en medio de dilemas éticos, presión competitiva y dudas sobre la sostenibilidad económica de este ritmo de innovación. Para empresas y profesionales en España y en el resto de Europa, la cuestión ya no es solo si la tecnología es impresionante, sino cómo integrarla de forma responsable en su día a día, con beneficios claros y riesgos asumibles.
Durante años, la idea de usar un móvil Android como si fuera un ordenador ha estado ahí, pero siempre dependía de soluciones propias de cada fabricante. Ahora Google se ha decidido a dar el paso que muchos usuarios avanzados llevaban pidiendo: se integra por fin un modo escritorio de Android real en los Pixel.
Con la última actualización de Android y el Pixel Feature Drop de marzo, los Pixel 8 y modelos posteriores estrenan un entorno de escritorio completo al conectarse a un monitor externo. La experiencia deja de ser un simple espejo de la pantalla del móvil y pasa a parecerse mucho más a lo que encontramos en un PC con Windows, macOS o Linux.
Qué es exactamente el modo escritorio de Android
El concepto es sencillo: al enchufar el teléfono a una pantalla externa compatible, Android deja de mostrar una copia de la interfaz del móvil y activa un escritorio pensado para pantallas grandes. Aparecen una barra de tareas inferior, un área de notificaciones y ajustes rápidos en la parte superior y un sistema de ventanas flotantes que se pueden mover y redimensionar libremente.
Este modo escritorio no es un sistema operativo distinto, sino otra forma de presentar el mismo Android que llevas en el bolsillo. Las aplicaciones que ya tienes instaladas se ejecutan como siempre, pero se adaptan al nuevo formato: funcionan en ventanas independientes, se pueden fijar en el dock para tenerlas a mano y muestran indicadores cuando están abiertas, muy en la línea de lo que vemos en los escritorios tradicionales.
La idea clave es que puedas tener varias apps abiertas a la vez sin la sensación de estar forzando la multitarea móvil. Leer el correo en una ventana, trabajar un documento en otra y mantener un chat abierto al lado deja de ser un apaño y se convierte en una forma de uso natural cuando conectas el móvil a un monitor.
Dispositivos compatibles y requisitos técnicos
De momento, Google ha decidido limitar el modo escritorio a una lista concreta de equipos. La función se estrena en los Pixel 8 y posteriores, lo que incluye tanto modelos estándar como versiones Pro, así como los plegables más recientes de la marca.
Entre los dispositivos anunciados se encuentran Pixel 8 y superiores, Pixel 9 Pro Fold y Pixel 10 Pro Fold, además de Pixel Tablet, que recibe su propia versión de la interfaz de ventanas. En tablets y plegables, el sistema aprovecha mejor las dimensiones de la pantalla para ofrecer una sensación aún más cercana a la de un portátil ligero.
Para que todo esto funcione, el móvil debe soportar DisplayPort sobre USB‑C. Es el estándar que permite enviar la señal de vídeo y audio al monitor a través del mismo puerto de carga. El monitor, por su parte, puede tener entrada USB‑C con DisplayPort o HDMI: en este último caso basta con un adaptador o un cable USB‑C a HDMI de calidad. La resolución máxima actual llega hasta 4K, suficiente para trabajar con comodidad en la mayoría de entornos domésticos y de oficina.
Así se activa el modo escritorio de Android paso a paso
El arranque del modo escritorio es bastante directo, aunque en algunos casos requiere tocar antes un par de ajustes. En los Pixel compatibles, basta con conectar el móvil a un monitor externo usando un cable USB‑C adecuado. Nada más detectar la pantalla, Android muestra una ventana emergente preguntando qué quieres hacer con la conexión.
En ese cuadro de diálogo aparecen dos opciones principales: usar el móvil como si fuera un “Ordenador” (modo escritorio propiamente dicho) o limitarse a proyectar la pantalla como se ha hecho siempre. Al elegir la primera, el sistema deja de duplicar la interfaz del teléfono y lanza automáticamente el entorno de escritorio adaptado a la pantalla grande.
Para completar la configuración es recomendable conectar un teclado y un ratón, normalmente vía Bluetooth. El emparejamiento es el mismo que con cualquier otro accesorio inalámbrico de Android, y una vez enlazados se pueden usar para manejar ventanas, escribir y navegar por la interfaz como si se tratase de un ordenador convencional. También es posible usar periféricos por cable si el monitor actúa como concentrador USB o se recurre a un hub.
La experiencia de uso: Android como sistema operativo de escritorio
Una vez activado, el modo escritorio transforma la forma de trabajar con el dispositivo. Lo primero que se aprecia es un escritorio con barra inferior tipo dock, donde se muestran aplicaciones ancladas y un lanzador para acceder al resto de apps instaladas. En la parte superior, una barra de sistema ofrece la hora, el estado de la batería, la conectividad y el acceso a notificaciones y ajustes rápidos.
Las aplicaciones se abren en ventanas redimensionables y movibles, que pueden colocarse en paralelo, superpuestas o a pantalla completa. Es posible tener, por ejemplo, dos ventanas del navegador una al lado de la otra para consultar documentación mientras se redacta un informe, o mantener un vídeo en una esquina mientras se revisa el correo y se chatea con compañeros de trabajo.
Un detalle interesante es que la pantalla del móvil y la del monitor funcionan de forma independiente. Mientras el escritorio externo muestra varias ventanas, el terminal puede quedarse bloqueado, usar otra app diferente o atender llamadas y mensajes. Esto convierte al Pixel en una especie de centro de control: el móvil sigue siendo móvil, pero al mismo tiempo alimenta un entorno de trabajo más amplio.
En el modo escritorio, las apps de mensajería como WhatsApp, Telegram o X (Twitter) se utilizan en su versión nativa, no como pestañas de navegador. Eso significa notificaciones integradas, funcionamiento en segundo plano y un uso más directo de todas las funciones móviles, desde compartir archivos hasta responder llamadas, sin tener que abrir versiones web o atajos intermedios.
Ventajas y límites actuales de la multitarea
La mayor ganancia de este modo es la productividad. Para tareas de oficina, navegación, gestión de correo o edición ligera de documentos, hojas de cálculo y presentaciones, la potencia de los Pixel recientes es más que suficiente. En escenarios de teletrabajo o trabajo híbrido, poder llegar a un espacio con monitor, teclado y ratón y enchufar solo el móvil simplifica bastante el equipo que hay que transportar.
También hay margen para el ocio. Muchos juegos de Android se pueden disfrutar con ratón y teclado igual que en un PC, y el acceso a servicios de streaming o a aplicaciones de vídeo se hace más cómodo en una pantalla grande. Un editor de imágenes o de vídeo sencillo también puede aprovechar este formato de escritorio para ofrecer una interfaz más despejada y manejable.
Eso no quita que existan limitaciones. Algunas aplicaciones siguen sin estar bien adaptadas a pantallas grandes y mantienen diseños pensados para el formato vertical del móvil. En estos casos, las ventanas pueden verse demasiado estrechas o desaprovechar parte del espacio. Además, gestionar archivos en Android nunca ha sido tan directo como en los sistemas de escritorio clásicos, y aunque hay apps para suplir esa carencia, sigue siendo un punto algo menos pulido.
Activación desde opciones de desarrollador y ajustes finos
En algunos Pixel, sobre todo en las primeras fases de despliegue, es necesario tocar las opciones de desarrollador para desbloquear funciones de escritorio. El procedimiento habitual pasa por activar primero el menú de desarrollo en los ajustes de Android y, después, habilitar específicamente los modos experimentales de escritorio.
Tras activar esa opción, el sistema suele solicitar un reinicio. Al volver a encenderse, Android queda ya preparado para ofrecer el modo escritorio en cuanto detecta un monitor compatible. A partir de ahí, cada vez que enchufes el cable aparecerá la elección entre proyectar la pantalla o usar el dispositivo como “ordenador”, lo que facilita alternar entre un comportamiento y otro según lo que necesites en cada momento.
Una vez dentro del escritorio, la barra de tareas permite fijar aplicaciones, acceder a todas las apps abiertas mediante un botón específico y cambiar rápidamente entre ellas. Se mantiene, además, el sistema clásico de navegación de Android: es posible utilizar los tres botones tradicionales o el control por gestos, aunque con ratón y teclado lo habitual es moverse principalmente con el cursor.
Android 16 QPR3: la pieza técnica que hace posible el salto
El lanzamiento del modo escritorio se apoya en la actualización Android 16 QPR3, uno de los cambios de mayor calado de los últimos años en el ecosistema de Google. Esta versión no solo introduce mejoras visuales y pequeños ajustes, sino que incorpora por primera vez un modo de escritorio nativo perfectamente integrado en el sistema.
Dentro de Android 16 QPR3, el escritorio se activa al conectar el dispositivo a un monitor mediante USB tipo C con soporte DisplayPort, y abre un entorno multiventana con barra de tareas y apps ancladas. La actualización también mejora la independencia entre pantallas: mientras el monitor muestra el escritorio, el móvil puede seguir usándose para otras cosas, algo especialmente útil si llega una llamada o un mensaje urgente.
La misma base técnica se despliega en tablets y plegables, donde el sistema puede extender el escritorio entre varias superficies y crear espacios de trabajo continuos. Google ha trabajado en este terreno junto a Samsung para unificar la gestión de ventanas y garantizar que el comportamiento sea coherente en todo el ecosistema Android, independientemente de la marca o del formato del dispositivo.
Productividad y teletrabajo: ¿puede el móvil sustituir al portátil?
La pregunta que sobrevuelan muchas de estas novedades es clara: ¿puede un Pixel sustituir por completo a un portátil? La respuesta depende mucho del tipo de trabajo. Para tareas de ofimática, navegación, videollamadas, gestión del correo, redes sociales y cierto nivel de edición ligera, la combinación de modo escritorio, potencia de los SoC actuales y buena conexión a internet puede cubrir sin problemas la jornada de muchos usuarios.
En el contexto europeo, donde el teletrabajo y los modelos híbridos se han asentado con fuerza desde la pandemia, tener un único dispositivo que sirva tanto de teléfono como de estación de trabajo puede resultar atractivo. Para quien se mueve entre domicilio, oficina y espacios compartidos, llevar solo el móvil en el bolsillo y encontrar en destino monitor, teclado y ratón simplifica bastante el equipaje.
Dicho esto, hay ámbitos en los que un portátil tradicional sigue teniendo ventaja: desarrollo de software pesado, edición de vídeo profesional, tratamiento de imágenes de alta resolución o uso de herramientas muy específicas que aún no tienen equivalente real en Android. El modo escritorio no viene a jubilar el PC de golpe, pero sí a abrir la puerta a que el móvil cubra cada vez más escenarios en los que antes era impensable trabajar con comodidad.
Un cambio de mentalidad para usuarios y desarrolladores
Usar Android en formato escritorio implica un pequeño ajuste de mentalidad. De repente, el icono de WhatsApp ya no es solo algo que consultas de vez en cuando en el móvil, sino una ventana más en tu escritorio donde entran mensajes mientras escribes un documento o navegas. La forma de organizarse cambia: se tiende a dejar apps abiertas en segundo plano como se hace en un PC, en lugar de cerrarlas constantemente.
En el lado de los desarrolladores, el reto es mayor. Para que el escritorio de Android tenga sentido, las apps deben adaptarse bien a ventanas redimensionables, atajos de teclado y uso con ratón. Google lleva tiempo empujando en esa dirección, sobre todo desde el auge de las tablets y los plegables, pero el modo escritorio pone aún más presión para que la experiencia en pantallas grandes deje de ser un añadido menor y pase a ser una prioridad.
Android 17 profundiza en esta idea: cuando una aplicación apunta al nuevo SDK, el sistema limita la posibilidad de bloquear orientación o tamaño de ventana en pantallas amplias. El objetivo es que, si arrastras una app a un entorno tipo escritorio o la usas en un plegable desplegado, la interfaz aproveche el espacio de forma adecuada y no se quede anclada a un formato pensado únicamente para móviles pequeños.
Un paso más hacia la convergencia con ChromeOS
El movimiento de Google con el modo escritorio no parece aislado. Desde hace tiempo se habla internamente de aproximar Android y ChromeOS para crear una plataforma única capaz de escalar desde móviles hasta ordenadores portátiles. En este contexto, disponer de una interfaz de escritorio sólida en los Pixel es una pieza importante del puzle.
La idea de una especie de sistema unificado, capaz de funcionar igual de bien en un teléfono, una tablet, un plegable o un portátil, encaja con la estrategia de competir frente a ecosistemas muy cerrados como el de Apple. Mientras se pulen los detalles, el modo escritorio actual sirve de banco de pruebas: permite a Google comprobar qué funciona, qué falta por mejorar y cómo responden usuarios y desarrolladores a esta nueva forma de usar Android.
Aunque todavía quedan flecos por pulir —algunos comportamientos extraños del teclado en pantalla, una gestión de ventanas que podría ser más intuitiva o la falta de optimización de ciertas apps—, el primer despliegue oficial del modo escritorio marca un cambio de etapa en la relación entre móvil y ordenador. No es solo un añadido curioso: es una declaración de intenciones sobre hacia dónde quiere ir Android en los próximos años.
Con el modo escritorio ya activado en los Pixel 8 y posteriores, Android se acerca a ese escenario en el que el mismo dispositivo que usamos para llamar, chatear y hacer fotos puede convertirse, con un simple cable y un par de periféricos, en el centro de un puesto de trabajo completo; una función que, sin hacer ruido excesivo en la comunicación oficial, tiene potencial para cambiar la forma en la que entendemos el papel del móvil en el día a día.
La última gran apuesta de OpenAI para su asistente conversacional ya está en marcha: GPT-5.3 Instant se ha convertido en el nuevo modelo por defecto para la mayoría de interacciones diarias en ChatGPT. La compañía no lo presenta como una revolución técnica, sino como un ajuste fino centrado en lo que los usuarios notan de verdad: menos trabas, menos rodeos y respuestas más útiles a la primera.
Este relevo llega tras meses de críticas al comportamiento de GPT-5.2 Instant, percibido como excesivamente cauteloso, moralizante o incluso condescendiente en ciertos contextos. Con GPT-5.3 Instant, OpenAI promete un asistente que mantenga las barreras de seguridad, pero que evite convertir cada consulta inofensiva en una negociación sobre políticas o salud mental, algo que había generado bastante desgaste entre usuarios intensivos, también en Europa.
Un despliegue global que apunta al uso diario
Según la propia compañía, GPT-5.3 Instant ya está activo para todos los usuarios de ChatGPT y disponible para desarrolladores a través de la API bajo el identificador gpt-5.3-chat-latest. Esto significa que tanto particulares como empresas europeas que integran la tecnología en sus servicios SaaS, herramientas internas o asistentes de atención al cliente ya pueden apoyarse en el nuevo modelo sin cambios de arquitectura profundos.
OpenAI subraya que esta versión es el modelo “más usado” dentro de su ecosistema, el que se encarga de la mayoría de conversaciones rápidas y tareas cotidianas. Por eso el foco no está tanto en nuevas funciones exóticas, sino en pulir el tono, la relevancia de las respuestas y el flujo de la interacción: que la conversación fluya sin callejones sin salida ni interrupciones innecesarias.
Para facilitar la transición en entornos de producción, los suscriptores de pago mantendrán acceso a GPT-5.2 Instant durante aproximadamente tres meses, etiquetado como modelo legado. La compañía ya ha fijado una fecha de corte clara: el modelo anterior se eliminará de los servidores el 3 de junio de 2026, un calendario que obliga a equipos europeos con integraciones críticas a programar migraciones y pruebas con cierto margen.
Menos negativas absurdas y menos sermones
Uno de los cambios que más se van a notar en el día a día tiene que ver con cómo decide el sistema decir “no”. Hasta ahora, GPT-5.2 Instant tendía a rechazar peticiones que sí podía atender sin riesgos reales, o se lanzaba a largos preámbulos sobre normas, límites o advertencias morales antes de entrar en materia. Eso, en la práctica, rompía el ritmo de lectura y hacía que muchas consultas acabasen en frustración.
Con la nueva versión, OpenAI asegura que GPT-5.3 Instant reduce de manera significativa las negativas innecesarias y recorta los discursos defensivos previos a la respuesta. El objetivo es que, cuando la pregunta sea segura y legítima, el modelo vaya directo al problema: formule hipótesis, pida parámetros si hace falta y ofrezca la información sin decorar cada mensaje con recordatorios genéricos.
La compañía insiste en que esto no implica levantar las protecciones en temas sensibles. Más bien se trata de ajustar el criterio para evitar bloqueos absurdos o respuestas que parecen tratar al usuario como alguien incapaz de manejar información básica. En consultas de carácter técnico, legal o financiero —muy habituales entre profesionales europeos que usan ChatGPT en su trabajo—, ese cambio de tono puede marcar la diferencia entre una herramienta útil y una experiencia que agota.
Adiós al “cringe”: un tono menos condescendiente
Además de reducir los rechazos, OpenAI ha puesto el foco en el estilo con el que se expresan las respuestas. El propio laboratorio reconoce que ciertas fórmulas de GPT-5.2 Instant —tipo “tómate un respiro” o “no estás roto”— se habían vuelto irritantes para muchos usuarios, especialmente cuando aparecían en preguntas puramente informativas o técnicas donde nadie pedía apoyo emocional.
Con GPT-5.3 Instant, la empresa quiere recortar ese componente de “cringe” y los disclaimers sermoneadores que daban la impresión de un asistente paternalista. La idea es que, si una situación realmente apunta a un problema de salud mental o a un posible riesgo, el modelo pueda modular el tono y mostrar cautela; pero que esa capa empática deje de activarse por defecto en cada petición rutinaria.
En ejemplos internos compartidos por OpenAI, la diferencia se ve con claridad: allí donde antes la respuesta arrancaba con frases tranquilizadoras que muchos percibían fuera de lugar, el nuevo modelo reconoce que un contexto puede ser difícil, pero evita ponerse en modo terapeuta sin que nadie lo haya pedido. En entornos como el financiero, el cripto o el de mercados bursátiles —muy activos también en la UE—, este cambio encaja mejor con lo que el usuario espera: datos, contexto y análisis, no un discurso motivacional.
Uso de la web más inteligente: menos listas, más contexto
Otro de los grandes frentes de la actualización está en cómo GPT-5.3 Instant se relaciona con internet cuando necesita información reciente. Hasta ahora, los modelos de la casa podían caer en respuestas tipo “lista de enlaces” o resúmenes poco conectados, limitándose a calcar resultados de búsqueda sin aportar demasiada estructura.
OpenAI afirma que el nuevo modelo logra un equilibrio más afinado entre lo que encuentra en la web y su propio conocimiento preentrenado. En lugar de volcar párrafos inconexos procedentes de distintas fuentes, GPT-5.3 Instant intenta identificar la intención de la pregunta, seleccionar lo relevante y tejer una explicación con criterio, incorporando contexto previo cuando procede.
Esto es especialmente relevante para usuarios europeos que ya utilizan ChatGPT como una especie de “meta buscador” para temas de actualidad, regulación o cambios normativos. En lugar de obligarles a navegar entre pestañas y titulares, el modelo sintetiza las ideas principales y las encaja en un relato más coherente, lo que puede ahorrar tiempo tanto en trabajos de análisis como en tareas académicas o periodísticas.
Menos alucinaciones: cifras concretas de mejora
La precisión factual sigue siendo uno de los talones de Aquiles de cualquier modelo de lenguaje. OpenAI sostiene que, en GPT-5.3 Instant, este punto mejora de forma medible dentro y fuera de la web, con resultados que interesan especialmente a profesionales de sectores regulados en Europa como el legal, el sanitario o el financiero.
Según las evaluaciones internas del laboratorio, en dominios de alto riesgo el nuevo modelo reduce las alucinaciones un 26,8% cuando se apoya en búsqueda en internet, y un 19,7% cuando opera solo con su propia base de conocimientos, siempre en comparación con su predecesor directo. Son cifras que no eliminan la necesidad de contrastar información crítica, pero sí apuntan a un descenso apreciable de errores graves.
OpenAI también emplea un segundo tipo de evaluación, basada en diálogos desidentificados de ChatGPT que los usuarios marcaron como incorrectos. En ese conjunto, particularmente exigente, la compañía reporta caídas adicionales en las tasas de alucinación, tanto con acceso web como sin él. Todo este trabajo se recoge en una System Card específica para GPT-5.3 Instant, donde se detallan los procedimientos de pruebas y mitigación de riesgos.
Escritura más rica y versátil
Más allá de la precisión, GPT-5.3 Instant quiere ser un mejor compañero de redacción. OpenAI describe un modelo capaz de generar textos con mayor textura, rango emocional y control estructural, tanto en registros formales como en estilos más creativos. La idea es que pueda saltar con soltura de un informe técnico a un relato imaginativo, manteniendo coherencia y claridad.
En demostraciones internas se comparan poemas y fragmentos de prosa generados por GPT-5.2 y GPT-5.3, donde el nuevo modelo ofrece imágenes más concretas y menos fórmulas abstractas. Para profesionales de comunicación, equipos de marketing o periodistas en España y el resto de Europa, esto se traduce en un asistente que ayuda mejor a pulir textos, adaptar tonos o reescribir borradores sin perder el control sobre el mensaje de fondo.
La compañía señala además que se ha trabajado en suavizar la tendencia a las grandes proclamaciones o a los cierres grandilocuentes, algo que muchos usuarios consideraban poco natural. El objetivo pasa por un estilo más estable y sobrio, que no robe protagonismo al contenido que el usuario quiere transmitir.
Limitaciones actuales y margen de mejora en otros idiomas
Pese a los avances, OpenAI reconoce que GPT-5.3 Instant sigue rindiendo mejor en inglés que en otros idiomas. En lenguas como el japonés o el coreano, la compañía admite que las respuestas pueden sonar rígidas o excesivamente literales, con giros poco naturales en la conversación.
En el caso del español, el modelo ya resulta bastante funcional para usuarios de España y América Latina, pero todavía puede mostrar cierta rigidez en expresiones coloquiales o registros muy específicos. El laboratorio asegura que la naturalidad multilingüe es una prioridad en futuras revisiones, y que seguirá ajustando los datos y las guías de estilo para mejorar el resultado en distintos contextos culturales.
Otro punto que OpenAI mantiene sobre la mesa es la personalización del tono. GPT-5.3 Instant debería sonar más neutro y menos intrusivo por defecto, pero la empresa continúa ampliando las opciones para que cada persona ajuste el grado de calidez, entusiasmo o formalidad a su gusto, lo que puede ser especialmente útil en entornos corporativos europeos donde las expectativas de estilo cambian mucho de un sector a otro.
Relación con la familia GPT-5.3 y otros modelos
GPT-5.3 Instant no llega solo. Forma parte de una familia más amplia de modelos 5.3, entre los que aparecen variantes especializadas como GPT-5.3-Codex y GPT-5.3-Codex-Spark, enfocadas al desarrollo de software y a la programación en tiempo real. Aunque estas versiones siguen su propia hoja de ruta, OpenAI subraya que la experiencia recogida con el modelo Instant influye en el ajuste general de tono y comportamiento.
En el anuncio oficial se adelanta también que las versiones GPT-5.3 Thinking y GPT-5.3 Pro recibirán actualizaciones en la misma línea en fechas próximas. Para empresas tecnológicas europeas, esto implica un ecosistema donde distintos modelos comparten una base de comportamiento más consistente, facilitando tanto la integración como la formación de empleados que trabajan a diario con varias variantes de ChatGPT.
Por ahora, el enfoque es claro: GPT-5.3 Instant se queda con el rol de asistente rápido, de baja latencia y orientación general, mientras que otros modelos de la serie 5.3 cubrirán casos de uso más intensivos en razonamiento profundo o programación avanzada. Esta segmentación permite elegir el modelo según la tarea concreta, optimizando costes y rendimiento en proyectos que van desde chatbots de soporte hasta herramientas internas de análisis.
Impacto para usuarios y empresas en España y Europa
En el contexto europeo, donde el marco regulatorio sobre IA se está endureciendo y el AI Act avanza en su aplicación, los ajustes introducidos por GPT-5.3 Instant pueden tener implicaciones prácticas. Menos alucinaciones, un tono más contenido y un uso de la web mejor estructurado facilitan que empresas y administraciones públicas evalúen riesgos y definan políticas de uso interno.
Para startups y pymes tecnológicas de España, el nuevo modelo abre margen para construir asistentes de soporte, herramientas de documentación y flujos de trabajo con menor fricción, manteniendo al mismo tiempo un control razonable sobre reputación y cumplimiento normativo. La promesa de menos bloqueos y menos sermones ayuda a que la IA se perciba más como una herramienta de productividad y menos como un filtro paternalista.
Aun así, OpenAI y los propios medios especializados recuerdan que el sistema no es infalible. Validar información crítica, especialmente en campos regulados, sigue siendo imprescindible, y no conviene delegar decisiones de alto impacto en un modelo estadístico por afinado que esté. En este punto, los responsables de producto en Europa deberán equilibrar las ganancias de eficiencia con protocolos claros de supervisión humana.
Con GPT-5.3 Instant, OpenAI intenta afinar un equilibrio complicado: mantener salvaguardas de seguridad y cierta empatía cuando hace falta, sin convertir cada diálogo en un cruce de advertencias, ni caer en un tono que muchos usuarios percibían como condescendiente. Al mismo tiempo, la mejora en síntesis web, la reducción medible de alucinaciones y el salto en calidad de escritura sitúan al modelo como una herramienta algo más fiable para el trabajo cotidiano, tanto para particulares como para empresas en España y el resto de Europa.
Google ha movido ficha de nuevo en la carrera por la inteligencia artificial avanzada con el lanzamiento de Gemini 3.1 Pro, una revisión aparentemente menor por el número de versión, pero que en la práctica supone un salto muy notable frente al anterior Gemini 3 Pro. Aunque la industria está acostumbrada a encadenar anuncios a toda velocidad, este movimiento de la compañía está llamando la atención por el tamaño de la mejora en razonamiento y la forma en que se integra en todo su ecosistema de servicios.
Esta nueva iteración llega como modelo de referencia dentro de la familia Gemini y ya se está desplegando a escala global, tanto para usuarios particulares como para desarrolladores y empresas. Más que un simple cambio de nombre, se trata de una evolución orientada a resolver tareas donde una respuesta rápida y superficial no sirve: problemas científicos, análisis complejos, programación avanzada o proyectos creativos que exigen varios pasos encadenados.
Un salto de razonamiento que no encaja con un simple “.1”
Lo llamativo de Gemini 3.1 Pro es que, pese a ser una actualización etiquetada como intermedia, los datos que ha compartido Google muestran un avance que antes se reservaba a cambios de generación completa. En el exigente benchmark ARC-AGI-2, diseñado para comprobar si un modelo es capaz de resolver patrones lógicos completamente nuevos, sin haberlos visto durante el entrenamiento, la nueva versión alcanza un 77,1% de aciertos.
La mejora respecto al modelo previo es drástica: Gemini 3 Pro se quedaba en torno al 31% en ARC-AGI-2, lo que significa que el rendimiento de razonamiento abstracto prácticamente se ha multiplicado por dos y medio. Este resultado coloca a Gemini 3.1 Pro por encima de referentes como Claude Sonnet 4.6 u Opus 4.6, y por delante de lo mejor de OpenAI en este tipo de pruebas, marcando un punto de inflexión en cómo la IA afronta problemas que no puede resolver a base de memoria.
Google explica que este salto se debe, en gran parte, a que ha trasladado los avances de su modelo especializado Gemini 3 Deep Think —centrado en tareas científicas y de investigación especialmente complejas— a un motor más generalista como 3.1 Pro. Deep Think sigue rindiendo aún mejor en ARC-AGI-2, rondando el 85%, pero su coste computacional es mayor. Con 3.1 Pro, la compañía intenta cuadrar el círculo: ofrecer un equilibrio más razonable entre potencia y eficiencia para el uso diario.
En otros test clave también hay señales de mejora. Según los resultados publicados, la media global de rendimiento frente a Gemini 3 Pro crece alrededor de un 21%, y la ventaja frente al modelo estrella de OpenAI (GPT‑5.2) se situaría en torno al 16% en el conjunto de benchmarks comparables. El foco está puesto claramente en aquello que más suele fallar cuando el problema deja de ser trivial: razonamiento estructurado, planificación con varios pasos, agentes autónomos y código competitivo.
Ahora bien, el modelo no arrasa en absolutamente todo. En MMLU, el clásico benchmark de conocimiento tipo “enciclopedia”, la mejora es mínima, y en pruebas concretas como MMMU incluso cede una décima frente a 3 Pro. También hay apartados, como ciertas tareas en entornos laborales reales (GDPval) o programación con interacción intensiva en terminal, donde rivales como Claude u OpenAI mantienen ventaja. Aun así, en la foto global el balance favorece claramente a la nueva propuesta de Google.
Benchmarks donde Gemini 3.1 Pro se pone a la cabeza
Más allá de ARC-AGI-2, Google y evaluadores externos han ido desgranando cómo se comporta Gemini 3.1 Pro en otros escenarios de prueba. En Humanity’s Last Exam sin uso de herramientas externas, el modelo se sitúa en primera posición con un 44,4%, y en variantes de la misma prueba con diferente metodología llega a rozar el 51,4%, por encima de GPT‑5.2 y de las últimas versiones de Claude.
Si nos movemos al terreno científico, el nuevo Gemini también se coloca en lo alto de la tabla. En GPQA Diamond, un benchmark muy estricto centrado en preguntas avanzadas de ciencia, obtiene un 94,3%, señal de que maneja con soltura explicaciones técnicas complejas. Para quienes trabajan en investigación, ingeniería o sectores altamente regulados, esta capacidad de sostener un razonamiento científico más riguroso es uno de los puntos que marcan realmente la diferencia.
El apartado de programación es otro de los focos de mejora. En LiveCodeBench Pro, una prueba orientada a código competitivo, Gemini 3.1 Pro alcanza un Elo de 2.887, por encima tanto del anterior Gemini 3 Pro como de GPT‑5.2. En SWE-Bench Verified, que simula correcciones reales sobre repositorios de GitHub, el nuevo modelo se mueve en torno al 80,6%, prácticamente empatado con Opus 4.6. Es decir, ya no se limita a escribir funciones sencillas: se defiende en tareas de mantenimiento de software complejo.
Las pruebas ligadas a agentes, donde el modelo debe ejecutar cadenas de acciones con autonomía, también muestran un salto importante. En APEX‑Agents, centrado en tareas de largo recorrido, pasa de un 18,4% a alrededor de un 33,5%, lo que supone un incremento relativo de más del 80%. Cuando hablamos de MCP Atlas, enfocado en flujos de trabajo con varios pasos, y en BrowseComp, donde tiene que navegar por la web, buscar información y ejecutar código Python, los resultados se disparan hasta un 69,2% y un 85,9% respectivamente, muy por encima de la generación anterior.
En el ámbito multimodal, el modelo también presenta mejoras destacables. En MMMLU —preguntas y respuestas multilingües— ronda el 92,6%, una cifra que confirma que la IA entiende y razona en múltiples idiomas con bastante solvencia, algo especialmente relevante para mercados europeos donde la diversidad lingüística es la norma. No obstante, en otros test multimodales más finos, como MMMU, el avance es más contenido y, en algún caso concreto, el sucesor queda ligeramente por detrás del predecesor.
Conviene recordar, en cualquier caso, que los benchmarks son solo una foto parcial. Sirven para comparar modelos en igualdad de condiciones, pero no reflejan al cien por cien cómo se comportan en casos de uso reales, con datos sucios, contextos ambiguos o usuarios que mezclan varios objetivos en la misma conversación. Google, como el resto de compañías, tiende a destacar las métricas que le son más favorables, por lo que siempre es buena idea comprobar el modelo con tareas propias antes de sacar conclusiones definitivas.
Más allá del chat: paneles en vivo, SVG animados y código funcional
Uno de los cambios de enfoque más claros de Gemini 3.1 Pro está en el tipo de salida que Google quiere priorizar. La compañía insiste en que la meta ya no es solo tener una IA que “hable” bien en un chat, sino un motor capaz de generar resultados funcionales: código listo para producción, flujos de trabajo automatizados o visualizaciones complejas de datos.
Entre los ejemplos que ha mostrado la firma hay uno especialmente representativo: la creación de un panel aeroespacial en tiempo real que muestra la órbita de la Estación Espacial Internacional a partir de telemetría pública. En este tipo de demostraciones, el modelo no se limita a explicar lo que habría que hacer, sino que configura la ingesta de datos, genera la lógica del dashboard y produce el código necesario para visualizarlo.
También se ha puesto mucho énfasis en la capacidad del modelo para generar animaciones en formato SVG a partir de texto. En lugar de vídeos o imágenes en mapa de bits, 3.1 Pro devuelve código vectorial que se puede incrustar directamente en una web o una aplicación, manteniendo nitidez a cualquier escala y consumiendo muchos menos recursos. Esto abre la puerta a gráficos interactivos, efectos visuales personalizados o interfaces dinámicas sin depender tanto de herramientas de diseño tradicionales.
En el terreno creativo, Google ha enseñado casos donde el modelo traduce descripciones abstractas en código funcional, y en herramientas como su editor de imágenes se exploran flujos donde el resultado es directamente utilizable por diseñadores y desarrolladores. Por ejemplo, tomar el “ambiente” de una novela clásica y convertirlo en un diseño web coherente con esa atmósfera, o generar simulaciones 3D complejas —como una bandada de estorninos— que el usuario puede manipular con sus manos mediante sistemas de seguimiento. La clave no está solo en escribir código, sino en entender la intención o el “vibe” del usuario y reflejarlo en el resultado.
Para desarrolladores europeos, esta orientación hacia outputs accionables puede resultar especialmente útil en proyectos donde el tiempo es limitado y se necesita pasar rápido de un boceto a un prototipo que ya compila, se despliega y se integra con otros servicios. Algunas empresas que han probado la versión preliminar hablan de menos bloqueos en tareas largas y menor necesidad de reescribir instrucciones una y otra vez para lograr lo que quieren.
Integración con el ecosistema de Google: la gran baza competitiva
Más allá de los números, la ventaja estructural de Google no está solo en que Gemini 3.1 Pro sea muy potente, sino en que ya vive dentro de los productos que millones de personas usan a diario. A diferencia de otras compañías que dependen de que el usuario abra una app específica —ChatGPT, Claude y compañía—, Google se beneficia de tener los principales puntos de entrada a Internet: Search, Gmail, YouTube, Android, Docs, Drive, Google Fotos o Maps, entre muchos otros.
La compañía está utilizando esta posición para ir integrando su nuevo modelo en servicios conocidos como Chrome sin que el usuario tenga que cambiar de hábitos. En la aplicación de Gemini para móviles, accesible en España y otros países europeos, 3.1 Pro se convierte en el motor por defecto para quienes cuentan con suscripción a los planes Google AI Plus, Pro o Ultra, mientras que en el plan gratuito se puede probar con ciertas limitaciones de uso.
También se está desplegando en NotebookLM, la herramienta de Google para resumir y trabajar con documentos largos, donde el nuevo motor promete mejores síntesis y menos errores al tratar grandes volúmenes de texto. En el ámbito empresarial, 3.1 Pro se ofrece mediante Vertex AI y Gemini Enterprise, de forma que las organizaciones pueden conectarlo a sus propios datos dentro de los perímetros de seguridad y cumplimiento habituales de Google Cloud.
Esta integración con el ecosistema supone un “foso defensivo” complicado de replicar para startups de IA puras. Aunque un modelo rival sea ligeramente mejor en algún benchmark concreto, la realidad es que Google no necesita convencer al usuario para que instale nada nuevo: la IA aparece en productos que ya están en su móvil, su navegador o su correo. Desde el punto de vista estratégico, es un factor que pesa tanto como los porcentajes de las tablas de rendimiento.
La incógnita a medio plazo está en cómo monetizar de forma sostenible esta inteligencia integrada sin deteriorar la experiencia de búsqueda, ofimática o vídeo. Por ahora, la compañía parece apostar por paquetes de suscripción que combinan acceso preferente a la IA con almacenamiento y ventajas en sus servicios, una fórmula que, al menos en precio, resulta difícil de igualar para actores que no tienen un ecosistema tan amplio detrás.
Dónde y cómo se puede usar Gemini 3.1 Pro
En el plano práctico, Gemini 3.1 Pro ya está disponible en versión preliminar en distintos canales. Los usuarios finales pueden acceder a través de la aplicación de Gemini y de NotebookLM, con límites de uso más generosos para suscriptores de los planes de pago. En España, la app se integra en Android como asistente principal en los teléfonos compatibles, y también es accesible desde la web.
Los desarrolladores disponen del modelo mediante la API de Gemini en Google AI Studio, la CLI oficial y entornos de desarrollo como Android Studio. Desde ahí se pueden construir asistentes, agentes especializados, herramientas de soporte técnico o integraciones personalizadas con aplicaciones web y móviles. La idea es que, con el mismo endpoint de siempre, se obtenga ahora un razonamiento mucho más sólido.
Las empresas y organizaciones europeas que ya trabajan sobre Google Cloud pueden consumir Gemini 3.1 Pro a través de Vertex AI y Gemini Enterprise. Esto permite conectar el modelo con datos propios para resumir documentación corporativa, automatizar procesos internos, crear chatbots avanzados para atención al cliente o analizar grandes bases de datos con preguntas en lenguaje natural, manteniendo controles de seguridad, auditoría y privacidad adaptados al entorno empresarial.
En todos los casos, Google insiste en que el modelo sigue en fase “preview”, lo que implica que algunas funciones están aún en rodaje y podrían ajustarse con el tiempo. No obstante, el despliegue es suficientemente amplio como para que tanto usuarios domésticos como profesionales en Europa puedan empezar a probarlo sin necesidad de esperar a un lanzamiento “definitivo”.
En el ámbito educativo y académico, el acceso vía aplicación y NotebookLM abre posibilidades interesantes: estudiantes y docentes pueden utilizar 3.1 Pro para resumir textos largos, preparar materiales, generar ejemplos prácticos o revisar código, siempre con la precaución habitual de comprobar los datos más sensibles antes de darlos por buenos.
Precios de la API y estrategia de valor
Un punto que ha generado bastante debate entre desarrolladores es el modelo de precios de Gemini 3.1 Pro. Google ha decidido mantener, en esencia, la misma estructura de tarifas que ya tenía Gemini 3 Pro para la API, lo que implica que el “upgrade” de rendimiento llega sin coste adicional directo para quienes ya trabajaban con la versión anterior.
En la tabla de precios de Google Cloud se indica que, para prompts de hasta 200.000 tokens de contexto, el coste de entrada se mantiene alrededor de los 2 dólares por millón de tokens, y el de salida crece hasta los 12 dólares por millón. Por encima de ese umbral de contexto, las tarifas suben, en torno a 4 dólares por millón de tokens de entrada y 18 dólares por millón de salida, cifras en línea con lo que ya veíamos en 3 Pro.
Adicionalmente, Google ofrece context caching, una función que permite reutilizar contextos largos a un precio reducido (del orden de 0,20 a 0,40 dólares por millón de tokens cacheados, más una tarifa de almacenamiento por hora), lo que puede abaratar notablemente proyectos con prompts muy extensos que se repiten. También se incluye un cupo mensual gratuito de consultas con búsqueda integrada (Search Grounding), a partir del cual las peticiones se facturan por bloques de mil.
Para muchas startups y pymes europeas que ya están ajustando al céntimo sus costes de computación, que el nuevo modelo ofrezca prácticamente el doble de capacidad de razonamiento por el mismo precio supone una mejora directa del margen. En otras palabras, el “razonamiento por euro invertido” sale más barato, algo clave si la IA está en el corazón del producto.
En el caso de los usuarios finales, el enfoque pasa más por paquetes de suscripción que agrupan acceso premium a la IA con almacenamiento adicional y ventajas en servicios de Google. No todos los detalles de estos paquetes son idénticos en todos los países europeos, pero en general la idea es que, por una cuota mensual moderada, se pueda acceder a Gemini 3.1 Pro sin toparse enseguida con límites de uso estrictos.
Con todo lo anterior sobre la mesa, Gemini 3.1 Pro se perfila como un paso especialmente relevante en la evolución de la IA de Google: ofrece un salto inusual en razonamiento lógico para ser una actualización “.1”, se impone en varios benchmarks clave, mantiene un precio competitivo para desarrolladores y se apoya en un ecosistema de servicios ya masivo en España y el resto de Europa; no lo convierte en una herramienta perfecta ni resuelve todos los retos de la inteligencia artificial, pero sí refuerza la sensación de que la próxima batalla importante no se librará tanto en quién tiene más parámetros, sino en quién consigue que sus modelos piensen mejor y se integren de forma útil en la vida cotidiana y en el trabajo.
Ya tenemos disponible una nueva versión de desarrollo, que no hay que confundir con las estables. Dos semanas después de la anterior, ya tenemos aquí WINE 11.3, uno de esos lanzamientos que llegan cada dos semanas aproximadamente y que preparan el lanzamiento del próximo año. Entre lo destacado, el motor Mono se ha actualizado a la versión 11.0.0, y es un componente importante porque de él depende que los programas basados en .NET funcionen en sistemas que no son Windows.
El resto de destacados lo completa que el vkd3d incluido ha subido a la versión 1.19, se ha mejorado el filtro FIR en DirectSound, se han realizado más optimizaciones en la carga de PDB y el tema claro ha cambiado su nombre a Aero para compatibilidad, a lo que se le sume el habitual punto de varias correcciones de errores. En números, se han corregido 30 bugs, los de la siguiente lista, y realizado un total de 233 cambios.
Bugs corregidos en WINE 11.3
42Tags (.NET app) no se inicia (System.Globalization.CultureNotFoundException: Culture ID 0 (0x0000) no es una cultura compatible.).
Los procesos pueden finalizar con un código de salida incorrecto debido a una condición de carrera cuando los hilos se terminan durante el apagado.
Varias aplicaciones (Vavoo Webinstaller, Kodi) fallan con la versión de Windows configurada en Win7: wmic.exe necesita soporte para el modificador «/?».
No se puede ejecutar la herramienta de copias de seguridad zools en Wine.
ExtractNow: los botones no hacen nada / no funcionan (requiere comctl32 versión 6).
El lanzador de War Thunder no renderiza nada, solo repite mensajes de stub d2d_geometry_sink_AddArc.
zdaemon: el programa se congela si se usan teclado y ratón al mismo tiempo.
Adobe Audition 2020 se bloquea al iniciar, mostrando ‘Direct2D Drawbot error’ (d2d_device_context_Flush es un stub).
fusion:asmcache – las llamadas de 32 bits a InstallAssembly(…, NULL) se bloquean en Windows 11.
fusion:asmenum – test_enumerate() falla en Windows 11.
Las pruebas de winscard no se ejecutan en la CI de GitLab.
msys2-64/cygwin64: rsync falla con ‘Socket operation on non-socket’.
D2D1GeometrySink::AddArc() no marca correctamente el final del segmento de la figura.
Muchos juegos gestionan mal el foco al volver con Alt+Tab, sin UseTakeFocus=N.
Rainmeter 4.5.23 se bloquea en X11 tras actualizar el skin predeterminado Clock.ini.
doaxvv (DMM) se bloquea ocasionalmente (error en la reproducción WMV).
QuarkXPress 2024 se bloquea al iniciar con «System.InvalidOperationException: The calling thread must be STA».
winhlp / winhelp32: al seleccionar «Edit > Copy» en el archivo de ayuda de Westwood Monopoly (1995) se produce un bloqueo.
Flight Simulator 2000 presenta parpadeos y problemas de rendimiento al renderizar el mundo 3D con un panel de instrumentos 2D en modo ventana.
El portapapeles RTF lee una cadena elegida aleatoriamente (regresión desde Wine 10).
Sysinternals TCPView se bloquea por la función no implementada IPHLPAPI.DLL.GetOwnerModuleFromTcpEntry.
Guild Wars 2 se bloquea con Wine 11.1 y Winewayland habilitado junto con compilaciones de desarrollo de DXVK (posteriores al 23 de enero).
Gdiplus LockBits() con flags=0 tiene un comportamiento diferente al de la implementación de Microsoft.
Regresión: Wine queda completamente inutilizable en presencia de dispositivos GL no gráficos desde la versión 11.1.
Falta validación de parámetros en la familia de funciones printf().
Framemaker 8 se bloquea debido a un parche en sysparams.c.
No se puede abrir una determinada imagen PNG, ‘copypixels_to_24bppBGR ruta de conversión no implementada’.
Posible error off-by-one en swapchain.c.
El instalador de iWin Games Manager V4 no logra crear servicios.
El instalador de Amazon Chime 5.23 falla.
Ya disponible
WINE 11.3 ya se puede descargar desde el botón que tenéis debajo de estas líneas. En su página de descargas hay también información sobre cómo instalar esta y otras versiones en sistemas operativos Linux y otros como macOS e incluso Android.
Dentro de dos semanas, si se sigue con el calendario habitual y nada nos hace pensar que no será así, llegará WINE 11.4, también con decenas de cambios para preparar el WINE 12.0 que llegará, todo atendiendo a lanzamientos pasados, a principios de 2027. El ritmo seguirá así hasta finales de año, cuando se aumentará la frecuencia de lanzamientos a Release Candidate por semana, luego estable (WINE 12) y luego ya se comenzará el desarrollo de WINE 13.0.
Hace un mes desde que Clem Lefebvre le diera al botón y nos entregara Linux Mint 22.3, de nombre en clave Zena. Desde entonces ha habido muchas novedades internas, y la nota del mes de febrero, que nos habla de lo sucedido en enero, recoge muchas de estas novedades en el proyecto Mint. Quizá merece la pena a hablar de ello en un orden distinto, porque al final de la nota se menciona que podrían adoptar «un ciclo de desarrollo más largo».
Clem está muy satisfecho con lo que están haciendo. Son un proyecto independiente, y esto les permite hacer cambios como quedarse con base LTS, no implementar snaps, algo que creo que agradecen muchos usuarios, o desarrollar una alternativa a GNOME que no se siente como GNOME. Todo esto requiere un esfuerzo, y dos lanzamientos al año, a lo que se le suma LMDE, les hace ir un poco justos.
Linux Mint y su posible ciclo de desarrollo más largo
«Ya sea que “distribuyamos” (por ejemplo con KDE) o desarrollemos activamente soluciones (por ejemplo con XApp y Cinnamon), dedicamos mucho tiempo a la gestión de lanzamientos. Publicar con frecuencia es importante porque significa que recibimos muchos comentarios e informes de errores cuando introducimos cambios. Seguimos el mismo proceso una y otra vez. Es un proceso que funciona muy bien y produce estas mejoras incrementales versión tras versión. Pero lleva mucho tiempo y pone fin a nuestra ambición en materia de desarrollo. Con un lanzamiento cada seis meses más LMDE, pasamos más tiempo probando, reparando y lanzando que desarrollando«.
A la postre, están pensando en cambiar eso y adoptar un ciclo de desarrollo más largo. Esto tendría lugar justo cuando viene una nueva LTS y se han quedado sin nombres en clave. Lo de los nombres en clave no tiene importancia, pero lo otro sí.
Clem aconseja que nos mantengamos atentos, pero no se sabe exactamente qué pasará con el ciclo de desarrollo. Una posibilidad es que lancen una versión al año, pero ¿esto también valdría para Cinnamon?
Otras novedades de enero
Explicado lo anterior, nos centramos ya en las novedades que han tenido lugar en enero de 2026. Linux Mint como proyecto recibió un récord de donaciones, y 22.3 fue un buen lanzamiento.
Ya mirando al futuro, se continúa trabajando para mejorar los métodos de entrada. Descubrieron que hay muchos usuarios que quieren usar capas de teclado que no coincide con su teclado físico al usar aplicaciones de mensajería. Lo que están haciendo para esto es trabajar en que sea posible configurar un teclado específico al configurar un método de entrada.
En el próximo lanzamiento, la herramienta de administración gestionará los detalles de cuentas y administración. El caso es que muchos proyectos de escritorios están añadiendo estas funciones a los mismos, por lo que otros que dependen de ellos se quedarán sin ellas.
Salvapantallas de Cinnamon y Wayland
Actualmente, el fondo de pantalla de Cinnamon sólo funciona en X11. Es una aplicación suelta que ejecuta su propio proceso y usa GTK. Para el próximo lanzamiento, Linux Mint implementará un nuevo salvapantallas que sustituirá al actual, funcionará en Wayland y X11 y será renderizado nativamente por el compositor de Cinnamon.
Entre los beneficios, las transiciones serán más suaves durante el bloqueo de pantalla, tendrá mejor integración visual y soportará completamente Wayland. Actualmente, el soporte para Wayland no pasa de experimental. En un futuro a muy largo plazo, seguramente abandonen X11 y se centren sólo en Wayland, pero los planes para presente y futuro a al menos medio plazo pasan por soportar ambos protocolos. Linux Mint suele hacer lo mejor para sus usuarios, y esto también se aplica aquí.
La próxima versión de Linux Mint debería llegar a mediados de 2026. Llegado el momento debería confirmarse la nueva cadencia de lanzamientos… o no. Lo que sí es seguro es que estará basado en Ubuntu 26.04 y que incluirá las novedades que han adelantado en la nota de enero.
Desde hace algunos meses, no recuerdo exactamente cuándo, empecé a toparme con un fallo realmente molesto: en mi navegador (Vivaldi), la tecla Supr del bloque numérico dejó de funcionar. Me fastidió bastante, porque es la tecla que solía usar siempre para borrar. No me quedó más remedio que usar la que hay más arriba, al lado de Insert. Mi curiosidad que hizo entender que pasa también en otros navegadores con base Chromium, como Brave.
Más recientemente he descubierto el problema real: en algunas configuraciones, la tecla Supr del teclado numérico dejará de funcionar si se usa Wayland, y el fallo se experimentará en cualquier software con Chromium como base. Por ejemplo, en Visual Studio Code y aplicaciones en Electron. Sabiendo que el problema aparece cuando se combinan Chromium y Wayland ya podemos hacer algo.
¿Supr no te funciona en Wayland y Chromium?
Lo primero que debemos hacer para comprobar que el fallo es tal y como se explica en este artículo es abrir un programa con el fallo en una ventana de X11. Por ejemplo, para Vivaldi en X11 abriríamos un terminal y escribiríamos:
vivaldi –ozone-platform=x11
Con lo anterior, que se debería escribir con Vivaldi cerrado, se abrirá como lo haría en X11. Si la tecla funciona, ya hemos detectado y solucionado parcialmente el problema. La solución permanente pasa por tener paciencia y que arreglen el problema los desarrolladores.
En KDE, algo temporal puede ser abrir la app del «Editor del menú», buscar la aplicación problemática y en el apartado «Argumentos de la línea de órdenes» añadir –ozone-platform=x11. Es posible que cada vez que se actualice la aplicación desaparezcan esos argumentos, y la solución pasaría por volverlos a añadir.
Otra opción es crear un archivo .desktop en ~/.local/share/applications, pero esto es algo más complicado.
¿Qué se pierde?
Cuando una app X11 se ejecuta en Wayland (a través de XWayland) normalmente funciona casi igual, pero hay diferencias porque Wayland gestiona por sí mismo cosas como el teclado, el foco o el escalado y luego las “traduce” a X11. En ese paso pueden aparecer fallos pequeños: algunas teclas especiales no llegan igual, el portapapeles o el foco pueden comportarse distinto y el escalado o la captura de pantalla pueden dar problemas.
Mi recomendación es comprobar si merece la pena en nuestro caso concreto. Yo personalmente no echo nada en falta, por lo que he añadido los argumentos a Vivaldi y Visual Studio Code para poder usar una tecla que pulso por instinto.