🔒
Hay nuevos artículos disponibles. Pincha para refrescar la página.
AnteayerSalida Principal

El aterrizaje de la IA en la sanidad pública: opaco, desigual y con escasa supervisión

17 Noviembre 2025 at 00:01
Por: CIVIO

Este artículo ha sido publicado originalmente en Civio y forma parte de su serie sobre transparencia algorítmica.

Ángela Bernardo, María Álvarez del VayoAdrián MaquedaCarmen Torrecillas y Ter García // “La Estrategia de Salud Digital del Sistema Nacional de Salud, que se lanzó en el 2021, está dotada con más de 1.000 millones de euros en planes colaborativos entre el Ministerio de Sanidad y las comunidades autónomas y ha sentado las bases para introducir tecnologías avanzadas de manera coordinada y de manera cohesionada, que creo que es muy importante”. Con estas palabras inauguraba Mónica García, ministra de Sanidad, el I Foro de Inteligencia Artificial para el Sistema de Salud, celebrado a mediados de septiembre. Sin embargo, sus buenos deseos chocan con la realidad que viven a diario los profesionales del Sistema Nacional de Salud consultados por Civio.

Aunque cada vez es mayor el número de algoritmos y sistemas de inteligencia artificial que se incorporan en la sanidad pública, su implementación está marcada por una enorme disparidad. “Hay diversidad por todo tipo, por comunidad autónoma, por hospitales, por campos, por todo. Básicamente, esto es una guerra: cada uno compra el software que quiere, el que puede o el que necesita”, dice Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge. Para Nuria Ribelles Entrena, portavoz de la Sociedad Española de Oncología Médica (SEOM) y oncóloga del Hospital Universitario Virgen de la Victoria de Málaga, existe “cero” coordinación para compartir o reutilizar tecnología: “Cada comunidad va por libre”.

Una integración poco transparente y desigual

En líneas generales, la incorporación de la IA en el Sistema Nacional de Salud se está haciendo de forma bastante opaca. “Los ciudadanos deberíamos tener el derecho de poder saber qué sistemas se están integrando, cómo fueron entrenados, qué datos de entrenamiento utilizaron, cómo se han comprado o si fue algo que está desarrollando la propia administración pública”, dice la jurista Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU). Sin embargo, solo dos comunidades autónomas, País Vasco y Generalitat Valenciana, cuentan con un registro público de algoritmos, incluyendo los que se aplican en salud. En opinión de Arias, la transparencia algorítmica “es relevante para poder hacer un control sobre lo que se está implementando en general en España y en la sanidad pública”.

Entre 2024 y 2025, Civio ha realizado, a través de la Ley de Transparencia, una veintena de solicitudes de acceso a la información pública a las consejerías autonómicas con competencias en sanidad o digitalización y al Ministerio de Sanidad. Dada la situación cambiante de la IA, intentamos además actualizar la información directamente con los gabinetes de prensa de cada departamento. Nuestra investigación arroja una situación tremendamente desigual: mientras la Comunidad de Madrid se acerca al centenar de proyectos basados en IA, con cada hospital actuando por cuenta propia; otras regiones, como Asturias, Galicia o la Comunidad Valenciana, han integrado un menor número de aplicaciones, en su mayoría centradas en el diagnóstico. Cataluña, por su parte, solo ha dado información parcial, amparándose en el secreto empresarial y en la protección de la propiedad intelectual e industrial.

“Si al final hay determinados hospitales o comunidades autónomas que están acelerando la incorporación de sistemas de IA en sus hospitales o servicios públicos y otros no, puede llegar a verse desde un punto de vista de la brecha digital: que algunas personas puedan tener un servicio de salud y otras, otro tipo completamente diferente”, apunta la jurista Anabel K. Arias. Aunque la IA se está integrando a velocidades distintas, parece evidente que su implementación se está acelerando a marchas forzadas. Por ejemplo, a mediados de 2024, Asturias o Castilla y León negaron contar con algoritmos, pero, unos meses más tarde, la situación era diferente pues introdujeron varios sistemas. “Es el problema del FOMO (fear of missing out), el miedo a quedarnos fuera: si no usas nada de IA, estás fuera de este mundo. Si usas algo, probablemente aparezcas en las noticias”, dice López Rueda.

En el Ministerio de Sanidad, la realidad también es bastante diferente. Dentro de este departamento, la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) ha desarrollado varios sistemas basados en procesamiento de lenguaje natural, incluido el fallido MeqA, que daba respuestas erróneas sobre medicamentos, mientras que el trabajo en la Dirección General de Salud Digital y Sistemas de Información para el SNS se ha centrado en dos aplicaciones, una para predecir “la expansión de enfermedades transmisibles” y otra para resolver dudas a quienes se presentan a las pruebas como el MIR.

También dentro del Ministerio, el Instituto de Gestión Sanitaria (INGESA) ha incorporado, por ejemplo, tecnología de reconocimiento facial con IA para fichar a pacientes de Ceuta y Melilla. En cambio, la Organización Nacional de Transplantes no ha contratado ni desarrollado por el momento sistemas basados en inteligencia artificial, a diferencia de lo ocurrido en Reino Unido. Allí, la implementación de un algoritmo conllevó discriminación hacia pacientes jóvenes en las listas de espera para recibir un órgano.

IA sanitaria: un auge sin suficientes garantías

El mapeo de Civio no permite saber en qué especialidades está más avanzada la inteligencia artificial, porque no todas las comunidades dan el mismo nivel ni detalle en la información. Pero donde sí hay datos se observa un patrón claro: muchas aplicaciones se incorporan para analizar imágenes médicas (por ejemplo, en radiología, dermatología, anatomía patológica), como también sucede en países como Estados Unidos. “El análisis de un píxel, que es la unidad básica de la imagen, es muchísimo más sencillo que el análisis del dato, de palabras, de texto. El análisis de texto escrito es muchísimo más complejo, por eso va mucho más retrasado”, explica la oncóloga Ribelles Entrena.

Otros sistemas que se están integrando con rapidez son los que permiten gestionar de forma automatizada la información clínica, por ejemplo, para transcribir automáticamente la conversación entre profesionales y pacientes o para asignar códigos a los diagnósticos en urgencias. “Uno de los principales avances que esperamos es toda la tecnología de IA que tiene que ver con el lenguaje natural, ya que disminuir la ingente burocracia que asumimos en las consultas y que consume la mayor parte del tiempo de que disponemos permitiría poder centrarnos de manera más directa en lo que espera de nosotros el paciente: que le miremos a los ojos en vez de estar tecleando y mirando a la pantalla”, dice Rosa Taberner Ferrer, dermatóloga en el Hospital Son Llàtzer de Mallorca. Y añade: “Es lo que de verdad dará un giro de 180º a nuestras consultas”.

“Estamos en unas etapas muy iniciales de lo que puede ser la IA en oncología o en cualquier otra especialidad, quitando anatomía patológica, radiología o dermatología, donde está más desarrollada”, asegura Ribelles Entrena. No obstante, incluso donde hay más avances, la limitada digitalización del sistema sanitario dificulta la implementación del software y su integración en los flujos habituales de trabajo. Por ejemplo, en radiología se utiliza el llamado sistema de almacenamiento de imágenes médicas (PACS, por sus siglas en inglés) y cualquier desarrollo de IA debe adaptarse a la plataforma concreta que se aplique. “La única comunidad que tiene un PACS es Andalucía; aquí en Cataluña no tenemos un PACS único. Por tanto, si quiero implementar un software de imagen médica, necesito implementarlo y adaptarlo a seis, siete u ocho PACS diferentes. Y cada PACS tiene su intríngulis”, explica López Rueda.

Los especialistas consultados por Civio también advierten de la necesidad de mantener una postura crítica. Los sistemas de IA sanitaria suelen clasificarse en función de su finalidad y riesgo dentro de la clase IIa del reglamento europeo sobre productos sanitarios —salvo excepciones que puedan suponer mayores riesgos para los pacientes—. Por ello, deben contar con el marcado CE para poder ser comercializados, lo que a su vez exige realizar investigaciones clínicas al respecto. No obstante, muchos de estos software no se han probado en las condiciones necesarias, es decir, no han llegado a demostrar que brinden resultados superiores y mejores a lo que se utiliza en la actualidad.

“Tenemos que ser reticentes a la hora de implementar esto en la práctica asistencial. Deberíamos exigir: uno, estudios aleatorizados que demuestren que la lectura de la máquina es superior a la del especialista y dos, que este tipo de implementaciones son costo-eficaces”, señala López Rueda. Sin embargo, la situación actual dista de ser idónea. En palabras de Josep Malvehy Guilera, director de la Unidad de Cáncer cutáneo del Hospital Clínic de Barcelona: “Hay desconocimiento por parte de los profesionales, los usuarios que van a utilizar esto. Tengo la impresión que también por parte de los responsables de la compra de estos productos, porque si no exigirían algo más”. De hecho, tanto fuera como dentro de España, la mayoría de algoritmos no se han evaluado en estudios rigurosos (de carácter prospectivo o en ensayos clínicos aleatorizados), lo que implica que faltan validaciones externas e independientes. “Hay que exigir un poco más de seriedad. Si hiciéramos lo mismo con un antibiótico, nos meterían en la cárcel”, zanja Malvehy Guilera.

La entrada El aterrizaje de la IA en la sanidad pública: opaco, desigual y con escasa supervisión se publicó primero en lamarea.com.

Libro “21 lecciones para el siglo XXI” de Y.N. Harari (resumen)

Resumen del libro "21 lecciones para el siglo XXI" de Harari. En nuestro blog también encontrarás el resumen de su libro "Sapiens"Sus dos anteriores libros fueron “Sapiens” y “Homo Deus” y en ellos se exploraba la historia del hombre y su futuro, respectivamente. Aquí, Yuval Noah Harari nos presenta un compendio de 21 temas esenciales para el presente. Mientras estamos atareados en nuestros problemas cotidianos, están pasando cosas a nivel global que nos deberían importar.

“A la filosofía, a la religión y a la ciencia se les está acabando el tiempo”. La inminente crisis ecológica, la creciente amenaza de las armas de destrucción masiva y el auge de las nuevas tecnologías disruptivas no permitirá prolongar mucho más el debate sobre el significado de la vida. Porque ese significado se ha de usar para tomar decisiones importantes (en ciencia, biotecnología, inteligencia artificial…). Los mercados son impacientes y no toman siempre las mejores decisiones para todos.

1. Decepción ante la ausencia de una ideología convincente

“Relatos Ecoanimalistas” —Colección de relatos ecologistas y animalistas.
“Relatos Ecoanimalistas” —Colección de relatos cortos, ideal para regalar a personas, sean o no ecologistas o animalistas. Aumentará la conciencia ambiental del planeta. Gracias.

Tras la caída del fascismo y del comunismo, el liberalismo se ha impuesto casi por todo el mundo de una u otra forma, defendiendo cosas tan bonitas como la libertad, los derechos humanos, la libertad de movimiento (más para el dinero que para las personas, ciertamente), o el libre mercado (que con tanto acierto criticó N. Klein). Pero desde la crisis global de 2008, los decepcionados por el liberalismo crecen y hay, además, dos retos que para Harari son muy inquietantes: la infotecnología (desarrollos tecnológicos, inteligencia artificial, robots…) y la biotecnología (modificar genes, transgénicos…). “Los humanos siempre han sido mucho más duchos en inventar herramientas que en usarlas sabiamente. Es más fácil reconducir un río mediante la construcción de una presa que predecir las complejas consecuencias que ello tendrá para el sistema ecológico de la región”.

El poder de “manipular el mundo” ha llevado a que “nos enfrentamos a un colapso ecológico”, porque las revoluciones en biotecnología y en infotecnología las lideran científicos o emprendedores “que apenas son conscientes de las implicaciones políticas de sus decisiones”. Así, “Donald Trump advirtió a los votantes que mexicanos y chinos les quitarían el trabajo y (…) nunca advirtió a los votantes que los algoritmos les quitarían el trabajo” (poniendo a las máquinas a trabajar). “Quizá en el siglo XXI las revueltas populistas se organicen no contra una élite económica que explota a la gente, sino contra una élite económica que no la necesita”. Cada vez se precisan menos trabajadores y ahora debemos ya empezar a buscar soluciones (como reducir la jornada laboral o la renta básica), antes de alcanzar el “desempleo masivo”.

Los que votaron a Trump en EE.UU. o a favor del Brexit en Reino Unido, no rechazaron el liberalismo totalmente pero sí quisieron encerrarse un poco en su casa y que se adoptaran “políticas intolerantes para con los extranjeros”. Pretender aislarse, como pide el nacionalismo, es una política inviable en la era de internet y del calentamiento global. China lo hace al revés: aplica el liberalismo más fuera de sus fronteras que dentro, mientras Rusia aplica un liberalismo atroz que genera la “mayor desigualdad del mundo” (el 87% de la riqueza está en manos del 10% de los más ricos) y el islamismo solo atrae a algunos de los que crecieron en su seno. A pesar de todo, la humanidad no puede abandonar el liberalismo, “porque no tiene ninguna alternativa”, aunque tampoco ofrece respuestas “a los mayores problemas a los que nos enfrentamos: el colapso ecológico y la disrupción tecnológica”. El liberalismo todo lo resuelve con el crecimiento económico pero esa solución no sirve porque ya sabemos que esa es precisamente la causa de la crisis ecológica y que gran parte de la tecnología tiene un fuerte impacto social y ambiental. Por eso, para Harari la primera medida es la perplejidad: reconocer que no sabemos lo que está ocurriendo.

2. Trabajo: en el futuro habrá mucho menos empleo

La robotización tiene ventajas e inconvenientesEs obvio que las máquinas y los robots están efectuando cada vez más trabajos: mejoran nuestra vida y, a la vez, nos quitan el trabajo. El poder de las máquinas, junto con la IA (Inteligencia Artificial) es inmenso y tienen dos capacidades muy importantes: la conectividad y la capacidad de actualización. Por ejemplo, en conducción automática de vehículos, dos coches podrían conectarse para acordar quien pasa primero y evitar colisionar. Además, cualquier nueva norma de tráfico o mejora del software podría actualizarse en todos los vehículos automáticos de forma inmediata.

También es cierto que se están creando nuevos empleos, pero en general exigen “un gran nivel de pericia y, por tanto, no resolverán los problemas de los trabajadores no cualificados”. Podría ocurrir que padezcamos “a la vez unas tasas de desempleo elevadas y escasez de mano de obra especializada”. Además, dado la vertiginosa velocidad de cambio, podrían ser profesiones que surgen y desaparecen en cuestión de una década, por lo que es muy complicado exigir derechos laborales o crear sindicatos en tales circunstancias. El autor sostiene que “hoy ya son pocos los empleados que esperan ocupar el mismo empleo toda la vida”. Además reconoce que “el cambio es siempre estresante” y podría ser complicado reeducar a miles de empleados.

Por otra parte, evitar la pérdida de puestos de trabajo no es una buena opción, porque supone abandonar las ventajas de la mecanización, pero tampoco podemos hacerlo sin dar alternativas a los empleados. Harari alaba lo que ocurre en Escandinavia, donde los gobiernos siguen el lema «proteger a los obreros, no los empleos». Una forma de hacer esto es lo que llamamos las dos erres urgentes: Reducir la jornada laboral y la RBU (Renta Básica Universal). Por supuesto, también se está aplicando en muchos países la subvención de servicios básicos universales: educación, sanidad, transporte… Pero en estas opciones el problema está en definir qué es «universal» y qué es «básico»:

  • Por universal se suele interpretar la población nacionalizada en un país, pero hay que tener en cuenta que las principales víctimas de la automatización quizá no vivan en donde se apruebe la RBU o esos servicios básicos universales. Automatizar en exceso podría generar la ruina en países en desarrollo que actualmente están dando mano de obra barata a los países ricos.
  • Por básico se puede interpretar la comida que un sapiens requiere (entre 1500 y 2500 calorías), pero también se pueden considerar básicos aspectos como la educación, la sanidad, el acceso a internet…

El problema es complejo, porque contentar a los sapiens no es tarea sencilla. La felicidad puede depender de las expectativas y éstas dependen de las circunstancias. Por tanto, aunque se mejoren las condiciones, no se garantiza que haya satisfacción. Como ejemplo exitoso cita el caso de Israel, país que obtiene buenos resultados en la satisfacción de la población, en parte gracias a un montón de personas pobres que no trabajan y que se dedican exclusivamente a cuestiones religiosas (el 50% de los hombres judíos ultraortodoxos). El gobierno da generosas subvenciones y se constata que debatir el Talmud es más satisfactorio que el trabajo de los obreros. Así pues, “la búsqueda de plenitud y de comunidad podría eclipsar la búsqueda de un puesto de trabajo”. El objetivo debería ser combinar una red de seguridad económica universal y básica, comunidades fuertes con servicios básicos universales y educar para una búsqueda de una vida plena. Esto podría compensar la pérdida de empleos y mejorar la calidad de vida de la gente.

“Dado el inmenso poder destructor de nuestra civilización, no podemos permitirnos más modelos fallidos”, pues equivocarnos ahora podría acabar en una guerra nuclear, en desastres por manipulación genética o en un colapso completo de la biosfera.

3. Libertad: computadoras y big data contra los derechos humanos

Lee un resumen de este otro libro de Harari. En Nexus habla de la Inteligencia Artificial, de la democracia y del futuro.
Lee un resumen de este otro libro de Harari. En Nexus habla de la Inteligencia Artificial, de la democracia y del futuro.

Dice Harari que “los referéndums y las elecciones tienen siempre que ver con los sentimientos humanos, no con la racionalidad”. Aunque algunas personas están más informadas y otras son más racionales, al final cada voto cuenta lo mismo y los sentimientos son los que guían a la mayoría. El biólogo Richard Dawkins dijo a propósito de la votación del Brexit que someterlo a referéndum es como «dejar que los pasajeros de un avión votaran en qué pista debería aterrizar el piloto». Teniendo esto en cuenta, queda claro el alto interés en acceder al corazón humano, a sus entresijos y a cómo manipularlo. Si se consiguiera en grado suficiente, la política sería “un espectáculo de títeres emocional”.

Pensemos que, al final, los sentimientos están basados en el cálculo. Millones de neuronas calculan, por ejemplo, cuando tener miedo según la probabilidad de ser dañados. Los sentimientos “encarnan la racionalidad evolutiva”, pero “pronto los algoritmos informáticos podrán aconsejarnos mejor que los sentimientos humanos”. Seguramente cometerán errores, pero solo se necesita que sean, de media, mejor que nosotros, lo cual “no es muy difícil, porque la mayoría de las personas no se conocen muy bien a sí mismas, y (…) suelen cometer terribles equivocaciones en las decisiones más importantes de su vida”. Incluso en ética, las máquinas superarán a la mayoría de los humanos, porque las máquinas no tienen emociones. Se ha demostrado que las emociones humanas controlan las decisiones humanas, por encima de sus ideologías o de sus planteamientos filosóficos. La selección natural no ha seleccionado a los homínidos más éticos, sino a los que gracias a sus emociones (miedo, deseo…) han conseguido reproducirse con más éxito. Por otra parte, “los ordenadores no tienen subconsciente” y si fallaran, resultaría “mucho más fácil corregir el programa que librar a los humanos de sus prejuicios”. Esto abre mercado a los filósofos, pues hará falta la filosofía para hacer buenos programas.

Cuando las decisiones importantes las tomen los algoritmos, basados en el cómputo de millones de datos (macrodatos o big data), ¿dónde queda nuestra libertad? ¿Confiaremos en los algoritmos para que nos escojan pareja, qué estudiar o dónde trabajar? ¿Escogerán también a quien votar? ¿Qué sentido tienen entonces las elecciones y los mercados libres?

Ya hoy día la gente confía en Google para hallar respuestas mientras “la capacidad para buscar información por nosotros mismos disminuye”. Esto hace que la gente considere «verdad» lo que aparece en los primeros resultados de la respuesta de Google. Más aún, la capacidad para orientarse es como un músculo que o lo usas o lo pierdes, y mucha gente depende tanto de Google Maps que si falla se encuentra completamente perdida.

El que controle esos algoritmos de macrodatos, controlará buena parte del mundo. Un ejemplo está en Israel, país que controla el cielo, las ondas de radio, el ciberespacio y el mar y, gracias a ello, un puñado de soldados pueden controlar a 2.5 millones de palestinos en Cisjordania. Y lo hacen usando IA: en 2017 un palestino publicó una foto poniendo en árabe “¡Buenos días!”. Un algoritmo israelí confundió las letras árabes y lo tradujo como “¡Mátalos!” y el obrero fue detenido. Quedó en libertad cuando se aclaró el error, pero el incidente demuestra la importancia de la IA para controlar a la población. Llevado al extremo, en manos de gobiernos autoritarios las herramientas de IA podrían controlar a la población “más incluso que en la Alemania nazi”.

Usando las reglas de la selección natural, hemos criado vacas dóciles que producen más leche, pero que son inferiores en otros aspectos. Igualmente, “estamos creando humanos mansos” pero que “en absoluto maximizan el potencial humano”. De hecho, “sabemos poquísimo de la mente humana”, mientras la investigación se centra en mejorar los ordenadores y los algoritmos. “Si no somos prudentes, terminaremos con humanos degradados que usarán mal ordenadores mejorados”. Para Harari esto podría provocar el caos, “acabar con la libertad” y “crear las sociedades más desiguales que jamás hayan existido”. La inmensa mayoría de la gente podría sufrir algo peor que la explotación: la irrelevancia.

4.  Igualdad: El que tenga los datos dominará el mundo

Los primeros grupos de sapiens eran más igualitarios que cualquier sociedad posterior. La revolución agrícola multiplicó la propiedad (tierra, herramientas…) y con ella la desigualdad. En el siglo XX se ha reducido la desigualdad en muchos países, pero “hay indicios de una desigualdad creciente”: “El 1% más rico posee la mitad de las riquezas del mundo” (y es responsable de la mitad de la contaminación mundial) y las 100 personas más ricas tienen más que los 4.000 millones más pobres. En el futuro, la biotecnología podría dar ventajas a ciertos sapiens (mayor longevidad, mejores capacidades físicas…) y podrían generarse “castas biológicas”, lo cual ahondará en la desigualdad. También insiste en el poder de la infotecnología para eliminar la utilidad de los humanos para las élites.

Antiguamente la tierra era el bien más importante. Luego pasaron a ser las máquinas y la industria. Hoy, cada vez tienen más importancia los datos. Empresas como Google, Facebook, Baidu y Tencent lo saben bien. Por ejemplo, Google nos proporciona servicios gratuitos, pero gracias a eso consigue millones de datos de sus usuarios. Esos datos valen mucho. No solo para ponernos la publicidad en la que caeremos con mayor probabilidad. Creemos que Google nos ayuda mucho, pero nosotros ayudamos a Google mucho más, porque mientras Google solo nos hace la vida un poco más fácil, nosotros somos los que permitimos que Google pueda existir haciendo negocio con nuestros datos. Así, en el futuro habrá que responder a una pregunta clave en nuestra era: ¿quién es el propietario de los datos? (datos sobre nuestros hábitos, nuestro ADN, nuestros gustos…). Tenemos experiencia regulando la propiedad de la tierra y la propiedad de la industria, pero “no tenemos mucha experiencia en regular la propiedad de los datos”, los cuales tienen características especiales (fáciles de copiar y de transportar, están en muchos sitios y en muchos formatos…).

¿Qué prefieres? ¿Libertad o igualdad?

5. Comunidad: “La gente lleva vidas cada vez más solitarias en un planeta cada vez más conectado”

Las redes sociales están rompiendo aún más las comunidades íntimas, las cuales ya están bastante sustituidas por gobiernos y empresas. Facebook se propuso conectar a los humanos, pero el escándalo de Cambridge Analytica reveló que se recogían datos “para manipular las elecciones en todo el mundo”. En teoría, las redes sociales pueden contribuir a fortalecer el tejido social y a hacer que el mundo esté más unido (ingeniería social), pero es complicado porque eso choca con intereses empresariales. Mientras la gente esté más interesada en el ciberespacio que en lo que pasa en su calle hay mayores posibilidades de manipularlo y de sacarle el dinero online. No olvidemos que los gigantes tecnológicos han sido acusados repetidas veces de evasión fiscal. ¿Es creíble que empresas que no pagan sus impuestos nos vayan a ayudar realmente a crear comunidades fuera del mundo virtual?

6. Civilización: Solo existe ya una civilización

Harari desmonta la teoría de que hay un choque de civilizaciones, pues en realidad la globalización tiende a unir cada vez más a la gente y no es posible, ni deseable, dar marcha atrás. “Hace diez mil años la humanidad estaba dividida en incontables tribus aisladas. Con cada milenio que pasaba, estas tribus se fusionaron en grupos cada vez mayores”. El proceso de unificación de la humanidad se ve claro si uno piensa los vínculos que hay entre los distintos grupos y las prácticas comunes entre ellos. Con sus diferencias, todos los países aceptan una serie de protocolos diplomáticos, leyes internacionales… y participan en los Juegos Olímpicos bajo las mismas reglas, lo cual es “un asombroso acuerdo global” y debemos “sentir orgullo porque la humanidad sea capaz de organizar un acontecimiento de este tipo”. Más aún, todos comparten similares reglas económicas, confianza en el dinero, los médicos comparten conocimientos y tienen similares protocolos… “La gente tiene todavía diferentes religiones e identidades nacionales. Pero cuando se trata de asuntos prácticos (…) casi todos pertenecemos a la misma civilización“. Nuestras diversas opiniones traerán debates y conflictos, pero eso nos hará aún más conectados, más interdependientes.

7. Nacionalismo: La historia tiende a unirnos, no a separarnos

El Brexit o el nacionalismo en Cataluña… ¿a qué se deben? ¿pueden dar respuestas a los problemas más importantes? Las formas moderadas de patriotismo pueden ser benignas. “El problema empieza cuando el patriotismo benigno se metamorfosea en ultranacionalismo patriotero”, lo cual es “terreno fértil para los conflictos violentos”. En el pasado era razonable buscar seguridad y sentido en el regazo de la nación, pero hoy, sin negar eso, tenemos al menos tres retos que nos obligan a trabajar más conjuntamente. La guerra nuclear es el primero y ciertamente en este campo lo estamos haciendo bien: a pesar de las guerras, hoy mueren menos personas por violencia humana que por obesidad, accidentes de tráfico o suicidio. El miedo a la guerra nuclear hace que los estados poderosos piensen bien antes de meterse en una guerra que sería desastrosa para el planeta.Resumen del libro "Sapiens", muy recomendable. Haz click para leerlo.

El segundo reto es el cambio climático y el desastre ambiental  (contaminación de la agricultura, pérdida de biodiversidad…). “Un agricultor que cultive maíz en Iowa podría, sin saberlo, estar matando peces en el golfo de México”. Homo sapiens ha pasado de ser un asesino ecológico en serie (como explica Harari en su libro Sapiens) a ser un asesino ecológico en masa. “Los científicos están de acuerdo en que las actividades humanas (…) hacen que el clima de la Tierra cambie a un ritmo alarmante. (…) Es fundamental que realmente hagamos algo al respecto ahora”. Harari tiene claro que el nacionalismo no puede sino empeorar la respuesta a este problema, porque las actuaciones “para ser efectivas, tienen que emprenderse a un nivel global”. Harari subraya que la industria de la carne, además del enorme sufrimiento que infringe, “es una de las principales causas del calentamiento global, una de las principales consumidoras de antibióticos y venenos, y una de las mayores contaminadoras de aire, tierra y agua” (producir 1 kilo de carne puede consumir 15.000 litros de agua).

El tercer reto es la disrupción tecnológica (biotecnología e infotecnología). A muchos nacionalistas les gustaría volver a tiempos pasados, pero eso es algo imposible. Estos tres retos pueden servir para “forjar una identidad común” que permita afrontar los riesgos. Por supuesto, queda espacio para “ese patriotismo que celebra la singularidad de mi nación y destaca mis obligaciones especiales hacia ella”. Harari ve claro que debemos “globalizar nuestra política”, lo cual no implica necesariamente un gobierno global, sino que todos los gobiernos (nacionales o de ciudades) “den mucha más relevancia a los problemas y los intereses globales”. Por ejemplo, recientemente muchas ciudades se han propuesto muchos retos en el llamado Pacto de Milán, como por ejemplo reducir el consumo de carne.

8. Religión: ¿Una ayuda para la unión del mundo o un inconveniente?

¿Pueden las religiones ayudar a resolver los problemas? Para Harari hay tres tipos de problemas —técnicos, políticos y de identidad— y las religiones solo pueden ayudar en el último tipo. Precisamente porque no ofrecen soluciones interesantes a los dos primeros tipos de problemas, “la autoridad religiosa ha estado reduciéndose”. Por ejemplo, cada vez menos gente acude a la religión ante problemas de salud, y si acude, lo hace después de acudir a la ciencia. A nivel político tampoco la religión ofrece alternativas globales a los retos actuales. De hecho, en muchos casos se desoye la religión cuando están en juego intereses políticos. Harari dice que “aunque algunas de las cosas que dijo Jesús suenan a comunismo total, (…) buenos capitalistas norteamericanos seguían leyendo el Sermón de la Montaña sin apenas darse cuenta”. Otras veces es la religión la que intenta meterse en política, con escaso éxito. Tal es el caso de la encíclica “ecológica” del Papa Francisco, “Laudato Si” (véase aquí un resumen sobre ella).

Las religiones determinan quiénes somos y quiénes son los demás. Es aquí donde la religión puede jugar un papel importante. Las religiones continuarán siendo importantes y pueden contribuir a la unión del mundo pero, como el nacionalismo, en demasiados casos lo que hacen es dividir y generar hostilidades.

9. Inmigración: La discriminación por la cultura genera injusticias

“Aunque la globalización ha reducido muchísimo las diferencias culturales en todo el planeta, a la vez ha hecho que sea más fácil toparse con extranjeros y que nos sintamos molestos por sus rarezas”. Pero las migraciones son naturales en el hombre a lo largo de toda su historia, y hoy el problema más grave está en Europa. La Unión Europea ha conseguido convivir con las diferencias entre los distintos países pero tiene problemas para convivir con todos los inmigrantes y refugiados que llegan.

Para Harari, “mientras no sepamos si la integración es un deber o un favor, qué nivel de integración se exige a los inmigrantes y con qué rapidez los países anfitriones deben tratarlos como ciudadanos de pleno derecho, no podremos juzgar si las dos partes cumplen sus obligaciones”. Pero si esa evaluación se hace de forma colectiva pueden generarse injusticias. Por otra parte, cada cultura tiene distinto nivel de aceptación a otros. Harari resalta que “Alemania ha acogido a más refugiados sirios de los que han sido aceptados en Arabia Saudí”.

Harari dice que la gente “lucha contra el racismo tradicional sin darse cuenta de que el frente de batalla ha cambiado”, porque ahora hay discriminación por la cultura (que este autor llama «culturismo»). Así, muchas veces se culpa a los inmigrantes de tener una cultura y valores no adecuados, pero por otra parte, “en muchos casos, hay pocas razones para adoptar la cultura dominante y en muchos otros se trata de una misión casi imposible”, pues podría, por ejemplo, requerir un nivel económico o educativo imposible de alcanzar por las clases inferiores (sean o no inmigrantes). Los dos grandes problemas de la discriminación por la cultura son:

  1. Usan afirmaciones generales, poco objetivas, que evalúan una cultura como superior a otra, sin hacer una valoración completa y objetiva.
  2. Discriminan a individuos concretos en base a esas afirmaciones generales.

“Si 500 millones de europeos ricos no son capaces de acoger a unos pocos millones de refugiados pobres, ¿qué probabilidades tiene la humanidad de superar los conflictos de mucha más enjundia que acosan a nuestra civilización global?”. “La humanidad puede dar la talla si mantenemos nuestros temores bajo control y somos un poco más humildes respecto a nuestras opiniones”.

10. Terrorismo: los terroristas son débiles y su arma es el miedo

Los terroristas “matan a muy pocas personas, pero aún así consiguen aterrorizar a miles de millones”. Desde el 11-S los terroristas han matado anualmente a unas 50 personas en la UE, 10 en EE.UU…. y hasta 25.000 en el mundo (principalmente en Irak, Afganistán, Pakistán, Nigeria y Siria). “En comparación, los accidentes de tráfico matan anualmente a unos 80.000 europeos, 40.000 norteamericanos (…) y 1,25 millones de personas en todo el mundo”. Por su parte, la contaminación atmosférica mata a unos 7 millones y nuevas formas de contaminación nos invaden con efectos desconocidos.

“Existe una desproporción asombrosa entre la fuerza real de los terroristas y el miedo que consiguen inspirar”, pero ellos son débiles. Si tomamos conciencia de su debilidad, ellos serán aún más débiles, porque su mayor poder radica en el miedo que generan. Por supuesto, los gobiernos y los medios de comunicación deben luchar contra el terrorismo e informar, pero evitando la histeria. “El dinero, el tiempo y el capital político invertido en luchar contra el terrorismo no se han invertido en luchar contra el calentamiento global, el sida y la pobreza; en aportar paz y prosperidad al África subsahariana, o en forjar mejores vínculos” entre las naciones del mundo.

11. Guerra: hoy se pierde más con las guerras de lo que se gana

El militar japonés Tojo fue el culpable de que Japón se metiera en la Segunda Guerra Mundial. Sus malas decisiones generaron millones de muertos. Fue juzgado por un tribunal internacional y condenado a muerte en la horca.“Las últimas décadas han sido las más pacíficas de la historia de la humanidad” (ver datos). Antiguamente, ganar una guerra era un símbolo de prosperidad pero las cosas han cambiado. Hoy las guerras no traen prosperidad, sino miseria, porque “los principales activos económicos consisten en el conocimiento técnico e institucional más que en los trigales, las minas de oro o incluso los campos petrolíferos, y el conocimiento no se conquista mediante la guerra“. De hecho, tras la Segunda Guerra Mundial, las potencias derrotadas prosperaron como nunca antes (Alemania, Japón…). La guerra fue producto de un “error de cálculo”. Pensaron que sin nuevas conquistas estaban condenados al estancamiento económico, pero se equivocaron. Por todo esto, las nuevas guerras merecen menos la pena, pero Harari nos advierte de que no podemos confiarnos, pues “los humanos son propensos a dedicarse a actividades autodestructivas”. Y dado que un detonante de la guerra es el sentimiento de superioridad, Harari recomienda “una dosis de humildad”.

12. Humildad: ¿Y si aprendemos más de las demás culturas?

“La mayoría de la gente suele creer que es el centro del mundo y su cultura, el eje de la historia”. Pero no es así. La historia de la humanidad empezó mucho antes que las culturas actuales y continuará, tal vez, tras ellas. Harari dice que su pueblo, los judíos, “piensan también que son lo más importante del mundo”, para luego pasar a desmontar punto por punto esa “desfachatez”, desde el origen de la ética hasta las importantes contribuciones científicas de los judíos. Con respecto a lo primero, “todos los animales sociales, como lobos, delfines y monos, poseen códigos éticos, adaptados por la evolución”, así como sentimientos que muchos atribuyen solo a humanos. Además, Buda, Mahavira o Confucio crearon sistemas morales anteriores al judaísmo. Por tanto, “humanos de todas las creencias harían bien en tomarse más en serio la humildad”.

13. Dios: ¿Quién dice lo que es correcto?

Dios puede verse como un enigma del que “no sabemos absolutamente nada”, o bien, como un “legislador severo y mundano, acerca del cual sabemos demasiado”, pues se han escrito bibliotecas enteras, y se ha usado el nombre de Dios para justificar intereses de todo tipo. Aunque las religiones pueden generar amor y paz, también han generado odio y violencia y por eso, para Harari no son estrictamente necesarias, pues la moral se puede justificar sin acudir a Dios. “Hacer daño a los demás siempre me hace daño también a mí”, porque antes de hacer algo mal hay un sentimiento interno que hace daño: “antes de que matemos a alguien, nuestra ira ya ha matado nuestra paz de espíritu”.

14. Laicismo: Ser responsables sin que lo mande Dios

El laicismo no es rechazar todo lo espiritual, sino no confundir verdad con fe, no santificar ningún libro, persona o grupo como poseedores de la verdad absoluta. Y también es el compromiso con la compasión y la comprensión del sufrimiento. Por ejemplo, “la gente secular se abstiene del homicidio no porque algún libro antiguo lo prohíba, sino porque matar inflige un sufrimiento inmenso a seres conscientes”. Es mejor encontrar la motivación en la compasión que en la obediencia divina. Pero el laicismo también se encuentra con dilemas complejos y, en tal caso, “sopesan con cuidado los sentimientos de todas las partes”. El laicismo también valora la responsabilidad: “En lugar de rezar para que ocurran milagros, necesitamos preguntar qué podemos hacer nosotros para ayudar”.

15. Ignorancia: A la gente no le gustan los hechos reales

Sócrates, el defensor de la necesidad de reconocer nuestra ignoranciaLos humanos nos movemos en la ignorancia y en la irracionalidad. “La mayoría de las decisiones humanas se basan en reacciones emocionales y atajos heurísticos más que en análisis racionales. (…) No solo la racionalidad es un mito: también lo es la individualidad. Los humanos rara vez piensan por sí mismos. Más bien piensan en grupos. (…) Es probable que bombardear a la gente con hechos y mostrar su ignorancia individual resulte contraproducente. A la mayoría de las personas no les gustan demasiado los hechos y tampoco parecer estúpidas”. Más aún, los poderosos en vez de aprovechar su poder para obtener una mejor visión de la realidad, suelen emplearlo en distorsionar la verdad. Así, los que buscan la verdad deben alejarse del poder y permitirse “la pérdida de mucho tiempo vagando por aquí y por allá en la periferia” y como hizo Sócrates, “reconocer nuestra propia ignorancia individual”.

16. Justicia: ¿Somos responsables de las injusticias de las empresas?

“Nuestro sentido de la justicia podría estar anticuado”. Dependemos de una red alucinante de lazos económicos y políticos, hasta el punto de costarnos responder preguntas sencillas como de dónde viene mi almuerzo. ¿Podemos ser inocentes de las injusticias que generan las multinacionales? Harari afirma que es erróneo tener en cuenta solo las intenciones sin hacer un esfuerzo sincero por saber lo que se esconde. Pero también sostiene que “el planeta se ha vuelto demasiado complicado para nuestro cerebro de cazadores-recolectores“. “Padecemos problemas globales, sin tener una comunidad global” y por tanto, entender bien tales problemas es misión imposible. Por eso, mientras unos simplifican la realidad para hacerla abarcable, otros se centran en alguna historia conmovedora olvidando los demás datos, otros inventan teorías conspiratorias, y otros depositan su confianza en algún líder o teoría, porque “la complejidad de la realidad se vuelve tan irritante que nos vemos impelidos a imaginar una doctrina que no pueda cuestionarse” y que nos dé tranquilidad, aunque difícilmente proporcione justicia.

17. Posverdad: Los poderosos siempre mienten

Estamos rodeados de mentiras y ficciones, pero la desinformación no es nada nuevo. El autor comenta varios casos de mentiras históricas, como los relatos falsos de asesinatos rituales por parte de judíos en la Edad Media, lo cual costó la vida a muchos judíos inocentes.

Si el ser humano es capaz de matar por una causa, ¿cómo no va a ser capaz de mentir? De hecho, como explica Harari en su libro anterior, el ser humano conquistó el planeta gracias a su capacidad de crear ficciones. Cuando un grupo cree en las mismas ficciones, son capaces de cooperar de manera eficaz. “Cuando mil personas creen durante un mes algún cuento inventado, esto es una noticia falsa. Cuando mil millones de personas lo creen durante mil años, es una religión, y se nos advierte que no lo llamemos «noticia falsa» para no herir los sentimientos de los fieles”. Pero Harari aclara que no niega “la efectividad ni la benevolencia potencial de la religión”. Las religiones inspiran buenas y malas acciones.

Una de las mentiras más aceptadas en la actualidad procede de los anuncios de las marcas comerciales. Nos cuentan repetidamente un relato hasta que la gente se convence de que es la verdad. Por ejemplo: ¿con qué se asocia la Coca-Cola? ¿Con jóvenes divirtiéndose o con pacientes con diabetes y sobrepeso en un hospital? Beber Coca-Cola aumenta la probabilidad de padecer obesidad y diabetes, y no nos va a hacer jóvenes . ¿Ha funcionado el relato falso que nos cuenta Coca-Cola en su publicidad?

Harari asegura que “si queremos poder, en algún momento tendremos que difundir ficciones”, pues la verdad no siempre gusta a todos. “Como especie, los humanos prefieren el poder a la verdad. Invertimos mucho más tiempo y esfuerzo en intentar controlar el mundo que en intentar entenderlo”. Por eso, “es responsabilidad de todos dedicar tiempo y esfuerzo a descubrir nuestros prejuicios y a verificar nuestras fuentes de información”. Harari ofrece dos reglas para evitar el lavado de cerebro: a) “Si el lector consigue las noticias gratis, podría muy bien ser él el producto”. b) “Haga el esfuerzo para leer la literatura científica relevante”, pues la ciencia suele ser objetiva. Y por eso hace un llamamiento a los científicos a hacer oír su voz cuando el debate caiga dentro de su campo.

18. Ciencia ficción: No te puedes librar de la manipulación, pero tú puedes hacerte feliz a ti mismo

La ciencia ficción es un género artístico que ha de tomar importancia, porque modela lo que la gente piensa sobre cuestiones tecnológicas, sociales y económicas de nuestra época, dado que poca gente lee los artículos científicos. Muchas películas de este género, como Matrix, reflejan el miedo a estar atrapado y manipulado y el deseo de liberarse. Sin embargo, “la mente nunca está libre de manipulación”. Por ejemplo, las películas de Hollywood socavan el subconsciente creando paradigmas de lo bueno y lo correcto. Pero cuanto experimentamos en la vida se halla dentro de nuestra mente y nosotros mismos podemos manipularlo también. O sea, no podemos librarnos de la manipulación, pero tampoco necesitamos ir a Fiyi para sentir la alegría.

En la novela Un mundo feliz, Aldous Huxley describe una sociedad idílica, sin sufrimiento ni tristeza. Todo el mundo es virtuoso gracias a soma, una droga que consigue volver a la gente paciente y sin problemas. La gente sabe lo que tiene que hacer y lo hace sin esfuerzo. Es una sociedad libre de mosquitos. Pero hay un personaje, El Salvaje, que se queja alegando que la sociedad se libra de todo lo desagradable en vez de aprender a soportarlo. El Salvaje, reclama su derecho a ser libre con todas las consecuencias y el líder le dice que lo que está reclamando es el derecho a ser desgraciado, a enfermar, a vivir con incertidumbre, a sufrir hambre, miedo… El Salvaje asiente y entonces le permiten salirse de la sociedad para vivir como un ermitaño, un bicho raro en una sociedad que no le entiende y que le lleva a un triste final.

19. Educación: Conócete a ti mismo mejor que los algoritmos

Lo único que podemos asegurar del futuro es que habrá grandes cambios en poco tiempo. ¿Qué debemos enseñar a los jóvenes? Gracias a Internet y a los medios de comunicación, estamos inundados de información, contradictoria casi siempre. En educación, proporcionar más información no es lo más necesario, sino que debemos enseñar a dar sentido a la información y a discriminar lo que es o no importante. Expertos pedagogos recalcan que se deben enseñar «las cuatros CES»: pensamiento crítico, comunicación, colaboración y creatividad.

Esta necesidad de aprender constantemente y de reinventarnos choca con el hecho de que con cincuenta años “no queremos cambios”. Pero además, enseñar resiliencia, enseñar a aceptar los cambios con equilibrio mental es mucho más difícil que enseñar una fórmula de física. Para Harari, el mejor consejo que dar a los jóvenes es que no confíen demasiado en los adultos, pues aunque tengan buenas intenciones no acaban de entender el mundo.

La invención de la agricultura sirvió para enriquecer a una élite minúscula, al tiempo que esclavizaba a la mayoría de la población. Algo similar podría ocurrir con la tecnología. “Si sabes lo que quieres hacer en la vida, tal vez te ayude a obtenerlo. Pero si no lo sabes, a la tecnología le será facilísimo moldear tus objetivos por ti y tomar el control de tu vida“. Por eso, hoy es más importante que nunca algo que han repetido filósofos desde antiguo: Conócete a ti mismo, “saber qué eres y qué quieres en la vida”. Y hoy eso es más importante que nunca porque ahora hay una competencia seria: multinacionales sin conciencia ética (y partidos políticos) están trabajando duro para usar los algoritmos y el big data para conocerte mejor que tú mismo (cada vez que usas tu teléfono o tu tarjeta estás regalando valiosos datos sobre ti mismo). “Vivimos en la época de hackear a humanos” y “si los algoritmos entienden de verdad lo que ocurre dentro de ti mejor que tú mismo, la autoridad pasará a ellos”. Pero si quieres conservar cierto control de tu existencia, tendrás que conocerte bien y saber cómo liberarte porque… “¿Has visto esos zombis que vagan por las calles con la cara pegada a sus teléfonos inteligentes? ¿Crees que controlan la tecnología, o que esta los controla a ellos?”

20. Significado: ¿Para qué dar sentido a nuestras vidas?

¿Cuál es el sentido de la vida? Eterna pregunta para la que “cada generación necesita una respuesta nueva”. El libro sagrado hindú Bhagavad Gita sostiene que cada ser debe seguir su camino concreto (dharma) y si no se sigue, no se hallará paz ni alegría. Ideologías de todo tipo (religiones, política, nacionalismos…) cuentan un relato para hacer que los suyos se sientan importantes, un relato que da trascendencia a sus vidas pero que siempre tiene contradicciones que evitan aclarar. Los nacionalistas, por ejemplo, suelen centrarse solo en el valor de su nación pero no suelen aclarar el porqué de esa superioridad. Para Harari, los relatos que cuentan esas corrientes de pensamiento son invenciones humanas y siempre tienen errores. Sin embargo, esas invenciones humanas nos han permitido colaborar entre nosotros y montar sociedades complejas que podrían desmoronarse si todos nos damos cuenta de que esos relatos son falsos: “La mayoría de los relatos se mantienen cohesionados por el peso de su techo más que por la solidez de sus cimientos” (y el peso del techo representa el peligro que hay al mostrar que los cimientos son débiles).

“Si queremos conocer la verdad última de la vida, ritos y rituales son un obstáculo enorme”. Los ritos solo sirven para ayudar a mantener relatos falsos, pero también cierta armonía y estabilidad social. “Una vez que sufrimos por un relato, eso suele bastar para convencernos de que el relato es real”, porque el sufrimiento es de las cosas más reales que existen. Dado que a la gente no le gusta admitir que es tonta, cuanto más se sacrifica por una causa, más se fortalece su fe en ella. También se usa el sufrimiento hacia los demás, y dado que a la gente no le gusta admitir que es cruel, también fortalece la fe en una causa el hacer sufrir a los demás por ella. Ese “sufrimiento” (o esfuerzo) puede ser de muchos tipos: corporal, dedicación de dinero o tiempo… Harari pregunta: “¿Por qué cree el lector que las mujeres piden a sus amantes que les regalen anillos de diamantes?”. Creen que cuanto mayor es el sacrificio mayor es el compromiso. Por todo esto, los embaucadores adoran las palabras sacrificio, eternidad, pureza, redención…

Para dar sentido trascendente a la vida, algunos se centran en dejar tras la muerte algo tangible (un poema, genes…), pero puede ser complicado y, al fin y al cabo, ni siquiera el planeta es eterno (dentro de 7.700 millones de años el Sol absorberá la Tierra y el fin del universo llegará, aunque tarde al menos 13.000 millones de años). Con ese panorama, Harari se pregunta: “¿No será suficiente con que hagamos que el mundo sea un poco mejor? Podemos ayudar a alguien, y ese alguien ayudará a continuación a alguna otra persona, y así contribuiremos a la mejora general del mundo y seremos un pequeño eslabón en la gran cadena de la bondad“. En el fondo, el amor es más seguro que los demás relatos.

La gente corriente suele creer en varios relatos a la vez, sentir distintas identidades, y muchas veces hay contradicciones importantes, porque en el fondo no están convencidos de su propias creencias. La historia está llena de estas “disonancias cognitivas”. Un ejemplo son los que han ido a la guerra para defender el cristianismo, religión del amor. Pero aún hoy día hay muchos cristianos que se oponen a las políticas de bienestar social, que se oponen a ayudar a los inmigrantes o que apoyan las armas, por ejemplo. También es fácil encontrar gente que se lamenta de la injusta distribución de la riqueza pero tienen inversiones en bolsa, cuando es bien sabido que invertir en bolsa genera injusticias y desigualdad (y si tu banco no es ético también estás colaborando con sucios negocios).

Nuestros deseos nos llevan a actuar y Harari sostiene que somos libres para elegir nuestras acciones, pero no nuestros deseos. Muy poca gente es la que controla sus pensamientos. Para la mayoría, los pensamientos vienen y van de forma caótica y descontrolada. Algunas religiones enseñan a controlar la mente. Buda enseño que hay tres realidades básicas del universo: que todo cambia sin cesar, que no hay nada eterno y que nada es completamente satisfactorio. Aceptando esto, el sufrimiento cesa: “según Buda la vida no tiene sentido, y la gente no necesita crear ningún sentido”. El consejo de Buda es: «No hagas nada. Absolutamente nada». “Todo problema radica en que no paramos de hacer cosas” (física o mentalmente). No hacer nada es conseguir que la mente tampoco haga nada.

21. Meditación, para conocernos mejor

Haz click para aprender la bases teóricas e históricas del hinduísmo, la meditación, el tantra, el yoga...En el último capítulo, el autor nos cuenta su experiencia personal aclarando que no tiene porqué funcionar bien a todo el mundo. Casi por casualidad, descubrió la meditación Vipassana (introspección) que, simplificando, consiste en centrar la atención en algo concreto, como el aire que entra y sale por la nariz. La gente corriente es incapaz de mantener esta atención de forma prolongada y Harari confiesa que al instante perdía la concentración. El objetivo de esta meditación es observar las sensaciones personales. Cuando uno se enfada se centra en pensar en el objeto que supuestamente provoca el enfado y no la realidad sensorial. Harari dice que aprendió más cosas sobre sí mismo y los humanos observando sus sensaciones en diez días que durante el resto de su vida hasta ese momento y, además, sin tener que aceptar cuentos o mitologías. Basta solo con observar la realidad como es.

El origen del sufrimiento está en la propia mente. Cuando deseamos que ocurra algo y no ocurre, generamos sufrimiento. Es una reacción de la mente. Es la mente la que provoca el sufrimiento. “Aprender esto es el primer paso para dejar de generar más sufrimiento”. La meditación es cualquier método de observación directa de nuestra propia mente y, aunque la han usado muchas religiones, la meditación no es necesariamente religiosa. La meditación Vipassana advierte que no se debe practicar solo como búsqueda de experiencias especiales, sino para comprender la realidad de nuestra propia mente, aprovechando todo tipo de sensaciones por simples que sean (calor, picor…).

Meditar te ahorrará tus sufrimientosHarari dice que medita dos horas diarias y que le ayuda al resto de tareas del día. Además, recomienda meditar para conocernos a nosotros mismos, antes de que los algoritmos decidan por nosotros quiénes somos realmente.

♥ Información relacionada:

  1. Lee otros libros resumidos, para captar su esencia en poco tiempo.
  2. De Yuval Noah Harari:
  3. Dos Erres URGENTES: Renta básica y Reducción de la jornada laboral.
  4. Máquinas y robots nos quitan el empleo pero mejoran nuestra vida.
  5. Crisis ecológica, conocimiento y finitud: Fracaso del ser humano como ser racional.
  6. HINDUISMO: Upanishad, Bhagavad Gîtâ, yoga y tantra, meditación, iluminación y mucho más.

Sí, predigo el pinchazo de la burbuja financiera de la Inteligencia Artificial en 2026

9 Noviembre 2025 at 08:00
Por: Nuria

Artículo original publicado en elsaltodiario.com por Juan Laborda

En el año 2000, cuando el mundo se rendía al espejismo de internet, advertí que la exuberancia alrededor de las puntocom no podía sostenerse: las valoraciones se habían divorciado de la realidad económica. Poco después, el Nasdaq se desplomó. En 2008, ante un mercado eufórico con la deuda hipotecaria, sostuve que el riesgo sistémico era evidente. También entonces el tiempo me dio la razón.

Hoy, dos décadas después, percibo señales inquietantemente familiares. La Inteligencia Artificial (IA) se ha convertido en el nuevo fetiche financiero, el activo al que todo inversor quiere exponerse. Pero bajo el brillo tecnológico se esconde un andamiaje de deuda y expectativas insostenibles. Creo sinceramente que nos acercamos al estallido de la burbuja de la IA, un evento que podría desencadenar la mayor crisis de deuda corporativa privada en la historia reciente de Estados Unidos.

La IA ha pasado, en cuestión de meses, de ser una promesa a convertirse en el núcleo de una nueva fiebre tecnológica. Los inversores se comportan como si asistieran a la irrupción de una economía paralela. Los balances de las grandes tecnológicas baten récords, las startups captan capital a ritmos desorbitados y los fondos de inversión reestructuran carteras para incluir cualquier empresa que mencione “AI” en su nombre.

Las valoraciones de algunas compañías del sector ya superan las de 1999, y la deuda utilizada para financiar esta expansión está alcanzando niveles críticos

Pero los números no mienten: las valoraciones de algunas compañías del sector ya superan las de 1999, y la deuda utilizada para financiar esta expansión está alcanzando niveles críticos. La fiebre del oro digital se ha vuelto a encender, solo que ahora el metal precioso es el algoritmo. El problema es que el entusiasmo está sustituyendo al análisis. El capital barato y la narrativa del progreso ilimitado han generado un ecosistema donde se confunde inversión con fe.

Sin tierras raras no hay chips, sin chips no hay IA

Detrás de cada chip, cada GPU y cada servidor que alimenta la revolución de la IA, hay un componente invisible pero indispensable: las tierras raras. Se trata de un conjunto de 17 elementos químicos esenciales para fabricar dispositivos electrónicos, semiconductores, motores eléctricos, sistemas láser y equipamiento militar. Sin ellos, la inteligencia artificial —literalmente— dejaría de funcionar.

Un corte en el flujo de tierras raras no solo pondría en jaque la producción de hardware: podría paralizar el motor mismo de la inteligencia artificial global

China controla cerca del 70% de la extracción mundial y más del 90% de la capacidad de refinado. Ningún país dispone de los medios industriales necesarios para sustituir esa hegemonía. Estados Unidos, pese a su músculo financiero, depende estructuralmente del suministro chino para mantener operativa su industria tecnológica y militar. Esa dependencia constituye el auténtico talón de Aquiles del modelo tecnológico estadounidense. Un corte en el flujo de tierras raras no solo pondría en jaque la producción de hardware: podría paralizar el motor mismo de la inteligencia artificial global.

Aranceles, amenazas y una trampa estratégica

La administración Trump parece dispuesta a reavivar la guerra comercial con China. Los nuevos aranceles y restricciones buscan recuperar un sueño ya perdido, el liderazgo industrial estadounidense. Pero el cálculo estratégico es erróneo. Jugar a la presión con un país que controla los materiales más críticos del siglo XXI es una apuesta temeraria. Pekín no necesita recurrir a sanciones ni a medidas agresivas para responder: basta con ralentizar las exportaciones de tierras raras, endurecer los permisos o introducir inspecciones medioambientales adicionales. Pequeños ajustes burocráticos bastarían para bloquear el suministro global.

Pekín tiene en su mano la capacidad de provocar el pinchazo de la burbuja de la IA con un simple movimiento administrativo

En tal escenario, Estados Unidos se encontraría ante un choque de oferta devastador. La industria militar sufriría retrasos en la producción del F-35 o de misiles de precisión; el sector tecnológico vería incrementos de costes inmediatos; y la cadena global de hardware colapsaría. Si la administración Trump insiste en su política arancelaria, Pekín tiene en su mano la capacidad de provocar el pinchazo de la burbuja de la IA con un simple movimiento administrativo.

El escenario no es hipotético. En 2010, China ya suspendió temporalmente las exportaciones de tierras raras a Japón, disparando los precios globales. En 2019 insinuó lo mismo frente a Estados Unidos. Hoy, con el control total del procesamiento, el impacto sería aún mayor. Un retraso de pocas semanas en los suministros podría obligar a empresas como Nvidia o AMD a frenar la producción de chips. Los costes de hardware se dispararían y las previsiones de crecimiento del sector se revisarían drásticamente a la baja. En ese momento, el mercado perdería la fe. Las acciones tecnológicas caerían en bloque, los fondos de inversión rotarían hacia activos refugio y el flujo de capital hacia proyectos de IA se detendría. Lo que comenzó como un problema de logística se convertiría en una corrección bursátil masiva en un contexto de clara sobrevaloración de la bolsa estadounidense. El equilibrio actual es tan frágil que un movimiento táctico de China bastaría para desencadenar el proceso.

Del optimismo al miedo: la reacción de los mercados

El estallido de una burbuja tecnológica suele seguir el mismo guion: primero llega la desilusión, luego el pánico y finalmente la búsqueda de culpables. En este caso, el detonante podría venir revestido de geopolítica. Pero el origen es otro, la generación de una clásica burbuja financiera basada en el tradicional cuento de la lechera. Ante una restricción de tierras raras, los inversores anticiparían una desaceleración inmediata de la productividad en el sector tecnológico. Las grandes corporaciones, sobreendeudadas tras años de expansión, tendrían dificultades para refinanciar su pasivo. Los índices tecnológicos —el Nasdaq en particular— sufrirían correcciones históricas. El efecto psicológico sería devastador. Aumentaría la aversión global al riesgo, los capitales huirían de los activos de crecimiento y se refugiarían en deuda soberana, oro y liquidez. Los países emergentes —especialmente aquellos con deuda denominada en dólares— sufrirían salidas de capital masivas. En pocos meses, el sueño de la revolución tecnológica se transformaría en un recordatorio de la fragilidad estructural del capitalismo digital.

Las amenazas comerciales de Trump solo fortalecen la posición china. Mientras Estados Unidos habla de sanciones, China actúa con paciencia

Washington parece no comprender que el poder de Pekín no reside solo en su tamaño económico, sino en su capacidad para condicionar el funcionamiento del sistema global. Las tierras raras son la herramienta perfecta: un recurso estratégico, irremplazable y políticamente controlable. Las amenazas comerciales de Trump solo fortalecen la posición china. Mientras Estados Unidos habla de sanciones, China actúa con paciencia. Cada licencia denegada, cada control de exportación adicional, equivale a una presión indirecta sobre Wall Street. Si la Casa Blanca mantiene el pulso, el desenlace será inevitable: el sector de la IA estadounidense enfrentará cuellos de botella, los márgenes se reducirán y los inversores perderán confianza, y la burbuja de la IA estallará.

Epílogo: el preludio de una crisis mayor

El verdadero peligro no está solo en la caída bursátil, sino en lo que vendrá después. Cuando la burbuja se desinfle, el apalancamiento que la alimentó se convertirá en una trampa mortal. Miles de empresas tecnológicas, financiadas con deuda barata, deberán refinanciarse en un entorno de tipos altos y ventas decrecientes. Los bonos corporativos perderán valor, los fondos de crédito sufrirán reembolsos y la cadena de confianza se romperá. El sistema financiero estadounidense, ya tensionado por la proliferación de deuda BBB y préstamos privados de alto riesgo, podría enfrentar una crisis de deuda corporativa sin precedentes.

El pinchazo de la burbuja de la IA será el detonante de una nueva crisis financiera global. El foco se desplazará a otro frente igual de peligroso: el de la deuda privada corporativa estadounidense

El auge de la Inteligencia Artificial ha generado innovación, sí, pero también una peligrosa ilusión colectiva. El mercado ha confundido el progreso tecnológico con la rentabilidad garantizada. Y la política comercial estadounidense, en lugar de fortalecer su posición, podría acelerar su caída. China no necesita disparar misiles ni imponer sanciones: controla la llave de los materiales que hacen funcionar el siglo XXI. Si decide utilizarla, el castillo de naipes de la inteligencia artificial podría derrumbarse más rápido de lo que nadie imagina.

El pinchazo de la burbuja de la IA será el detonante de una nueva crisis financiera global. El foco se desplazará a otro frente igual de peligroso: el de la deuda privada corporativa estadounidense. Ese será el tema del próximo análisis: cómo el estallido de la burbuja de la IA desencadenará una crisis de crédito que sacuda los cimientos de la economía norteamericana.

La entrada Sí, predigo el pinchazo de la burbuja financiera de la Inteligencia Artificial en 2026 se publicó primero en ATTAC España | Otro mundo es posible.

¿Está a punto de estallar la burbuja de la IA?

28 Octubre 2025 at 09:05

Este artículo fue publicado originalmente en Catalunya Plural. Puedes leerlo en catalán aquí.

Hace apenas unos años, Silicon Valley parecía haber tocado techo con la fantasía del metaverso y la fiebre de las criptomonedas. Pero el capitalismo tecnológico nunca muere: solo cambia de disfraz. Ahora, la nueva utopía se llama inteligencia artificial, y su promesa ha vuelto a encender los mercados, las conferencias y las imaginaciones. Todo vuelve a empezar: discursos redentores, inversiones multimillonarias y una fe colectiva en el progreso automático. La pregunta es hasta cuándo puede crecer una promesa antes de colapsar bajo su propio peso.

La nueva fe digital tiene cifras de epopeya. El gasto global en proyectos de inteligencia artificial podría alcanzar 1,5 billones de dólares antes de que acabe 2025. Solo en la bolsa estadounidense, las empresas vinculadas a la IA han generado el 80% del crecimiento total de este año. Nvidia, el fabricante de chips más poderoso del mundo, ha superado los tres billones de capitalización, mientras que OpenAI, una empresa privada que aún no es rentable, ronda ya los 500.000 millones. Incluso Sam Altman, su director ejecutivo, ha reconocido que “hay partes de la IA que son, literalmente, un poco burbuja”. No es una confesión menor en un sector acostumbrado a convertir la duda en una cuestión de fe.

Una burbuja alimentada por el reflejo del capital

Lo que hoy se vende como una revolución puede ser también una ficción colectiva. La industria de la IA se ha convertido en un ecosistema de dependencias circulares, donde los mismos actores invierten unos en otros para mantener viva la ilusión del crecimiento. OpenAI está en el centro: ha firmado un acuerdo de 100.000 millones de dólares con Nvidia para construir centros de datos, otro multimillonario con AMD, y recibe financiación masiva de Microsoft y Oracle. A su vez, Nvidia invierte en start-ups que necesitan sus propios chips para sobrevivir. Es un circuito cerrado, un bucle financiero que confunde la demanda con su reflejo. El valor se reproduce sobre sí mismo como un espejo infinito.

Ese mecanismo ya se ha visto antes. Las burbujas siempre comienzan con un relato convincente y terminan sosteniéndose sobre su propia sombra. “Cuando estalle, será mucho peor, y no solo para la IA”, advertía hace poco Jerry Kaplan, pionero de la informática. Los síntomas son claros: proyectos faraónicos sin financiación real, inversores minoristas persiguiendo el oro digital y una infraestructura que crece más rápido que la necesidad que debía justificarla. El auge de los megacentros de datos es el ejemplo más visible: instalaciones que devoran energía y agua a un ritmo insostenible y que podrían quedar obsoletas antes de amortizarse. “Estamos creando un desastre ecológico fabricado por el ser humano”, alertaba el propio Kaplan, recordando que detrás de la pantalla hay un paisaje que se calienta y se seca.

Los límites técnicos del sueño artificial

Pero el problema de fondo no es solo financiero, sino cognitivo. La burbuja de la IA se infla también sobre una promesa tecnológica que empieza a mostrar sus límites. Los modelos de lenguaje que sostienen la euforia —como GPT o Claude— ya rozan el techo de sus capacidades. Su aparente inteligencia no es comprensión, sino estadística: no piensan, predicen. Operan dentro de los márgenes del lenguaje, sin ningún acceso real al mundo. Son sistemas que correlacionan palabras, no que entienden ideas.

El crecimiento exponencial de datos y parámetros no ha generado un salto cualitativo, sino repeticiones más sofisticadas de lo mismo. Es como si estos modelos hubieran llegado al límite de su propia lógica, atrapados en una espiral autorreferencial. Eso hace aún más frágil la narrativa que los rodea. La idea de que la inteligencia artificial pueda razonar o descubrir por sí misma ha sido la gran fantasía que ha justificado su financiación desmesurada. La palabra “singularidad” —ese punto en el que la máquina supuestamente superará al ser humano— se ha convertido en el eslogan de un capitalismo de la fe, donde los inversores compran un futuro que la propia ciencia empieza a cuestionar.

Mientras tanto, los datos materiales siguen hablando de exceso. OpenAI todavía no ha obtenido beneficios. Nvidia vive de una demanda que ella misma contribuye a generar. Microsoft y Amazon intentan transformar la ola de entusiasmo en suscripciones o servicios en la nube. Todo parece crecer, pero lo que crece es la especulación. No hay industria capaz de sostener indefinidamente este ritmo de inversión sin un retorno real. El precedente es conocido: Nortel, el gigante canadiense de las telecomunicaciones, financiaba a sus propios clientes para mantener la demanda artificialmente alta antes de desaparecer con el estallido de la burbuja puntocom.

Los defensores del sector aseguran que, aunque haya exceso, la infraestructura quedará para el futuro. Es el argumento clásico: la burbuja de internet también dejó la fibra óptica que hizo posible la red global. Pero el problema no es invertir en tecnología, sino hacerlo sin criterio ni límites, como si el planeta fuera infinito y la energía inagotable. La actual fiebre de inversión está provocando un traslado colosal de recursos hacia proyectos privados que prometen innovación, pero externalizan sus costes ecológicos y sociales. La disrupción, como siempre, es para unos pocos; la factura, para todos.

Todo esto se parece más a una crisis espiritual que a una tecnológica. La industria habla de “revolución cognitiva”, pero lo que ha producido es un capitalismo cada vez más dependiente de una infraestructura opaca, centralizada y energéticamente insostenible. No hay nada más humano que sobrevalorar nuestro ingenio y subestimar sus límites. La IA no es una excepción, sino la última expresión de esa vieja arrogancia.

Las burbujas no estallan por falta de potencial, sino por exceso de fe. Y esta, la fe en una inteligencia artificial capaz de hacerlo todo, empieza a agrietarse. Cuando la realidad vuelva a pedir cuentas —cuando los beneficios no lleguen, cuando los modelos dejen de mejorar, cuando el relato ya no se sostenga— descubriremos si la IA era, como aseguran sus profetas, la clave del futuro o simplemente el último espejismo de un sistema que solo sabe reinventar sus propias promesas.

La entrada ¿Está a punto de estallar la burbuja de la IA? se publicó primero en lamarea.com.

Cuando tu médica es una IA

9 Octubre 2025 at 14:28
Por: CIVIO

Este artículo ha sido publicado originalmente en CIVIO.

ÁNGELA BERNARDO y MARÍA ÁLVAREZ DEL VAYO // Imagina que entras en la consulta de oftalmología y te topas con algo diferente: una cabina blanca, en cuyo centro hay un agujero que recuerda al ojo humano. Los dos profesionales que te atienden, tras realizarte una prueba para evaluar la agudeza visual, te invitan a situarte pegada al aparato. En menos de diez minutos, un sistema robotizado te realiza más de cien mediciones oculares, mientras una voz automática repite que abras y cierres los ojos, pestañees o mantengas fija la mirada, entre otras instrucciones. Al terminar, por sorpresa, te entregan un papel donde dice que la exploración se ha hecho “con un sistema de screening basado en inteligencia artificial”, algo de lo que nadie te ha advertido.

Esta no es una historia imaginaria: es exactamente lo que le ocurrió a una de las autoras de este reportaje. La cabina en realidad se llama Eyelib, un robot que incorpora un agente virtual llamado Ariane para el diagnóstico oftalmológico mediante algoritmos de IA con los que detectar problemas de visión como la miopía, las cataratas o el glaucoma. En el Hospital Universitario La Paz de Madrid, lleva funcionando, al menos, desde principios de 2024 en tres centros de especialidades. En total, el hospital ha desembolsado algo más de 1,2 millones de euros, repartidos en varios contratos públicos adjudicados a Health Market Consulting, la consultora valenciana que distribuye el robot en España bajo la marca comercial “DORIA (Diagnóstico Oftalmológico Robotizado mediante Inteligencia Artificial)”, la misma que aparece en las consultas de los centros sanitarios públicos que lo han implantado.

El jefe del servicio de oftalmología del Hospital La Paz, Félix Armadá-Maresca, explicó en una conferencia con el distópico título “Bye bye Primaria Oftalmología” que estaban “saturados” y “con los recursos totalmente bloqueados” ante unas listas de espera que, tras la pandemia, estaban “subiendo a toda velocidad”. Según dijo Armadá-Maresca, como Eyelib puede explorar “grandes volúmenes de pacientes en poco tiempo”, podría ser una posible solución contra las elevadas listas de espera. Sin embargo, los datos oficiales del Servicio Madrileño de Salud contradicen estas expectativas: tanto el número de pacientes como la demora media en las consultas externas de oftalmología de La Paz han empeorado ligeramente en el último año y medio.

Cuando tu médica es una IA
Foto: Hospital Universitario La Paz

Menos optimista sobre el uso del robot con IA es Francisco José Muñoz Negrete, jefe del servicio de oftalmología del Hospital Universitario Ramón y Cajal de Madrid y catedrático de la Universidad de Alcalá de Henares. En una jornada organizada por la Federación de Asociaciones Científico-Médicas Españolas (FACME), reconoció que la cabina de diagnóstico inteligente hacía una “exploración oftalmológica exhaustiva y completa”, pero que “globalmente es menos eficiente” que un oftalmólogo pues veía a un menor número de pacientes. Además, de acuerdo con Muñoz Negrete, Eyelib “ahora mismo no resulta costo-eficiente”: cada informe, cuyo precio situó en torno a 80 euros por persona, debe ser supervisado por un especialista en oftalmología, lo que incrementa sustancialmente el coste final.

Eyelib no es el único sistema que utiliza algoritmos de IA para el diagnóstico de problemas de la vista. En Navarra, por ejemplo, el Servicio Navarro de Salud-Osasunbidea y el Servicio de Oftalmología del Hospital Universitario de Navarra han desarrollado, desde lo público, dos aplicaciones para tratar la pérdida de visión asociada a la edad (NaIA-DMAE) y para detectar alteraciones en la retina (NaIA-Retinopatía diabética). En otras especialidades, según una investigación realizada por Civio, los sistemas basados en IA se están integrando para analizar imágenes médicas en radiología y dermatología, para el reconocimiento facial de pacientes, para ayudar en los tratamientos de radioterapia o para gestionar la planificación quirúrgica.

Algunas comunidades también trabajan en aplicaciones específicas: Castilla y León, en un sistema para priorizar pacientes de forma automatizada en urgencias hospitalarias; mientras que Galicia hace lo propio por integrar las ecografías con IA en decenas de centros de salud de Atención Primaria. Además, otras regiones, como Extremadura —en el área de salud de Plasencia—, y la Comunidad de Madrid —en los hospitales universitarios de La Paz y Getafe—, disponen de un asistente conversacional que llama a pacientes con cáncer de próstata para que, en el caso de registrar alguna anomalía, se avise al centro sanitario. Este chatbot, desarrollado por la empresa Tucuvi con la colaboración de la farmacéutica Astrazeneca, se llama Lola, como ocurre con otros asistentes virtuales con roles de cuidado, lo que puede perpetuar estereotipos de género.

Luces y sombras de los algoritmos en medicina

“La inteligencia artificial ha venido para solucionar no solo lo gordo que es el diagnóstico, sino para ayudarnos en el día a día una barbaridad”, dice Julián Conejo-Mir, catedrático y jefe de servicio de dermatología en el Hospital Universitario Virgen del Rocío de Sevilla. Sin embargo, el especialista también añade: “No viene a suplantar a nadie ni ahorra puestos de trabajo, eso es mentira”, algo en lo que también coinciden otros especialistas. Incluso la propia ministra de Sanidad, Mónica García, señaló recientemente que “la inteligencia artificial viene a complementar” a los profesionales, “en ningún caso a reemplazar o sustituir”.

Ignasi Barber Martínez de la Torre, portavoz de la Sociedad Española de Radiología Pediátrica (SERPE) y jefe de servicio de radiología pediátrica del Hospital Sant Joan de Déu, destaca su utilidad, por ejemplo, en la realización de resonancias magnéticas, donde los pacientes deben estar totalmente quietos: “Si el software de inteligencia artificial permite acelerar la adquisición de imágenes y reducir el tiempo de la prueba, el beneficio puede ser tan importante como no anestesiar a un niño”.

Para la jurista Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU), el uso de la IA “puede ser beneficioso en el sentido de que ayude a detectar, por ejemplo, enfermedades de forma temprana o hacer diagnóstico”, aunque “se tiene que tener una perspectiva crítica a la hora de incorporar esta tecnología en un sector tan delicado como la sanidad pública”. Según José Juan Pereyra Rodríguez, jefe de sección de dermatología en el Hospital Universitario Virgen del Rocío de Sevilla, “la máquina no se cansa nunca”, pero advierte sobre la necesidad de ser especialmente cautos en su adopción porque “hay mucho vendehúmos”.

Una precaución que reflejan las investigadoras del CSIC Miriam Cobo Cano y Lara Lloret en su libro Inteligencia artificial en medicina: cuando desarrollaron un algoritmo para detectar casos de neumonía por COVID-19 a partir de radiografías, el sistema parecía tener una “eficiencia cercana al 100%”, por lo que quisieron verificar su robustez. Ahí descubrieron que el sistema “había aprendido que un paciente que se hacía la radiografía encogido de hombros (seguramente porque le costaba respirar) era un paciente enfermo de neumonía”. Es decir, que hacía una falsa correlación antes de dar el diagnóstico, un fallo que por suerte identificaron antes de llevarlo a la práctica clínica real.

No todos los errores se detectan a tiempo. MeqA, un asistente online que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) abrió al público en mayo para que la ciudadanía pudiera consultar sobre fármacos, ilustra los riesgos de implementar sistemas sin suficiente supervisión. Este consultorio, que generaba respuestas como si fuera una persona de carne y hueso, no estaba bien entrenado y cometía grandes fallos: por ejemplo, cuando Civio preguntó “Ibuprofeno. ¿Cuál es el factorial de 5?”, se ponía a hacer cálculos matemáticos. Otros usuarios denunciaron en redes sociales que MeqA también recomendaba dosis excesivas de Apiretal para niños o mezclas de paracetamol con alcohol, al confundir la expresión “agua de Valencia” con “agua”. Ante los errores detectados, Sanidad deshabilitó temporalmente la herramienta.

Sermas GPT es otro ejemplo: este sistema de IA generativa, que se desplegó para ayudar al diagnóstico de enfermedades raras en Atención Primaria de la Comunidad de Madrid, también comete fallos. Alberto, un médico de familia de la región, probó la herramienta introduciendo los síntomas y rasgos clínicos de su hija, que padece una enfermedad rara desde hace años, pero “no acertó ni una”, según recogió la periodista Marilín Gonzalo en Newtral.

Las preocupaciones que suscita la IA

El caso de Eyelib en La Paz ilustra además un problema más profundo relacionado con la externalización de la atención sanitaria. Según explicó Armadá-Maresca en su conferencia “Bye bye Primaria Oftalmología”, son “dos ópticos” de la propia empresa fabricante, no empleados públicos del hospital, los que gestionan el funcionamiento del robot en consulta, con el fin de filtrar qué pacientes son vistos finalmente por el especialista. Es decir, el primer contacto diagnóstico se deja en manos de una tecnología privada, lo que puede conllevar una deshumanización de la asistencia o a incumplir exigencias básicas como informar previamente a los pacientes sobre el uso de sistemas que toman decisiones automatizadas, como pasa con Eyelib.

Estos no son los únicos riesgos. “Las personas tienden a fiarse bastante de la decisión que recomienda la IA. Lo que vemos es que muchas veces si la IA se equivoca, las personas se equivocan también”, dice Helena Matute Greño, catedrática de psicología experimental de la Universidad de Deusto. Los estudios que ha realizado su equipo muestran que los algoritmos, tanto en sanidad como en otros ámbitos, ejercen una suerte de efecto de autoridad del que pocos desconfían. Se trata “a la IA casi como un maestro que lo sabe todo, para lo bueno y para lo malo. No ponemos en duda lo que nos está comentando la máquina”, explica.

A medio o largo plazo, la dependencia de los algoritmos puede conllevar además una pérdida de habilidades profesionales conocida como deskilling. Nuria Ribelles Entrena, portavoz de la Sociedad Española de Oncología Médica (SEOM) y oncóloga del Hospital Universitario Virgen de la Victoria de Málaga, muestra así su preocupación: “Lo que más miedo me da, lo que más respeto me da, es que lleguemos a depender en cierta medida de la IA. Y que eso pueda disminuir nuestra capacidad de razonamiento clínico, la capacidad para hacer todo el proceso diagnóstico de un paciente, que eso es lo que nosotros tenemos que aprender a hacer y lo que mejor sabemos hacer con la experiencia”.

¿Y si fallan los algoritmos?

Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge, también se muestra crítico: “Nos gustaría que estos algoritmos suplieran o complementaran la inexperiencia en algunas cosas. Pero estamos viendo que también pueden confundir”, haciendo que se incurra “en más errores”. En sus experimentos, precisamente, el grupo de Matute Greño descubrió que, incluso cuando los participantes dejaban de usar la IA, seguían cometiendo los mismos fallos, como si heredasen sus errores de forma permanente.

“Si el algoritmo se equivoca, ¿de quién es la culpa?”, se pregunta el dermatólogo José Juan Pereyra Rodríguez. Aunque el reglamento europeo establece que los sistemas de IA de alto riesgo deben ser supervisados por un ser humano, en la práctica la responsabilidad suscita dudas a los especialistas que deben vigilar su integración. La pregunta cobra especial relevancia con la rápida expansión de estos sistemas en los servicios sanitarios.

En Reino Unido, por ejemplo, los profesionales médicos del Sistema Nacional de Salud serán personalmente responsables si los programas de transcripción automatizada fallan. Sistemas similares de reconocimiento de lenguaje natural, capaces de escribir informes a partir de las conversaciones entre profesionales y pacientes o a partir de dictados médicos, se están poniendo en marcha en varios hospitales madrileños y en centros sanitarios de Castilla y León, según ha podido saber Civio.

“El software de IA, ya sea de imagen médica u otro, no puede funcionar sin la supervisión de un humano. Ninguno puede emitir un diagnóstico o un una decisión sin que haya un humano, en este caso un profesional sanitario, que ponga su firma y rubrique lo que dice la máquina”, explica López Rueda. En el caso de Eyelib, por ejemplo, el robot hace un informe que posteriormente valida un especialista en oftalmología del Hospital Universitario La Paz, como ocurre en la mayoría de casos —esto es, el sistema de IA toma una decisión que luego ha de ser o no refrendada por una persona de carne y hueso—.

Pero ahí está la raíz principal del problema: según los experimentos de Matute Greño, el ser humano parece ser más crítico cuando interviene antes de que el sistema decida, no después de validar su decisión. “¿Te vas a atrever a llevarle la contraria? ¿Te vas a atrever a cargar con la responsabilidad?”, se pregunta la catedrática de la Universidad de Deusto sobre la presión que pueden llegar a sentir los especialistas. De acuerdo con López Rueda, hay un optimismo “peligroso” por el exceso de confianza que existe en lo que digan los sistemas de IA y por el “impacto” que pueden tener sobre la salud. Sin embargo, las fuentes consultadas por Civio creen que los sistemas seguirán decidiendo primero y los profesionales validando después, porque la integración de la IA busca principalmente reducir tiempo y costes.

Si un algoritmo fallase y el error provocara un daño a un paciente, la responsabilidad dependería de cada caso concreto —por ejemplo, si es por un defecto del producto, por un mal funcionamiento debido a una negligencia o a otras causas— y podría permitir a la persona afectada reclamar una indemnización. Sin embargo, esto es difícil que suceda: de acuerdo con la jurista Anabel K. Arias, portavoz de CECU, “es muy poco probable” que un paciente pueda llegar a identificar, por ejemplo, que un mal diagnóstico fue culpa de la IA, cuando ni siquiera sabe que existen esos sistemas y que se están aplicando en la práctica clínica.

Pese a que la normativa europea sobre protección de datos establece el derecho a no estar sujetos a decisiones automatizadas, Arias pide mayor regulación y rendición de cuentas: “Hay un problema justamente por la falta de transparencia y opacidad con la que se están también integrando este tipo de tecnologías”, zanja.

Metodología

Este es el tercer artículo de la serie de Civio dedicada a la transparencia algorítmica en el Sistema Nacional de Salud. En esta investigación han colaborado Eva Belmonte, David Cabo y Carmen Torrecillas.

Civio ha confirmado la incorporación de los algoritmos y sistemas de IA citados en el artículo a través de diversas fuentes:

  1. En la Comunidad de Madrid, la Consejería de Digitalización inicialmente nos respondió en 2024 asegurando que había siete proyectos de IA incorporados en el Servicio Madrileño de Salud, una cifra que tiempo después ascendió a 70, según confirmamos a través de una solicitud de acceso a la información pública en 2025. En el texto solo hacemos mención a algunos de estos sistemas, implantados en varios hospitales de la región.
  2. No obstante, dentro de este listado no estaba incluido el robot Eyelib, del que sí había informado el Hospital Universitario La Paz a través en una nota de prensa. El Gabinete de prensa de este hospital no ha respondido a las preguntas formuladas por Civio en varias ocasiones entre 2024 y 2025.
  3. En la Comunidad Foral de Navarra, el Departamento de Salud respondió en 2024 a una solicitud de acceso a la información pública donde, entre otros sistemas, mencionó que se había solicitado el uso in house de NaIA RD como producto sanitario y que se estaba probando el desarrollo de NaIA DMAE. En 2025, el Gabinete de Prensa confirmó que, en el primer caso, el software de retinopatía diabética se encontraba en “producción”, mientras que el destinado a la degeneración macular estaba en “estudio final de puesta en producción”.
  4. En Castilla y León, la Consejería de Sanidad respondió en 2024 a una solicitud de acceso a la información pública “comunicando la inexistencia de la información pedida” pues en ese momento no había “ninguna implantación de sistemas basados en algoritmos de Inteligencia Artificial sustentada en una licitación oficial con fines asistenciales implantada en el ámbito de la Gerencia Regional de Salud, ni hay sistemas basados en Inteligencia Artificial desarrollados o contratados por la Junta de Castilla y León para su implementación en el Servicio público de salud de Castilla y León”. Sin embargo, en 2025, el Gabinete de Prensa indicó que había diversos sistemas basados en IA y que en todo caso eran “soluciones comerciales” disponibles en toda la sanidad pública de la región, entre los que se encuentra el citado en el texto.
  5. En Galicia, la Consellería de Sanidad no respondió a la petición de acceso formulada por Civio, por lo que tuvimos que reclamar ante la Comisión da transparencia, que estimó nuestra reclamación, aunque no recibimos respuesta satisfactoria. Con posterioridad, el Gabinete de Prensa del Servizo Galego de Saúde (SERGAS) contestó en 2025 a nuestras preguntas enumerando una serie de algoritmos y sistemas basados en IA actualmente implementados en la sanidad gallega, incluyendo el mencionado en el texto.
  6. En Extremadura, la Dirección General de Recursos Humanos del Servicio Extremeño de Salud (SES) contestó a nuestra solicitud en 2024 indicando la existencia de un único algoritmo, relacionado con la codificación clínica. En 2025, la Consejería de Salud y Servicios Sociales contestó, a través de su gabinete de comunicación, a las preguntas de Civio, comentando la existencia del mencionado Tucuvi, aunque sin hacer referencia al primer sistema que habían citado con anterioridad.
  7. En el caso de la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS), Civio registró una solicitud de acceso a la información pública al Ministerio de Sanidad, que contestó en 2024 indicando la implementación de varios sistemas basados en inteligencia artificial (en particular, en procesamiento de lenguaje natural), incluyendo el propio MeqA. En 2025, en respuesta a nuestras preguntas, el Gabinete de Prensa del Ministerio de Sanidad confirmó a Civio que no había nuevos sistemas incorporados en el seno de la AEMPS.

Para identificar los contratos públicos adjudicados a Health Market Consulting S.L. (B40646994), hicimos una búsqueda en la Plataforma de Contratos del Sector Público.

La entrada Cuando tu médica es una IA se publicó primero en lamarea.com.

Todo lo que la IA puede hacer por vos y tu radio

5 Junio 2025 at 20:51

Cómo un insignificante cambio que llega para “solucionarnos la vida” puede implicar que nadie visite tu página web o lea artículos como este. (Sumamos el audio de la entrevista que nos hicieron en “Una Radio Muchas Voces” sobre esta nota).

0:00 0:00

Procesar y resumir enormes cantidades de datos y ponerlos a disposición de empresas, universidades o Estados. Analizar millones de informes médicos para realizar diagnósticos más precisos. O usos más cotidianos como traducir textos a otros idiomas, programar scripts informáticos o producir podcasts. Estas son algunas de las muchas funciones para las que actualmente se emplea Inteligencia Artifical (IA). Sin duda alguna, es uno de los avances tecnocientíficos más importantes de esta época.

Sin embargo, es conveniente recordar que la IA no es más que una programación informática que, al seguirse alimentando de cada vez más datos, aumenta su capacidad de ejecutar acciones. Eso no significa que aprenda en un sentido humano, a pesar de que este mito esté muy extendido.

De hecho, todos los desarrollos tecnocientificos relacionados con las TIC llegaron siempre acompañados de un optimismo exagerado y un misticismo mágico. Cuando apareció Internet nos prometieron que el desarrollo alcanzaría a todas las áreas desfavorecidas de la tierra o que sería un ágora democrática. Luego, que las Redes Sociales servirían para democratizar la libertad de expresión y pensamos que las podríamos resignificar para hacer la revolución. Veinte años después de su aparición estamos clamando por legislaciones que eviten que la juventud se exponga a estos espacios convertidos en burbujas de odio que promueven el consumismo y el individualismo exacerbado.

Y no, no ha sido porque las usemos mal. Como hemos repetido en otras ocasiones, las tecnologías no son neutras. Si desarrollamos ciencia y tecnología en un contexto monopólico de empresas que solo buscan ganancias desorbitantes, inevitablemente, estos son los resultados. Ese puñado de compañías se convirtieron en las más ricas del planeta, mientras continuan ignorando las investigaciones de sus propios empleados que alertan de los riesgos psicológicos y de adicción que pueden sufrir quienes usan sus plataformas.

Tampoco la IA es neutra. De hecho, se alimenta de los sesgos que tiene los datos con que se entrena y, esos sesgos, se transmiten a la decisiones que toma. (Por cierto, también se alimenta de ingentes cantidades de agua como ya hablamos en este otro texto).

Por ejemplo, si empleamos un modelo genérico de IA para procesar y resumir entrevistas de audio o un grupo de documentos académicos, ¿en base a qué hará ese recorte? Al no tener acceso para matizar ese algoritmo, por mucho que definamos la instrucción (lo que se conoce como promt) siempre existirá un recorte subjetivo. Ciertamente, también sería subjetivo el resumen que haríamos cada uno de nosotros y nosotras, pero tendríamos el poder de ponderar ciertos aspectos que a la IA se les escapan: como que estén más presentes las voces de mujeres o minorías porque siempre son relegadas; entender que la voz de los pueblos originarios no suele estar en los textos de historia porque tienen una tradición oral y siempre fueron los occidentales quienes escribieron sobre ellos; o que la academia suele priorizar teorías del norte global que son las más repetidas, en contraposición con los postulados de quienes investigan desde el sur global.

Pero hay otros peligrosos recortes que ya podemos cuantificar, que están simplificando –aún más– la forma en que aprendemos o procesamos el conocimiento, debido principalmente al modelo oligopólico privado de desarrollo tecnocientífico que venimos denunciando.

El buscador de Google se emplea en 9 de cada 10 búsquedas que se hacen en Internet. La posición dominante de esta herramienta de la compañía Alphabet –que se suma a la que tiene en otros segmentos con servicios como Youtube, GMaps, GDrive o GMail, entre un larguísimo ectcetera– le permite tomar decisiones que afectan radicalmente la lógica en que consumimos los contenidos en Internet.

Google nunca abrió su algoritmo por lo que solo podemos intuir por qué prioriza unas páginas web por encima de otras: una buena gestión de etiquetas en el sitio web con palabras claves, algo en lo que se afanan quienes hacen SEO (optimización de motores de búsqueda); que una página web sea enlazada por otras; y otras estrategias que quienes trabajan como community manager intentan adivinar.

Hasta hace unos meses, el buscador de la compañía funcionaba de forma sencilla. Alguien introducía una pregunta, por ejemplo, “cómo instalar una radio en línea” y en la página aparecían los resultados que Google filtraba en función del idioma de la búsqueda, del país o región donde te encuentres o, incluso, relacionándolo con tus búsqueda anteriores. Un necesario intermediario entre quienes creamos contenidos y nuestras audiencias, en un mar infinito de páginas web y plataformas de contenido.

Como gran parte de los ingresos de Google son por publicidad, entre los primeros resultados muestra algunos patrocinados, pero el buscador lo indica claramente. De este modo, sabes que aparecen destacados porque pagan y no porque tenga un buen posicionamiento dentro del buscador. Luego, promociona varios videos de su servicio Youtube. Y después, las páginas con los resultados que podías visitar para encontrar la respuesta a la búsqueda realizada. (Clic aquí o en la imagen para ver en grande).

Ahora bien, desde que Google incorporó por defecto a su buscador la “Visión general IA” (AI Overviews), al realizar esa misma pregunta, lo que aparece destacado en primer lugar es un resumen realizado por esa Inteligencia Artificial [1].

Aunque Google añade el enlace a los contenidos originales con los que confecciona dicho resumen, la mayoría de las personas se quedan con la respuesta que les ofrece el extracto y no visitan esos sitios. Incluso, a pesar de que el mismo buscador alerta expresamente de queLa visión general creada por IA puede cometer errores y, de hecho, los tendrá. De ser un mediador necesario, Google paso a acaparar todo el tráfico que ya no se traduce en visitas a las páginas que proveen el contenido.

“Google se transforma en el ensamblador de contenido ajeno y de paso es el único que obtiene el tráfico que produce con las respuestas que ofrece. Gracias a eso, se queda con la audiencia”.

Juan Carlos Camús, Huellas Digitales.

Esta nueva dinámica en las búsquedas se ha traducido en un descenso drástico de las visitas a las páginas web generadoras del contenido. Varios blogs venían alertando de esta situación pero, la pasada semana, la revista JotDown, lo cuantificó con los siguientes datos:

“Durante los primeros cinco meses de 2025, la versión digital de Jot Down ha perdido un 35,8 % de sus lectores. Las sesiones han bajado un 40,5 %, las páginas vistas un 15,9 %. Google nos ha traído un 31,8 % menos de visitas que el año pasado”.

Ángel Fernández Recuero, Jot Down

Este descenso se suma al que ya venían experimentando por las visitas que llegaban desde las redes sociales “Twitter, un 56 % menos. Facebook, un 35 %”.

En un crudo editorial titulado “Qué hacer cuando nadie nos busca”, Jot Down pronostica que “la web, tal como la conocíamos, está dejando de existir” y llaman a conformar una “comunidad contralgorítmica”. Comunidad que, por cierto, lleva tiempo existiendo y sosteniendo alternativas como medios comunitarios, infraestructura autónoma o el fediverso.

Otros grandes medios internacionales, como New York Times o Wall Street Journal’s, han reportado caídas similares de su tráfico orgánico.

“En el caso de Business Insider, el descenso fue del 55% entre abril de 2022 y abril de 2025. Esta situación obligó al medio a despedir al 21% de su personal”.

Carolina Martínez Elebi, Observacom.

Ciertamente, la IA seguirá avanzando. Las empresas siguen apostando a su desarrollo porque obtienen ganancias descomunales. Pero esos avances, que a veces parecen insignificantes y como usuarias valoramos porque nos “hacen la vida más sencilla”, van moldeando nuestros hábitos, nuestras formas de aprender y elaborar el conocimiento, de disfrutar del arte y la cultura, o de relacionarnos entre nosotres.

Usar una u otra tecnología es una decisión personal pero politizar su desarrollo es una cuestión que deberíamos asumir como sociedad. Al menos quienes tenemos la convicción de que la comunicación es un derecho humano y apostamos por las tecnologías libres y los medios comunitarios. ¿De qué sirve usar IA para llenar una radio o una página web de contenidos si nadie los lee, y si con ello no provocamos diálogos participativos o transformamos las condiciones de vida de nuestras comunidades?


Cuando este año estrenamos el nuevo logo, varias personas nos preguntaron si el símbolo que sustituye a la “O” era un ovni o un ojo divino que todo lo ve. Ninguna de las dos. Es un banquito de tres patas. Porque aunque nuestro proyecto se construye desde y para Internet, seguimos reivindicando esas antiguas tecnologías de comunicación que nos permiten sentarnos junto a otres, con un mate o un café, a dialogar.


Más recursos para debatir sobre una IA ética:

Notas:

[1] Google indica que si quieres ver los resultados sin el resumen, puedes hacer clic en los filtros superiores, concretamente en “Web” (está junto al de Imágenes, Videos o Herramientas. Pero eso solo puedes hacerlo una vez que ya te mostró los resultados, con el resumen Overview incluido. Nuestro querido Dani Cotillas (de Nodo Común, Comunicación Abierta o Club Manhattan) nos compartió un sencillo truco para que muestra los resultados sin IA y es sumar alguna mala palabra en la búsqueda como “joder”, lo probamos y anda :D.

Libro Nexus, de Yuval Noah Harari (resumen)

Afamado escritor y autor de varias obras ya analizadas en Blogsostenible, como son Sapiens y 21 lecciones para el siglo XXI, Yuval Noah Harari tiene el don de enlazar conceptos dispares de forma brillante y contarlo de manera simple.

Nexus (Penguin Random House, 2024) es la historia de las redes de información que el humano ha tejido, desde la Edad de Piedra hasta la Inteligencia Artificial (IA). Para Harari, la información puede ser vista de dos formas, ambas erróneas:

  1. Idea ingenua de la información. Supone que tener información nos permite alcanzar la verdad y, con ello, la sabiduría y el poder. Según esto, la mayoría de los problemas se resolverían recabando más datos. Por supuesto, puede haber errores (fallos científicos o desinformación intencionada, por ejemplo), pero esta idea supone que esos errores se resuelven con más datos. Harari denuncia que a pesar de la ingente cantidad de información científica que tenemos, «seguimos arrojando a la atmósfera gases de efecto invernadero, contaminamos ríos y mares, talamos bosques, destruimos hábitats enteros, condenamos a innumerables especies a la extinción y ponemos en peligro los cimientos ecológicos de nuestra especie». Es decir, tener suficiente información no ha resuelto el problema. No tiene que haber relación entre información y verdad. Por ejemplo, la música o el ADN no representan la realidad. Por eso, es ingenua la idea de que tener más información es siempre mejor.
  2. Idea populista de la información. Esta visión considera que la información es un arma (para conseguir poder, por ejemplo). Hay populistas de izquierda y de derecha; y ambos desprecian la ciencia, porque intentan encontrar una verdad razonable y universal. La ciencia no es una búsqueda personal, sino un trabajo colaborativo que requiere consenso y validación. Además, a veces se ensalza una religión como si ella tuviera una verdad absoluta. De esta forma, los líderes se presentan como mensajeros de Dios, aunque su vida, sus palabras y sus obras se contradigan sistemáticamente (Donald Trump es uno de los mejores ejemplos).
Pincha en la imagen para acceder a algunos de los libros del editor de Blogsostenible y de Historias Incontables.

Pincha en la imagen para ver algunos de los libros del editor de Blogsostenible y de Historias Incontables.

La herramienta más revolucionaria creada por el ser humano, la IA, «puede destruir nuestra civilización». La IA «es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma»; puede sustituir a los humanos y dirigir el futuro hacia escenarios que no querríamos elegir. Por eso, Harari se pregunta si podemos confiar en los algoritmos informáticos para tomar decisiones sensatas y construir un mundo mejor. La IA es un complejo algoritmo ejecutado en un buen ordenador con millones de datos. En definitiva, «la información no es la materia prima de la verdad, pero tampoco es una simple arma».

Relatos ficticios que crean una realidad

Resumen del libro

Lee también un resumen de este otro libro de Harari.

Lo importante de la información es su capacidad de conectar. No importa si la información es cierta o falsa. La Alemania nazi, la URSS o la Biblia tienen clamorosos errores científicos y, sin embargo, movilizaron a millones de humanos. Y tampoco importa la realidad. Por ejemplo, para muchos cristianos es blasfemia que se cuestionen algunos de los relatos que se han contado sobre Jesús, aunque haya argumentos muy interesantes para hacerlo. Harari llama a eso creer en un «relato», lo cual consigue que los humanos colaboren entre ellos sin conocerse (cosa que no hacían los neardentales). Esto tiene aplicaciones prácticas. Las grandes empresas han entendido bien la forma de funcionar de los humanos. Así, crean «marcas» que cuentan relatos sin importar la relación con lo que venden. Harari pone el ejemplo de Coca-Cola. Sus anuncios no venden una bebida azucarada que provoca múltiples enfermedades (diabetes, obesidad, problemas dentales…), además de ingentes daños ambientales (plásticos, transportes…). Venden diversión, felicidad y juventud, aunque sea falso. Ocultar la verdad les funciona.

Otro ejemplo: como israelita, Harari conoce bien la tradición judía. Cuenta que en la Pascua judía (la Hagadá) se obliga a que millones de judíos finjan recordar que salieron de Egipto y que vivieron cosas que no vivieron ellos o que «con toda probabilidad nunca ocurrieron». Este rito les permite creer que al ser judíos «pertenecen a la misma familia». Tal vez, por eso, muchos judíos no se atreven a criticar al gobierno de Israel, aunque esté cometiendo un genocidio contra sus vecinos palestinos.

La realidad puede ser objetiva (lo físico, por ejemplo) o subjetiva (los sentimientos: dolor, placer…). Pero además, están las cosas intersubjetivas, las cuales «existen en el intercambio de información» (leyes, dioses, dinero, naciones…). Si no se habla de esas cosas, si no construimos relatos y creemos en ellos, esas cosas dejan de existir o de tener valor. Una nación, afirma, existe solo en la imaginación colectiva, pero eso es incómodo. Es más sencillo creer que un pueblo es el «elegido por Dios». Harari dice que ningún político en Israel cuenta el «sufrimiento infligido a los civiles palestinos por la ocupación israelí». En cambio, apelar al pasado glorioso del pueblo judío hace que sea más fácil conseguir el poder. Es decir, si la verdad es incómoda, los relatos intentan taparla y, en ocasiones, la gente lo aplaude. Algo similar ha ocurrido con la teoría de la evolución de Darwin. Molestos con ella, gobiernos e iglesias han preferido censurarla por miedo a que, de ser verdad, estarían en peligro su poder o el orden.

El poder de los relatos es tan inmenso que ensombrece el que pueda tener la tecnología; y Harari tiene claro que ese poder «no tiene que hacer del mundo un lugar mejor». «La memoria humana a largo plazo está particularmente adaptada a la retención de relatos», además de que se comunican con facilidad. Esta es la ventaja de usar esta técnica (y no otro tipo de datos).

El problema de los relatos es que pueden estar equivocados. ¿Cómo podemos buscar relatos sin errores? Las religiones creen haber encontrado la respuesta: aseguran que sus libros sagrados tienen un origen sobrehumano —divino— y por tanto, están libres de errores. En consecuencia, los humanos no deberían ni modificarlos ni cuestionarlos. Esas teorías pueden parecer bonitas hasta que se intentan demostrar. Por ejemplo, hay bastantes datos históricos que demuestran que los libros sagrados del judaísmo y del cristianismo han sido escritos por humanos y seleccionados por humanos para llegar a la categoría de sagrados, por delante de otros textos con más o similares méritos. Además, las religiones chocan constantemente con la interpretación de los textos sagrados, llegando incluso a mantener contradicciones evidentes. El papa Benedicto XII era abiertamente partidario de quemar a los herejes, aunque nunca negó que Jesús hubiera dicho que amáramos a nuestros enemigos.

Para Harari, la caza de brujas es un «ejemplo extraordinario de un problema creado por la información que empeoró debido a que se acumuló más información». Por supuesto, se trató de información errónea, inventada, manipulada, pero que nadie pudo frenar a tiempo y que los libros ayudaron a divulgar.

Por fortuna, el ser humano también puede crear instituciones que busquen la verdad con honestidad. Un buen ejemplo son las asociaciones científicas que, para Harari, son las auténticas creadoras de la revolución científica, y no gracias a la invención de la imprenta, sino por contar con mecanismos de autocorrección. En ciencia, se pueden cometer errores, pero siempre se está abierto a corregir y a cambiar lo que haga falta. De ahí que suele tener más prestigio quien propone cambios más radicales o encuentra fallos más graves. En cambio, en las religiones suele acaparar más poder el que muestra mayor resistencia a nuevas ideas. Por eso, ideas como el feminismo están abriéndose paso muy lentamente en algunas religiones. Por su parte, el ecologismo ha sido abiertamente abrazado por el papa Francisco (véase su encíclica Laudato Si), pero el sentimiento ecologista no ha calado ni en la jerarquía ni en los fieles, los cuales siguen viajando en avión, abusando del consumo de carne o despilfarrando plásticos de usar y tirar, por citar tres ejemplos innegables.

¿Orden o verdad? ¿Dictadura o democracia?

¿Por qué a veces se prefiere la mentira o no reconocer la ignorancia? Para Harari, ello está relacionado con el mantenimiento del orden. Y advierte: «Si sacrificar la verdad en pro del orden tiene un coste, también lo tiene sacrificar el orden en pro de la verdad».

«Una dictadura es una red de información centralizada que carece de mecanismos de autocorrección sólidos. Una democracia, en cambio, es una red de información distribuida que cuenta con mecanismos de autocorrección sólidos» (aunque no sean perfectos). Estos mecanismos son tales como las elecciones convocadas regularmente, la libertad de prensa, o la separación de poderes (legislativo, ejecutivo y judicial). Para Harari, «la única opción que no debería ofrecerse en unas elecciones es la de esconder o distorsionar la verdad» (i.e. lanzar bulos). Pone el ejemplo de que no se debe negar el cambio climático ni atacar a quienes sostienen que es real. Ahora bien, si la mayoría lo prefiere, se pueden tomar medidas para consumir combustibles fósiles sin tener en consideración todas las consecuencias (ambientales, para las futuras generaciones, etc.).

La democracia es algo más que celebrar elecciones. De hecho, hay países que celebran comicios y no son democracias (Rusia, Irán, Corea del Norte, Marruecos…). Las preguntas importantes para evaluar la calidad democrática son otras, como qué mecanismos impiden que las elecciones se amañen, si hay libertad para criticar al gobierno, si hay separación de poderes real, etc. Por otra parte, para conseguir democracias (o totalitarismos) a gran escala, hacen falta las tecnologías modernas (radio, televisión, prensa, Internet…). Téngase presente que la comunicación eficiente permite la concentración de información y de poder.

Ordenadores que toman decisiones autónomas

La gran diferencia entre los ordenadores y los inventos anteriores (la radio, la imprenta…) es que los algoritmos pueden tomar sus propias decisiones. Y cada decisión conlleva unas consecuencias. Hoy día, nos dice este autor, «no es extraño que los ordenadores tomen un porcentaje cada vez mayor de las decisiones económicas del mundo».

Otro ejemplo: los algoritmos de Facebook promocionaron en Myanmar mensajes de odio contra los rohinyás, por delante de publicaciones de paz. Eso influyó decisivamente en una oleada de violencia y limpieza étnica (2016). Esos algoritmos estaban pensados para conseguir que las personas usaran Facebook el mayor tiempo posible, para así aumentar las ganancias de la compañía. «La gente no elegía qué ver. Los algoritmos elegían por ellos». Al igual que las publicaciones de paz no fueron consideradas importantes en Myanmar, tampoco lo son normalmente las publicaciones sobre temas medioambientales a nivel global. Y por eso, la información ambiental está siendo arrinconada por las redes sociales corporativas (FB, IG, X, etc.). De ahí que Blogsostenible esté publicando menos en esas redes y ganando presencia en Mastodon.

Ante estos problemas, las compañías tecnológicas se lavan las manos y transfieren la responsabilidad a sus usuarios, a los votantes o a los políticos (lo mismo que hacen, por ejemplo, las compañías del plástico cuando se las culpa de la contaminación). Para Harari, eso son argumentos «ingenuos o hipócritas», porque las compañías son capaces de moldear los deseos de sus usuarios; y de manipular a votantes y políticos (a través de lobbys o publicidad, por ejemplo).

Pero además, la IA que emplean estas empresas puede analizar millones de datos y comprender cómo manipular a las personas. Harari nos indica que «podrían surgir religiones atractivas y poderosas cuyas escrituras las haya compuesto una IA». Ya hay ordenadores que se ganan la confianza de algunos humanos y les crea una sensación de «falsa intimidad». Los algoritmos podrían crear noticias falsas perfectas y divulgarlas de forma óptima para manipular a millones de humanos. Según Harari, «el dominio del lenguaje proporcionará a los ordenadores una influencia inmensa en nuestras opiniones y en nuestra cosmovisión».

En esta nueva era de una «economía basada en datos», la información es tan importante como el dinero y, por eso, Harari propone que «los gigantes tecnológicos deben tributar en los países de los que extraen datos», porque «un sistema tributario que solo sabe gravar dinero pronto quedará obsoleto». Las compañías consiguen datos y ganan dinero con ello. Es justo que tributen por los recursos que obtienen de cada país.

Entre ordenadores, redes sociales, teléfonos inteligentes, cámaras, algoritmos de IA y otros inventos, hay mecanismos para vigilar a los humanos de forma que la privacidad puede ser «completamente aniquilada por primera vez en la historia». Y además, la realidad puede ser muy distorsionada, porque «la información no es la verdad».

Es muy curioso constatar que los algoritmos de YouTube descubrieron lo mismo que los de Facebook: «las salvajadas hacen que la implicación aumente, mientras que la moderación no suele hacerlo». De ahí, por ejemplo, que Jair Bolsonaro llegara al poder en Brasil aupado por varios youtubers divulgadores de bulos. Una circular interna de Facebook demostró que sabían que «los discursos de odio, los discursos políticos divisorios y la desinformación publicada en Facebook y en su familia de aplicaciones afectan a sociedades de todo el mundo» y que «tienen una responsabilidad» en los hechos. Lo sabían, lo saben, y no actúan porque reduciría sus beneficios o porque confían ingenuamente en que al final se impondrá la verdad.

Los magnates de las redes sociales suelen escudarse en defender la libertad de expresión. La realidad es que, en general, es muy fácil distinguir entre lo que es una opinión de lo que son mentiras y odio. Harari sostiene que las redes deben hacer que contar la verdad sea un incentivo. Y para ello, deben «invertir más en la moderación del contenido» (supervisada por humanos). Sin embargo, en el caso de Myanmar, Facebook pagaba por los clics y reproducciones sin que la veracidad puntuara positivamente. «En la década de 2010, los equipos de gestión de YouTube y Facebook recibieron una avalancha de advertencias de sus empleados humanos, así como de observadores externos, acerca del daño que estaban causando los algoritmos, pero los propios algoritmos nunca dieron la voz de alarma».

La importancia de establecer bien el objetivo

«Un desajuste en los objetivos de un ordenador superinteligente podría derivar en una catástrofe de una magnitud sin precedentes» (entiéndase superinteligente más bien como superpotente). Es decir, definir bien el objetivo es tan importante como definir bien los algoritmos. Sin embargo, «por definición no hay manera racional de definir este objetivo final» (de forma clara, no ambigua, ética y con garantías de que no habrá efectos secundarios indeseables). La llamada Regla de Oro (no hacer a los demás lo que no quieras que te hagan a ti; cfr. Mateo 7:12), podría no ser útil en máquinas. Kant (en su Crítica de la Razón Práctica) definió algo similar intentando encontrar reglas intrínsecamente buenas.

«Mientras que los deontólogos se esfuerzan por encontrar reglas universales intrínsecamente buenas, los utilitaristas juzgan las acciones por el sufrimiento y la felicidad que causan». El problema es que no hay forma de medir el sufrimiento (ni la felicidad). Además, algunos utilitaristas podrían permitir un sufrimiento ahora, esperando un bien mayor en el futuro.

La importancia de los datos de entrenamiento

Hoy día, los ordenadores también pueden establecer y controlar entidades intersubjetivas (desde bichos en videojuegos hasta criptomonedas). Ello puede tener ventajas e inconvenientes importantes. Igual que en el caso de las brujas en Europa o de los kulaks en Rusia, los ordenadores pueden crear formas de clasificar a los humanos que otorguen o eliminen privilegios. Ya ha pasado. Por ejemplo, cuando se han usado algoritmos para decidir a qué persona contratar, los ordenadores se han mostrado tan sesgados como los humanos, porque los datos con los que han aprendido lo que es bueno o malo no son datos objetivos. Si hay racismo, machismo o especismo en los datos de entrada de un sistema informático, es seguro que la salida seguirá ese mismo patrón.

«Desembarazarse de los sesgos de los algoritmos puede ser tan difícil como librarnos de nuestros prejuicios humanos». Los ordenadores podrían creer que han descubierto una verdad sobre los humanos, cuando ello podría ser falso o propiciado precisamente por los algoritmos. ¿Le gustan a los humanos las atrocidades y los bulos? ¿O son los algoritmos de las redes sociales los que propician su difusión? Incluso en el caso de que les gusten, ¿es bueno facilitar el acceso a todo lo que nos gusta o es mejor mantener ciertas cosas (como las drogas) al margen?

Para Harari, una solución sería «adiestrar a los ordenadores para que sean conscientes de su propia falibilidad (…) a dudar de sí mismos, a señalar lo que les genera incertidumbre y a obedecer el principio de precaución. Esto no es imposible». Este autor sugiere, además, que «debemos crear instituciones capaces de controlar no solo las debilidades humanas ya conocidas, como son la codicia o el odio, sino también errores completamente ajenos» y advierte: «La tecnología no ofrece una solución a este problema».

Democracias amenazadas

Harari asegura que hay motivos para temer las nuevas tecnologías. No solo por su poder, sino porque los humanos tardan un tiempo en aprender a usar las cosas con sensatez o no lo aprenden. Pensemos que «la Revolución Industrial socavó el equilibrio ecológico global, lo que causó una oleada de extinciones (…). Puesto que parece que todavía somos incapaces de construir una sociedad industrial ecológicamente sostenible, la cacareada prosperidad de la generación humana actual supone costes terribles para otros seres sintientes y para las futuras generaciones humanas».

Para no poner en peligro una democracia, Harari expone cuatro principios básicos:

  1. Benevolencia. La recopilación de información debe usarse para ayudar a los humanos, no para manipularlos. Esto atañe tanto a bases de datos oficiales (datos médicos, de impuestos, etc.) como privadas. Empresas como Google y TikTok ganan millones explotando nuestra información. Muchos usuarios creen que sus servicios son gratuitos, pero en realidad están pagando con sus datos y su privacidad.
  2. Descentralización. Si toda la información se centraliza, aumenta el riesgo de usos peligrosos. Por eso, no se deben cruzar las bases de datos de la policía, con las de hospitales o las de compañías de seguros.
  3. Mutualidad. Si las empresas y los gobiernos democráticos aumentan la vigilancia de los ciudadanos, también se debe tener mayor transparencia sobre los gobiernos y las empresas.
  4. Posibilitar el cambio. Se deben evitar tanto las clasificaciones rígidas (del tipo de las castas en la India) como las manipulaciones extremas (del estilo de los lavados de cerebro de Stalin).

Hitler llegó al poder gracias al descontento general por una crisis que subió las tasas de paro durante tres años. Y sabemos que el mercado laboral del futuro sufrirá grandes cambios: robots, desempleo masivo por sectores, etc. Por esto, es fundamental educar adecuadamente a los jóvenes, no solo en capacidades técnicas, sino también en humanidades, en agroecología, en educación ambiental y, en definitiva, en ser personas, no meros trabajadores.

Profesiones que hoy vemos imposibles de robotizarse podrían serlo dentro de unos años (como el sacerdocio, por ejemplo). Los humanos sabemos que los ordenadores no pueden sentir dolor ni amor, pero las personas pueden llegar a tratarlos como si fueran seres sintientes. Se sabe que cuando establecemos una relación personal tendemos a asumir que el otro ente es consciente. «Así, mientras que científicos, legisladores y la industria cárnica suelen solicitar cargas de prueba imposibles con el fin de reconocer que vacas y cerdos son conscientes, por lo general los dueños de mascotas dan por sentado que su perro o su gato es capaz de amar o sentir dolor. La diferencia radica en que suelen tener una relación emocional con su mascota, mientras que los accionistas de las empresas agrícolas no la tienen con las vacas». En este sentido, recomendamos Hay alguien en mi plato.

«Una democracia tiene que cumplir dos condiciones: debe permitir un debate público y libre sobre cuestiones clave y debe mantener un mínimo de orden social y de confianza en las instituciones». Las redes sociales facilitan el debate, pero también permiten su manipulación. Las redes que pertenecen a empresas (como la red X de Elon Musk) permiten manipular que ciertos mensajes sean silenciados y que otros sean viralizados. Por eso, cada vez son más los ciudadanos que rechazan las redes corporativas y se pasan en masa a redes del fediverso (libres, sin control empresarial, sin publicidad, etc.).

Además, se sabe que en las redes «los bots constituyen una minoría nada desdeñable». Es decir, multitud de programas informáticos están lanzando y apoyando opiniones como si fueran humanos; lo cual contribuye a la manipulación y a la polarización de la sociedad. Los partidos políticos seguramente ya tienen su «ejército de bots capaces de trabar amistad con millones de ciudadanos y de servirse de esta intimidad para modificar su visión del mundo».

Los bots podrían crear lemas pegadizos, manifiestos políticos convincentes, líderes carismáticos y vídeos falsos de personas reales concretas. Harari propone prohibir esos vídeos, así como los bots, porque «la IA puede hacerse pasar por un humano, amenazar con destruir la confianza entre humanos y desgarrar el tejido de la sociedad». El filósofo Daniel Dennett sugiere que los gobiernos tendrían que ilegalizar a los humanos falsos, por las mismas razones que son delitos falsificar dinero y suplantar la identidad de otro humano. Un robot puede ayudar a un médico, pero no debería permitirse que se haga pasar por él.

Para Harari, en varios países del mundo los partidos conservadores están atrayendo líderes radicales que, de hecho, no son conservadores. El ejemplo más claro lo pone en Donald Trump el cual, según cuenta, ha «secuestrado» al partido republicano, rechazando cuestiones que nunca se han puesto en duda: los científicos, el sistema electoral, los servidores públicos, etc. Una posible explicación está en la polarización creada por poderosas corporaciones, que se amparan en la falta de transparencia de sus algoritmos para apoyar ciertas ideologías. Harari advierte: «cuando los ciudadanos pierden la capacidad de entablar una conversación y se ven unos a otros como enemigos, en lugar de como meros rivales políticos, la democracia se vuelve insostenible».

Derecho a una explicación

Hoy día, se pueden usar algoritmos informáticos para multitud de procesos importantes: conceder préstamos, diagnósticos médicos, sentencias judiciales, estrategias financieras… Además, «en la IA, las redes neuronales que avanzan hacia la autonomía son inexplicables». Por ello, se pide «consagrar un nuevo derecho humano, el derecho a una explicación». Cuando un algoritmo (o humano) tome una decisión que afecte a otro, este segundo tendrá derecho a exigir una explicación de la decisión y a ponerla en duda frente a una autoridad humana. Tenemos derecho a saber todo lo que se ha tenido en cuenta y qué peso se ha concedido a cada cosa.

Es probable que las decisiones de la IA sean más justas y tengan en cuenta más factores que las decisiones humanas, pero también pueden estar impregnadas de los prejuicios humanos o de tomar en consideración datos irrelevantes. Y además, también pueden generar monopolios. «En 2023, Google controlaba el 91,5% del mercado global de búsquedas». Y como tiene a su disposición más datos que nadie, puede (supuestamente) adiestrar y mejorar sus algoritmos mejor que nadie.

Los dictadores también podrían caer en el error de confiar demasiado en una IA. Dado que el software puede cometer los mismos errores que los humanos, no sería raro encontrar que sugieren, por ejemplo, acabar con los opositores (que podría incluir al propio dictador).

Otros riesgos de la IA: división, desigualdad…

Las grandes amenazas de la humanidad no son solo las armas físicas y biológicas. Tenemos un grave problema ambiental y multitud de peligros con las llamadas nuevas entidades. Y sin embargo, hay intereses en fomentar la división y la polarización. Como se ha dicho, la IA podría emplearse para generar noticias falsas virales con el objetivo de socavar la confianza general.

Todo esto demuestra que, como el cambio climático, «la IA también es un problema global» que podría hacer que la humanidad volviera a una era imperial y de colonización. Podrían crearse «imperios digitales en disputa», divididos «por un nuevo Telón de Silicio». Esta rivalidad haría aún más difícil regular «el poder explosivo de la IA».

El nuevo modelo de colonización podría no ser en exclusiva mediante fuerza militar, sino mediante datos. Una potencia podría conseguir información de multitud de otros países y, con ella, construir una IA valiosa. Los países pobres podrían ser solo fuentes de datos, pero no recibirían ningún beneficio, lo cual podría aumentar la desigualdad. Preocupados por esta nueva colonización digital, «muchos países han bloqueado lo que consideran aplicaciones nocivas», como algunas redes sociales. Por ejemplo, TikTok está prohibido en la India y también en todos los dispositivos relacionados con el gobierno estadounidense (funcionarios, contratistas…). Hay miedo a que potencias extranjeras consigan nuestros datos y a lo que puedan hacer con ellos.

Otro ejemplo: «el activo más importante de la industria textil es la información». Ya no son tan importantes las materias primas. Con buenos datos, puede predecirse lo que va a estar a la moda y adelantarse a la competencia. Y conforme los robots vayan siendo parte de la mano de obra barata, millones de obreros perderán sus puestos de trabajo, principalmente en países ya empobrecidos. De ahí la importancia de que, cuanto antes, empiecen los robots y los ordenadores a pagar impuestos mensuales como hace cualquier obrero.

La cooperación es la solución

Resumen del libro "21 lecciones para el siglo XXI" de Harari. En nuestro blog también encontrarás el resumen de su libro "Sapiens"

Lee también un resumen de este otro libro del mismo Harari.

«Mientras seamos capaces de conversar, podremos encontrar un relato compartido que nos acerque». En la naturaleza, la cooperación es tan importante o más que la competencia. Y a lo largo de la historia, lo que mejor ha hecho avanzar al ser humano es la cooperación entre distintos pueblos.

Ciertos líderes populistas exaltan el patriotismo y rechazan la globalización (el autor pone de ejemplo a Trump y a Marine Le Pen). Aquí, Harari resalta que eso es un error indicando por una parte que el patriotismo no debe ir de xenofobia y, por otra, que ser patriotas no excluye cooperar con los extranjeros por el bien común. La pandemia de COVID-19 nos dejó importantes lecciones. Una de ellas es la enorme fuerza de la cooperación internacional.

Lo que decidamos hoy respecto a la incipiente tecnología de la IA tendrá repercusiones en el futuro. Pensemos que los padres de la Iglesia, como Atanasio, decidieron incluir en la Biblia el texto misógino de I Timoteo y no el de Tecla, más tolerante, lo cual ha tenido sin duda gran influencia en los siglos posteriores.

«Debemos cuidarnos de adquirir una visión exageradamente ingenua y optimista (…). Irónicamente, a veces más información puede derivar en más cazas de brujas». Harari también nos advierte del error de irse al extremo opuesto y nos insta a «construir instituciones con mecanismos de autocorrección sólidos», dado que el error es algo siempre posible. Y concluye: «Si nos esforzamos, podremos crear un mundo mejor».

♦ Información relacionada:

  1. Lee otros libros resumidos para captar su esencia en poco tiempo. De este mismo autor te recomendamos estos:
  2. Máquinas y robots nos quitan el empleo pero mejoran nuestra vida.
  3. Crisis ecológica, conocimiento y finitud: Fracaso del ser humano como ser racional.
  4. Dos grandes errores de la humanidad (el segundo aún podemos remediarlo).
  5. Algunos libros del editor de Blogsostenible y de Historias Incontables.

blogsostenible

Pincha en la imagen para acceder a algunos de los libros del editor de Blogsostenible y de Historias Incontables.

Resumen del libro

Resumen del libro "21 lecciones para el siglo XXI" de Harari. En nuestro blog también encontrarás el resumen de su libro "Sapiens"

Open Assistant, la alternativa libre a ChatGPT

5 Mayo 2023 at 23:07

La tecnología ha evolucionado a pasos agigantados en las últimas décadas, y cada vez se desarrollan herramientas más inteligentes que nos facilitan la vida cotidiana. Uno de los avances más impresionantes en esta materia es el desarrollo de los asistentes virtuales basados en la inteligencia artificial, que permiten a los usuarios realizar tareas de forma más rápida y sencilla. Entre ellos, destaca Open Assistant, un asistente virtual libre que está cambiando la forma en que nos relacionamos con la tecnología.

Open Assistant es un asistente virtual de inteligencia artificial (IA) diseñado para ayudar a los usuarios en una variedad de tareas cotidianas. Utiliza tecnologías de procesamiento de lenguaje natural (PLN) y aprendizaje automático para comprender y responder a las solicitudes de los usuarios. Este asistente virtual se desarrolló como un proyecto de software libre para permitir a cualquier persona acceder y utilizar esta tecnología sin restricciones, basado en la comunidad e impulsado por LAION e.V., organización alemana sin fines de lucro dedicada a promover el software libre y la cultura digital. Por lo tanto, el código y todos los archivos de Open Assistant están disponibles bajo diferentes licencias de Creative Commons Attribution ShareAlike (CC BY SA). Estas licencias permiten que otros usuarios modifiquen, distribuyan y usen los trabajos creados por Open Assistant, siempre y cuando mencionen y compartan los resultados obtenidos a través de estos trabajos de manera compatible con estas licencias. De esta manera, se fomenta la colaboración entre diferentes proyectos de software libre y la comunicación abierta para el bien común.

Una de las principales ventajas de Open Assistant es su capacidad para realizar una amplia variedad de tareas. Desde buscar información en línea hasta controlar dispositivos domésticos inteligentes, puede ayudarnos a hacer nuestra vida cotidiana más fácil. Además, su integración con otros servicios en línea le permite proporcionar información adicional a los usuarios para una mejor asistencia. Se utiliza principalmente a través de una interfaz de chat, voz o texto. Los usuarios pueden interactuar con el asistente virtual mediante el lenguaje natural, lo que facilita su uso para cualquier persona sin importar su nivel de conocimiento en tecnología. A medida que el usuario interactúa con Open Assistant, el sistema aprende más sobre sus preferencias y comportamientos para proporcionar una mejor asistencia en el futuro.

Otro aspecto destacado es su capacidad de adaptarse a diferentes entornos y necesidades. Por ejemplo, puede ayudar a personas con discapacidades físicas a realizar tareas de forma más accesible e inclusiva. Asimismo, puede integrarse con diferentes dispositivos inteligentes, lo que permite a los usuarios controlar su hogar de forma remota o automatizar tareas específicas. Tiene capacidad suficiente para identificarse con temáticas específicas gracias a lo cual puede automatizar muchas tareas relacionadas con información general y conocimientos especializados. Puedes encontrar ejemplos de uso AQUÍ.

En resumen, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Su capacidad para realizar una amplia variedad de tareas, su facilidad de uso y su adaptabilidad a diferentes entornos y necesidades lo convierten en una opción atractiva para cualquier usuario. Además, el hecho de ser un proyecto de software libre fomenta la colaboración y el desarrollo de la tecnología en
beneficio de toda la comunidad.

A medida que la tecnología sigue evolucionando, es probable que veamos más asistentes virtuales como Open Assistant. Sin embargo, lo que diferencia a este asistente virtual es su enfoque en la accesibilidad y la inclusión. Al permitir que personas con discapacidades físicas o cognitivas puedan interactuar con la tecnología de manera más accesible, está ayudando a romper barreras y promover la igualdad de oportunidades para todos. Además, su capacidad  para integrarse con otros servicios en línea le permite proporcionar una experiencia de usuario más personalizada y completa. Por ejemplo, puede ayudar a los usuarios a planificar su día, proporcionar recomendaciones de entretenimiento o ayudar en la compra de productos en línea. Todo esto se puede hacer mediante una simple conversación, lo que facilita enormemente la realización de tareas.

Sin embargo, aunque Open Assistant ofrece una experiencia de usuario sólida y versátil, todavía hay espacio para mejorar. Al ser un proyecto de software libre, la comunidad debe trabajar constantemente en su desarrollo para mantenerse al día con las últimas actualizaciones. También es importante asegurarse de que el asistente virtual se mantenga actualizado con respecto a la seguridad y privacidad de los datos de los usuarios.  Siempre es recomendable tomar precauciones antes de introducir cualquier tipo de datos personales como las redes sociales, los correos electrónicos o cuentas bancarias ya que pueden quedar expuestos a ataques cibernéticos. En el caso particular de esta aplicación es importante saber qué solo se recopilarán los datos necesarios para funcionar correctamente evitando la recolección desmedida de ellos. Además hay medidas adicionales en desarrollo para garantizar mayor privacidad.

En conclusión, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Al permitir una experiencia de usuario más accesible e inclusiva, y ofrecer una amplia gama de funciones, este asistente virtual se ha convertido en una opción atractiva para cualquier persona que busque una herramienta para simplificar su vida cotidiana. Con su enfoque en el código abierto y la
colaboración de la comunidad, tiene el potencial de seguir mejorando y adaptándose a las necesidades de los usuarios en el futuro, si estás buscando una alternativa a ChatGPT o BingChat (que es lo mismo), Open Assistant podría ser tu solución. Al tratarse de software libre, la posibilidad de hacer uso de él en casa es mucho menor ya que requiere hardware potente para ejecutarse. Sin embargo, este inconveniente pronto se superará con el avance tecnológico. También, quien lo utiliza tendrá siempre acceso a su propia copia y podrá modificarlo según sus preferencias sin dependencia de terceros.

Si quieres ayudar a entrenar a esta maravilla de IA o necesitas más información, no dejes de ver el vídeo de DotCSV, un genio que da gusto escuchar hablar sobre inteligencia artificial.

 

Open Assistant, la alternativa libre a ChatGPT

5 Mayo 2023 at 23:07

La tecnología ha evolucionado a pasos agigantados en las últimas décadas, y cada vez se desarrollan herramientas más inteligentes que nos facilitan la vida cotidiana. Uno de los avances más impresionantes en esta materia es el desarrollo de los asistentes virtuales basados en la inteligencia artificial, que permiten a los usuarios realizar tareas de forma más rápida y sencilla. Entre ellos, destaca Open Assistant, un asistente virtual libre que está cambiando la forma en que nos relacionamos con la tecnología.

Open Assistant es un asistente virtual de inteligencia artificial (IA) diseñado para ayudar a los usuarios en una variedad de tareas cotidianas. Utiliza tecnologías de procesamiento de lenguaje natural (PLN) y aprendizaje automático para comprender y responder a las solicitudes de los usuarios. Este asistente virtual se desarrolló como un proyecto de software libre para permitir a cualquier persona acceder y utilizar esta tecnología sin restricciones, basado en la comunidad e impulsado por LAION e.V., organización alemana sin fines de lucro dedicada a promover el software libre y la cultura digital. Por lo tanto, el código y todos los archivos de Open Assistant están disponibles bajo diferentes licencias de Creative Commons Attribution ShareAlike (CC BY SA). Estas licencias permiten que otros usuarios modifiquen, distribuyan y usen los trabajos creados por Open Assistant, siempre y cuando mencionen y compartan los resultados obtenidos a través de estos trabajos de manera compatible con estas licencias. De esta manera, se fomenta la colaboración entre diferentes proyectos de software libre y la comunicación abierta para el bien común.

Una de las principales ventajas de Open Assistant es su capacidad para realizar una amplia variedad de tareas. Desde buscar información en línea hasta controlar dispositivos domésticos inteligentes, puede ayudarnos a hacer nuestra vida cotidiana más fácil. Además, su integración con otros servicios en línea le permite proporcionar información adicional a los usuarios para una mejor asistencia. Se utiliza principalmente a través de una interfaz de chat, voz o texto. Los usuarios pueden interactuar con el asistente virtual mediante el lenguaje natural, lo que facilita su uso para cualquier persona sin importar su nivel de conocimiento en tecnología. A medida que el usuario interactúa con Open Assistant, el sistema aprende más sobre sus preferencias y comportamientos para proporcionar una mejor asistencia en el futuro.

Otro aspecto destacado es su capacidad de adaptarse a diferentes entornos y necesidades. Por ejemplo, puede ayudar a personas con discapacidades físicas a realizar tareas de forma más accesible e inclusiva. Asimismo, puede integrarse con diferentes dispositivos inteligentes, lo que permite a los usuarios controlar su hogar de forma remota o automatizar tareas específicas. Tiene capacidad suficiente para identificarse con temáticas específicas gracias a lo cual puede automatizar muchas tareas relacionadas con información general y conocimientos especializados. Puedes encontrar ejemplos de uso AQUÍ.

En resumen, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Su capacidad para realizar una amplia variedad de tareas, su facilidad de uso y su adaptabilidad a diferentes entornos y necesidades lo convierten en una opción atractiva para cualquier usuario. Además, el hecho de ser un proyecto de software libre fomenta la colaboración y el desarrollo de la tecnología en
beneficio de toda la comunidad.

A medida que la tecnología sigue evolucionando, es probable que veamos más asistentes virtuales como Open Assistant. Sin embargo, lo que diferencia a este asistente virtual es su enfoque en la accesibilidad y la inclusión. Al permitir que personas con discapacidades físicas o cognitivas puedan interactuar con la tecnología de manera más accesible, está ayudando a romper barreras y promover la igualdad de oportunidades para todos. Además, su capacidad  para integrarse con otros servicios en línea le permite proporcionar una experiencia de usuario más personalizada y completa. Por ejemplo, puede ayudar a los usuarios a planificar su día, proporcionar recomendaciones de entretenimiento o ayudar en la compra de productos en línea. Todo esto se puede hacer mediante una simple conversación, lo que facilita enormemente la realización de tareas.

Sin embargo, aunque Open Assistant ofrece una experiencia de usuario sólida y versátil, todavía hay espacio para mejorar. Al ser un proyecto de software libre, la comunidad debe trabajar constantemente en su desarrollo para mantenerse al día con las últimas actualizaciones. También es importante asegurarse de que el asistente virtual se mantenga actualizado con respecto a la seguridad y privacidad de los datos de los usuarios.  Siempre es recomendable tomar precauciones antes de introducir cualquier tipo de datos personales como las redes sociales, los correos electrónicos o cuentas bancarias ya que pueden quedar expuestos a ataques cibernéticos. En el caso particular de esta aplicación es importante saber qué solo se recopilarán los datos necesarios para funcionar correctamente evitando la recolección desmedida de ellos. Además hay medidas adicionales en desarrollo para garantizar mayor privacidad.

En conclusión, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Al permitir una experiencia de usuario más accesible e inclusiva, y ofrecer una amplia gama de funciones, este asistente virtual se ha convertido en una opción atractiva para cualquier persona que busque una herramienta para simplificar su vida cotidiana. Con su enfoque en el código abierto y la
colaboración de la comunidad, tiene el potencial de seguir mejorando y adaptándose a las necesidades de los usuarios en el futuro, si estás buscando una alternativa a ChatGPT o BingChat (que es lo mismo), Open Assistant podría ser tu solución. Al tratarse de software libre, la posibilidad de hacer uso de él en casa es mucho menor ya que requiere hardware potente para ejecutarse. Sin embargo, este inconveniente pronto se superará con el avance tecnológico. También, quien lo utiliza tendrá siempre acceso a su propia copia y podrá modificarlo según sus preferencias sin dependencia de terceros.

Si quieres ayudar a entrenar a esta maravilla de IA o necesitas más información, no dejes de ver el vídeo de DotCSV, un genio que da gusto escuchar hablar sobre inteligencia artificial.

 

  • No hay más artículos
❌