Afamado escritor y autor de varias obras ya analizadas en Blogsostenible, como son Sapiens y 21 lecciones para el siglo XXI, Yuval Noah Harari tiene el don de enlazar conceptos dispares de forma brillante y contarlo de manera simple.
Nexus (Penguin Random House, 2024) es la historia de las redes de información que el humano ha tejido, desde la Edad de Piedra hasta la Inteligencia Artificial (IA). Para Harari, la información puede ser vista de dos formas, ambas erróneas:
- Idea ingenua de la información. Supone que tener información nos permite alcanzar la verdad y, con ello, la sabiduría y el poder. Según esto, la mayoría de los problemas se resolverían recabando más datos. Por supuesto, puede haber errores (fallos científicos o desinformación intencionada, por ejemplo), pero esta idea supone que esos errores se resuelven con más datos. Harari denuncia que a pesar de la ingente cantidad de información científica que tenemos, «seguimos arrojando a la atmósfera gases de efecto invernadero, contaminamos ríos y mares, talamos bosques, destruimos hábitats enteros, condenamos a innumerables especies a la extinción y ponemos en peligro los cimientos ecológicos de nuestra especie». Es decir, tener suficiente información no ha resuelto el problema. No tiene que haber relación entre información y verdad. Por ejemplo, la música o el ADN no representan la realidad. Por eso, es ingenua la idea de que tener más información es siempre mejor.
- Idea populista de la información. Esta visión considera que la información es un arma (para conseguir poder, por ejemplo). Hay populistas de izquierda y de derecha; y ambos desprecian la ciencia, porque intentan encontrar una verdad razonable y universal. La ciencia no es una búsqueda personal, sino un trabajo colaborativo que requiere consenso y validación. Además, a veces se ensalza una religión como si ella tuviera una verdad absoluta. De esta forma, los líderes se presentan como mensajeros de Dios, aunque su vida, sus palabras y sus obras se contradigan sistemáticamente (Donald Trump es uno de los mejores ejemplos).

Pincha en la imagen para ver algunos de los libros del editor de Blogsostenible y de Historias Incontables.
La herramienta más revolucionaria creada por el ser humano, la IA, «puede destruir nuestra civilización». La IA «es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma»; puede sustituir a los humanos y dirigir el futuro hacia escenarios que no querríamos elegir. Por eso, Harari se pregunta si podemos confiar en los algoritmos informáticos para tomar decisiones sensatas y construir un mundo mejor. La IA es un complejo algoritmo ejecutado en un buen ordenador con millones de datos. En definitiva, «la información no es la materia prima de la verdad, pero tampoco es una simple arma».
Relatos ficticios que crean una realidad

Lee también un resumen de este otro libro de Harari.
Lo importante de la información es su capacidad de conectar. No importa si la información es cierta o falsa. La Alemania nazi, la URSS o la Biblia tienen clamorosos errores científicos y, sin embargo, movilizaron a millones de humanos. Y tampoco importa la realidad. Por ejemplo, para muchos cristianos es blasfemia que se cuestionen algunos de los relatos que se han contado sobre Jesús, aunque haya argumentos muy interesantes para hacerlo. Harari llama a eso creer en un «relato», lo cual consigue que los humanos colaboren entre ellos sin conocerse (cosa que no hacían los neardentales). Esto tiene aplicaciones prácticas. Las grandes empresas han entendido bien la forma de funcionar de los humanos. Así, crean «marcas» que cuentan relatos sin importar la relación con lo que venden. Harari pone el ejemplo de Coca-Cola. Sus anuncios no venden una bebida azucarada que provoca múltiples enfermedades (diabetes, obesidad, problemas dentales…), además de ingentes daños ambientales (plásticos, transportes…). Venden diversión, felicidad y juventud, aunque sea falso. Ocultar la verdad les funciona.
Otro ejemplo: como israelita, Harari conoce bien la tradición judía. Cuenta que en la Pascua judía (la Hagadá) se obliga a que millones de judíos finjan recordar que salieron de Egipto y que vivieron cosas que no vivieron ellos o que «con toda probabilidad nunca ocurrieron». Este rito les permite creer que al ser judíos «pertenecen a la misma familia». Tal vez, por eso, muchos judíos no se atreven a criticar al gobierno de Israel, aunque esté cometiendo un genocidio contra sus vecinos palestinos.
La realidad puede ser objetiva (lo físico, por ejemplo) o subjetiva (los sentimientos: dolor, placer…). Pero además, están las cosas intersubjetivas, las cuales «existen en el intercambio de información» (leyes, dioses, dinero, naciones…). Si no se habla de esas cosas, si no construimos relatos y creemos en ellos, esas cosas dejan de existir o de tener valor. Una nación, afirma, existe solo en la imaginación colectiva, pero eso es incómodo. Es más sencillo creer que un pueblo es el «elegido por Dios». Harari dice que ningún político en Israel cuenta el «sufrimiento infligido a los civiles palestinos por la ocupación israelí». En cambio, apelar al pasado glorioso del pueblo judío hace que sea más fácil conseguir el poder. Es decir, si la verdad es incómoda, los relatos intentan taparla y, en ocasiones, la gente lo aplaude. Algo similar ha ocurrido con la teoría de la evolución de Darwin. Molestos con ella, gobiernos e iglesias han preferido censurarla por miedo a que, de ser verdad, estarían en peligro su poder o el orden.
El poder de los relatos es tan inmenso que ensombrece el que pueda tener la tecnología; y Harari tiene claro que ese poder «no tiene que hacer del mundo un lugar mejor». «La memoria humana a largo plazo está particularmente adaptada a la retención de relatos», además de que se comunican con facilidad. Esta es la ventaja de usar esta técnica (y no otro tipo de datos).
El problema de los relatos es que pueden estar equivocados. ¿Cómo podemos buscar relatos sin errores? Las religiones creen haber encontrado la respuesta: aseguran que sus libros sagrados tienen un origen sobrehumano —divino— y por tanto, están libres de errores. En consecuencia, los humanos no deberían ni modificarlos ni cuestionarlos. Esas teorías pueden parecer bonitas hasta que se intentan demostrar. Por ejemplo, hay bastantes datos históricos que demuestran que los libros sagrados del judaísmo y del cristianismo han sido escritos por humanos y seleccionados por humanos para llegar a la categoría de sagrados, por delante de otros textos con más o similares méritos. Además, las religiones chocan constantemente con la interpretación de los textos sagrados, llegando incluso a mantener contradicciones evidentes. El papa Benedicto XII era abiertamente partidario de quemar a los herejes, aunque nunca negó que Jesús hubiera dicho que amáramos a nuestros enemigos.
Para Harari, la caza de brujas es un «ejemplo extraordinario de un problema creado por la información que empeoró debido a que se acumuló más información». Por supuesto, se trató de información errónea, inventada, manipulada, pero que nadie pudo frenar a tiempo y que los libros ayudaron a divulgar.
Por fortuna, el ser humano también puede crear instituciones que busquen la verdad con honestidad. Un buen ejemplo son las asociaciones científicas que, para Harari, son las auténticas creadoras de la revolución científica, y no gracias a la invención de la imprenta, sino por contar con mecanismos de autocorrección. En ciencia, se pueden cometer errores, pero siempre se está abierto a corregir y a cambiar lo que haga falta. De ahí que suele tener más prestigio quien propone cambios más radicales o encuentra fallos más graves. En cambio, en las religiones suele acaparar más poder el que muestra mayor resistencia a nuevas ideas. Por eso, ideas como el feminismo están abriéndose paso muy lentamente en algunas religiones. Por su parte, el ecologismo ha sido abiertamente abrazado por el papa Francisco (véase su encíclica Laudato Si), pero el sentimiento ecologista no ha calado ni en la jerarquía ni en los fieles, los cuales siguen viajando en avión, abusando del consumo de carne o despilfarrando plásticos de usar y tirar, por citar tres ejemplos innegables.
¿Orden o verdad? ¿Dictadura o democracia?
¿Por qué a veces se prefiere la mentira o no reconocer la ignorancia? Para Harari, ello está relacionado con el mantenimiento del orden. Y advierte: «Si sacrificar la verdad en pro del orden tiene un coste, también lo tiene sacrificar el orden en pro de la verdad».
«Una dictadura es una red de información centralizada que carece de mecanismos de autocorrección sólidos. Una democracia, en cambio, es una red de información distribuida que cuenta con mecanismos de autocorrección sólidos» (aunque no sean perfectos). Estos mecanismos son tales como las elecciones convocadas regularmente, la libertad de prensa, o la separación de poderes (legislativo, ejecutivo y judicial). Para Harari, «la única opción que no debería ofrecerse en unas elecciones es la de esconder o distorsionar la verdad» (i.e. lanzar bulos). Pone el ejemplo de que no se debe negar el cambio climático ni atacar a quienes sostienen que es real. Ahora bien, si la mayoría lo prefiere, se pueden tomar medidas para consumir combustibles fósiles sin tener en consideración todas las consecuencias (ambientales, para las futuras generaciones, etc.).
La democracia es algo más que celebrar elecciones. De hecho, hay países que celebran comicios y no son democracias (Rusia, Irán, Corea del Norte, Marruecos…). Las preguntas importantes para evaluar la calidad democrática son otras, como qué mecanismos impiden que las elecciones se amañen, si hay libertad para criticar al gobierno, si hay separación de poderes real, etc. Por otra parte, para conseguir democracias (o totalitarismos) a gran escala, hacen falta las tecnologías modernas (radio, televisión, prensa, Internet…). Téngase presente que la comunicación eficiente permite la concentración de información y de poder.
Ordenadores que toman decisiones autónomas
La gran diferencia entre los ordenadores y los inventos anteriores (la radio, la imprenta…) es que los algoritmos pueden tomar sus propias decisiones. Y cada decisión conlleva unas consecuencias. Hoy día, nos dice este autor, «no es extraño que los ordenadores tomen un porcentaje cada vez mayor de las decisiones económicas del mundo».
Otro ejemplo: los algoritmos de Facebook promocionaron en Myanmar mensajes de odio contra los rohinyás, por delante de publicaciones de paz. Eso influyó decisivamente en una oleada de violencia y limpieza étnica (2016). Esos algoritmos estaban pensados para conseguir que las personas usaran Facebook el mayor tiempo posible, para así aumentar las ganancias de la compañía. «La gente no elegía qué ver. Los algoritmos elegían por ellos». Al igual que las publicaciones de paz no fueron consideradas importantes en Myanmar, tampoco lo son normalmente las publicaciones sobre temas medioambientales a nivel global. Y por eso, la información ambiental está siendo arrinconada por las redes sociales corporativas (FB, IG, X, etc.). De ahí que Blogsostenible esté publicando menos en esas redes y ganando presencia en Mastodon.
Ante estos problemas, las compañías tecnológicas se lavan las manos y transfieren la responsabilidad a sus usuarios, a los votantes o a los políticos (lo mismo que hacen, por ejemplo, las compañías del plástico cuando se las culpa de la contaminación). Para Harari, eso son argumentos «ingenuos o hipócritas», porque las compañías son capaces de moldear los deseos de sus usuarios; y de manipular a votantes y políticos (a través de lobbys o publicidad, por ejemplo).
Pero además, la IA que emplean estas empresas puede analizar millones de datos y comprender cómo manipular a las personas. Harari nos indica que «podrían surgir religiones atractivas y poderosas cuyas escrituras las haya compuesto una IA». Ya hay ordenadores que se ganan la confianza de algunos humanos y les crea una sensación de «falsa intimidad». Los algoritmos podrían crear noticias falsas perfectas y divulgarlas de forma óptima para manipular a millones de humanos. Según Harari, «el dominio del lenguaje proporcionará a los ordenadores una influencia inmensa en nuestras opiniones y en nuestra cosmovisión».
En esta nueva era de una «economía basada en datos», la información es tan importante como el dinero y, por eso, Harari propone que «los gigantes tecnológicos deben tributar en los países de los que extraen datos», porque «un sistema tributario que solo sabe gravar dinero pronto quedará obsoleto». Las compañías consiguen datos y ganan dinero con ello. Es justo que tributen por los recursos que obtienen de cada país.
Entre ordenadores, redes sociales, teléfonos inteligentes, cámaras, algoritmos de IA y otros inventos, hay mecanismos para vigilar a los humanos de forma que la privacidad puede ser «completamente aniquilada por primera vez en la historia». Y además, la realidad puede ser muy distorsionada, porque «la información no es la verdad».
Es muy curioso constatar que los algoritmos de YouTube descubrieron lo mismo que los de Facebook: «las salvajadas hacen que la implicación aumente, mientras que la moderación no suele hacerlo». De ahí, por ejemplo, que Jair Bolsonaro llegara al poder en Brasil aupado por varios youtubers divulgadores de bulos. Una circular interna de Facebook demostró que sabían que «los discursos de odio, los discursos políticos divisorios y la desinformación publicada en Facebook y en su familia de aplicaciones afectan a sociedades de todo el mundo» y que «tienen una responsabilidad» en los hechos. Lo sabían, lo saben, y no actúan porque reduciría sus beneficios o porque confían ingenuamente en que al final se impondrá la verdad.
Los magnates de las redes sociales suelen escudarse en defender la libertad de expresión. La realidad es que, en general, es muy fácil distinguir entre lo que es una opinión de lo que son mentiras y odio. Harari sostiene que las redes deben hacer que contar la verdad sea un incentivo. Y para ello, deben «invertir más en la moderación del contenido» (supervisada por humanos). Sin embargo, en el caso de Myanmar, Facebook pagaba por los clics y reproducciones sin que la veracidad puntuara positivamente. «En la década de 2010, los equipos de gestión de YouTube y Facebook recibieron una avalancha de advertencias de sus empleados humanos, así como de observadores externos, acerca del daño que estaban causando los algoritmos, pero los propios algoritmos nunca dieron la voz de alarma».
La importancia de establecer bien el objetivo
«Un desajuste en los objetivos de un ordenador superinteligente podría derivar en una catástrofe de una magnitud sin precedentes» (entiéndase superinteligente más bien como superpotente). Es decir, definir bien el objetivo es tan importante como definir bien los algoritmos. Sin embargo, «por definición no hay manera racional de definir este objetivo final» (de forma clara, no ambigua, ética y con garantías de que no habrá efectos secundarios indeseables). La llamada Regla de Oro (no hacer a los demás lo que no quieras que te hagan a ti; cfr. Mateo 7:12), podría no ser útil en máquinas. Kant (en su Crítica de la Razón Práctica) definió algo similar intentando encontrar reglas intrínsecamente buenas.
«Mientras que los deontólogos se esfuerzan por encontrar reglas universales intrínsecamente buenas, los utilitaristas juzgan las acciones por el sufrimiento y la felicidad que causan». El problema es que no hay forma de medir el sufrimiento (ni la felicidad). Además, algunos utilitaristas podrían permitir un sufrimiento ahora, esperando un bien mayor en el futuro.
La importancia de los datos de entrenamiento
Hoy día, los ordenadores también pueden establecer y controlar entidades intersubjetivas (desde bichos en videojuegos hasta criptomonedas). Ello puede tener ventajas e inconvenientes importantes. Igual que en el caso de las brujas en Europa o de los kulaks en Rusia, los ordenadores pueden crear formas de clasificar a los humanos que otorguen o eliminen privilegios. Ya ha pasado. Por ejemplo, cuando se han usado algoritmos para decidir a qué persona contratar, los ordenadores se han mostrado tan sesgados como los humanos, porque los datos con los que han aprendido lo que es bueno o malo no son datos objetivos. Si hay racismo, machismo o especismo en los datos de entrada de un sistema informático, es seguro que la salida seguirá ese mismo patrón.
«Desembarazarse de los sesgos de los algoritmos puede ser tan difícil como librarnos de nuestros prejuicios humanos». Los ordenadores podrían creer que han descubierto una verdad sobre los humanos, cuando ello podría ser falso o propiciado precisamente por los algoritmos. ¿Le gustan a los humanos las atrocidades y los bulos? ¿O son los algoritmos de las redes sociales los que propician su difusión? Incluso en el caso de que les gusten, ¿es bueno facilitar el acceso a todo lo que nos gusta o es mejor mantener ciertas cosas (como las drogas) al margen?
Para Harari, una solución sería «adiestrar a los ordenadores para que sean conscientes de su propia falibilidad (…) a dudar de sí mismos, a señalar lo que les genera incertidumbre y a obedecer el principio de precaución. Esto no es imposible». Este autor sugiere, además, que «debemos crear instituciones capaces de controlar no solo las debilidades humanas ya conocidas, como son la codicia o el odio, sino también errores completamente ajenos» y advierte: «La tecnología no ofrece una solución a este problema».
Democracias amenazadas
Harari asegura que hay motivos para temer las nuevas tecnologías. No solo por su poder, sino porque los humanos tardan un tiempo en aprender a usar las cosas con sensatez o no lo aprenden. Pensemos que «la Revolución Industrial socavó el equilibrio ecológico global, lo que causó una oleada de extinciones (…). Puesto que parece que todavía somos incapaces de construir una sociedad industrial ecológicamente sostenible, la cacareada prosperidad de la generación humana actual supone costes terribles para otros seres sintientes y para las futuras generaciones humanas».
Para no poner en peligro una democracia, Harari expone cuatro principios básicos:
- Benevolencia. La recopilación de información debe usarse para ayudar a los humanos, no para manipularlos. Esto atañe tanto a bases de datos oficiales (datos médicos, de impuestos, etc.) como privadas. Empresas como Google y TikTok ganan millones explotando nuestra información. Muchos usuarios creen que sus servicios son gratuitos, pero en realidad están pagando con sus datos y su privacidad.
- Descentralización. Si toda la información se centraliza, aumenta el riesgo de usos peligrosos. Por eso, no se deben cruzar las bases de datos de la policía, con las de hospitales o las de compañías de seguros.
- Mutualidad. Si las empresas y los gobiernos democráticos aumentan la vigilancia de los ciudadanos, también se debe tener mayor transparencia sobre los gobiernos y las empresas.
- Posibilitar el cambio. Se deben evitar tanto las clasificaciones rígidas (del tipo de las castas en la India) como las manipulaciones extremas (del estilo de los lavados de cerebro de Stalin).
Hitler llegó al poder gracias al descontento general por una crisis que subió las tasas de paro durante tres años. Y sabemos que el mercado laboral del futuro sufrirá grandes cambios: robots, desempleo masivo por sectores, etc. Por esto, es fundamental educar adecuadamente a los jóvenes, no solo en capacidades técnicas, sino también en humanidades, en agroecología, en educación ambiental y, en definitiva, en ser personas, no meros trabajadores.
Profesiones que hoy vemos imposibles de robotizarse podrían serlo dentro de unos años (como el sacerdocio, por ejemplo). Los humanos sabemos que los ordenadores no pueden sentir dolor ni amor, pero las personas pueden llegar a tratarlos como si fueran seres sintientes. Se sabe que cuando establecemos una relación personal tendemos a asumir que el otro ente es consciente. «Así, mientras que científicos, legisladores y la industria cárnica suelen solicitar cargas de prueba imposibles con el fin de reconocer que vacas y cerdos son conscientes, por lo general los dueños de mascotas dan por sentado que su perro o su gato es capaz de amar o sentir dolor. La diferencia radica en que suelen tener una relación emocional con su mascota, mientras que los accionistas de las empresas agrícolas no la tienen con las vacas». En este sentido, recomendamos Hay alguien en mi plato.
«Una democracia tiene que cumplir dos condiciones: debe permitir un debate público y libre sobre cuestiones clave y debe mantener un mínimo de orden social y de confianza en las instituciones». Las redes sociales facilitan el debate, pero también permiten su manipulación. Las redes que pertenecen a empresas (como la red X de Elon Musk) permiten manipular que ciertos mensajes sean silenciados y que otros sean viralizados. Por eso, cada vez son más los ciudadanos que rechazan las redes corporativas y se pasan en masa a redes del fediverso (libres, sin control empresarial, sin publicidad, etc.).
Además, se sabe que en las redes «los bots constituyen una minoría nada desdeñable». Es decir, multitud de programas informáticos están lanzando y apoyando opiniones como si fueran humanos; lo cual contribuye a la manipulación y a la polarización de la sociedad. Los partidos políticos seguramente ya tienen su «ejército de bots capaces de trabar amistad con millones de ciudadanos y de servirse de esta intimidad para modificar su visión del mundo».
Los bots podrían crear lemas pegadizos, manifiestos políticos convincentes, líderes carismáticos y vídeos falsos de personas reales concretas. Harari propone prohibir esos vídeos, así como los bots, porque «la IA puede hacerse pasar por un humano, amenazar con destruir la confianza entre humanos y desgarrar el tejido de la sociedad». El filósofo Daniel Dennett sugiere que los gobiernos tendrían que ilegalizar a los humanos falsos, por las mismas razones que son delitos falsificar dinero y suplantar la identidad de otro humano. Un robot puede ayudar a un médico, pero no debería permitirse que se haga pasar por él.
Para Harari, en varios países del mundo los partidos conservadores están atrayendo líderes radicales que, de hecho, no son conservadores. El ejemplo más claro lo pone en Donald Trump el cual, según cuenta, ha «secuestrado» al partido republicano, rechazando cuestiones que nunca se han puesto en duda: los científicos, el sistema electoral, los servidores públicos, etc. Una posible explicación está en la polarización creada por poderosas corporaciones, que se amparan en la falta de transparencia de sus algoritmos para apoyar ciertas ideologías. Harari advierte: «cuando los ciudadanos pierden la capacidad de entablar una conversación y se ven unos a otros como enemigos, en lugar de como meros rivales políticos, la democracia se vuelve insostenible».
Derecho a una explicación
Hoy día, se pueden usar algoritmos informáticos para multitud de procesos importantes: conceder préstamos, diagnósticos médicos, sentencias judiciales, estrategias financieras… Además, «en la IA, las redes neuronales que avanzan hacia la autonomía son inexplicables». Por ello, se pide «consagrar un nuevo derecho humano, el derecho a una explicación». Cuando un algoritmo (o humano) tome una decisión que afecte a otro, este segundo tendrá derecho a exigir una explicación de la decisión y a ponerla en duda frente a una autoridad humana. Tenemos derecho a saber todo lo que se ha tenido en cuenta y qué peso se ha concedido a cada cosa.
Es probable que las decisiones de la IA sean más justas y tengan en cuenta más factores que las decisiones humanas, pero también pueden estar impregnadas de los prejuicios humanos o de tomar en consideración datos irrelevantes. Y además, también pueden generar monopolios. «En 2023, Google controlaba el 91,5% del mercado global de búsquedas». Y como tiene a su disposición más datos que nadie, puede (supuestamente) adiestrar y mejorar sus algoritmos mejor que nadie.
Los dictadores también podrían caer en el error de confiar demasiado en una IA. Dado que el software puede cometer los mismos errores que los humanos, no sería raro encontrar que sugieren, por ejemplo, acabar con los opositores (que podría incluir al propio dictador).
Otros riesgos de la IA: división, desigualdad…
Las grandes amenazas de la humanidad no son solo las armas físicas y biológicas. Tenemos un grave problema ambiental y multitud de peligros con las llamadas nuevas entidades. Y sin embargo, hay intereses en fomentar la división y la polarización. Como se ha dicho, la IA podría emplearse para generar noticias falsas virales con el objetivo de socavar la confianza general.
Todo esto demuestra que, como el cambio climático, «la IA también es un problema global» que podría hacer que la humanidad volviera a una era imperial y de colonización. Podrían crearse «imperios digitales en disputa», divididos «por un nuevo Telón de Silicio». Esta rivalidad haría aún más difícil regular «el poder explosivo de la IA».
El nuevo modelo de colonización podría no ser en exclusiva mediante fuerza militar, sino mediante datos. Una potencia podría conseguir información de multitud de otros países y, con ella, construir una IA valiosa. Los países pobres podrían ser solo fuentes de datos, pero no recibirían ningún beneficio, lo cual podría aumentar la desigualdad. Preocupados por esta nueva colonización digital, «muchos países han bloqueado lo que consideran aplicaciones nocivas», como algunas redes sociales. Por ejemplo, TikTok está prohibido en la India y también en todos los dispositivos relacionados con el gobierno estadounidense (funcionarios, contratistas…). Hay miedo a que potencias extranjeras consigan nuestros datos y a lo que puedan hacer con ellos.
Otro ejemplo: «el activo más importante de la industria textil es la información». Ya no son tan importantes las materias primas. Con buenos datos, puede predecirse lo que va a estar a la moda y adelantarse a la competencia. Y conforme los robots vayan siendo parte de la mano de obra barata, millones de obreros perderán sus puestos de trabajo, principalmente en países ya empobrecidos. De ahí la importancia de que, cuanto antes, empiecen los robots y los ordenadores a pagar impuestos mensuales como hace cualquier obrero.
La cooperación es la solución

Lee también un resumen de este otro libro del mismo Harari.
«Mientras seamos capaces de conversar, podremos encontrar un relato compartido que nos acerque». En la naturaleza, la cooperación es tan importante o más que la competencia. Y a lo largo de la historia, lo que mejor ha hecho avanzar al ser humano es la cooperación entre distintos pueblos.
Ciertos líderes populistas exaltan el patriotismo y rechazan la globalización (el autor pone de ejemplo a Trump y a Marine Le Pen). Aquí, Harari resalta que eso es un error indicando por una parte que el patriotismo no debe ir de xenofobia y, por otra, que ser patriotas no excluye cooperar con los extranjeros por el bien común. La pandemia de COVID-19 nos dejó importantes lecciones. Una de ellas es la enorme fuerza de la cooperación internacional.
Lo que decidamos hoy respecto a la incipiente tecnología de la IA tendrá repercusiones en el futuro. Pensemos que los padres de la Iglesia, como Atanasio, decidieron incluir en la Biblia el texto misógino de I Timoteo y no el de Tecla, más tolerante, lo cual ha tenido sin duda gran influencia en los siglos posteriores.
«Debemos cuidarnos de adquirir una visión exageradamente ingenua y optimista (…). Irónicamente, a veces más información puede derivar en más cazas de brujas». Harari también nos advierte del error de irse al extremo opuesto y nos insta a «construir instituciones con mecanismos de autocorrección sólidos», dado que el error es algo siempre posible. Y concluye: «Si nos esforzamos, podremos crear un mundo mejor».
Información relacionada:
- Lee otros libros resumidos para captar su esencia en poco tiempo. De este mismo autor te recomendamos estos:
- Máquinas y robots nos quitan el empleo pero mejoran nuestra vida.
- Crisis ecológica, conocimiento y finitud: Fracaso del ser humano como ser racional.
- Dos grandes errores de la humanidad (el segundo aún podemos remediarlo).
- Algunos libros del editor de Blogsostenible y de Historias Incontables.
blogsostenible

Pincha en la imagen para acceder a algunos de los libros del editor de Blogsostenible y de Historias Incontables.

Resumen del libro

Resumen del libro "21 lecciones para el siglo XXI" de Harari. En nuestro blog también encontrarás el resumen de su libro "Sapiens"
