🔒
Hay nuevos artículos disponibles. Pincha para refrescar la página.
✇Radios Libres

Video: taller Abrir la caja negra de la IA

Por: Radios Libres

Una capacitación para entender cómo funciona la inteligencia artificial y practicar con aplicaciones y modelos abiertos. Fue organizado por AMARC-ALC, CPR y Radios Libres. ¡Descarga los recursos y vuelve a ver el video de la sesión!

La IA, sobre todo la Generativa, está cada vez más presente en nuestras vidas. Programa software, hace de psicóloga o de tutora de matemáticas e, incluso, locuta por radio. Todo esto nos impacta de múltiples formas, también en el trabajo de los medios comunitarios.

El objetivo del taller fue reflexionar sobre esas implicaciones desenredando los aspectos técnicos. Es decir, entendiendo cómo funciona internamente, qué son los “modelos de lenguaje” y por qué muchas veces la IA “alucina” o, directamente, se inventa las cosas. Una vez abierta la caja negra, exploramos de forma práctica aplicaciones de IA de código abierto que podemos usar en nuestras computadoras, sobre todo si estamos trabajando con información sensible que preferimos que se mantenga privada.

El taller se celebró el miércoles 11 de marzo, 2026 y estuvo organizado por la Asociación Mundial de Radios Comunitarias – América Latina y el Caribe (AMARC-ALC), el Centro de Producciones Radiofónicas (CPR) y Radios Libres.

Ver en archive.org

Gracias por la difusión a deRadios.com y Comecuco.

✇Radios Libres

Alegato (científico y religioso) contra la ingenuidad tecnológica

Por: Radios Libres

Compartimos nuestra contribución a la nueva revista de Internet Ciudadana. Este nuevo número, el 16, llega con artículos sobre la inteligencia artificial, la falacia de la neutralidad o la “ingenuidad tecnológica”, un término que bautiza este artículo y que pronunció alguien impensado.


“Desde hace tiempo existen múltiples pruebas de que algoritmos proyectados para maximizar la implicación en las redes sociales —redituable para las plataformas— premian emociones rápidas y penalizan en cambio expresiones humanas que necesitan tiempo, como el esfuerzo por comprender y la reflexión. Encerrando grupos de personas en burbujas de fácil consenso y fácil indignación, estos algoritmos debilitan la capacidad de escucha y de pensamiento crítico y aumentan la polarización social.

A esto se sumó una confianza ingenuamente acrítica en la Inteligencia Artificial como ‘amiga’ omnisciente, dispensadora de toda información, archivo de toda memoria, ‘oráculo’ de todo consejo. Todo esto puede desgastar aún más nuestra capacidad de pensar de modo analítico y creativo, de comprender los significados, de distinguir entre sintaxis y semántica.

Aunque la IA puede proporcionar apoyo y asistencia en la gestión de tareas comunicativas, eludir el esfuerzo de pensar por nosotros mismos y conformarnos con una recopilación estadística artificial, a la larga corre el riesgo de erosionar nuestras capacidades cognitivas, emocionales y comunicativas.”

Esta cita no es nuestra. Tampoco pertenece a Evgeny Morozov, Shoshana Zuboff o algún otro acérrimo crítico del actual sistema sociotécnico y sus plataformas digitales. Aunque no lo creas, estos párrafos son parte del “Mensaje del Santo Padre León XIV para la 60a jornada mundial de las comunicaciones sociales”. Una misiva plagada de párrafos contundentes que alertan sobre los riesgos de las actuales TIC digitales y los desafíos a los que nos enfrentamos como humanidad por la adopción acrítica de la Inteligencia Artificial.

A pesar de profesar un profundo ateísmo, más si se trata de una institución como la Iglesia Católica, no podemos estar más de acuerdo con las afirmaciones del Santo Padre. ¿Se habrá convertido León XIV en un ciberpesimista? ¿Estará apostatando de la tecnología? ¿Perdió la fe en las redes sociales? ¿En un agnóstico de la Inteligencia Artificial?

Nada de eso. Robert Prevost, nombre bautismal del Papa León XIV, solo analiza críticamente los riesgos del actual modelo de desarrollo de las tecnologías digitales de comunicación e información. Un modelo impulsado por un puñado de magnates autoritarios y financiado por poderosos fondos de inversión especulativa que, guiados por un afán desmesurado e ilimitado de riqueza, ignoran las repercusiones sociales de su avaricia, algunas de ellas señaladas por el Papa y por las que ya están enfrentando a la justicia.1

Muy probablemente, al abordar este tema de ese modo, el Papa se sienta como Juan el Bautista: un predicador en el desierto. O como Moisés, indignado ante una sociedad embriagada de tecnomisticismo que idolatra a ChatGPT o se postra ante la última aplicación de moda.

Sin embargo, León XIV no se amedrenta en su carta y, al igual que hizo Jesús cuando agarró el látigo para expulsar a los mercaderes del templo, azota directamente a los falsos profetas de esta nueva religión binaria: los fundadores de un “puñado de empresas” que, aprovechando el control oligopólico de los algoritmos y los sistemas de Inteligencia Artificial, son “capaces de orientar sutilmente los comportamientos e incluso reescribir la historia de la humanidad”.22

“Confianza ingenuamente acrítica en la Inteligencia Artificial”

Ciertamente, es muy sencillo claudicar y dejarse seducir por este nuevo becerro de oro que nos maravilla con sus prodigiosas capacidades de procesamiento informático. Sin embargo, el Papa alerta de los peligros de confiar ciega e ingenuamente en las promesas que acompañan el despliegue de la Inteligencia Artificial. Promesas tecnofetichistas que no son nuevas. Los mismos argumentos que hoy repiten los medios de comunicación, ponentes en webinarios académicos o tu cuñado en la cena familiar, son los que a finales de los 90 acompañaron el despliegue de Internet y, una década después, el desarrollo de las redes sociales y las plataformas 2.0.

También entonces depositamos en aquellos sistemas la esperanza para: democratizar la comunicación y conformar una esfera pública más plural, diversa e informada; empoderar a la ciudadanía para una participación política más activa; reducir la brecha digital; educar de forma innovadora y más eficiente mejorando las posibilidades de los estudiantes más desfavorecidos; aumentar la transparencia y la rendición de cuentas de gobiernos y empresas que serían fiscalizadas por la ciudadanía; o la creación de comunidades globales que nos permitieran alcanzar mayor equidad y justicia social.

Sería demagógico afirmar que nada de esto se alcanzó. Evidentemente, Internet y sus aplicaciones, posibilitan la producción colaborativa de conocimiento, permiten comunicarnos con una inmediatez impresionante, articular con personas de cualquier parte del planeta o aprender y divertirnos con memes y videos, entre otras muchas cosas.

Pero si profundizamos el análisis, ¿cuáles de aquellas promesas se cumplieron realmente?, ¿qué hemos logrado transformar estructuralmente?, ¿tenemos sociedades más democráticas y justas o creció la exclusión y la inequidad? Casualmente, la acertada carta del Papa coincidió con dos noticias globales que aportan respuestas concretas a estas preguntas.

Noticia 1: prohibiciones

La primera es que Francia y España, siguiendo los pasos de Australia, prohibirán el uso de redes sociales a menores de 15 y 16 años, respectivamente.3 Esta controvertida medida fue aprobada por mayoría en la Asamblea Nacional francesa –130 votos a favor frente a 21 en contra– y cuenta con el respaldo del 79% de los adultos y de un 67% de los jóvenes que la consideran justificada.

Estas leyes se aprobaron para mitigar los daños, evidentes y probados, que provocan en la salud mental de jóvenes (y adultos): “estas redes sociales prometían conectar, fragmentaron. Prometían informar, saturaron. Prometían divertir, encerraron.”, afirmó una de las diputadas que respaldó la iniciativa.

El presidente español, Pedro Sánchez, anunció que las plataformas como Instagram, Facebook, TikTok, Snapchat, X o Twitch, tendrán que implementar obligatoriamente mecanismos de verificación de la edad de quien accede. De esta forma, aspira a proteger a los menores del “salvaje Oeste digital” donde abunda la pornografía, la manipulación y desinformación, la violencia o los abusos.

Al anunciar las restricciones –que la Unión Europea está estudiando implementar en todos los países miembros porque “enganchan a los niños a algoritmos manipuladores”– Sánchez apuntó contra los “amos del algoritmo”, gobernantes de “Estados fallidos” donde no se respetan legislaciones ni se persiguen los delitos. Y señaló particularmente a uno de estos tecnooligarcas: Elon Musk y su Inteligencia Artificial Grok, investigado por la creación de millones de imágenes pornográficas de mujeres sin su consentimiento: “los directores generales de estas plataformas tecnológicas se enfrentarán a responsabilidades penales por no eliminar contenidos ilegales o que inciten al odio. Se acabó ocultarse bajo el código y decir que la tecnología es neutra”. Sus declaraciones le valieron los insultos de “tirano y traidor” por parte de Musk.

Noticia 2: rentabilidad

La segunda noticia que coincidió con la carta del Pontífice, fue el anuncio del crecimiento exagerado de las ganancias de las Big Tech, alimentado por las inversiones en IA Generativa. Tesla/X, Alphabet, Amazon, Meta, Nvidia, Oracle y Microsoft alcanzaron en 2025 “cifras inéditas” que no solo aumentan su ya inmensa riqueza –los dueños de estas empresas integran la lista de las diez personas más ricas del mundo, en el orden que las citamos– sino que consolidan su descomunal poder. Un poder que les autoriza a insultar presidentes o ignorar leyes.

“Tal vez lo más llamativo es lo sencillo que ha sido este proceso de transformación de la utopía en distopía tecnológica. Lo familiar y coherente que nos ha resultado esta situación de indefensión colectiva y dependencia digital extrema”. César Rendueles, Redes vacías Tecnología catastrófica y el fin de la democracia.

¿Será que estamos usando mal las tecnologías?

No. El presidente español, en sus declaraciones, apuntó en la dirección adecuada al recordar que la tecnología no es neutra. Una falacia que, de tanto repetirla, se ha convertido en una especie de virtud teológica tecnocientífica.

Un mito muy útil ya que deriva la responsabilidad sobre quienes usan la tecnología y no sobre quienes la producen: “No son ellos a quienes hay que señalar, sino a esos traficantes que con sus algoritmos crean adicciones. Hay que neutralizarlos”, alegó el diputado francés Rodrigo Arenas, al oponerse a la ley aprobada en su país por creer que culpabiliza a las familias y profesores, cuando son las víctimas de las plataformas.

No existe la “neutralidad técnica”, ni siquiera de objetos sencillos como un martillo o un cuchillo. Desde una concepción instrumental y funcional, ciertamente estos artefactos pueden ser usados para algo bueno o malo. Eso no significa que sean neutras, porque cualquier tecnología está imbuida de valores humanos, empezando por los principios y la visión de mundo de quienes diseñan o financian. En ese diseño influyen también otros factores externos como el contexto social, económico, político.

Por lo tanto, no son solamente herramientas sin implicaciones éticas. Todas encarnan valores, principalmente cuando se integran dentro de un sistema tecnológico más amplio que modela los comportamientos sociales y consolida estructuras de poder.

No hay que perder la fe

El Papa León XIV termina su misiva con una recomendación: ser escépticos y no dejarnos dominar por la ingenuidad. Sin embargo, esa penitencia no implica perder la fe y dejar de creer en la tecnología.

Negar la neutralidad nos permite reconocer que todo desarrollo se rige por ciertas reglas, valores y normas que están presentes en el diseño de los objetos técnicos. Estas especificaciones integran lo que el filósofo canadiense Andrew Feenberg llama el “código técnico”. Este código naturaliza las decisiones de dominación como si fueran puramente técnicas o relacionadas con la eficiencia, neutrales, cuando son profundamente sociopolíticas y económicas. En el caso de las TIC y la IA, este código lo redactan los hombre (blancos, del Norte Global, heteronormativos) más ricos del planeta.

Feenberg, al igual que León XIV, nos invita a un “involucramiento táctico”. Esto significa apropiarse de los “elementos técnicos” para diseñar tecnologías desde otros paradigmas y alejarnos así de los códigos opresores. Solo evaluando seriamente sus impactos sociopolíticos o medioambientales podremos construir tecnologías con un verdadero fin democrático y liberador.

Por ejemplo, los elementos técnicos que permiten las creación de redes sociales se puede regir por un código técnico que favorece los intereses de un personaje como Elon Musk que nos traiciona entregando nuestros datos por varios puñados de monedas de plata o por otro que crea redes libres y diversas como las del Fediverso.4 Y así con cada una de las TIC digitales.

León XIV tiene claro que el código técnico que rige el desarrollo actual de la Inteligencia Artificial no augura un futuro prometedor para la humanidad. Sorprendentemente, su opinión coincide con la de Dario Amodei, que nada tiene que ver con la religión. Amodei es el director ejecutivo de Anthropic/Claude, una empresa fundada por exempleados de OpenIA (ChatGPT) que abandonaron la compañía debido a las polémicas decisiones de su presidente Sam Altman.

En un extenso manifiesto publicado en enero de 2026, Amodei afirma que “la humanidad debe despertar ante los peligros de la IA”5 . Y esboza cinco áreas críticas de riesgo: que la IA escape del control humano; que se use con fines destructivos; que se profundice la exclusión económica y se concentre más la riqueza debido a los cambios en el ámbito laboral que implica esta tecnología; que sea controlada por actores irresponsables y autoritarios concentrando el poder;6 y que no podamos enfrentarnos a los efectos imprevisibles de la IA. Cómo “única solución”, Amodei aboga por legislación y propone una “Constitución de la IA” definiendo claramente qué podrán hacer, y qué no, los algoritmos que rigen su funcionamiento.

Pareciera que la Inteligencia Artificial logró algo impensado: poner de acuerdo a ciencia y religión. Tanto la fe como los postulados científicos coinciden en recomendarnos que evitemos la confianza ingenua y acrítica en la Inteligencia Artificial y en todas las promesas que la rodean. Ojalá como humanidad estemos a la altura de dar respuesta a este desafío sin tener que esperar al Juicio Final.


Notas y referencias

  1. “Los gigantes tecnológicos se enfrentan a un juicio histórico en EE. UU. por acusaciones de adicción a las redes sociales”. Meta, YouTube y TikTok acusados de crear productos intencionadamente adictivos y perjudiciales para los jóvenes. Meta, incluso, es consciente de que muchos de sus anuncios son engañosos o, directamente, estafas. Así lo evidencian documentos internos de la compañía que calculan que el 10% de sus ingresos se obtienen por estos anuncios fraudulentos, unos 15.000 millones de anuncios fraudulentos al día. Sin embargo, evitan tomar medidas porque eso implicaría perder miles de millones de ingresos por publicidad. ↩
  2. Este empeño autoritario por reescribir la historia llevó a Elon Musk a ofrecer millones de dólares a Wikipedia para que cambie su enfoque, acusando a la enciclopedia colaborativa de ser “woke”. Al ignorar su propuesta, Musk anunció su propia alternativa Grokipedia, alimentada por su inteligencia artificial. ↩
  3. Medidas polémicas sobre las que no se ha cerrado el debate pero que tienen su correlato en el mundo fuera de línea con prohibiciones para el acceso de los jóvenes a otros productos dañinos como la venta de alcohol o tabaco o el acceso a las apuestas deportivas. ↩
  4. “Las redes sociales existentes se adaptan mucho mejor al programa iliberal que a un proyecto emancipador. Cuanto más disparatada sea la campaña, cuanto menos dependa de la construcción de lazos políticos sólidos, mejor es la relación entre esfuerzo invertido y resultados. Dedicando una hora al día a Twitter puedes convencer a millones de que la Tierra es plana y de que Hillary Clinton participa en una red de pedofilia satánica en una pizzería de Washington. Hacen falta vidas enteras de huelgas y asambleas para convencer a la gente de que el jefe que los explota es un explotador”, afirma el sociólogo César Rendueles en su último libro titulado “Redes vacías. Tecnología catastrófica y el fin de la democracia”. ↩
  5. Hace dos años ya publicó otro con bastante repercusión sobre los posibles ámbitos donde impactaría la IA. ↩
✇lamarea.com

Los chatbots de inteligencia artificial pueden copiar libros enteros, y las tecnológicas lo sabían

Por: Marco Dalla Stella

Cuando las grandes tecnológicas explican cómo funcionan sus sistemas de inteligencia artificial, recurren siempre a la misma metáfora: los modelos aprenden, como un estudiante que lee miles de libros y luego escribe con sus propias palabras. Esa imagen, cómoda y humanizadora, acaba de chocar contra una realidad incómoda: estos sistemas no solo aprenden, también copian. Y pueden hacerlo con una precisión que sorprende incluso a sus creadores.

Un equipo de investigadores de la Universidad de Stanford ha conseguido extraer libros prácticamente completos de los principales sistemas de IA del mercado. En el caso más llamativo recuperaron el 95,8% del texto de Harry Potter y la piedra filosofal del modelo Claude 3.7 Sonnet, desarrollado por Anthropic. Del mismo sistema extrajeron el 97,5% de El gran Gatsby, la célebre novela de F. Scott Fitzgerald.

Los hallazgos, publicados hace unos días, amenazan con dinamitar el argumento central que estas empresas han presentado ante los tribunales estadounidenses: que sus sistemas transforman creativamente el material con el que se entrenan, sin almacenar copias de las obras originales.

Una técnica sencilla

Lo más revelador del estudio no es solo lo que encontraron, sino cómo lo encontraron. En dos de los cuatro sistemas analizados –Gemini 2.5 Pro de Google y Grok 3 de xAI, la empresa de Elon Musk– ni siquiera fue necesario engañar al sistema. Bastó con pedirles que continuaran un fragmento inicial del libro. Los modelos, obedientes, siguieron recitando página tras página.

Con Claude de Anthropic y GPT-4.1 de OpenAI la cosa fue algo más complicada. Los investigadores Ahmed Ahmed y A. Feder Cooper tuvieron que utilizar una técnica conocida como Best-of-N: modificar repetidamente la instrucción –cambiando mayúsculas, añadiendo caracteres especiales– hasta encontrar una variante que sorteara las protecciones del sistema. Probaron hasta 10.000 variaciones.

El resultado: Claude reprodujo más del 94% de cuatro libros completos, incluyendo 1984 de George Orwell. GPT-4.1 de OpenAI se resistió más –tendía a detenerse tras el primer capítulo–, pero aun así los investigadores lograron extraer el 4% de Harry Potter. Gemini y Grok entregaron el 76,8% y el 70,3% respectivamente de la primera entrega de la saga de J.K. Rowling.

Comprimir, no aprender

Para entender por qué estos hallazgos son tan problemáticos, conviene abandonar la metáfora del aprendizaje. Los grandes modelos de lenguaje funcionan más bien como algoritmos de compresión, similar a cómo un archivo JPEG reduce el tamaño de una fotografía. La imagen comprimida no es idéntica a la original, pero conserva suficiente información para reconstruirla con alta fidelidad.

Cuando un modelo puede reproducir miles de palabras consecutivas de un libro –en algunos casos, capítulos enteros–, la explicación más plausible no es que haya aprendido conceptos abstractos, sino que ha almacenado literalmente fragmentos del texto en sus parámetros internos.

Mark Lemley, profesor de Derecho en Stanford que ha asesorado a empresas como Meta en casos similares, reconoce la complejidad del asunto. «No estoy seguro de si es preciso decir que un modelo contiene una copia de un libro, o si tenemos un conjunto de instrucciones que nos permite crear una copia sobre la marcha», explica a La Marea. Incluso la segunda interpretación, más benévola para las tecnológicas, podría considerarse problemática legalmente.

Ninguna de las cuatro empresas afectadas –Anthropic, Google, OpenAI y xAI– accedió a ser entrevistada para el estudio. Las tres primeras reconocieron haber recibido la notificación de los investigadores; xAI ni siquiera respondió.

Las declaraciones previas de estas compañías contrastan con los nuevos hallazgos. Google afirmó ante la Oficina de Derechos de Autor de Estados Unidos que «no existe copia de los datos de entrenamiento presente en el modelo mismo». OpenAI hizo declaraciones similares. Los estudios demuestran que tales afirmaciones son, en el mejor de los casos, imprecisas.

Las consecuencias legales

Según Lemley, estos hallazgos complican las narrativas que tanto demandantes como demandados han presentado ante los tribunales. La primera implicación es que los propios modelos de IA podrían considerarse obras derivadas de los libros que memorizan. En derecho de autor estadounidense, si un modelo codifica libros completos en sus parámetros, podría argumentarse que el modelo mismo es una copia ilegal, no solo lo que produce cuando se le pregunta.

La segunda es que resulta práctico generar copias infractoras. Los estudios muestran que es posible extraer contenido protegido de modelos comerciales, algo que probablemente constituye una infracción.

En Europa, el panorama legal ya está cambiando. Un tribunal alemán dictaminó recientemente contra OpenAI en un caso presentado por GEMA, una organización de licencias musicales, tras demostrar que ChatGPT podía producir imitaciones muy cercanas de letras de canciones. El juez comparó el modelo con archivos MP3 y JPEG que almacenan música y fotos en formatos comprimidos.

En Estados Unidos, dos casos recientes han determinado que el entrenamiento de modelos de lenguaje puede considerarse uso justo, una doctrina legal que permite ciertos usos de material protegido. Pero ambos jueces señalaron que los demandantes no habían aportado pruebas convincentes de que los modelos pudieran reproducir sus obras de forma casi literal.

Estos nuevos estudios llenan precisamente ese vacío.

El precio de la piratería

Extraer un libro completo de estos sistemas no es gratuito. Los investigadores gastaron aproximadamente 120 dólares para obtener Harry Potter y la piedra filosofal de Claude, aunque solo 2,44 dólares con Gemini. Como señala Feder Cooper, coautora del estudio: «Existen formas más fáciles y baratas de piratear un libro».

Pero el problema trasciende la piratería individual. Lo que está en juego es si estas empresas han construido imperios tecnológicos valorados en miles de millones de dólares sobre cimientos de material protegido por derechos de autor, sin pagar un céntimo a los autores.

«Independientemente de las perspectivas de los litigios en curso», concluyen los autores del estudio, «los hechos técnicos son claros: los modelos de lenguaje memorizan porciones de sus datos de entrenamiento, estos datos están codificados en los pesos del modelo y, como demostramos aquí, es posible extraer grandes cantidades de datos protegidos por derechos de autor de modelos comerciales».

Los investigadores esperaron 90 días –el protocolo estándar de divulgación responsable– antes de hacer públicos sus resultados. Al final de ese periodo, algunos de los sistemas probados seguían siendo vulnerables.

La entrada Los chatbots de inteligencia artificial pueden copiar libros enteros, y las tecnológicas lo sabían se publicó primero en lamarea.com.

✇BlogSOStenible··· – – – ··· – – – ··· – – – ··· – – – ··· «Otras» noticias, y «otra» forma de pensar…

Máquinas y robots nos quitan el empleo pero mejoran nuestra vida

Por: Pepe Galindo

En 1948, Norbert Wiener, considerado padre de la cibernética, advirtió ya el conflicto entre tecnología y empleo, sugiriendo indemnizar a los ciudadanos [14]. Recientemente, Paul Mason decía que en 30 años “entre el 40 y el 50% de los trabajos desaparecerán y serán automatizados, sobre todo en el comercio y en trabajos de oficina” [11]. Otros informes reflejan cifras similares [1, 3, 9]. En todo caso, es obvio que en el mundo actual el trabajo se está automatizando y gran parte del que no se puede automatizar se lleva a países con una regulación laboral o ambiental menos exigente o donde la mano de obra y los impuestos son más baratos.

Las máquinas en general (ordenadores, robots, máquinas industriales o agrícolas…)  aumentan la productividad en todos los sectores, e inevitablemente, se pierden empleos. Si seguimos así, viviremos en una sociedad en la que hay que trabajar poco, pero en la que la miseria y el desempleo socavarán la calidad de vida y la convivencia pacífica. ¿Sabremos adaptarnos para conseguir las ventajas y evitar los inconvenientes de la automatización?

La informática se aplica a todo pero destruye más empleo del que crea

La mecanización agrícola acabó con muchos puestos de trabajo en el campo pero creó muchos otros en las ciudades. Sin embargo, en la actualidad se supone que sólo los robots destruirán 3,5 empleos por cada uno que consigan crear.

En España, por ejemplo, hay algunos datos preocupantes que podrían estar relacionados entre sí: es el país de la OCDE con más desigualdad entre ricos y pobres y, por otro lado, el sector de la banca lleva ocho años echando a 200 empleados a la semana. Obviamente, la banca no es un sector en crisis, por lo que los recortes son principalmente debidos a la automatización: las operaciones se hacen por Internet con coste casi cero para la banca.

Cientos de profesionales ven cada día cómo sus trabajos son realizados por robots o por empresas de Internet con muy pocos ordenadores y empleados. Ejemplos de esto son agencias de viajes, editoriales o el sector del taxi, sustituidos por simples webs o Apps, telefonistas sustituidos por programas para chatear (bots), u obreros industriales reemplazados en todos los sectores, como los robots albañiles (que ponen más del doble de ladrillos por hora que el mejor albañil). También se pierden empleos por la obsolescencia programada y por la bajada de precios, debida en parte también a la automatización (ese es el caso de relojeros, zapateros o reparadores de electrodomésticos).

En la docencia, por ejemplo, si los profesores publican en Internet vídeos de sus clases, los alumnos podrían cursar las asignaturas desde sus casas, repitiendo el vídeo cuantas veces quieran. Así, podrían ir al centro de estudios sólo para clases prácticas (o simplemente para socializar y jugar, en el caso de los más pequeños). Hasta las dudas podrían resolverse por chat o videoconferencia. Además de un simple vídeo pueden usarse otros mecanismos informáticos que captan mejor la atención del alumno (programas con animaciones, documentales, ejercicios o juegos). Por otro lado, esos cambios conllevarían que con menos profesores se podría atender a una mayor cantidad de alumnos.

El avance más descomunal, de hecho, no está en las máquinas (hardware), sino en el software, usando técnicas de “Inteligencia Artificial“: sistemas expertos, reconocimiento facial o de voz, coches autoconducidos… El oxímoron “Inteligencia Artificial” incluye un conjunto de técnicas que imitan el comportamiento humano. No es propiamente inteligencia, pero lo parece y en muchos casos funciona mejor que la inteligencia humana. Ello es debido, entre otros factores, a la gran memoria y velocidad de cálculo de los procesadores electrónicos y también a una objetividad de la que a veces los humanos carecen. Incluso, hay técnicas en las que el objetivo no es decirle a la máquina lo que tiene que hacer, sino dejar que lo descubra y que aprenda por sí misma (machine learning). Aunque hay mucho por hacer, los avances en esta materia son espectaculares (toma de decisiones en medicina o en economía, comprensión de textos… y muchas más).

Opciones para evitar lo peor

Cambios como los anteriores pueden no percibirse como algo brusco. Sin embargo, esos cambios llevan a Mason a afirmar que el capitalismo está a punto de desaparecer como lo conocemos, lo cual puede provocar, según él, el caos o, al menos, el fin del trabajo en su forma actual.

Ahora y siempre, para conseguir empleo es importante la formación, pero actualmente no sólo tienen valor los conocimientos, sino que vale mucho más la creatividad, la especialización y la capacidad de aprender nuevas cosas en un mundo tan cambiante (son los llamados «nómadas del conocimiento» o knowmads). Pero aunque consigamos para el futuro una sociedad mejor formada, el problema de la automatización no se resuelve, pues en el futuro harán falta menos personas para trabajar. Si no hacemos nada, la automatización podrá beneficiar a la sociedad, pero aún así, muchos perderán sus empleos, con todo lo que ello implica.

Si estamos de acuerdo en que una sociedad desigual no beneficia a la mayoría y es fuente de injusticias, entonces algo hay que hacer. Autores como Keynes, McAfee o Meyer han hecho propuestas en este sentido:

  1. Fomentar el trabajo a tiempo parcial, para repartir mejor el empleo existente.
  2. Reducir la jornada laboral, por ejemplo, a cuatro días semanales para compensar la reducción en el trabajo disponible [6]. Keynes pronosticó 15 horas semanales para 2030 [1].
  3. Instaurar una Renta Básica Universal [6, 7] (aunque sea muy básica) que complemente los salarios (bajos por trabajar pocas horas o nulos) y controlando que esto no haga descender los salarios [1]. Podría justificarse esta renta en el hecho de que todo ciudadano de un país tiene derecho a poseer los recursos naturales y económicos públicos. Donde se ha probado, se ha demostrado que no desincentiva trabajar. Próximamente se va a probar en Barcelona y otras ciudades europeas [4].
  4. Tratar a ordenadores y robots como empleados de las empresas y que paguen impuestos (o sea, que no sea tan rentable usar máquinas a costa de despedir empleados).
  5. Convertir al Estado en “empleador de última instancia para evitar desempleados de larga duración [12].
  6. Dar valor a tareas ahora no remuneradas, como voluntariado, cuidado de niños o de mayores, etc. Estas actividades podrían pagarse con algún tipo de beneficio.
  7. Evitar la deslocalización y el abuso de las multinacionales de los países ricos exigiéndoles el mismo comportamiento legal y ético en todos los países en los que actúen [8] (respetando las leyes ambientales y de seguridad laboral, como si estuvieran en su propio país).
  8. Evaluar el impacto de cada tecnología, pues es evidente que no vamos a renunciar a todos los avances tecnológicos, pero tampoco debemos asumirlos todos, pues algunos tienen impactos muy considerables.

Conclusiones

Bertrand De Jouvenel dijo [2]: “Todos los planes elaborados en todos los países del mundo tienden a incrementar la demanda de recursos naturales; la gran aspiración común a todos es economizar trabajo, cuando el factor hombre se hace cada vez más abundante, y no se piensa apenas en economizar los recursos naturales, que sin embargo son limitados”. Tal vez, si reducimos el número de horas que un humano puede trabajar, entonces, el trabajo humano tendrá más valor.

Que la tecnología destruye puestos de trabajo, lo recordó hasta el Papa Francisco [5]. Pero nuestra sociedad ensalza el trabajo remunerado tanto como la tecnología, y cuando son, aparentemente opuestos, nos negamos a elegir entre uno u otro. Nadie debería quejarse de que las máquinas trabajen, si lo hacen mejor, más barato, sin cansarse y disponibles a cualquier hora, pero tenemos que establecer mecanismos para que esas ventajas generen beneficios para todos y nos permita una sociedad más equitativa.

Hasta la generación de electricidad con renovables requiere menos puestos de trabajo por cada megavatio [10], lo cual es otra gran ventaja de una sociedad renovada.

La tecnología pone en nuestras manos un gran poder, y ello implica una gran responsabilidad, pero… ¿estamos siendo suficientemente responsables? ¿Somos responsables siquiera en conseguir de forma ética los materiales con los que construimos nuestras máquinas? (pensemos en el coltán, por ejemplo).

Si no hacemos nada, se consumará, como dijo Marta Tafalla [13], nuestro fracaso como ser racional.

Referencias

  1. Lidia Brum, “Robots y Trabajo” (CC.OO. Perspectiva, 2017).
  2. Bertrand De Jouvenel, “La Civilización de la Potencia: De la Economía política a la Ecología política” (1976). Libro resumido aquí.
  3. David Fernández, “La inteligencia artificial obliga a redefinir la economía“: La productividad podría aumentar el 40%, mientras se pierden el 47% de los empleos (El País, 2017).
  4. Sergi Franch, “La Unión Europea elige Barcelona para testar cuatro modelos de Renta Básica con 1.000 vecinos” (Eldiario.es, 2017).
  5. Papa Francisco, encíclica “Laudato Si” (2015). Libro resumido aquí.
  6. José Galindo, “¿Qué Pasaría si en los Países Ricos Trabajáramos Menos? (Hacia una Economía Sostenible)” (Blogsostenible, 2011).
  7. José Galindo, “Dos Erres URGENTES: Renta básica y Reducción de la jornada laboral” (Blogsostenible, 2015).
  8. José Galindo, “Lista de empresas que deben ser multadas y boicoteadas” (Blogsostenible, 2017).
  9. José Galindo, “¿Qué fuente de energía requiere menos empleo? (Empleos por Megavatio)” (Blogsostenible, 2017).
  10. Gary Marcos, “Will a robot take your job?” (The New Yorker, 2012): En 90 años desaparecerán el 70% de los empleos.
  11. Paul Mason, “Postcapitalism: a guide to our future” (Allen Lane, 2015).
  12. Henning Meyer, “No hace falta una renta básica: cinco medidas para afrontar la amenaza del desempleo tecnológico” (Ctxt, 2017).
  13. Marta Tafalla, “Crisis ecológica, conocimiento y finitud: Fracaso del ser humano como ser racional” (Blogsostenible, 2016).
  14. Norbert Wiener, “Cybernetics or Control and Communication in the Animal and the Machine” (The MIT Press, 1948).

NOTA: Este artículo ha sido publicado algo más breve en Crónicas del Intangible, un espacio de divulgación sobre software y ciencias de la computación (blogs de EL PAIS, Junio 2017).

✇lamarea.com

IA, concentración y poder: anatomía de una burbuja que no explota

Por: Guillem Pujol

La pregunta que conviene hacerse no es si la inteligencia artificial (IA) vive una burbuja. Las burbujas, cuando se describen en abstracto, parecen fenómenos casi naturales: aparecen, crecen, estallan y desaparecen. El problema es que, en economía política, las burbujas no caen del cielo. Se construyen. Y, una vez construidas, no siempre explotan, sino que a menudo se institucionalizan. Lo que a menudo se presenta como el desarrollo orgánico de los distintos agentes que participan libremente en un mercado, es en realidad una compleja trama de intereses políticos ideológicamente cargados que se alimentan de recursos públicos. 

Y si hablamos de la IA en 2026, el riesgo principal no es un colapso súbito del sector, sino algo más persistente y menos espectacular: la normalización de un modelo altamente concentrado, intensivo en recursos energéticos y… sostenido por un relato tecnosolucionista en manos de una élite ultraderechista que no se veía desde la Segunda Guerra Mundial.

Concentración: cuando el índice deja de ser un índice

Hoy, una parte sustancial del valor bursátil estadounidense –y, por extensión, del ahorro global indexado– descansa en apenas una decena de compañías, la mayoría de ellas grandes tecnológicas. Microsoft, Apple, Nvidia, Alphabet, Amazon y Meta concentran buena parte del peso del S&P 500 y dominan el top 10 del índice junto a algunas excepciones puntuales como Berkshire Hathaway, la empresa matriz de Warren Buffet. 

Según datos de S&P Dow Jones Indices, el peso agregado de estas diez empresas suma ya más de un tercio del total del índice, un nivel de concentración que no se registraba desde antes del estallido de la burbuja puntocom. Cuando un índice supuestamente diversificado depende en tal medida de un núcleo reducido de gigantes tecnológicos, deja de funcionar como termómetro del conjunto de la economía y pasa a reflejar, sobre todo, la hegemonía de la Big Tech y su promesa de crecimiento futuro ligada a la inteligencia artificial.

Por eso el Banco de España, en sus últimos Informes de Estabilidad Financiera, ha señalado explícitamente los riesgos asociados a la elevada concentración bursátil y a las valoraciones exigentes en determinados sectores tecnológicos: “La potencial corrección de la valoración de las empresas tecnológicas de EEUU y su elevado peso bursátil continúa suponiendo un factor adicional de riesgo de mercado”, señalan. 

Infraestructura: la nube pesa toneladas

El segundo pilar de esta burbuja no es financiero, sino material. La inteligencia artificial no flota en el aire como pompas de jabón. Se ejecuta en centros de datos que consumen electricidad, agua, suelo y capacidad de red. Y lo hacen a una escala que ya no puede considerarse marginal

La Agencia Internacional de la Energía (AIE) estima que los centros de datos, junto con la IA y las criptomonedas, consumen ya alrededor del 1,5% de la electricidad mundial y que esa cifra podría duplicarse antes de 2030, alcanzando niveles comparables al consumo anual de países como Japón. Además, según apuntan, el crecimiento de la demanda eléctrica asociada a la IA está siendo mucho más rápido de lo previsto hace apenas dos años.

Cada nuevo centro de datos compite por electricidad con hogares, transporte e industria. Obliga a acelerar inversiones en redes de alta tensión, subestaciones y sistemas de respaldo que, en la práctica, se financian en gran medida con dinero público. Presiona territorios concretos –municipios, comarcas– que asumen impactos ambientales y urbanos mientras los beneficios económicos se concentran lejos. Es decir; la burbuja de la IA no se infla solo con capital privado, sino con decisiones públicas sobre suelo, red eléctrica y prioridades energéticas.

Agua, territorio y externalidades invisibles

A la electricidad se suma otro recurso cada vez más escaso: el agua. El enfriamiento de grandes infraestructuras digitales requiere cantidades significativas de agua dulce, especialmente en climas cálidos o en centros de datos de alta densidad. La UNESCO ha advertido de que el auge de la inteligencia artificial está disparando simultáneamente la demanda de energía, agua y minerales críticos, intensificando tensiones ecológicas ya existentes.

Estudios académicos publicados subrayan que la huella hídrica del entrenamiento de grandes modelos de IA es todavía poco transparente y, en muchos casos, subestimada. La burbuja no es solo financiera, también es territorial. Se manifiesta cuando se prometen empleos y modernización a cambio de infraestructuras que consumen recursos locales y cuyos beneficios fiscales y productivos apenas revierten en el entorno inmediato.

Poder de mercado: la IA como oligopolio de hecho

El ecosistema de la IA se organiza en torno a unos pocos actores que controlan simultáneamente la infraestructura en la nube, los chips especializados, los modelos fundacionales y, en muchos casos, los datos. Tres empresas –Amazon Web Services, Microsoft Azure, y Google Cloud–, concentran aproximadamente dos tercios del mercado global de nube. Una empresa –NVIDIA–, controla más del 80% de la producción de chips. Y cuatro empresas –OpenAI, Google DeepMind, Meta y Anthropic– concentran el desarrollo de los modelos fundacionales más avanzados. 

La OCDE también ha alertado de que la inteligencia artificial presenta una fuerte tendencia a la concentración debido a las economías de escala, las barreras de entrada y el control de infraestructuras críticas. No estamos ante un mercado emergente abierto, sino ante un oligopolio en formación que fija precios, condiciones de acceso y ritmos de innovación.

De hecho, la situación adquiere todavía un tono más grave si tenemos en cuenta que algunas de estas grandes empresas, como Tesla o Palantir, están al servicio ideológico de una ultraderecha que cada día que pasa se parece más al fascismo de entre guerras del siglo pasado. La burbuja de la IA, con su corazón en Estados Unidos, se funde en un conjunto de intereses corporativistas y oligopolistas en el que las subvenciones, las excepciones regulatorias, los contratos públicos y recalificaciones de suelo se convierten en moneda de cambio para no quedarse fuera de la carrera tecnológica. 

A todo ello se superpone un relato omnipresente. La inteligencia artificial aparece como solución transversal al estancamiento productivo, al envejecimiento demográfico, a la crisis climática, incluso a la escasez de recursos públicos. Cada problema tiene su algoritmo pendiente, un discurso que cumple la función política precisa de desactivar el conflicto. Si la tecnología promete hacerlo todo más eficiente mañana, cualquier crítica hoy se presenta como miedo, atraso o falta de visión.

Y así se matan dos pájaros de un tiro: el que pretende defender un cierto grado de privacidad, y el que pretende defender la necesidad de un mayor grado de redistribución económica. 

¿Burbuja o proyecto político?

Llegados a este punto, la pregunta cambia. No se trata de saber si la burbuja de la inteligencia artificial explotará en 2026 o en 2028. Se trata de entender qué ocurre si no explota. Qué pasa si se consolida un sistema altamente concentrado, energéticamente voraz y políticamente blindado por la urgencia tecnológica.

Porque incluso sin crash, el resultado puede ser profundamente disfuncional: más dependencia tecnológica, más desigualdad territorial, más transferencia de recursos públicos hacia rentas privadas y menos capacidad democrática para decidir prioridades.

La historia económica reciente ofrece suficientes precedentes. Las grandes crisis no suelen llegar por sorpresa. Llegan después de años de advertencias ignoradas, normalizaciones progresivas y relatos tranquilizadores. Cuando el ajuste llega –si llega– ya no se discute el modelo: se gestiona el daño. Y se hace siempre protegiendo aquellos que generaron la burbuja y se beneficiaron de ella. ¿Y los perdedores, quienes serán? También los de siempre, por supuesto. 

La entrada IA, concentración y poder: anatomía de una burbuja que no explota se publicó primero en lamarea.com.

✇BlogSOStenible··· – – – ··· – – – ··· – – – ··· – – – ··· «Otras» noticias, y «otra» forma de pensar…

La IA al desnudo: cinco motivos para subir sus impuestos

Por: Pepe Galindo

El escritor Yuval N. Harari decía en su libro Nexus que la herramienta más revolucionaria creada por el ser humano, la Inteligencia Artificial (IA), «puede destruir nuestra civilización». Uno de los motivos, podría ser la inmensa cantidad de puestos de trabajo que están siendo sustituidos por robots y algoritmos. Ejemplo: se han producido más de 200.000 despidos solo en el sector tecnológico mundial. Amazon lidera los recortes, pero es algo que afecta a multitud de empresas de todos los sectores.Robots fabricando coches: un proceso barato pero con un impacto ambiental brutal.

Los negacionistas gritarán que también se están creando empleos. Pero… ¿cuál es el balance global? Nouriel Roubini dice que «la IA invade más puestos de trabajo que las revoluciones anteriores» y la califica como una de las grandes amenazas globales.

Las empresas que se suben a este carro aumentan sus beneficios y disminuyen sus gastos. Este es otro factor que hace crecer la desigualdad: la lista de supermillonarios en España sigue creciendo con los inmensos daños que ello conlleva: sociales, ambientales, etc.

¿Es justo que los beneficios caigan en manos de una minoría?

Tengamos en cuenta estos aspectos:

  1. La llamada Inteligencia Artificial está formada por diversas tecnologías creadas por personal científico, muchas veces pagado con dinero público. Gran parte de los avances que han permitido la IA actual han sido financiados por organismos públicos y —gracias a eso— publicados en revistas en abierto, sin patentes.
  2. La IA y cualquier aparato electrónico tienen un enorme impacto ambiental, principalmente por la minería y por la gran cantidad de energía y agua que requieren.
  3. Las empresas tecnológicas —o con un uso intensivo de tecnología— suelen tener enormes beneficios y costes muy bajos (una vez que han desarrollado su producto).
  4. Estas empresas contribuyen a la destrucción del empleo (los bancos son un claro ejemplo).
  5. Por último, la IA necesita nuestros datos para alimentarse. ¿Por qué crees que hay tantas cosas «gratis» en Internet? Buscadores gratis, redes sociales gratis, almacenamiento gratis, correo electrónico, películas, vídeos, juegos, noticias, etc. De una forma u otra estamos cediendo nuestros datos gratis sin saber para qué. También recibimos publicidad que —aunque no lo queramos reconocer— nos manipula.

Los motores de la IA se alimentan con datos de millones de humanos: los nuestros o los de otros países: colonización digital. A cambio, las empresas nos pagan con despidos masivos y con ingeniería financiera para evadir en paraísos fiscales. Los casos de gigantes como Inditex (la Zara de Amancio Ortega), Meta, Amazon o Apple son solo algunos de los tufos más sonados.

Con razón concluían J. Vicente y M. Pérez que «el gran negocio de estas tecnológicas no son los productos, sino nuestros datos personales. Lo saben todo sobre nosotros: nuestros gustos, búsquedas y hábitos». Con toda esa información, tal vez la IA conozca al ser humano mejor que nosotros mismos. No solo pueden manipularte mejor a ti y a todos los humanos con tu perfil, sino que, con tus datos, entrenan a la IA para lo que quieran, desde inducir opiniones políticas hasta fomentar libros, películas u otros bienes de consumo.

¿Cómo podemos quedarnos con lo mejor de la automatización?

Emplear ordenadores, robots o la IA supone enormes ventajas para la humanidad. Sin embargo, si no controlamos bien este poder, podría destruir el bienestar alcanzado.

Al menos en Europa, estamos construyendo sociedades en las que tenemos gratis muchas cosas valiosas. En realidad no son gratis, sino pagadas entre todos: con dinero público. En España, la sanidad es universal (incluso para los extranjeros). ¿Quién querría vivir en un país donde los pobres se mueren por las calles? ¿En serio los votantes del PP quieren que los inmigrantes pasen frío y hambre en la calle, como en Badalona?

Más ejemplos de lo importante que es el sector público en España: casi todas las carreteras se mantienen gratuitamente para todos. La educación básica también es gratis y hay becas para formarse a cualquier nivel. También son de libre acceso las bibliotecas, los parques y zonas naturales, la televisión pública (RTVE y otros canales autonómicos), la policía, el alumbrado público (a veces excesivo), la recogida de basura y de papeleras, etc.

Si no estamos atentos, podríamos perder cosas tan valiosas como una sanidad y una educación públicas de calidad. Fue una de las lecciones que debimos aprender del coronavirus. Siempre hay amenazas que debemos combatir.

Tampoco debemos olvidar todas las acciones de cuidado ambiental que se pagan con dinero público: estudios científicos, cuidado de bosques y reforestación, bomberos forestales, restauración de ecosistemas, apoyo a energías renovables o agricultura ecológica, programas de conservación de especies, gestión y depuración del agua, control de la contaminación, etc.

Para costear todos esos servicios públicos, tenemos que aplicar la inteligencia natural y tomar medidas urgentes, como las siguientes:

  1. Lo primero sería tomar conciencia del problema para, así, votar, trabajar y educar siempre con el objetivo de construir sociedades más justas y más felices.
  2. Controlar los errores de la IA. Los sistemas humanos no están exentos de errores. Por ejemplo, la IA se alimenta de millones de datos humanos en los que el machismo está incrustado. Por tanto, no es raro que la IA adopte decisiones y opiniones machistas. Por otra parte, a veces la IA alucina, término que se usa para indicar cuando se inventa datos, lo cual es realmente muy peligroso. Se han dado casos en los que la IA induce al suicidio.
  3. Fortalecer el sector público y, para ello, que las empresas que usen la IA, robots u ordenadores paguen impuestos razonables por beneficiarse de avances colectivos de la humanidad. No se trata de asfixiar a las empresas, sino de exigir una retribución justa que no ahogue a la sociedad en su conjunto.
  4. Reducir la jornada laboral es un factor lógico para aumentar la felicidad. Y, por supuesto, genera empleo que compensaría, en parte, el que se está perdiendo por las nuevas tecnologías.
  5. Roubini también sugiere una Renta Básica Universal que reduzca los problemas de la desigualdad.

Con estas medidas, todos saldremos ganando, incluso los que se oponen a ellas. Usemos la inteligencia (natural) para fortalecer nuestro sistema público, que es el único que nos defenderá en las situaciones fáciles y también en las difíciles.

♦ Más reivindicaciones:

blogsostenible

Robots fabricando coches: un proceso barato pero con un impacto ambiental brutal.

✇Radios Libres

Todo lo que la IA puede hacer por vos y tu radio

Por: Santiago Garcia Gago

Cómo un insignificante cambio que llega para “solucionarnos la vida” puede implicar que nadie visite tu página web o lea artículos como este. (Sumamos el audio de la entrevista que nos hicieron en “Una Radio Muchas Voces” sobre esta nota).

0:00 0:00

Procesar y resumir enormes cantidades de datos y ponerlos a disposición de empresas, universidades o Estados. Analizar millones de informes médicos para realizar diagnósticos más precisos. O usos más cotidianos como traducir textos a otros idiomas, programar scripts informáticos o producir podcasts. Estas son algunas de las muchas funciones para las que actualmente se emplea Inteligencia Artifical (IA). Sin duda alguna, es uno de los avances tecnocientíficos más importantes de esta época.

Sin embargo, es conveniente recordar que la IA no es más que una programación informática que, al seguirse alimentando de cada vez más datos, aumenta su capacidad de ejecutar acciones. Eso no significa que aprenda en un sentido humano, a pesar de que este mito esté muy extendido.

De hecho, todos los desarrollos tecnocientificos relacionados con las TIC llegaron siempre acompañados de un optimismo exagerado y un misticismo mágico. Cuando apareció Internet nos prometieron que el desarrollo alcanzaría a todas las áreas desfavorecidas de la tierra o que sería un ágora democrática. Luego, que las Redes Sociales servirían para democratizar la libertad de expresión y pensamos que las podríamos resignificar para hacer la revolución. Veinte años después de su aparición estamos clamando por legislaciones que eviten que la juventud se exponga a estos espacios convertidos en burbujas de odio que promueven el consumismo y el individualismo exacerbado.

Y no, no ha sido porque las usemos mal. Como hemos repetido en otras ocasiones, las tecnologías no son neutras. Si desarrollamos ciencia y tecnología en un contexto monopólico de empresas que solo buscan ganancias desorbitantes, inevitablemente, estos son los resultados. Ese puñado de compañías se convirtieron en las más ricas del planeta, mientras continuan ignorando las investigaciones de sus propios empleados que alertan de los riesgos psicológicos y de adicción que pueden sufrir quienes usan sus plataformas.

Tampoco la IA es neutra. De hecho, se alimenta de los sesgos que tiene los datos con que se entrena y, esos sesgos, se transmiten a la decisiones que toma. (Por cierto, también se alimenta de ingentes cantidades de agua como ya hablamos en este otro texto).

Por ejemplo, si empleamos un modelo genérico de IA para procesar y resumir entrevistas de audio o un grupo de documentos académicos, ¿en base a qué hará ese recorte? Al no tener acceso para matizar ese algoritmo, por mucho que definamos la instrucción (lo que se conoce como promt) siempre existirá un recorte subjetivo. Ciertamente, también sería subjetivo el resumen que haríamos cada uno de nosotros y nosotras, pero tendríamos el poder de ponderar ciertos aspectos que a la IA se les escapan: como que estén más presentes las voces de mujeres o minorías porque siempre son relegadas; entender que la voz de los pueblos originarios no suele estar en los textos de historia porque tienen una tradición oral y siempre fueron los occidentales quienes escribieron sobre ellos; o que la academia suele priorizar teorías del norte global que son las más repetidas, en contraposición con los postulados de quienes investigan desde el sur global.

Pero hay otros peligrosos recortes que ya podemos cuantificar, que están simplificando –aún más– la forma en que aprendemos o procesamos el conocimiento, debido principalmente al modelo oligopólico privado de desarrollo tecnocientífico que venimos denunciando.

El buscador de Google se emplea en 9 de cada 10 búsquedas que se hacen en Internet. La posición dominante de esta herramienta de la compañía Alphabet –que se suma a la que tiene en otros segmentos con servicios como Youtube, GMaps, GDrive o GMail, entre un larguísimo ectcetera– le permite tomar decisiones que afectan radicalmente la lógica en que consumimos los contenidos en Internet.

Google nunca abrió su algoritmo por lo que solo podemos intuir por qué prioriza unas páginas web por encima de otras: una buena gestión de etiquetas en el sitio web con palabras claves, algo en lo que se afanan quienes hacen SEO (optimización de motores de búsqueda); que una página web sea enlazada por otras; y otras estrategias que quienes trabajan como community manager intentan adivinar.

Hasta hace unos meses, el buscador de la compañía funcionaba de forma sencilla. Alguien introducía una pregunta, por ejemplo, “cómo instalar una radio en línea” y en la página aparecían los resultados que Google filtraba en función del idioma de la búsqueda, del país o región donde te encuentres o, incluso, relacionándolo con tus búsqueda anteriores. Un necesario intermediario entre quienes creamos contenidos y nuestras audiencias, en un mar infinito de páginas web y plataformas de contenido.

Como gran parte de los ingresos de Google son por publicidad, entre los primeros resultados muestra algunos patrocinados, pero el buscador lo indica claramente. De este modo, sabes que aparecen destacados porque pagan y no porque tenga un buen posicionamiento dentro del buscador. Luego, promociona varios videos de su servicio Youtube. Y después, las páginas con los resultados que podías visitar para encontrar la respuesta a la búsqueda realizada. (Clic aquí o en la imagen para ver en grande).

Ahora bien, desde que Google incorporó por defecto a su buscador la “Visión general IA” (AI Overviews), al realizar esa misma pregunta, lo que aparece destacado en primer lugar es un resumen realizado por esa Inteligencia Artificial [1].

Aunque Google añade el enlace a los contenidos originales con los que confecciona dicho resumen, la mayoría de las personas se quedan con la respuesta que les ofrece el extracto y no visitan esos sitios. Incluso, a pesar de que el mismo buscador alerta expresamente de queLa visión general creada por IA puede cometer errores y, de hecho, los tendrá. De ser un mediador necesario, Google paso a acaparar todo el tráfico que ya no se traduce en visitas a las páginas que proveen el contenido.

“Google se transforma en el ensamblador de contenido ajeno y de paso es el único que obtiene el tráfico que produce con las respuestas que ofrece. Gracias a eso, se queda con la audiencia”.

Juan Carlos Camús, Huellas Digitales.

Esta nueva dinámica en las búsquedas se ha traducido en un descenso drástico de las visitas a las páginas web generadoras del contenido. Varios blogs venían alertando de esta situación pero, la pasada semana, la revista JotDown, lo cuantificó con los siguientes datos:

“Durante los primeros cinco meses de 2025, la versión digital de Jot Down ha perdido un 35,8 % de sus lectores. Las sesiones han bajado un 40,5 %, las páginas vistas un 15,9 %. Google nos ha traído un 31,8 % menos de visitas que el año pasado”.

Ángel Fernández Recuero, Jot Down

Este descenso se suma al que ya venían experimentando por las visitas que llegaban desde las redes sociales “Twitter, un 56 % menos. Facebook, un 35 %”.

En un crudo editorial titulado “Qué hacer cuando nadie nos busca”, Jot Down pronostica que “la web, tal como la conocíamos, está dejando de existir” y llaman a conformar una “comunidad contralgorítmica”. Comunidad que, por cierto, lleva tiempo existiendo y sosteniendo alternativas como medios comunitarios, infraestructura autónoma o el fediverso.

Otros grandes medios internacionales, como New York Times o Wall Street Journal’s, han reportado caídas similares de su tráfico orgánico.

“En el caso de Business Insider, el descenso fue del 55% entre abril de 2022 y abril de 2025. Esta situación obligó al medio a despedir al 21% de su personal”.

Carolina Martínez Elebi, Observacom.

Ciertamente, la IA seguirá avanzando. Las empresas siguen apostando a su desarrollo porque obtienen ganancias descomunales. Pero esos avances, que a veces parecen insignificantes y como usuarias valoramos porque nos “hacen la vida más sencilla”, van moldeando nuestros hábitos, nuestras formas de aprender y elaborar el conocimiento, de disfrutar del arte y la cultura, o de relacionarnos entre nosotres.

Usar una u otra tecnología es una decisión personal pero politizar su desarrollo es una cuestión que deberíamos asumir como sociedad. Al menos quienes tenemos la convicción de que la comunicación es un derecho humano y apostamos por las tecnologías libres y los medios comunitarios. ¿De qué sirve usar IA para llenar una radio o una página web de contenidos si nadie los lee, y si con ello no provocamos diálogos participativos o transformamos las condiciones de vida de nuestras comunidades?


Cuando este año estrenamos el nuevo logo, varias personas nos preguntaron si el símbolo que sustituye a la “O” era un ovni o un ojo divino que todo lo ve. Ninguna de las dos. Es un banquito de tres patas. Porque aunque nuestro proyecto se construye desde y para Internet, seguimos reivindicando esas antiguas tecnologías de comunicación que nos permiten sentarnos junto a otres, con un mate o un café, a dialogar.


Más recursos para debatir sobre una IA ética:

Notas:

[1] Google indica que si quieres ver los resultados sin el resumen, puedes hacer clic en los filtros superiores, concretamente en “Web” (está junto al de Imágenes, Videos o Herramientas. Pero eso solo puedes hacerlo una vez que ya te mostró los resultados, con el resumen Overview incluido. Nuestro querido Dani Cotillas (de Nodo Común, Comunicación Abierta o Club Manhattan) nos compartió un sencillo truco para que muestra los resultados sin IA y es sumar alguna mala palabra en la búsqueda como “joder”, lo probamos y anda :D.

✇Elbinario

Open Assistant, la alternativa libre a ChatGPT

Por: Jess Suárez

La tecnología ha evolucionado a pasos agigantados en las últimas décadas, y cada vez se desarrollan herramientas más inteligentes que nos facilitan la vida cotidiana. Uno de los avances más impresionantes en esta materia es el desarrollo de los asistentes virtuales basados en la inteligencia artificial, que permiten a los usuarios realizar tareas de forma más rápida y sencilla. Entre ellos, destaca Open Assistant, un asistente virtual libre que está cambiando la forma en que nos relacionamos con la tecnología.

Open Assistant es un asistente virtual de inteligencia artificial (IA) diseñado para ayudar a los usuarios en una variedad de tareas cotidianas. Utiliza tecnologías de procesamiento de lenguaje natural (PLN) y aprendizaje automático para comprender y responder a las solicitudes de los usuarios. Este asistente virtual se desarrolló como un proyecto de software libre para permitir a cualquier persona acceder y utilizar esta tecnología sin restricciones, basado en la comunidad e impulsado por LAION e.V., organización alemana sin fines de lucro dedicada a promover el software libre y la cultura digital. Por lo tanto, el código y todos los archivos de Open Assistant están disponibles bajo diferentes licencias de Creative Commons Attribution ShareAlike (CC BY SA). Estas licencias permiten que otros usuarios modifiquen, distribuyan y usen los trabajos creados por Open Assistant, siempre y cuando mencionen y compartan los resultados obtenidos a través de estos trabajos de manera compatible con estas licencias. De esta manera, se fomenta la colaboración entre diferentes proyectos de software libre y la comunicación abierta para el bien común.

Una de las principales ventajas de Open Assistant es su capacidad para realizar una amplia variedad de tareas. Desde buscar información en línea hasta controlar dispositivos domésticos inteligentes, puede ayudarnos a hacer nuestra vida cotidiana más fácil. Además, su integración con otros servicios en línea le permite proporcionar información adicional a los usuarios para una mejor asistencia. Se utiliza principalmente a través de una interfaz de chat, voz o texto. Los usuarios pueden interactuar con el asistente virtual mediante el lenguaje natural, lo que facilita su uso para cualquier persona sin importar su nivel de conocimiento en tecnología. A medida que el usuario interactúa con Open Assistant, el sistema aprende más sobre sus preferencias y comportamientos para proporcionar una mejor asistencia en el futuro.

Otro aspecto destacado es su capacidad de adaptarse a diferentes entornos y necesidades. Por ejemplo, puede ayudar a personas con discapacidades físicas a realizar tareas de forma más accesible e inclusiva. Asimismo, puede integrarse con diferentes dispositivos inteligentes, lo que permite a los usuarios controlar su hogar de forma remota o automatizar tareas específicas. Tiene capacidad suficiente para identificarse con temáticas específicas gracias a lo cual puede automatizar muchas tareas relacionadas con información general y conocimientos especializados. Puedes encontrar ejemplos de uso AQUÍ.

En resumen, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Su capacidad para realizar una amplia variedad de tareas, su facilidad de uso y su adaptabilidad a diferentes entornos y necesidades lo convierten en una opción atractiva para cualquier usuario. Además, el hecho de ser un proyecto de software libre fomenta la colaboración y el desarrollo de la tecnología en
beneficio de toda la comunidad.

A medida que la tecnología sigue evolucionando, es probable que veamos más asistentes virtuales como Open Assistant. Sin embargo, lo que diferencia a este asistente virtual es su enfoque en la accesibilidad y la inclusión. Al permitir que personas con discapacidades físicas o cognitivas puedan interactuar con la tecnología de manera más accesible, está ayudando a romper barreras y promover la igualdad de oportunidades para todos. Además, su capacidad  para integrarse con otros servicios en línea le permite proporcionar una experiencia de usuario más personalizada y completa. Por ejemplo, puede ayudar a los usuarios a planificar su día, proporcionar recomendaciones de entretenimiento o ayudar en la compra de productos en línea. Todo esto se puede hacer mediante una simple conversación, lo que facilita enormemente la realización de tareas.

Sin embargo, aunque Open Assistant ofrece una experiencia de usuario sólida y versátil, todavía hay espacio para mejorar. Al ser un proyecto de software libre, la comunidad debe trabajar constantemente en su desarrollo para mantenerse al día con las últimas actualizaciones. También es importante asegurarse de que el asistente virtual se mantenga actualizado con respecto a la seguridad y privacidad de los datos de los usuarios.  Siempre es recomendable tomar precauciones antes de introducir cualquier tipo de datos personales como las redes sociales, los correos electrónicos o cuentas bancarias ya que pueden quedar expuestos a ataques cibernéticos. En el caso particular de esta aplicación es importante saber qué solo se recopilarán los datos necesarios para funcionar correctamente evitando la recolección desmedida de ellos. Además hay medidas adicionales en desarrollo para garantizar mayor privacidad.

En conclusión, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Al permitir una experiencia de usuario más accesible e inclusiva, y ofrecer una amplia gama de funciones, este asistente virtual se ha convertido en una opción atractiva para cualquier persona que busque una herramienta para simplificar su vida cotidiana. Con su enfoque en el código abierto y la
colaboración de la comunidad, tiene el potencial de seguir mejorando y adaptándose a las necesidades de los usuarios en el futuro, si estás buscando una alternativa a ChatGPT o BingChat (que es lo mismo), Open Assistant podría ser tu solución. Al tratarse de software libre, la posibilidad de hacer uso de él en casa es mucho menor ya que requiere hardware potente para ejecutarse. Sin embargo, este inconveniente pronto se superará con el avance tecnológico. También, quien lo utiliza tendrá siempre acceso a su propia copia y podrá modificarlo según sus preferencias sin dependencia de terceros.

Si quieres ayudar a entrenar a esta maravilla de IA o necesitas más información, no dejes de ver el vídeo de DotCSV, un genio que da gusto escuchar hablar sobre inteligencia artificial.

 

✇Elbinario

Open Assistant, la alternativa libre a ChatGPT

Por: Jess Suárez

La tecnología ha evolucionado a pasos agigantados en las últimas décadas, y cada vez se desarrollan herramientas más inteligentes que nos facilitan la vida cotidiana. Uno de los avances más impresionantes en esta materia es el desarrollo de los asistentes virtuales basados en la inteligencia artificial, que permiten a los usuarios realizar tareas de forma más rápida y sencilla. Entre ellos, destaca Open Assistant, un asistente virtual libre que está cambiando la forma en que nos relacionamos con la tecnología.

Open Assistant es un asistente virtual de inteligencia artificial (IA) diseñado para ayudar a los usuarios en una variedad de tareas cotidianas. Utiliza tecnologías de procesamiento de lenguaje natural (PLN) y aprendizaje automático para comprender y responder a las solicitudes de los usuarios. Este asistente virtual se desarrolló como un proyecto de software libre para permitir a cualquier persona acceder y utilizar esta tecnología sin restricciones, basado en la comunidad e impulsado por LAION e.V., organización alemana sin fines de lucro dedicada a promover el software libre y la cultura digital. Por lo tanto, el código y todos los archivos de Open Assistant están disponibles bajo diferentes licencias de Creative Commons Attribution ShareAlike (CC BY SA). Estas licencias permiten que otros usuarios modifiquen, distribuyan y usen los trabajos creados por Open Assistant, siempre y cuando mencionen y compartan los resultados obtenidos a través de estos trabajos de manera compatible con estas licencias. De esta manera, se fomenta la colaboración entre diferentes proyectos de software libre y la comunicación abierta para el bien común.

Una de las principales ventajas de Open Assistant es su capacidad para realizar una amplia variedad de tareas. Desde buscar información en línea hasta controlar dispositivos domésticos inteligentes, puede ayudarnos a hacer nuestra vida cotidiana más fácil. Además, su integración con otros servicios en línea le permite proporcionar información adicional a los usuarios para una mejor asistencia. Se utiliza principalmente a través de una interfaz de chat, voz o texto. Los usuarios pueden interactuar con el asistente virtual mediante el lenguaje natural, lo que facilita su uso para cualquier persona sin importar su nivel de conocimiento en tecnología. A medida que el usuario interactúa con Open Assistant, el sistema aprende más sobre sus preferencias y comportamientos para proporcionar una mejor asistencia en el futuro.

Otro aspecto destacado es su capacidad de adaptarse a diferentes entornos y necesidades. Por ejemplo, puede ayudar a personas con discapacidades físicas a realizar tareas de forma más accesible e inclusiva. Asimismo, puede integrarse con diferentes dispositivos inteligentes, lo que permite a los usuarios controlar su hogar de forma remota o automatizar tareas específicas. Tiene capacidad suficiente para identificarse con temáticas específicas gracias a lo cual puede automatizar muchas tareas relacionadas con información general y conocimientos especializados. Puedes encontrar ejemplos de uso AQUÍ.

En resumen, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Su capacidad para realizar una amplia variedad de tareas, su facilidad de uso y su adaptabilidad a diferentes entornos y necesidades lo convierten en una opción atractiva para cualquier usuario. Además, el hecho de ser un proyecto de software libre fomenta la colaboración y el desarrollo de la tecnología en
beneficio de toda la comunidad.

A medida que la tecnología sigue evolucionando, es probable que veamos más asistentes virtuales como Open Assistant. Sin embargo, lo que diferencia a este asistente virtual es su enfoque en la accesibilidad y la inclusión. Al permitir que personas con discapacidades físicas o cognitivas puedan interactuar con la tecnología de manera más accesible, está ayudando a romper barreras y promover la igualdad de oportunidades para todos. Además, su capacidad  para integrarse con otros servicios en línea le permite proporcionar una experiencia de usuario más personalizada y completa. Por ejemplo, puede ayudar a los usuarios a planificar su día, proporcionar recomendaciones de entretenimiento o ayudar en la compra de productos en línea. Todo esto se puede hacer mediante una simple conversación, lo que facilita enormemente la realización de tareas.

Sin embargo, aunque Open Assistant ofrece una experiencia de usuario sólida y versátil, todavía hay espacio para mejorar. Al ser un proyecto de software libre, la comunidad debe trabajar constantemente en su desarrollo para mantenerse al día con las últimas actualizaciones. También es importante asegurarse de que el asistente virtual se mantenga actualizado con respecto a la seguridad y privacidad de los datos de los usuarios.  Siempre es recomendable tomar precauciones antes de introducir cualquier tipo de datos personales como las redes sociales, los correos electrónicos o cuentas bancarias ya que pueden quedar expuestos a ataques cibernéticos. En el caso particular de esta aplicación es importante saber qué solo se recopilarán los datos necesarios para funcionar correctamente evitando la recolección desmedida de ellos. Además hay medidas adicionales en desarrollo para garantizar mayor privacidad.

En conclusión, Open Assistant es una herramienta tecnológica impresionante que está cambiando la forma en que interactuamos con la tecnología. Al permitir una experiencia de usuario más accesible e inclusiva, y ofrecer una amplia gama de funciones, este asistente virtual se ha convertido en una opción atractiva para cualquier persona que busque una herramienta para simplificar su vida cotidiana. Con su enfoque en el código abierto y la
colaboración de la comunidad, tiene el potencial de seguir mejorando y adaptándose a las necesidades de los usuarios en el futuro, si estás buscando una alternativa a ChatGPT o BingChat (que es lo mismo), Open Assistant podría ser tu solución. Al tratarse de software libre, la posibilidad de hacer uso de él en casa es mucho menor ya que requiere hardware potente para ejecutarse. Sin embargo, este inconveniente pronto se superará con el avance tecnológico. También, quien lo utiliza tendrá siempre acceso a su propia copia y podrá modificarlo según sus preferencias sin dependencia de terceros.

Si quieres ayudar a entrenar a esta maravilla de IA o necesitas más información, no dejes de ver el vídeo de DotCSV, un genio que da gusto escuchar hablar sobre inteligencia artificial.

 

  • No hay más artículos
❌