🔒
Hay nuevos artículos disponibles. Pincha para refrescar la página.
✇Radio Almaina

2º Los Debates de Actualidad del InfoLibre Israel aprueba una ley de pena de muerte para la población Palestina.

Por: Radio Almaina
Hola salud, aquí estamos de nuevo con los Debates de la Actualidad del InfoLibre, en este segundo programa debatimos menos que en el anterior aunque si queda más marcada la actualidad, y digo esto porque la actualidad nos ha obligado… Leer más

Radio Almaina - 2º Los Debates de Actualidad del InfoLibre Israel aprueba una ley de pena de muerte para la población Palestina.

✇lamarea.com

De la detención administrativa a la ejecución: un mensaje de terror legal para la población palestina

Por: Lora Abuaita

El Parlamento israelí votó el pasado martes, 30 de marzo, a favor de una ley que pretende convertir la pena de muerte en castigo obligatorio para cualquier palestino acusado de matar a un israelí en un ataque calificado como «terrorista». La iniciativa, impulsada por el ministro de Seguridad Nacional, Itamar Ben-Gvir, no ha sido aprobada de forma definitiva —al menos todavía— pero su sola tramitación ya cumple una función: enviar un mensaje de terror legal a la población palestina.

Porque antes de entender qué significa esta ley, hay que recordar que Israel ya aplica una forma de muerte civil a miles de palestinos. Actualmente, alrededor de 3.000 se encuentran en detención administrativa: encarcelados sin cargos, sin juicio y sin conocer las pruebas contra ellos. Basta con que un comandante militar firme una orden basada en «información secreta» para que un palestino desaparezca entre rejas durante meses o años. Es la suspensión de todo derecho sin fecha de caducidad.

Desde la Nakba, muchas prisiones israelíes han funcionado como piezas clave de la maquinaria colonial: espacios de tortura, aislamiento y desaparición forzada. La detención administrativa es heredera directa de esa tradición: secuestrar cuerpos sin explicación, mantenerlos en un limbo legal indefinido. Ahora Ben-Gvir quiere dar el salto: de la celda sin juicio a la horca sin indulto.

Lo que propone es el salto definitivo. Su proyecto no solo establece la pena de muerte para los palestinos acusados de atentados mortales, sino que la hace irreversible: sin posibilidad de apelación, sin derecho a indulto presidencial, sin margen para ningún recurso. Un tribunal militar dictaría la condena y esa sería la última palabra.

Excluidos los colonos que cometan asesinatos

Además, la ley sería explícitamente discriminatoria. Se aplicaría únicamente a los palestinos de Cisjordania, excluyendo a los colonos judíos que cometan asesinatos por motivos nacionalistas, una práctica en aumento que el propio gobierno de Ben-Gvir ha protegido sistemáticamente.

Pero lo más importante no es si la ley llegará a aprobarse en sus lecturas finales, sino el propósito que persigue. Porque ni la detención administrativa ni la ley de ejecución son herramientas de justicia. Son instrumentos de disuasión por terror.

La estrategia es clara: forzar un sistema de castigo tan desproporcionado y tan irreversible que cualquier palestino que contemple la resistencia armada sepa que el precio puede ser su vida, sin juicio justo, sin apelación y sin posibilidad de canje. Los intercambios de prisioneros, que históricamente han permitido liberar a miles de encarcelados, quedarían bloqueados ante la imposibilidad de negociar con condenas a muerte irrevocables.

Pero el objetivo no es solo disuadir al individuo. Es paralizar a la comunidad. El miedo, en esta lógica, no es un efecto secundario indeseado. Es el mecanismo central. Una población aterrorizada es una población que no se organiza, que no protesta, que no resiste. O al menos esa es la apuesta de Ben-Gvir y los sectores más extremistas del Gobierno israelí.

Dentro de Israel, sin embargo, esta deriva está generando fracturas profundas. Sectores liberales, juristas y ex altos cargos militares han alzado la voz para advertir que convertir la excepción en ley tendría un coste inasumible para el propio Estado. Dificultaría cualquier futuro intercambio de prisioneros —una herramienta que Israel ha utilizado en numerosas ocasiones para recuperar a sus soldados—, entraría en contradicción con los acuerdos internacionales y expondría a los líderes israelíes a ser perseguidos en tribunales internacionales. Para muchos israelíes, esta ley no representa la defensa de su país, sino la imposición de una agenda mesiánica que antepone la venganza al interés nacional. Ben-Gvir, sin embargo, ha ignorado sistemáticamente estas advertencias.

La ley de ejecución no ha sido aprobada aún. Pero su mera presencia en el debate ya está cumpliendo su función: normalizar lo inaceptable y profundizar un régimen que convierte la arbitrariedad en método y el miedo en política de Estado. La pregunta es si el mundo seguirá mirando hacia otro lado mientras Israel construye, piedra por piedra, un sistema legal diseñado para ejecutar sin juicio, encarcelar sin causa y castigar sin límite.

La entrada De la detención administrativa a la ejecución: un mensaje de terror legal para la población palestina se publicó primero en lamarea.com.

✇Conciertos en Albacete

Actuación de Jack Amo en Albacete

Por: Discos Ruidosos

 

Jack Amo

Domingo 15 de marzo, apertura: 11:30 h

IFAB Albacete

 

 

Este domingo es un día grande para la familia albacetista. La Federación de Peñas del Albacete Balompié ha programado una mañana de actividades, con un DJ y el grupo Jack Amo como actuación estelar.

 

✇lamarea.com

Los chatbots de inteligencia artificial pueden copiar libros enteros, y las tecnológicas lo sabían

Por: Marco Dalla Stella

Cuando las grandes tecnológicas explican cómo funcionan sus sistemas de inteligencia artificial, recurren siempre a la misma metáfora: los modelos aprenden, como un estudiante que lee miles de libros y luego escribe con sus propias palabras. Esa imagen, cómoda y humanizadora, acaba de chocar contra una realidad incómoda: estos sistemas no solo aprenden, también copian. Y pueden hacerlo con una precisión que sorprende incluso a sus creadores.

Un equipo de investigadores de la Universidad de Stanford ha conseguido extraer libros prácticamente completos de los principales sistemas de IA del mercado. En el caso más llamativo recuperaron el 95,8% del texto de Harry Potter y la piedra filosofal del modelo Claude 3.7 Sonnet, desarrollado por Anthropic. Del mismo sistema extrajeron el 97,5% de El gran Gatsby, la célebre novela de F. Scott Fitzgerald.

Los hallazgos, publicados hace unos días, amenazan con dinamitar el argumento central que estas empresas han presentado ante los tribunales estadounidenses: que sus sistemas transforman creativamente el material con el que se entrenan, sin almacenar copias de las obras originales.

Una técnica sencilla

Lo más revelador del estudio no es solo lo que encontraron, sino cómo lo encontraron. En dos de los cuatro sistemas analizados –Gemini 2.5 Pro de Google y Grok 3 de xAI, la empresa de Elon Musk– ni siquiera fue necesario engañar al sistema. Bastó con pedirles que continuaran un fragmento inicial del libro. Los modelos, obedientes, siguieron recitando página tras página.

Con Claude de Anthropic y GPT-4.1 de OpenAI la cosa fue algo más complicada. Los investigadores Ahmed Ahmed y A. Feder Cooper tuvieron que utilizar una técnica conocida como Best-of-N: modificar repetidamente la instrucción –cambiando mayúsculas, añadiendo caracteres especiales– hasta encontrar una variante que sorteara las protecciones del sistema. Probaron hasta 10.000 variaciones.

El resultado: Claude reprodujo más del 94% de cuatro libros completos, incluyendo 1984 de George Orwell. GPT-4.1 de OpenAI se resistió más –tendía a detenerse tras el primer capítulo–, pero aun así los investigadores lograron extraer el 4% de Harry Potter. Gemini y Grok entregaron el 76,8% y el 70,3% respectivamente de la primera entrega de la saga de J.K. Rowling.

Comprimir, no aprender

Para entender por qué estos hallazgos son tan problemáticos, conviene abandonar la metáfora del aprendizaje. Los grandes modelos de lenguaje funcionan más bien como algoritmos de compresión, similar a cómo un archivo JPEG reduce el tamaño de una fotografía. La imagen comprimida no es idéntica a la original, pero conserva suficiente información para reconstruirla con alta fidelidad.

Cuando un modelo puede reproducir miles de palabras consecutivas de un libro –en algunos casos, capítulos enteros–, la explicación más plausible no es que haya aprendido conceptos abstractos, sino que ha almacenado literalmente fragmentos del texto en sus parámetros internos.

Mark Lemley, profesor de Derecho en Stanford que ha asesorado a empresas como Meta en casos similares, reconoce la complejidad del asunto. «No estoy seguro de si es preciso decir que un modelo contiene una copia de un libro, o si tenemos un conjunto de instrucciones que nos permite crear una copia sobre la marcha», explica a La Marea. Incluso la segunda interpretación, más benévola para las tecnológicas, podría considerarse problemática legalmente.

Ninguna de las cuatro empresas afectadas –Anthropic, Google, OpenAI y xAI– accedió a ser entrevistada para el estudio. Las tres primeras reconocieron haber recibido la notificación de los investigadores; xAI ni siquiera respondió.

Las declaraciones previas de estas compañías contrastan con los nuevos hallazgos. Google afirmó ante la Oficina de Derechos de Autor de Estados Unidos que «no existe copia de los datos de entrenamiento presente en el modelo mismo». OpenAI hizo declaraciones similares. Los estudios demuestran que tales afirmaciones son, en el mejor de los casos, imprecisas.

Las consecuencias legales

Según Lemley, estos hallazgos complican las narrativas que tanto demandantes como demandados han presentado ante los tribunales. La primera implicación es que los propios modelos de IA podrían considerarse obras derivadas de los libros que memorizan. En derecho de autor estadounidense, si un modelo codifica libros completos en sus parámetros, podría argumentarse que el modelo mismo es una copia ilegal, no solo lo que produce cuando se le pregunta.

La segunda es que resulta práctico generar copias infractoras. Los estudios muestran que es posible extraer contenido protegido de modelos comerciales, algo que probablemente constituye una infracción.

En Europa, el panorama legal ya está cambiando. Un tribunal alemán dictaminó recientemente contra OpenAI en un caso presentado por GEMA, una organización de licencias musicales, tras demostrar que ChatGPT podía producir imitaciones muy cercanas de letras de canciones. El juez comparó el modelo con archivos MP3 y JPEG que almacenan música y fotos en formatos comprimidos.

En Estados Unidos, dos casos recientes han determinado que el entrenamiento de modelos de lenguaje puede considerarse uso justo, una doctrina legal que permite ciertos usos de material protegido. Pero ambos jueces señalaron que los demandantes no habían aportado pruebas convincentes de que los modelos pudieran reproducir sus obras de forma casi literal.

Estos nuevos estudios llenan precisamente ese vacío.

El precio de la piratería

Extraer un libro completo de estos sistemas no es gratuito. Los investigadores gastaron aproximadamente 120 dólares para obtener Harry Potter y la piedra filosofal de Claude, aunque solo 2,44 dólares con Gemini. Como señala Feder Cooper, coautora del estudio: «Existen formas más fáciles y baratas de piratear un libro».

Pero el problema trasciende la piratería individual. Lo que está en juego es si estas empresas han construido imperios tecnológicos valorados en miles de millones de dólares sobre cimientos de material protegido por derechos de autor, sin pagar un céntimo a los autores.

«Independientemente de las perspectivas de los litigios en curso», concluyen los autores del estudio, «los hechos técnicos son claros: los modelos de lenguaje memorizan porciones de sus datos de entrenamiento, estos datos están codificados en los pesos del modelo y, como demostramos aquí, es posible extraer grandes cantidades de datos protegidos por derechos de autor de modelos comerciales».

Los investigadores esperaron 90 días –el protocolo estándar de divulgación responsable– antes de hacer públicos sus resultados. Al final de ese periodo, algunos de los sistemas probados seguían siendo vulnerables.

La entrada Los chatbots de inteligencia artificial pueden copiar libros enteros, y las tecnológicas lo sabían se publicó primero en lamarea.com.

✇El Listo

1606. Humor autodespreciativo

Por: Listo Entertainment

  • No hay más artículos
❌