IA, negocios y guerra.

En estos desgraciados días en los que nos toca contemplar en directo los desastres de la guerra, no podemos olvidar que tras estas batallas también está la inteligencia artificial.

Días antes de que EE. UU. e Israel decidieran atacar a Irán, dos empresas norteamericanas se enfrentaban para conseguir un suculento contrato con la administración Trump, y convertirse así en la IA de la guerra. Hasta ese momento, la empresa Anthropic, creadora del modelo de AI Claude, era la mejor situada. De hecho, este modelo ya está siendo utilizado desde hace tiempo por EE. UU. en diferentes contextos bélicos. Por ejemplo, parece que contribuyó a llevar a buen puerto la operación de secuestro del presidente venezolano Nicolás Maduro. También se ha usado en todos los preparativos para la intervención armada en Irán. Sin embargo, en un giro de guion inesperado, Anthropic renunció a seguir colaborando con el ejército norteamericano. Parece ser que no quiso liberar dos limitaciones que impone a quien la usa. La primera condición es que no puede ser utilizada para espiar y controlar los movimientos de ciudadanos norteamericanos. La segunda, que no puede otorgársele autonomía para decidir intervenciones que pueden costar vidas humanas, por ejemplo, dirigiendo drones armados contra el enemigo.

Trump aseguró que no aceptaría un contrato con estas restricciones, y Anthropic prefirió renunciar al negocio que suponía un contrato de esas características antes que violar sus principios éticos. Esta postura supuso el enfado del presidente, la amenaza de represalias, sanciones y vetos y, de rebote, la firma de un acuerdo de colaboración con la otra empresa en litigio: OpenAI, creadora de ChatGPT. En este caso no se contemplan más limitaciones de uso de la AI que las que marca el ordenamiento legal. Un ordenamiento que hemos comprobado cómo se interpreta con criterios muy laxos, en función de las circunstancias del momento.

En cualquier caso, la situación es dramática porque de nuevo una creación humana con un potencial extraordinario es usada para los negocios y para la guerra o, mejor dicho, para el negocio de la guerra. Aunque Anthropic pueda presumir de coherencia, no debemos perder de vista que estamos hablando de armas de guerra. Armas que tienen una característica terrible: pueden tomar decisiones propias. Se ha hablado mucho de la ética en relación con el desarrollo de la IA, pero da la impresión de que se va a llegar tarde para marcar límites. De hecho, los acontecimientos están demostrando que la IA puede usarse para fines bélicos, para acciones que atentan contra los derechos humanos, como es el control de personas, y, lo que es más preocupante, puede actuar por iniciativa propia contra seres humanos, algo que durante mucho tiempo se consideró como inaceptable.

Imagen: Generada con Perplexity

Edit Template

Escribe un comentario

Nombre

© 2023 Created with Royal Elementor Addons

Manuel Marco Esco

Docente, sociólogo, jubilado, curioso.