Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
El PP explota la división parlamentaria para tumbar los impuestos a banca y rentas más altas
La vuelta a la rutina de las familias de los desaparecidos en la DANA
OPINIÓN | Feijóo y el cinismo de ‘Inside Out’, por Lucía Taboada

Silicon Valley se rinde al negocio del armamento

Un soldado con diferentes equipos electrónicos, en una imagen de archivo.

Carlos del Castillo

1

No es que el complejo militar-industrial estadounidense y Silicon Valley no haya tenido profundos vínculos en las últimas décadas. Pero sí que es la primera vez que estos afloran a plena luz, implican a las principales multinacionales tecnológicas y ni sus usuarios ni sus trabajadores actúan para evitarlo. El negocio de la inteligencia artificial (IA) y el panorama geopolítico han abierto un nuevo escenario para los gigantes digitales y las empresas de armamento.

Hasta ahora los contratos entre el sector militar y Silicon Valley se llevaban con discreción. Esa tendencia se ha roto con un anuncio oficial de Meta. “Ponemos Llama a disposición de las agencias gubernamentales y contratistas estadounidenses que trabajan en aplicaciones de seguridad nacional”, desveló Nick Clegg, ex viceprimer ministro británico que ahora actúa como jefe de políticas públicas de la multinacional.

“Los usos responsables de los modelos de IA de código abierto promueven la seguridad mundial y ayudan a situar a EEUU en la carrera mundial por el liderazgo en IA”, insistía el expolítico de los liberaldemócratas, fichado por Meta en 2018 tras perder su escaño en la Cámara de los Comunes.

Llama es la inteligencia artificial estilo ChatGPT desarrollada por Meta. Actualmente no está disponible en Europa, bloqueada unilateralmente por la multinacional tras negarse a ofrecer a sus usuarios de la UE una opción clara y sencilla para evitar que sus datos se utilizasen en su entrenamiento. En el resto del mundo está disponible sin coste para los miembros de Facebook e Instagram.

Meta había prohibido tradicionalmente que sus productos se usaran con fines armamentísticos. La mayoría de desarrolladores de inteligencia artificial incluían provisiones similares en sus términos y condiciones, hasta que a principios de este año OpenAI eliminó ese párrafo de sus políticas. A diferencia de Meta, los de Sam Altman no anunciaron el cambio. Los meses de ventaja han servido a OpenAI para levantarle el primer contrato militar a su competencia.

El mismo día que Meta anunciaba el cambio de políticas, OpenAI publicaba que ha llegado a un acuerdo con la Fuerza Aérea estadounidense para transferirle tecnología. “Ahora es el momento de brindarles a nuestros aviadores la flexibilidad para desarrollar las habilidades necesarias en paralelo. Hay múltiples esfuerzos de modernización en curso en este momento en todo el gobierno federal y dentro de la Fuerza Aérea para poner herramientas en manos de la fuerza laboral. Esta herramienta es otro de esos esfuerzos”, ha declarado la jefa de Información del cuerpo sobre el uso de lA.

No es la única fuerza del país que ha firmado contratos con la organización dirigida por Altman. Según el medio The Intercept, que ha tenido acceso a un documento interno de AFRICOM, el comando de la fuerza militar desplegada en África de EEUU, este considera que la tecnología de OpenAI es “esencial” para su misión. Aunque el precio de compra aparece censurado en el texto, otras referencias a lo largo del documento indican que no superaría los 15 millones de dólares.

El ejemplo Palantir

La lista continúa con Anthropic, una empresa financiada por Amazon y Google que desarrolla Claude, otro asistente virtual de IA. En su caso ha firmado una triple alianza con Amazon y con Palantir para que los servicios de inteligencia de EEUU puedan usar su tecnología. Se empleará en misiones como “la ayuda a los funcionarios estadounidenses a tomar decisiones más informadas en situaciones urgentes, preservando al mismo tiempo sus facultades de toma de decisiones”, comunicaron las tres empresas.

La evolución del papel de Palantir dentro de Silicon Valley es un ejemplo de cómo ha cambiado la relación de las grandes tecnológicas con la industria militar. Palantir fue fundada en 2003 por Peter Thiel, uno de los primeros inversores de Facebook, y lleva casi dos décadas aprovechando los datos de esa y otras redes sociales para ofrecer tencología de inteligencia de datos, selección de objetivos y detección de patrones de riesgo.

A pesar de que es fácil encontrar productos de Palantir en todos los países de la órbita occidental, desde EEUU, pasando por España o sus relaciones “especiales” con Israel y sus operaciones en Gaza, hasta ahora era una de las empresas que actuaba más en la sombra de todo Silicon Valley. Era un actor aislado y polémico con el que el resto de empresas solían rehusar asociarse. Incluso el papel de Thiel en Facebook era habitualmente escondido en la historiografía pública de la compañía.

Ahora eso ha cambiado. Palantir y sus negocios militares son considerados homologables a los suyos por muchas tecnológicas que buscan pescar en el negocio de los vendedores de armas tecnológicas. También sus ejecutivos. En octubre, OpenAI anunció que había fichado a uno de sus jefes de seguridad. “Permitir que las instituciones democráticas aprovechen al máximo estas tecnologías e impulsar el desarrollo de una inteligencia artificial segura para el mundo” serán sus principales objetivos, declaró el directivo.

Contratos en silencio

Antes de la pandemia, de la guerra de Ucrania y del aumento de la tensión entre EEUU y China por Taiwán, este tipo de movimientos recibían una fuerte contestación interna por parte de los empleados de las tecnológicas. Ratificar uno de estos acuerdos suponía exponerse a que los trabajadores lo sacaran a la luz y boicotearan el discurso de relaciones públicas de las compañías, que querían asociarse con el pacifismo y el progreso.

Google ha sufrido varios de estos motines. El más sonado ocurrió en 2018 por el Proyecto Maven, un plan del Departamento de Defensa de EEUU para utilizar IA para analizar imágenes de drones y selección de objetivos. Entonces los empleados organizaron protestas y enviaron una carta pública al CEO, Sundar Pichai, para afearle cómo este tipo de comportamiento contradecía la cultura de la compañía.

“No podemos externalizar la responsabilidad moral de nuestras tecnologías a terceros. Los valores declarados de Google lo dejan claro: cada uno de nuestros usuarios confía en nosotros. Nunca arriesgues eso. Nunca. Este contrato pone en riesgo la reputación de Google y se encuentra en oposición directa a nuestros valores fundamentales. No es aceptable desarrollar esta tecnología y ayudar al gobierno de EEUU en la vigilancia militar, con resultados potencialmente letales”, denunciaban en su misiva.

Nada de eso ha ocurrido con estos últimos anuncios. “En la actualidad, todo activismo de los empleados se acaba mucho antes de que pueda escalar dentro de empresas como Google, Microsoft o Amazon”, ha declarado Michael Spencer, un analista especializado en los entresijos de Silicon Valley que siguió de cerca aquellas protestas.

“Los líderes de las grandes tecnológicas y de la computación en la nube trabajan cada vez más con el Pentágono, y no solo en materia de ciberseguridad. Como advertí a la gente del Pentágono involucrada en el proyecto Maven hace todos esos años, esta tendencia se intensificará. Ahora que esas personas se jubilaron hace un tiempo, ya se ha intensificado y continuará sin cesar”, adelanta Spencer.

Etiquetas
stats