Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

La alianza de Apple con ChatGPT levanta dudas sobre la seguridad de los datos de los iPhone y iPad

Sam Altman, entre el público de la conferencia en la que Apple ha anunciado la integración de Siri con ChatGPT

Carlos del Castillo

11 de junio de 2024 22:15 h

4

OpenAI es la primera empresa a la que Apple pide ayuda. Consciente de que se quedaba atrás en la carrera de la inteligencia artificial, la multinacional ha recurrido a los creadores de ChatGPT para integrar esta tecnología en sus dispositivos. Un acuerdo que enseguida ha provocado dudas sobre la seguridad de los datos almacenados en los iPhone, iPad y Mac y el acceso que OpenAI tendrá a ellos.

En menos de dos años desde su llegada a la fama de la mano de ChatGPT, la compañía de Sam Altman ha acumulado numerosas polémicas por sus prácticas para conseguir datos con los que entrenar a su inteligencia artificial. Entre ellas, OpenAI ha reconocido que se ha saltado el copyright incluyendo en los datos de entrenamiento material protegido (y ha sido denunciada por ello por The New York Times y sindicatos de escritores y autores) y ha ignorado las normas de YouTube que prohíben transcribir los vídeos de los usuarios para añadir ese material a ChatGPT.

Un gran número de empresas tecnológicas, consultoras o despachos de abogados han prohibido a sus empleados introducir datos personales o sensibles en ChatGPT ante la duda qué podría hacer OpenAI con esos datos. En la UE, una investigación de reguladores europeos de privacidad en la que participa la Agencia Española de Protección de Datos está investigando qué hace su IA con la información personal que obtiene de los usuarios y si la utiliza para el entrenamiento sin su permiso.

En esta tesitura, Apple ha anunciado que ChatGPT tendrá acceso a sus dispositivos para potenciar a Siri y las herramientas de escritura de todo su sistema operativo. Según lo explicado por Tim Cook este lunes, Siri podrá responder automáticamente a los mensajes, escribir notas, compendiar cadenas de correos electrónicos o consultar otras aplicaciones y resumir al usuario lo que está ocurriendo en ellas.

La inteligencia artificial de Apple también podrá grabar una llamada y trascribir la conversación. Otra de sus capacidades será ejecutar acciones en diferentes apps ante la orden del usuario, como reproducir el podcast que nos ha enviado un amigo por WhatsApp en una aplicación de audio.

Todas estas funciones requieren una enorme computación de datos personales del usuario. Quizá consciente la mala reputación que se ha ganado OpenAI, Apple ha puesto uno de los focos de la presentación en “la seguridad” de todo este nuevo sistema, que “marca un nuevo estándar en la privacidad de la inteligencia artificial”. Pese a ello, las dudas sobre el acuerdo han saltado a los pocos minutos de su presentación.

El más vehemente ha sido Elon Musk, que considera el contrato entre Apple y OpenAI como “una violación de la seguridad inaceptable”. El magnate ha amenazado con vetar los dispositivos del fabricante en sus empresas (Tesla, SpaceX o X, antes Twitter) y hacer que los visitantes tengan que “dejar sus dispositivos Apple en la puerta, donde serán guardados en una jaula de Faraday”, que impide que el dispositivo se conecte con el exterior.

“Es claramente absurdo que Apple no sea lo suficientemente inteligente como para crear su propia IA, pero que de alguna manera sea capaz de garantizar que OpenAI protegerá tu seguridad y privacidad. Apple no tiene ni idea de lo que pasa una vez que entrega tus datos a OpenAI. Te están traicionando”, ha escrito Musk en X.

La posición del magnate está marcada por la desconfianza que siente hacia la actual OpenAI. Musk formó parte del equipo fundador de la organización, que nació como un laboratorio de investigación de inteligencia artificial dedicado a impedir que esta se convirtiera en una amenaza para la humanidad y compartir sus descubrimientos en abierto con el resto del mundo. Tras su salida de la dirección por conflicto de intereses con su posición en Tesla (que también desarrolla IA), OpenAI pasó a estar dirigida por Altman y a transformarse en una empresa tradicional. Musk ha denunciado a la organización y a Altman por este motivo.

Sin embargo, Musk no es el único que ha sembrado la duda sobre el tratamiento de datos de los nuevos dispositivos de Apple.

La “nube privada”

La nueva inteligencia artificial de Apple potenciada por OpenAI solo estará disponible en los últimos modelos de iPhone y iPad debido a sus importantes requerimientos técnicos. Aún así, buena parte de la computación necesaria se hará fuera de los dispositivos. Este hecho ha despertado las dudas de expertos en privacidad y supone un cambio respecto a las prácticas tradicionales de Apple, que priorizan que los datos se queden en sus dispositivos como medida de seguridad.

La compañía ha llamado a esa computación externa “Private Cloud Compute” (Computación en Nube Privada). “Solo enviará los datos que sean necesarios para procesar la tarea en los servidores de los chips de Apple. Cuando esas solicitudes se envían a través de Private Cloud Compute, los datos no se almacenan y Apple no puede acceder a ellos. Solamente se usan para responder a las peticiones del usuario”, ha comunicado.

“La computación en nube privada de Apple plantea muchas preguntas sobre cómo define Apple la privacidad y la confidencialidad. No son lo mismo”, ha declarado Pat Walshe, uno de los abogados especialistas en privacidad más reconocidos de Europa, asesor del Consejo de Europa.

“Está claro que se ha pensado mucho en el diseño. Estoy deseando que los investigadores comprueben sus distintas afirmaciones y promesas. Para mí, hay mucho que considerar. Apple ya ha cedido a las presiones de gobiernos en el pasado, como China. ¿Qué salvaguardas existen para evitar que los derechos humanos fundamentales de las personas se vean comprometidos frente a las presiones gubernamentales que puedan ejercerse sobre Apple?”, ha añadido Walshe.

“Hay demasiadas aristas”

Matthew Green, profesor de criptografía en la Universidad Johns Hopkins, ha destacado que “hay demasiadas aristas afiladas que podrían existir en un sistema como este”. “Fallos de hardware. Problemas con el marco de atenuación criptográfica. Exploits de software ingeniosos [programas que aprovechan una brecha en el sistema]. Muchos de estos serán difíciles de detectar para los investigadores de seguridad”, ha resumido.

“Hasta donde yo sé, Apple no tiene planes explícitos de anunciar cuándo tus datos se van fuera del dispositivo a Private Cloud Compute”, añadía el experto en X, recalcando que los planes de la compañía son que su nueva IA venga habilitada por defecto: “Ni siquiera se le dirá necesariamente que está sucediendo. Simplemente ocurrirá. Por arte de magia”.

Otra de las preocupaciones expresadas por Green es el hecho de que la privacidad de los propietarios de dispositivos de Apple pasará a estar controlada por la compañía. “Para la mayoría de la gente, el mayor enemigo no son los superespías, sino la empresa que le vendió su dispositivo/software. Este sistema representa un compromiso real por parte de Apple de no 'espiar' tus datos. Es un gran compromiso”, destaca.

Apple ha anunciado que estas herramientas estarán disponibles en otoño para los propietarios de iPhone 15 Pro, iPhone 15 Pro Max e iPad y Mac con M1 y posteriores, que tengan Siri y el idioma del dispositivo configurado en inglés de EEUU. La compañía no ha aclarado si la nueva IA estará disponible en Europa desde su lanzamiento.

Etiquetas
stats