La portada de mañana
Acceder
El juez Peinado exprime la causa contra Begoña Gómez y cita ahora a Pedro Sánchez
OPINIÓN | 'Que no pare el espectáculo Peinado', por Esther Palomera
CRÓNICA | Una guerra de cien días para impedir la victoria de Trump

ENTREVISTA | Tal Eisner, experto en ciberseguridad

“La ciberguerra es una idea muy romántica: no se disparan armas, no hay misiles ni aviones”

La firma de ciberseguridad Check Point celebró los días 17 y 18 de octubre en El Escorial (Madrid) su particular aniversario. Bajo el título Check Point Experience (CPX), la compañía organizó un evento por donde pasaron varios expertos en muchas materias, todas relacionadas con la ciberseguridad, la tecnología, las amenazas móviles e Internet.

Allí, eldiario.es pudo entrevistar a Tal Eisner (Israel), que actualmente es el jefe de Producto y Prevención de Amenazas en la empresa. Tiene un largo currículum, en su mayoría relacionado con los departamentos antifraude de distintas empresas como Cellcom, Orange o TMForum. Lo de estar alerta permanentemente es algo que le viene desde hace tiempo. Charlamos con él sobre ciberseguridad, aunque también acerca de la Inteligencia Artificial, ciberguerra, los robots y otros temas de interés en el plano tecnológico.

Cada día en el mundo ocurren miles de ataques en el ciberespacio. Muchos son entre estados, de un país a otro, y dirigidos hacia infraestructuras críticas o grandes empresas. ¿Cree que los gobiernos están haciendo lo necesario para prevenir estas amenazas?

Se trata de una cuestión geográfica. Lo que está pasando en EEUU no es lo que está pasando en Europa. Creo que la preocupación por los riesgos que entraña la ciberseguridad aumenta y seguirá creciendo. 2017 fue un punto de inflexión para los gobiernos y para la humanidad en general, porque nos dimos cuenta de lo que podía ocasionar un ciberataque a la sociedad y a las grandes empresas.

No creo que estemos sumidos en la catástrofe. Pero sí que vemos una continua atención y preocupación por los presupuestos en ciberseguridad cada año. Y cada vez las organizaciones invierten más por eso, porque 2017 fue una ruptura con lo que veníamos conociendo hasta entonces.

El mundo no estaba preparado para WannaCry.WannaCry

El mundo puede estar preparado si usa las tecnologías apropiadas que ya existen desde hace más de 10 años. Se suele decir que estamos en la quinta generación de la ciberseguridad, caracterizada por los ataques a gran escala como WannaCry o Petya/NotPetya, que por cierto usaba las herramientas que le fueron robadas a la NSA y la CIA

¿Qué pasará cuando este ataque venga de grandes redes distribuidas como el Internet de las Cosas (IoT)?

Es un gran problema que está por llegar, sobre todo a nivel de hospitales y de infraestructuras relacionadas con la sanidad. Es una ciberguerra, es peligroso para la humanidad. Los mundos del futuro dependerán de lo cibernético. Y no es ciencia ficción, ya lo hemos visto en las películas: Petya/NotPetya supuestamente fue orquestado por un gran estado contra un pequeño país, Ucrania. Y este es un escenario en el que no se disparan armas. Sin misiles, sin aviones. Es una guerra en el ciberespacio, una idea muy romántica.

El IoT es un gran invento que revoluciona la forma en la que vivimos y nuestro día a día, pero también tiene vulnerabilidades y riesgos de los que mucha gente no está al tanto. Y por eso necesitan saberlo, para luego estar preparados. En los hospitales del futuro todos los dispositivos médicos estarán conectados a Internet. Se salvarán millones de vidas, pero también serán muy peligrosos para muchas otras.

¿Realmente necesitamos frigoríficos, tostadoras, hornos o dispositivos para el hogar inteligentes?

No importa lo que yo piense. Se trata de hacia dónde se dirige el mundo. Cada progreso en la tecnología tiene enormes beneficios para los humanos. Pero también trae grandes preocupaciones. El iPhone cambió nuestras vidas. Tenemos todo en la palma de nuestra mano: el banco, podemos reservar aviones, controlar la electricidad y hacer cosas maravillosas con él. Pero también existen muchas vulnerabilidades y riesgos: tenemos a nuestros hijos pasando demasiado tiempo delante de una pantalla y cosas así.

El IoT es otro gran ejemplo en el que fijarse y que puede traer grandes e increíbles cosas buenas a la humanidad, pero también muchas vulnerabilidades y riesgos para los que quizá no tengamos los controles adecuados. Y adecuado significa que, en el caso de no contar con esos mecanismos, pagaremos un gran precio. Todos. Y el mundo necesita entender esto y estar prevenido. Esto es la quinta generación de la ciberseguridad.

¿Irá siempre la Inteligencia Artificial (IA) un paso por delante de la ciberseguridad?

No creo que sea esa exactamente la expresión. No creo ni pienso que la IA sea magia. Y no se trata realmente de ir un paso por delante, sino de tener la capacidad para hacer lo necesario en un ambiente tecnológico en crecimiento. La IA tiene la capacidad de mejorar la precisión en la confianza, algo que es más difícil sin ella. No se trata de ir por delante, sino de ser útil, de ayudar, de poder llegar a unas áreas donde las soluciones de ciberseguridad antes no podían llegar. Quizá eso sea ir por delante, pero también quizá sea algo que fortalezca la capacidad en muchos campos.

¿Qué espera de la IA en los próximos 10 años?

Espero que tenga mucho más poder y se vuelva mucho más necesaria a la hora de implantar cualquier solución de seguridad. Simplemente por el crecimiento de la cantidad de datos que va a tener cada organización, y no importa cuál sea: una gran empresa tecnológica, una institución de salud o una infraestructura crítica. La cantidad de datos que necesitan ser analizados crece cada día enormemente y esta es la base sobre la que los humanos tenemos que trabajar, porque de otra forma será imposible tener el control sobre esos datos. Y aquí es donde la IA puede llegar a ser muy útil.

No creo en la IA por separado, no creo que la tecnología hecha solo a base de IA sea más eficiente. La precisión aún está lejos y los falsos positivos son muy altos, pero combinando IA y las tecnologías de la información de toda la vida haremos grandes avances, y de hecho ya los estamos haciendo.

Hasta ahora, la mayoría de IAs que se han programado se sustentan sobre grandes bases de datos. Cuanta más información, más inteligentes. Pero, ¿qué hay de las máquinas que pueden programarse a sí mismasmáquinas que pueden programarse a sí mismas?

Los sistemas de IA no pueden pensar por ellos mismos si no tienen un gran base de datos detrás. El machine learning [aprendizaje automático], el deep learning [aprendizaje profundo], las técnicas de análisis de datos... Todas dependen de grandes cantidades de información y de otro factor crucial: las ventajas competitivas. Cuanto más inteligentes son los algoritmos, cuanto más se desarrollan, pueden hacer mejores cosas, incluso grandes revoluciones en el sentido de cómo sean analizados esos datos. Pero nunca serán precisos. Ya hemos visto el ejemplo de los coches autónomos y otras áreas donde la IA tiene incontables problemas porque todavía no tiene la base de datos necesaria o no cuenta con la ventaja competitiva adecuada.

A cambio, tenemos superinteligencias que nos meten palizas jugando al póker, al Go o al Starcraft.palizas jugando al pókeral Goal Starcraft

Sí, y siempre es un buen ejemplo recordar que, en los inicios de la IA, se le enseñaba a detectar perros. Tú sabes que un perro va a cuatro patas, tiene un hocico, bigotes, grandes orejas, ojos... Y si tienes eso, tienes un perro. Pero esto se puede trasladar a muchas otras áreas, porque puedes encontrar muchos animales con estas características y, por tanto, hay mucho espacio para que las máquinas cometan errores. Son los falsos positivos. Por eso, cuantos más datos proporciones a esta máquina, los resultados serán más precisos y menos errores cometerá.

Y esto es muy importante, especialmente en ciberseguridad. Los egos, también en las tecnologías, son malos pero no son críticos. Pero los egos en el campo de la ciberseguridad, el pasar por alto algo o no identificar correctamente de dónde viene un fallo puede ser muy peligroso y problemático. No es un error cualquiera. Puede ser un error crucial que requiera la atención de todo un equipo.

No hay que olvidar que, al final, todas las máquinas están programadas por seres humanos que pueden ser racistas, homófobos, machistas o, en definitiva, prejuiciosos. ¿Cómo nos protegemos de esto?machistas

Tienes razón. Existen algoritmos con prejuicios, racistas, homófobos. Es un gran problema. Pero esto solo ocurre en áreas muy específicas en las que puedes enseñar a la máquina. Por esto es por lo que digo que cuantos más datos tenga, más precisa será. Ser homófobo es solo un canal de información y es muy limitado. Pero hay muchísimos otros caminos y puntos de vista y por eso es por lo que la máquina necesita cuantos más datos, mejor. Porque si solo la alimentamos con conductas homófobas o racistas pasará como con el Tay Bot de Microsoft, se convertirá en algo problemático. Y nunca quieres problemas en la ciberseguridad ni en nada. Este es exactamente el reto, tanto para las grandes compañías como para las pequeñas.

Poco a poco vemos cómo los robots están cada vez más integrados en nuestra sociedad. Los expertos coinciden en que será dentro de unos 20 años cuando formen parte de nuestro día a día. ¿Cree que necesitaremos de una regulación específica?

Ya existen todo tipo de regulaciones relacionadas con esto en todas las partes del mundo. Normalmente las leyes aparecen después de que algo ocurra. Así que creo que, en este momento de la Historia, es algo demasiado vago a regular. No sé cómo será el futuro.

La ciberantropológa Amber Case sostiene que algún día necesitaremos algo así como unos Derechos Robóticos Universales. ¿Está de acuerdo con ella?

No creo que esto vaya a ocurrir, al menos en el futuro más inmediato. El objetivo de los robots, de la IA, es reemplazar nuestras limitaciones. Tú no deberías trabajar más de un número determinado de horas al día porque tienes familia, tienes que conciliar, porque estás cansado o porque, directamente, existen los Derechos Humanos que contemplan todo eso. No estamos en un momento en el que los robots necesiten tener derechos. Eso vendrá en un momento en el que la tecnología haya vencido las limitaciones de los humanos, así que no estoy seguro que esas limitaciones o leyes sean lo próximo que esté por venir.