Para nadie resulta ser un secreto, que los avances tecnológicos están a la orden del día y que la Inteligencia Artificial se desarrolla a pasos agigantados, con cada vez más y mejores recursos. Sin embargo, aunque todos saben que esto está ocurriendo, aún existe un marcado desconocimiento acerca de los conceptos involucrados.
De igual manera, la IA, aún sigue representando un tema del que existe mucho desconocimiento, por parte de la población en general y lo cierto es, que cada día se depende más de la misma, en todos los ámbitos de la vida diaria y si bien, hasta ahora han sido de gran utilidad, no se sabe a ciencia cierta que podría pasar si llegasen a fallar.
La IA, se puede ver como si se tratase de un arma y como tal; dependiendo de su uso, puede servir para la defensa o para el ataque. Si bien, ha servido para facilitar la vida de las personas, ¿Qué ocurriría, si esta llega a utilizarse en contra de las personas?
En relación con la IA, la funcionalidad de las mismas, es uno de los puntos más relevantes que poseen, pero a la par de esto, también se debe tener en cuenta otro aspecto; la seguridad, y allí es cuando surgen interrogantes en materia de qué tan seguras son las IA o qué vulnerabilidades pueden tener que puedan poner en peligro a los usuarios.
Un precedente preocupante
Hace unos cuantos años atrás, más específico, en el año 2013, ya se vislumbraban las inquietudes relacionadas con las vulnerabilidades que pudieran tener las IA, cuando por parte de Google, se lanzó al público un trabajo relacionado con los ataques antagónicos.
Pero, lo primero que se precisa tener en claro, es a que se refiere este término. Los ataques antagónicos, hacen referencia a técnicas desarrolladas basadas en machine learning, para manipular los algoritmos con los que funcionan los diferentes tipos de Inteligencia Artificial.
A través de esto, se podría manipular la IA, haciendo que la misma funcione de manera errada en comparación con el propósito, para la cual ha sido creada. Esto implica un serio peligro para sus usuarios y para la seguridad de su información.
La manipulación de estos algoritmos, puede funcionar de dos maneras diferentes; la primera es evitando que el sistema pueda ver o reconocer, cierta información de peligro o que por el contrario, que la vea pero que no la pueda percibir como una amenaza.
Aunque pueda parecer un poco complicado, un grupo de investigadores se dio la tarea de demostrar este complejo sistema de ataques antagónicos, con la manipulación de los algoritmos del clasificador de imágenes Inception-v3, un proyecto de software libre de Google.
Con el uso de impresoras 3D, se crearon varias tortugas hiperrealistas y al pasarlas por el clasificador, luego de la manipulación de su algoritmo, el mismo las reconocía como rifles, gracias al trabajo de ingeniería inversa que se había realizado.
Un asunto de cuidado
Este experimento, hizo más evidente, el verdadero peligro al cual se expone la IA y la relativa facilidad que presenta para ser vulnerada; claro está, a manos de un personal calificado para ello. Lo que trajo a colación, nuevas y crecientes preocupaciones.
En miras de la creciente incidencia de la tecnología en la vida cotidiana, este es, sin dudas, un asunto del cual preocuparse. Por solo poner un ejemplo, basta en pensar en la nueva y creciente industria de vehículos de conducción automática.
Es muy probable, que, en los próximos años, el uso de este tipo de autos se incremente en gran medida; pero ¿Qué pasaría si alguien hackea su sistema y logra manejar ingeniería inversa para hacer que el mismo perciba de manera diferente la realidad?
Los resultados serían catastróficos, pues no podrían percibir los objetos y peatones como tal; desencadenando una serie de accidentes que pudiesen tener resultados fatales. Esto por solo poner un ejemplo de las repercusiones, que puede tener la inteligencia artificial antagónica.
Otra de las formas de ataque que más preocupa a los expertos, es el envío de señales a los diferentes dispositivos electrónicos; en un segundo plano, imperceptible para el usuario, pero que puedan cambiar por completo el funcionamiento de los equipos.
O lograr ingresar a los datos personales y financieros de las personas, llegando a ser robados en cuestión de segundos, sin siquiera llegar a notarlo. Todos estos asuntos, han comenzado a platear serias dudas en relación con el uso de las IA.
Queda mucho camino por recorrer en este sentido; razón por la cual, los expertos trabajan de forma ardua y constante para poder solventar este tipo de vulnerabilidades; para prevenir posibles ataques a los sistemas de los diferentes equipos en los que se utiliza la Inteligencia Artificial como base.