En días recientes, Google presentó una serie de recomendaciones con las que busca blindar a los modelos de Inteligencia Artificial (IA) frente a posibles ciberataques. Se trata de una guía técnica a la que denominó Marco de Inteligencia Artificial Segura (SAIF, por sus siglas en inglés).
La grande tecnológica se puso al frente en la defensa de las nuevas tendencias con esta herramienta. Para eso, lo que quieren evitar es el robo de códigos de las redes neuronales y los datos de entrenamiento.
Así lo aseguraron en el blog de Google los ejecutivos de ciberseguridad de esta empresa, Phil Venables y Royal Hansen, quienes también revelaron que buscan ofrecer protección contra otros tipos de amenazas en la web.
¿Para qué funciona el SAIF de Google?
El SAIF de Google establece un altísimo nivel de dificultad para que hackers no logren manipular modelos de Inteligencia Artificial con resultados malintencionados.
Para eso, esta guía definió seis categorías; todas enfocadas en mejorar un aspecto distinto de la seguridad en Inteligencia Artificial:
- La primera busca que empresas extienda sus controles de ciberseguridad ya empleados, hacia sus sistemas de Inteligencia artificial.
- La segunda categoría está enfocada en la importancia de detectar amenazas, monitorizando las entradas maliciosas.
- El tercer aspecto insta a la supervisión humana constante sobre los modelos de Inteligencia Artificial de cada empresa. Esto, a fin de evitar erróneos resultados.
El resto de las categorías recomiendan acciones como la realización de un inventario de los sistemas de IA utilizados por los empleados y mapear los riesgos asociados. También, recomiendan estandarizar las herramientas utilizadas en la ciberseguridad.
El SAIF de Google fue desarrollado para trabajar no solo con empresas e industrias, sino con Gobiernos y cualquier institución académica que gestione modelos de IA.