Block title
Block content
Le Fight Club d'IA de Google formera les systèmes à se défendre contre les attaques cybernétiques

Le Fight Club d'IA de Google formera les systèmes à se défendre contre les attaques cybernétiques

Google Brain et la compétition de Data science Kaggle ont annoncé une bataille IA contre IA pour former des systèmes d'apprentissage machine sur la façon de lutter contre les IA malveillantes. Au fur et à mesure que les systèmes informatiques deviennent plus intelligents, les cyber attaques deviennent plus difficiles à combattre. Cela dit,  ce concours de circonstances pourrait contribuer à nous éclairer au sujet de potentielles vulnérabilités imprévisibles.

Renforcer les systèmes d'Intelligence Artificielle

Lorsque l'intelligence artificielle (IA) est discutée aujourd'hui, la plupart des gens se réfèrent à des algorithmes machine learning ou à des systèmes d'apprentissage en profondeur. Bien que l'IA ait progressé au cours des dernières années, le principe derrière ces technologies reste le même. Quelqu'un forme un système pour recevoir certaines données et lui demande de produire un résultat spécifique. Il appartient à la machine de développer son propre algorithme pour atteindre ce résultat.

Hélas, alors que nous avons pu créer des systèmes très intelligents, ils ne sont pas encore tout à fait infaillibles, du moins pas pour l’instant. 

La plateforme de compétition de data science de Kaggle veut préparer des systèmes d'IA pour les cyber attaques super-intelligentes, et ils le font en poussant à mettre les intelligences artificielles nez à nez dans un concours baptisé « the Competition on Adversarial Attacks and Defenses». La bataille est organisée par Google Brain et fera partie de la compétition 2017 de la Fondation des systèmes de traitement des informations neurales (NIPS) plus tard cette année.

Ce Fight Club entre IA mettra en vedette trois défis contradictoires. La première attaque contradictoire non ciblée implique l'obtention d'algorithmes pour confondre un système de machine learning afin qu'il ne fonctionne pas correctement. Une autre bataille (attaque adversaire ciblée) nécessite de former une IA pour obliger une autre à classer les données de manière incorrecte. Le troisième défi (défense contre les attaques contradictoires) vise à renforcer les défenses d'un système intelligent.

Jeff Clune, un professeur assistant de l'Université du Wyoming, a déclaré dans un commentaire publié dans la revue technologique de MIT impliquant  son travail sur l’étude des limites des systèmes de machine learning

C'est une idée géniale de concentrer la recherche sur comment duper les réseaux de neurones profonds et la conception de réseaux de neurones profonds qui ne peuvent pas être trompés.

Développement responsable de l'Intelligence Artificielle

L'IA est de plus en plus omniprésente maintenant que la plupart des gens pensent, et à mesure que les systèmes informatiques sont devenus plus avancés, l'utilisation des algorithmes de machine learning est devenue plus fréquente. Le problème est que la même technologie intelligente peut être utilisée pour saper ces systèmes.

Le chercheur de Google Brain, Ian Goodfellow, a déclaré à la revue technologique de MIT.

La sécurité informatique évolue vers le machine learning, Les méchants utiliseront le machine learning pour automatiser leurs attaques, et nous utiliserons le machine learning pour nous défendre.

La formation de l'IA pour lutter contre l'IA malveillante est la meilleure façon de se préparer à ces attaques, mais c'est plus facile à dire qu'à faire. "Le machine learning adversaire est plus difficile à étudier que le machine learning classique", a expliqué Goodfellow.

Il a ajouté:

Il est difficile de dire si votre attaque est forte ou si votre défense est en réalité faible.

L'imprévisibilité de l’IA est l'une des raisons pour lesquelles certains, y compris le serial entrepreneur Elon Musk, craignent que la technologie ne se révèle malveillante à l'avenir. Ils suggèrent que le développement de l'IA soit soigneusement surveillé et réglementé, mais en fin de compte, ce sont les personnes derrière ces systèmes et non les systèmes eux-mêmes qui représentent la véritable menace.

Dans le but de faire face au problème, l'Institut des ingénieurs électriciens et électroniciens a créé des lignes directrices pour l'IA éthique et des groupes comme le partenariat sur l'IA ont également mis en place des normes. Le concours de Kaggle pourrait mettre à jour les nouvelles vulnérabilités de l'IA qui doivent être prises en compte dans les règlements futurs et, en continuant à approfondir l'évolution de l'IA, nous pouvons faire plus pour que la technologie ne soit pas utilisée pour de mauvaises raisons à l'avenir.