I.A., le meilleur de l’insécurité (suite)

Actualités - Sécurité - Posté on 18 Avr 2018 at 8:17 par cnis-mag

 100 pages sur les dangers « SSI » de l’I.A. (document accessible à tous), voilà l’œuvre de 26 chercheurs issus de 14 organisations scientifiques différentes, comptant notamment l’EFF, l’Université d’Oxford, l’OpenAI ou l’Université de Cambridge. Chacun a imaginé une série de scénarii abordant trois angles majeurs : la sécurité numérique, physique et politique. Et d’imaginer des situation orwelliennes provoquées par une overdose d’I.A. hors de contrôle, ou plus exactement sous le contrôle de « décideurs » qui y trouvent leur compte. Le tout dans le but avoué de pousser les industriels à réfléchir aux conséquences de leurs actes et envisager tous les aspects de leurs développements. Dans le but également d’attirer l’attention des politiques pour qu’ils apportent une réponse politique… et non technique comme cela a trop souvent été le cas par le passé.

Le premier scénario imagine l’I.A. au service de cyber-truands spécialisés dans l’ingénierie sociale. Une I.A capable, dans la seconde, d’espionner une victime, de déterminer (en exploitant des données procurées par un premier malware) son profil et ses goût personnels, d’expédier un pop-up ou un mail d’incitation à visiter telle ou telle site particulièrement attrayant, de charger la page visitée d’un vecteur d’attaque spécifiquement adapté à la configuration informatique de la victime, et enfin de profiter d’une vulnérabilité pour ensuite tenter de contaminer d’autres appareils, et pourquoi pas une I.A. évoluant dans la sphère privée de la cible. La sophistication des attaques, et surtout l’adaptation en quasi temps réel du « payload » par rapport au système ciblé, l’automatisation et l’enrichissement permanent de ces nouvelles générations de virus qui seront capables d’apprendre en fonction des défenses et des mécanismes de sécurité rencontrés, ce n’est déjà plus tout à fait de la science-fiction. Nombreuses sont les conférences sécurité à caractère universitaire qui accueillent des chercheurs ayant conçus des PoC de ce genre.

Que le méchant de l’histoire soit une bande mafieuse ou les combattants d’un Etat-Nation, dans tous les cas, l’automatisation à grande échelle d’attaques complexes et personnalisées risque d’accélérer et amplifier les attaques, et surtout les optimiser. L’I.A. est capable d’intervenir et améliorer chaque phase de l’assaut, du repérage à la compromission, de l’attaque à l’extorsion dans le cas, par exemple, d’un crypto-virus. Rien n’interdit non plus d’imaginer l’I.A. s’assurer du bon déroulement de toute la chaine de payement, voire de la transaction avec les victimes. Si une intelligence artificielle est d’ores et déjà capable d’assurer les échanges clients d’un service marketing ou d’un support client, le règlement d’une rançon n’est jamais qu’une très légère variation sur ce même thème.

Et les équipes de chercheurs d’imaginer les I.A. d’un aspirateur autonome jouer les kamikazes pour assassiner un personnage politique, transformer de piètres pieds-nickelés en tireurs d’élite assistés par ordinateurs, coordonner les attentats d’une foultitude de loups solitaires… et, de l’autre côté de la barrière, des gouvernements faire appel aux machines pour renforcer l’efficacité des surveillances téléphoniques, du flicage des caméras sur la voie publique, transformer les informations distillées à la presse … des 100 pages du rapport, bien peu de cas relèvent du fantasme ou de la jamesbonderie. Machine Learning et Deep Learning ne feront qu’amplifier des pratiques séculaires du comportement humain. Et ce comportement est une constante, insiste les rédacteurs du rapport. Souvenons-nous d’Amesys, imaginons ce que de tels « vendeurs de stylo » pourraient faire avec une I.A., et rappelons-nous que les entreprises pour lesquelles ils travaillent sont également des vecteurs de recherche dans le domaine de l’intelligence artificielle.

La seconde moitié de cet ouvrage est constitué d’un interminable questionnaire. Comment détecter des menaces I .A., comment contrôler, encadrer l’usage de ces outils, comment établir des règles de salubrité, tant au niveau matériel que logiciel. Ce sont les mêmes questions que l’on se pose aujourd’hui dans le domaine de la SSI et auxquelles il est encore difficile d’apporter une réponse.

Laisser une réponse