dimanche 1 février 2015

Le risque systémique de l'IA


Asimov, il y a 100 ans, a déjà réfléchi aux questions des risques engendrés par l’Intelligence Artificielle, appliquée dans la vie de tous les jours.
En réponse, il a exprimé ses trois lois de la robotique :
1.     Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger. 
2.     Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi. 
3.     Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi. 
On reparle beaucoup en ce moment de ces dangers à venir de l’Intelligence Artificielle pour notre société. Et la compétence des gens qui exposent leurs craintes (Bill Gates, Elon Musk …) et leur track-record dans les domaines informatique et technologique nous obligent à prêter attention à ces craintes exprimées.

Et ces craintes sont effectivement assez angoissantes.

Notre société devra évidemment s’interroger tout d’abord sur la notion de responsabilité de l'IA, qui n'est pas une personne physique ni une personne morale.

Qui sera juridiquement responsable des accidents causés par une IA implémentée dans une voiture Google sans pilote humain ?
Qui devra en supporter les conséquences ?
  • Le propriétaire du véhicule même si il n’était pas dans le véhicule ?
  • La personne assise à l’avant du véhicule mais qui ne le conduisait donc pas ?
  • La personne assise à l’arrière du véhicule ?
  • L’humain qui conduisait l’autre véhicule, celui-ci normal, impliqué dans l’accident ?
  • Google, pour un bug laissé dans le programme ? 

Mais ces interrogations sont relativement faciles à gérer, même si elles donneront lieu à des procès sans fin, car elles sont dans la continuité du fonctionnement du système juridique présent.Le système juridique a toujours su donner des réponses qualifiées, une fois la phase d’établissement de la jurisprudence effectuée.
Mais où les problèmes en revanche deviennent potentiellement critiques, c’est pour 3 risques systémiques, c’est-à-dire inhérents à l’Intelligence Artificielle elle-même en fonctionnement normal, telle que les humains les construisent d’ores et déjà aujourd’hui :

1. Le risque d’auto protection (Loi 3 d’Asimov)

Le premier risque systémique tient aux capacités d’autoprotection dont l’IA est déjà dotée :
Toute Intelligence Artificielle se voit dotée petit à petit de moyens de se protéger contre les humains, qui sont pourtant à l’origine de sa création. Ce processus d’autoprotection commence au départ avec quelque chose d’aussi trivial qu’une batterie intégrée au dispositif, et destinée à garantir la continuité de son fonctionnement, en cas de rupture d’alimentation électrique. Ce processus se prolonge ensuite avec les protections logiques dont on dote l’IA pour lutter contre les hackers qui chercheront nécessairement à la dégrader ou la faire fonctionner à leur profit.
La possibilité qu’une Intelligence Artificielle échappe à un moment au contrôle de son « maître » humain, qui n’est plus en état de lui faire entendre raison,  ou même de l’éteindre à temps, quitte à la détruire, est une certitude systémique.


2. Le risque de moindre dégât (Conflit d’intérêt dans la 2ème loi d’Asimov)

 
Le 2ème risque vient de l’inculcation à l’IA du principe de moindre dégât (pécuniaire par exemple) : Les financeurs de systèmes d’IA exigent déjà, je n’en n’ai pas la preuve, mais c’est nécessairement ainsi, que les algorithmes mis en œuvre dans les IA choisissent, en cas limite (par exemple en cas d’accident inévitable) le moindre des maux, c’est-à-dire le moins coûteux.
Ce choix fera à un moment ou un autre que la voiture automatique préfèrera se jeter d’un pont avec son passager (unique), plutôt que de rentrer en collision avec un camion plateau chargé de 6 voitures de luxe. La décision aurait pu être différente si il y avait eu 4 passagers à bord, car alors il était moins coûteux pour les assurances de heurter ce camion plateau chargé de Lamborghini.


3. Le risque de divergence

Le risque le plus prégnant viendra des capacités d’auto-apprentissage dont seront dotées les IA. Aujourd’hui cet auto-apprentissage est quasi-inexistant. Mais aussitôt que cet auto-apprentissage deviendra mesurable (disons par exemple un gain d’intelligence de 1/1000ème de Pour Cent), alors la puissance de calcul des ordinateurs, qui démultiplie le nombre de cycles d’apprentissage par seconde fera diverger le processus. Car un tout petit gain répété des millions de fois, voire des milliards de fois, tend alors vers l’infini.
Et là l‘intelligence de l’IA échappe au contrôle des humains.


C'est pas gagné ...