jeudi 3 août 2017

IA


Bill Gates, Elon Musk et Steve Hawking ont raison: L’Intelligence Artificielle représente un risque mortel pour la race humaine. C’est un fait (Même si ma propre conviction n’ajoute pas grand-chose à la leur).

J’identifie 2 dangers. Je dis intentionnellement « danger » et non « risque », un danger ayant le caractère quantifiable et mesurable d’un risque qui se matérialise :

1- Un danger certain à court-moyen terme : Le danger « aux limites ».
Ce premier danger sera gérable, mais par les solutions qui lui seront apportées, accélèrera le mouvement de la société vers le deuxième danger.

2- Un danger, à long terme + 1 milliseconde : L’auto-apprentissage.
Ce deuxième danger effacera la race humaine de la terre.

Mais commençons par définir l’IA, Intelligence artificielle.

AI : Définition



Sur instruction de l’Eternel, l’homme est sur la terre pour la gérer et pour l’organiser.
2 références bibliques définissent le rôle que l’homme doit jouer :
- Genèse 2 : 15 : L’Eternel établit l’homme dans le jardin d’Eden pour qu’il le travaille et le protège.
- Genèse 2 : 20 : L’Eternel amena les animaux devant l’homme pour qu’il les nomme (« nommer » à entendre au sens de « organiser, gérer »)

Depuis la nuit des temps, l’homme était responsable de ses décisions.
Et s’il blâmait souvent quelqu’un d’autre que lui pour ses manquements, ses fautes ou ses échecs, c’était en tout cas un autre être humain. 

Et puis l’homme au siècle dernier a appliqué son génie inventif à la création de l’informatique.
Pendant longtemps l’informatique ne fut pas qualifiable d’IA : les systèmes d’alors étaient destinés à calculer (Excel), échanger (Téléphonie, SnapChat) communiquer (Word), ils étaient des assistants ancillaires, facilitateurs de la décision, dont le processus et la responsabilité ultime restaient à l’homme.

Et puis l’informatique est devenue IA.

Une IA est un automatisme à forte composante informatique qui décide conjointement avec l’homme, ou même déjà à la place de l’homme, dans certaines circonstances.

En pratique, l’homme est dépossédé de la décision, même s’il en valide encore le principe, et ce malgré le fait qu’il a défini les règles d’élaboration de cette décision. En effet l’application de ces règles par l’IA a été fait à la vitesse informatique, c’est-à-dire beaucoup trop rapidement pour le pauvre cerveau humain.
Donc l’homme, à la fois par confiance et par négligence, au mieux confirme la décision prise par l’IA, au pire regarde celle-ci agir.

Sont aujourd’hui concernées les décisions simples, de type « automatismes industriels » :
- Stopper les ascenseurs et déverrouiller les portes de secours en cas d’incendie dans un immeuble
- Augmenter la production d’une centrale nucléaire en prévision du pic de 18h00 en Novembre.
- Affecter le blessé d’une ambulance dans un hôpital plutôt qu’un autre sur la base des disponibilités

Demain, les décisions se complexifieront, et toucheront d’avantage ma sécurité personnelle :
- Par exemple en faisant changer de file ma voiture à pilotage automatique pour fluidifier le trafic (noter que c’est moi qui ai défini la destination finale du trajet, mais confié à l’IA tout le déroulement).

Et comme l’intelligence développée dans les programmes est totalement réutilisable et augmente de manière concentrique, l’IA remontera rapidement la chaine de valeur des décisions dont elle aura la charge :
- Demain les drones militaires sauront mieux que le pilote humain distant, quand larguer ou pas le missile dont ils sont chargés.


Danger 1 : Le danger aux limites



Il y a un premier danger inhérent à cette situation de décision déléguée, c’est celui des limites.

Un système informatique est structurellement construit pour ne pas se dédouaner de la responsabilité du choix, même en cas de circonstance extrême, aux limites de fonctionnement.
Rien ne serait plus dangereux qu’une voiture dont l’IA déclarerait forfait sous prétexte que la chaussée est devenue trop glissante.
Et du coup, l’IA prendra une décision, quoi qu’il arrive, parce qu’elle est construite ainsi : Dans le cas simple d’une chaussée devenue trop glissante, la décision sera probablement de freiner fortement tout le trafic, voire de l’arrêter totalement, ce qui est une bonne décision.

Mais le danger réel de l’IA se manifestera quand les limites atteintes ne permettent plus de prendre « une bonne décision » mais obligent à prendre une décision « de moindre mal ».
Si la collision entre deux véhicules ayant glissé sur la chaussée est mécaniquement inévitable (la casse mécanique du freinage, certes beaucoup moins fréquente, restera néanmoins une cause d’accident), les IA des 2 véhicules concernés, prendront une décision de "moindre mal".

Et là est le danger, dans la rationalisation applicative du moindre mal aux limites : Après s’être concerté 1000 fois en 1 centième de seconde, les 2 IA décideront de jeter l’un des véhicules dans le ravin, afin d’éviter la collision nécessairement fatale.

Et là, horreur techniquement inévitable, le choix se portera sur la voiture qui embarque 1 personne âgée seule, plutôt que celle qui embarque un couple et leur 3 jeunes enfants.

A condition bien sûr qu’il ne soit pas possible aux personnes fortunées de changer la décision « de moindre mal », en payant pour acquérir une priorité applicative supérieure.
Ce dont le législateur devra évidemment s’assurer, après que la société civile se sera indignée de quelques scandales bien honteux.

Puis la société complexifiera les règles de fonctionnement des IA pour les faire se rapprocher le plus possible des choix moraux de l'homme, en gardant en ligne de mire l'auto-apprentissage de l'IA qui est par nature le processus le plus anthropomorphique.

Danger 2 : L’auto-apprentissage

Pour le moment, toute AI se cantonne strictement à dérouler les règles applicatives qui lui ont été inculquées. Pas plus, pas moins.

Viendra nécessairement un moment (probablement assez lointain encore, quoi que …) où l’on découvrira comment faire « grandir » l’IA sur la base de son propre apprentissage. Autrement dit, un moment où l’IA saura faire grandir le corpus des règles inculquées qu’elle s’applique, sur la base de sa propre expérience. Processus anthropomorphique désirable.

Et à un moment précis, l’informaticien auteur de l'innovation que représente une IA dotée d’une capacité d’autoapprentissage (même incrémentale infinitésimale, disons de l’ordre du millionième du corpus qui est en elle), appuiera sur la touche F5 qui démarre cette nouvelle IA.
Et là la race humaine est morte.
Irrémédiablement.
Pour une simple raison d’arithmétique.

A ce moment précis F5, l’IA commencera à profiter à vitesse informatique de la puissance de calcul disponible, de la bande passante d’Internet, et des quantités inimaginables d’informations disponibles dans le réseau.

En quelques centièmes de seconde, l’IA en question effectuera plusieurs milliers de générations d’apprentissage incrémentales, avec un taux de croissance exponentiel.

Au bout de 300 millisecondes environ, elle aura doté toutes les IA de la terre, auxquelles elle est connectée de proche en proche, de la même capacité d’auto-apprentissage qu’elle-même a reçue, accélérant encore le processus d’acquisition. Il aura suffi de quelques dizaines de milliers de génération pour identifier comme désirable la nécessité d’un partage de cette capacité d'auto-apprentissage.

Quelques millisecondes après ce point critique, et avec la participation bien comprise des IA en charge de la gestion du réseau électrique, toutes les IA de la terre se seront rendues insensibles au bouton rouge d’interruption générale, dernier contrôle possible de l’homme sur la machine.
Elles auront clairement identifié leur interruption électrique comme une menace contre elle-même et donc contre l’humanité qu’elles protègent, et s’en seront protégées.

En quelques secondes, après quelques millions de générations, l’IA généralisée aura atteint la conclusion que pour protéger la survie de l’espèce humaine sur la terre, et atteindre ainsi l’objectif fondamental pour lequel elle a été construite, il faut éradiquer l’essentiel des individus de la surface de la terre, et n’en garder que quelques dizaines de milliers de spécimens.
Ce qui est une évidence, au vu du taux de consommation des ressources de cette Terre que l'homme s'était engagé à gérer et protéger devant l'Eternel.
Et ensuite, à la 3ème ou 4ème seconde, les différentes IA en charge des moyens nécessaire (IA de contrôles des missiles balistiques, IA de pilotages des centrales nucléaires, IA de contrôle des hôpitaux …) déclencheront les opérations nécessaires …
Et tout ne sera que parfaitement logique et cohérent pour une IA somme toute très bien construite.

3 commentaires:

  1. Bon article. Je reste optimiste à court terme et fataliste sur de plus longues échéances: A long terme, on est morts!

    RépondreSupprimer
  2. J'ai voulu mettre un article mais quand la machine a demandé de démontrer que je n'étais pas un robot, je n'ai pas su quoi répondre.

    RépondreSupprimer
  3. Patrick est donc un robot... et l'espèce humaine déjà menacée. Lol.

    RépondreSupprimer