La névrose des intelligences artificielles

Avec l’apparition de cette rupture technologique majeure que constitue l’avènement des intelligences artificielles, nous observons un phénomène courant dans ce genre de période: l’apparition de névroses et de fantasmes sur l’avenir et surtout sur les effets de cette technologies sur nos sociétés, nos vies, notre sexualité, notre avenir et celui, profondément spéculatif et malsain, des fameuses générations futures qui justifieraient tous les sacrifices et les interdits.

Devant l’émergence de cette technologie, se cache une vraie question philosophique et mathématique, liée au célèbre mathématicien martyrisé par les conservateurs que fut Alan Turing. Pour savoir si une IA pourra un jour demander droit de vote et respect, il faut résoudre entre autres une question qui a d’ailleurs été mise à prix pour un million de dollar. Elle s’écrit P=NP. Pour être une intelligence naturelle, il faut pouvoir penser/calculer des choses neuves avec de l’ancien connu de manière très approximative. C’est à dire de l’imagination, de l’intention, de la créativité et de l’intuition. P=NP est une question qui pose la frontière entre ce qui est juste calculé, même très intelligemment, et ce qui est incalculable, même sottement. Est-ce que l’ensemble des problèmes qu’il est possible de résoudre dans un temps limité (P) est égal au groupe de problèmes qui sont vérifiables en temps limité(NP)?

La question est à ce jour ouverte mais elle pose la question de la résolution des problèmes complexes que sont notre relation au monde.

Devant les IA, nos penseurs (puisque la plupart des gens en sont restés à HAL9000 et Terminator), se séparent en 4 groupes

  • Ceux qui pensent que les IA seront des automates (IA faibles) incapables d’invention mais potentiellement dangereuses, que j’appellerai ici les humanistes craintifs ;
  • Ceux qui pensent que les IA seront des automates (IA faibles) mais globalement utiles au développement de l’humanité, que l’on nommera ici les humanistes progressistes;
  • Ceux qui pensent que les IA deviendront conscientes (IA fortes) et dangereuses pour l’humanité, qu’ici je mentionnerait comme les déclinistes craintifs ;
  • Ceux qui pensent que les  IA deviendront conscientes (IA fortes) et bénéfiques voire fusionnelles avec l’humanité, que l’on mentionnera comme des évolutionnaires .

Actuellement les déclinistes craintifs,avec à leur tête des grands noms de la silicon valley, tiennent le haut du pavé.

Imaginons un humaniste craintif ou progressiste au début du XXeme siècle. Il se rend sur un terrain d’aviation et voit les faucheurs de marguerites faire voler des avions en bois sur quelques mètres. S’il est le Maréchal Foch, il déclare alors, ce qu’il a fait, « Les avions sont des jouets intéressants mais n’ont aucune utilité militaire » et contribue gravement à nos futures défaites. L’humaniste craintif résonne dans un cadre d’expertise et sous dissonance cognitive. Il a tellement dépensé de ressources pour parfaire l’existant que remettre en cause cela pour une nouvelle technologie est insupportable.

Les humanistes progressifs sont souvent de pragmatiques entrepreneurs qui jugent intéressante l’opportunité sans réellement penser que cela changera la face de leurs affaires. J’ai pu assister au discours du directeur d’une grande banque affirmant que blockchain, « il y regardait », mais qu’il y aurait toujours besoin d’une relation humaine. Ce point de vue, totalement infirmé par les récents succès dans ce secteur, est particulièrement typique. Les HP regardent, sans vraiment y aller. On retrouve ici au XXe siècle Ken Olsen de Digital Equipment et son fameux « Personne n’a de raison valable pour avoir un ordinateur chez lui » ou Thomas Watson le PDG d’IBM en 1943 et son « Je pense qu’il y a un marché mondial pour environ 5 ordinateurs ».

Les déclinistes craintifs sont souvent remarquables mais ont une curieuse vision de la filiation. Ils prétendent, tels Elon Musk qui par ailleurs est brillant, que les IA seraient potentiellement méchantes et viseraient à terme à asservir l’humanité ou à la transformer en animaux domestiques. Ce raisonnement semble étrange. En fait, une IA forte, ça ne se programme pas, cela s’entraine, ou, pour le dire dans le référentiel humain, cela s’éduque. Ainsi donc, s’ils ont raison, cela voudrait dire qu’il convient de se méfier de ses propres enfants. Certes, il y a des parricides (‘tu quoque filii’) mais la plupart des gens que l’on éduque et entraine ne vous tuent pas.

Les évolutionnaires sont les moins représentés et pourtant l’hypothèse d’une fusion avec les IA semblent la plus probable si on regarde l’évolution de l’humanité. Nous n’avons tellement pas eu de cesse d’intégrer de la technologie sur et dans nos corps, de lunettes en prothèses, qu’il est bien improbable que celle là ne suivent pas le même chemin.

Le déclinistes craintifs voudraient empêcher l’étude et l’expérimentation en raison de leur craintes devant un avenir incertain. Or, l’un des meilleurs moyens de traiter l’incertain est de se faire des expériences. Par leurs peurs, ne reforcent-il pas le danger?

Télécharger cet article au format PDF ou ePub

2 réflexions au sujet de « La névrose des intelligences artificielles »

  • Très intéressant, mais faire une expérimentation consiste à tester une chose dans un environnement contrôlé et confiné tel qu’on peut y mettre un terme à tout moment.
    C’est durant cette phase de test qu’on peut mesurer tous les dangers, les quantifier et ensuite accepter de prendre les risques ou non.
    Si l’on prend l’exemple des OGM, il n’y a plus de confinement dès lors que les cultures voisine peuvent être contaminé (voir https://www.infogm.org/Quand-une-loi-ne-suffit-plus-la?lang=fr).
    Dans ce cas on ne décide plus d’accepter des risques, on les courts sans aucun contrôle et c’est là que réside le plus grand danger.

    Les IA fortes ou non ont vocation à être ouvertes sur le monde extérieur pour être éduquées, il s’agit de leur faire manger des quantités impressionnantes de données pour organiser leur façon de penser. Quelle sera leur source? Internet probablement, existera-t-il un contrôle efficace de l’éducation de l’IA? Toujours de part internet, cette IA peut avoir une possibilité de communication colossale avec tout type de système dans le monde entier. Considérons maintenant le fait que de plus en plus de choses sont contrôlés directement par des systèmes automatiques dans notre vie, et cela s’accentue par l’internet des objets par exemple. De là à penser qu’une machine mal éduqué peut prendre le contrôle de systèmes et actionneurs cruciaux pour notre survie il n’y a qu’un pas…et dans ce cas particulier des IA, peut on parler de simple expérimentation tant le confinement de celle-ci semble faible?

    • Excellente remarque. Mais ce que vous dites est également exact pour les humains. Il n’y a pas de « contrôle efficace de l’éducation » des enfants. Et en effet, il arrive que certains deviennent dangereux et sont poursuivis pour cela. Pourquoi n’en serait-il pas de même pour les IA? De même, dans le domaine de l’éducation et des naissances humaines, des expérimentations sont faites par les parents en permanence, avec plus ou moins de succès d’ailleurs.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *