Discussion cette semaine avec un professeur spécialiste de management dans l’incertitude.

On évoque l’intelligence artificielle : ne va-t-elle pas rendre l’incertitude de moins en moins certaine ?

Pas du tout, rétorque le professeur. Oui, l’IA peut aider à mieux gérer l’incertitude, aider aussi à mieux prendre des décisions (en éclairant par des hypothèses de scénarios), mais ne peut pas supprimer l’incertitude. Il a tous les arguments pour évacuer cette vision scientiste du management.

Et puis, que serait un monde sans incertitude ?

J’évoque le souvenir d’un roman de science-fiction des années 70, « L’homme stochastique » de Robert Silverberg, qui imagine justement un monde où l’incertitude est abolie grâce à des « voyants ». Cela ne parle pas du tout d’intelligence artificielle mais on peut en fait comparer ces « voyants » à ce que l’on dit de l’intelligence artificielle aujourd’hui.

J’ai rouvert ce livre pour vérifier. Merci professeur.

L’histoire se déroule à la fin du XXème siècle, au passage de l’an 2000, dans un New York particulièrement dystopique. Le protagoniste, Lew Nichols, est un statisticien spécialiste des statistiques de probabilités et des processus stochastiques, c’est-à-dire les méthodes probabilistes pour prédire les tendances futures à partir de données aléatoires (tiens, tiens). Il travaille pour un politicien ambitieux qui rêve de devenir Président des Etats-Unis, en commençant par la mairie de New York, en utilisant ses compétences pour anticiper les évènements sociétaux et électoraux.

Mais Lew Nichols va rencontrer un autre personnage, Martin Carvajal, qui, lui, est doté d’une véritable clairvoyance. Il « voit » le futur de manière infaillible, sans probabilités, mais comme un chemin fixe et inaltérable. Ce Martin Carvajal enseigne alors à Lew Nichols comment développer cette capacité que, d’ailleurs, tout le monde possède, selon lui ; il suffit de la développer. Et cela va plonger le héros dans une véritable crise existentielle. Il réalise que le futur est déterministe : une fois « vu », il ne peut être changé, car toute tentative de modification fait partie du futur prédit. D’où toutes les questions évoquées par Robert Silverberg sur le libre arbitre (existe-t-il ?), le fatalisme et les conséquences psychologiques d’une connaissance absolue et certaine.

En fait, les processus stochastiques que décrit ce roman font forcément penser, en le lisant aujourd’hui, aux technologies de l’intelligence artificielle.

Les algorithmes de l’IA prédisent, comme les « voyants » de Robert Silverberg, des comportements humains, des marchés financiers, des élections, des phénomènes naturels, avec une précision croissante, tout comme Lew Nichols prédit les tendances sociétales pour le politicien ambitieux. Le risque, on le connaît, c’est une surconfiance en ces prédictions qui peut conduire à des erreurs fatales si les modèles sont biaisés ou incomplets. On se souvient des bulles spéculatives amplifiées par des algorithmes de trading, ou à toutes les manipulations de deepfakes pour influencer les élections.

Autre curiosité de ce roman, c’est cette présentation de la clairvoyance qui révèle un futur fixe, rendant les choix illusoires. Or, aujourd’hui, l’IA prédictive (comme les systèmes de recommandations sur Netflix ou les algorithmes de surveillance de masse) peut aussi créer des « bulles » qui orientent nos décisions, et renforcent un sentiment de déterminisme social.  On voit bien les risques : si une super-IA prédit et influence l’avenir, elle pourrait éroder le libre arbitre humain, et mener à une société où les individus agissent comme des pions dans un algorithme géant. C’est ce qui rend méfiants certains penseurs comme Nick Bostrom en parlant des risques d’une « superintelligence », qui pourrait figer des trajectoires néfastes pour l’humanité.

Silverberg met aussi en garde, avec ce roman, sur ce qui est encore plus présent avec l’intelligence artificielle : l’obsession pour la prédiction. C’est cette obsession qui provoque cette angoisse existentielle chez Lew Nichols, et une forme de déconnexion humaine. Si on applique ça à l’IA, on évoque ces avertissements sur la « boîte noire » des modèles. Nous risquons de déléguer des décisions critiques (santé, justice, géopolitique) à des systèmes opaques, amplifiant les inégalités ou les manipulations. C’est ainsi que des systèmes prédictifs pour la police ont été critiqués pour perpétuer des biais raciaux, créant des prophéties auto-réalisatrices, exactement comme le déterminisme du roman.

Ce que nous apprend ce roman, c’est que poursuivre une prédiction « parfaite » pourrait finalement nous piéger dans un futur que l’on croirait « pré-écrit ». Alors que l’on sait combien les hallucinations de l’IA peut nous mener à des conseils erronés ou à des deepfakes. Une technologie probabiliste peut encore dérailler.

Ce roman de Robert Silverberg nous enseigne que la quête de prédire l’avenir avec des méthodes stochastiques ou des pouvoirs « supérieurs », comporte des risques que l’on peut dire certains : perte d’humanité, manipulation politique, illusion de contrôle. Appliqué à l’IA, il est une bonne invitation à une prudence éthique, et à la préservation du libre arbitre face à des outils de plus en plus puissants.

Finalement, le professeur a raison : il est urgent de protéger l’incertitude et de la manager à l’inverse de ce monde infernal qu’avait imaginé Robert Silverberg.

Posted in , , , ,

Laisser un commentaire