Elon Musk, de Tesla, fait partie de ceux qui affirment que l'IA pourrait provoquer l'extinction de l'humanité, tout en bénéficiant de l'argument que seuls leurs produits peuvent nous sauver.
Elon Musk, de Tesla, fait partie de ceux qui affirment que l'IA pourrait provoquer l'extinction de l'humanité, tout en bénéficiant de l'argument que seuls leurs produits peuvent nous sauver. AFP

La philosophie préférée de la Silicon Valley, le long terme, a contribué à orienter le débat sur l'intelligence artificielle autour de l'idée d'extinction humaine.

Mais des critiques de plus en plus virulentes avertissent que cette philosophie est dangereuse et que l'obsession de l'extinction détourne l'attention des problèmes réels associés à l'IA, comme le vol de données et les algorithmes biaisés.

L'auteur Emile Torres, ancien partisan du long terme devenu critique du mouvement, a déclaré à l'AFP que la philosophie reposait sur le type de principes utilisés dans le passé pour justifier les massacres et les génocides.

Pourtant, le mouvement et les idéologies qui y sont liées comme le transhumanisme et l'altruisme efficace exercent une énorme influence dans les universités d'Oxford à Stanford et dans l'ensemble du secteur technologique.

Des investisseurs en capital-risque comme Peter Thiel et Marc Andreessen ont investi dans des sociétés de prolongation de la vie et dans d'autres projets favoris liés au mouvement.

Elon Musk et Sam Altman d'OpenAI ont signé des lettres ouvertes avertissant que l'IA pourrait provoquer l'extinction de l'humanité – même s'ils en tireront profit en affirmant que seuls leurs produits peuvent nous sauver.

En fin de compte, les critiques affirment que ce mouvement marginal exerce une trop grande influence sur les débats publics sur l'avenir de l'humanité.

Les adeptes du long terme croient que nous avons le devoir d'essayer de produire les meilleurs résultats pour le plus grand nombre d'humains.

Ce n'est pas différent des libéraux du XIXe siècle, mais les partisans du long terme ont en tête une chronologie beaucoup plus longue.

Ils regardent vers un avenir lointain et voient des milliards et des milliards d'humains flotter dans l'espace, colonisant de nouveaux mondes.

Ils soutiennent que nous avons le même devoir envers chacun de ces futurs humains que envers toute personne vivante aujourd'hui.

Et comme ils sont très nombreux, ils pèsent bien plus lourd que les spécimens actuels.

Ce type de pensée rend l'idéologie "vraiment dangereuse", a déclaré Torres, auteur de "Human Extinction: A History of the Science and Ethics of Annihilation".

"Chaque fois que vous avez une vision utopique de l'avenir marqué par des quantités de valeur presque infinies, et que vous combinez cela avec une sorte de mode de pensée morale utilitaire où la fin peut justifier les moyens, cela devient dangereux", a déclaré Torres.

Si une machine superintelligente était sur le point de prendre vie avec le potentiel de détruire l'humanité, les adeptes du long terme s'y opposeraient forcément, quelles qu'en soient les conséquences.

Interrogé en mars par un utilisateur de Twitter, la plateforme désormais connue sous le nom de X, combien de personnes pourraient mourir pour empêcher que cela se produise, l'idéologue longtermiste Eliezer Yudkowsky a répondu qu'il suffisait d'avoir suffisamment de personnes "pour former une population reproductrice viable".

"Tant que cela est vrai, il y a encore une chance d'atteindre les étoiles un jour", a-t-il écrit, bien qu'il ait ensuite supprimé le message.

Le long terme est né des travaux réalisés par le philosophe suédois Nick Bostrom dans les années 1990 et 2000 autour du risque existentiel et du transhumanisme – l'idée selon laquelle les humains peuvent être augmentés par la technologie.

L'universitaire Timnit Gebru a souligné que le transhumanisme était dès le départ lié à l'eugénisme.

Le biologiste britannique Julian Huxley, qui a inventé le terme transhumanisme, a également été président de la British Eugenics Society dans les années 1950 et 1960.

"Le long terme est un eugénisme sous un nom différent", a écrit Gebru sur X l'année dernière.

Bostrom a longtemps été accusé de soutenir l'eugénisme après avoir cité comme risque existentiel les " pressions dysgéniques ", essentiellement des personnes moins intelligentes procréant plus rapidement que leurs pairs plus intelligents.

Le philosophe, qui dirige le Future of Life Institute de l'Université d'Oxford, s'est excusé en janvier après avoir admis avoir écrit des messages racistes sur un forum Internet dans les années 1990.

"Est-ce que je soutiens l'eugénisme ? Non, pas au sens où ce terme est communément compris", a-t-il écrit dans ses excuses, soulignant qu'il avait été utilisé pour justifier "certaines des atrocités les plus horribles du siècle dernier".

Malgré ces problèmes, les adeptes du long terme comme Yudkowsky, un décrocheur du secondaire connu pour avoir écrit des fanfictions sur Harry Potter et promu le polyamour, continuent d'être fêtés.

Altman lui a attribué le mérite d'avoir obtenu le financement d'OpenAI et a suggéré en février qu'il méritait un prix Nobel de la paix.

Mais Gebru, Torres et bien d'autres tentent de se recentrer sur les méfaits tels que le vol des œuvres des artistes, les préjugés et la concentration des richesses entre les mains de quelques entreprises.

Torres, qui utilise le pronom ils, a déclaré que même s'il y avait de vrais croyants comme Yudkowsky, une grande partie du débat autour de l'extinction était motivée par le profit.

"Parler de l'extinction humaine, d'un véritable événement apocalyptique dans lequel tout le monde meurt, est bien plus sensationnel et captivant que des travailleurs kenyans payés 1,32 $ de l'heure, ou que des artistes et des écrivains sont exploités", ont-ils déclaré.