Ce que le Covid aurait dû nous apprendre sur l'IA

Dans ce nouveau numéro de la newsletter, j'aimerais revenir sur ce qui reste ma principale préoccupation pour le futur proche : l'impréparation générale à la diffusion exponentielle de l'intelligence artificielle, qui progresse à une vitesse telle que seule une petite partie de l'humanité la voit arriver.

Je parle tout d'abord des effets dévastateurs sur le monde du travail, la jeune génération étant la catégorie la plus exposée. Je parle de la déstabilisation de l'économie telle que nous la connaissons aujourd'hui. Et je parle de tous les usages les plus dangereux auxquels l'IA pourrait être employée : guerres automatisées, pandémies artificielles conçues à l'aide de modèles biologiques avancés, systèmes de contrôle et de surveillance des personnes à une échelle sans précédent.

La métaphore de Covid

Dans son essai viral, Matt Shumer affirme qu'en matière d'IA, nous en sommes aujourd'hui au même point qu'avec Covid en février 2020 : tous les signes sont là, mais personne ne les prend vraiment au sérieux. À l'époque, le monde continuait à fonctionner comme si de rien n'était, alors qu'un virus “lointain” était sur le point de tout changer. De la même manière, nombreux sont ceux qui considèrent aujourd'hui l'IA comme une mode passagère, alors qu'elle est déjà en train de transformer l'économie à une vitesse dont la plupart des gens n'ont pas encore pris conscience.

La métaphore du Covid est plus efficace que celle du “tsunami qui arrive” parce qu'il s'agit d'un exemple proche dans le temps qui nous a tous touchés directement. Il ne s'agit pas d'un terrorisme psychologique, mais d'un rappel d'une leçon fondamentale : sous-estimer un changement exponentiel est le meilleur moyen d'être submergé plutôt que préparé.