Depuis deux ans, j’ai un gros dilemme à chaque prise de parole autour de l’IA pour mes clients. Mais je crois avoir trouvé une solution.
Le problème est simple, et tous les conférenciers ou formateurs (intègres) doivent avoir le même : comment parler d’un sujet exceptionnel (l’IA) sans mentir sur les perspectives de son utilisation ?
Ou plutôt, comment rester enthousiaste en parlant d’une technologie qui peut détruire l’humanité ?
Je m’étais déjà trouvé face à cette contradiction il y a 15 ans avec les réseaux sociaux quand mes clients voulaient découvrir ces nouveaux outils pour mieux communiquer ou booster leurs ventes. Seulement, anticiper les mauvaises utilisations potentielles (growth hacking, filter bubbles, privacy, manipulation d’opinion, etc.) ne faisait pas partie de leur agenda. Et malgré des probabilités très fortes de dérives, ils ont, aveuglement, enrichis les plateformes. 15 ans après les réseaux sociaux sont devenus des dépotoirs qui ne servent qu’à enrichir les plateformes en abrutissant les foules.
Alors, pour l’IA, j’ai décidé de ne pas refaire la même erreur et j’ai fait un choix clair : consacrer la moitié du temps de mes interventions aux enjeux éthiques, sociaux politiques et environnementaux.
Seulement beaucoup de mes clients préfèrent des présentation ou des formations “inspirantes”, du mindblowing, de la modernité, du 21e siècle… Et leur parler de démocratie en danger, de désastre environnemental, de concentration des pouvoirs et d’hyper-inégalité ça leur coupe l’appétit pour les petits fours de Chateauform.
Alors que faire ? Mentir pour briller ? Minimiser le sujet pour plaire ?
La conférence TED Why AI is our ultimate test and greatest invitation de Tristan Harris (de l’excellent Center for Humane Technology) vient de me donner une solution. Harris structure son raisonnement autour des possibles et des probables de la technologie qui nous permettent d’appréhender le futur d’une technologie. Une méthode que j’affectionne particulièrement dans mes ateliers de prospective.
Si on prend l’exemple des réseaux sociaux, les possibles étaient des espaces de connexion, de communautés et d’expression libre. Alors que les probables étaient des dispositifs addictifs de manipulation d’opinion et de polarisation des esprits. 10 ans après, même si les possibles existent encore, les probables se sont imposés.
Et on peut faire le même exercice sur l‘IA. Les possibles sont des avancées potentielles dans la santé, l’éducation, la recherche, … Mais les probables sont la disparition massive d’emplois, le renforcement de biais (on fait un atelier là-dessus avec Curiouser), la surveillance généralisée, les armes autonomes, la concentration des pouvoirs, … Des probables qui oscillent entre dystopie et chaos, mais qui dans tous les cas n’augurent rien de bon pour l’humanité.
Et d’après Harris (que j’accompagne), la seule possibilité pour éviter ces probables est de nous organiser à l’intérieur de l’étroit sentier entre régulation drastique et ouverture totale en intervenant collectivement dans toutes les dimensions de l’IA (des infrastructures aux usages en passant par la gouvernance).
Si qui ne pourra se faire que si l’humanité dans son ensemble est vigilante, attentive et comprends une bonne fois que ces nouveaux pouvoirs impliquent de nouvelles responsabilités.
Bref, c’est un TED malin, intelligent et qui dure 15 minutes (plus rapide que cet article donc).
Ce sera certainement la conclusion de mes prochaines interventions sur le sujet : montrer les possibles, alerter sur les probables, et inviter chacun à choisir, en conscience, le futur qu’il veut construire.
Merci Tristan Harris pour ce TED (et Tristan Nitot pour le lien – que de Tristans).
PS : et si vous aimez Harris, ne ratez pas non plus How a handful of tech companies control billions of minds every day et le très prospectif The A.I. Dilemma (2023)