Comment l’IA va impacter le monde du travail ?

Ne vous êtes-vous jamais posé la question de quand votre travail sera remplacé par une intelligence artificielle

N’avez-vous pas passé quelques heures à avoir peur de cette éventualité ?

A vous demander dans quel métier vous pourriez vous reconvertir ? 

De mon côté, oui

L’IA est une technologie qui imite la pensée des humains – lui permettant de résoudre les problèmes, de reconnaître les modèles et de prendre des décisions.

Et cette technologie n’a rien de nouveau.

La recherche a commencé dans les années 1950, et la mathématicienne Ada Lovelace discutait de la question de savoir si les «ordinateurs» pouvaient créer des œuvres originales dès 1843 . 

Cependant, aujourd’hui, c’est différent.

Le 30 Novembre 2022, le mot IA est revenu en force sur le devant de la scène avec la sortie de Chat GPT.

Chat GPT est l’agent conversationnel propulsé par des algorithmes d’intelligence artificielle de la société Open AI.

En moins de 2 mois, le chatbot a rassemblé 100 millions d’utilisateurs, devenant ainsi l’application d’internet qui a connu la plus grosse croissance depuis le début du web.

Ce succès magistral a rappelé au grand public que le domaine de l’intelligence artificielle fait des progrès fulgurants.

Désormais, une IA peut “lire”, écrire des poèmes, synthétiser des textes, traduire, trouver des idées, et bien plus encore.

Les tâches de raisonnement, d’écriture et d’analyse, auparavant réservés à l’humain, sont potentiellement automatisables par l’intelligence artificielle.

Autrement dit, les IA d’aujourd’hui automatisent le travail de l’esprit.

Pire, les nouvelles technologies d’IA générative touchent directement les professionnels du domaine tertiaire, piliers de nos démocraties occidentales

Il n’en fallait pas moins pour relancer le débat sur la fin du travail.

Mais qu’en est-il vraiment ?

Ingénieur et formateur en IA générative pour les entreprises, je suis de près l’avancée de ces nouvelles technologies d’IA.

J’ai passé 3 jours entiers à lire, discuter avec des chercheurs, recueillir des avis pour répondre à la question : la fin du travail est-elle pour bientôt ? Autrement dit, quand est-ce que les systèmes intelligents remplaceront la plupart des humains dans toutes les tâches productives de la société ? (gestion des infrastructures, agriculture, système financier…etc). 

Pour y répondre, je vous propose de : 

1 – vous présenter ce qui est possible de faire avec l’IA aujourd’hui.

2 – Ensuite, nous discuterons les arguments des économistes et des prospectivistes qui disent que l’IA et la robotique assureront demain seules les fonctions productives et prévoient une société sans emploi.

3 – Puis nous éclaircirons leurs arguments pour en montrer les limites.

4 – Nous verrons ensuite que l’IA et la robotique vont changer profondément la façon dont on travaille et que cela nécessitera des mesures politiques : au niveau de l’état (France), au niveau des entreprises (Open AI) et au niveau supranational (ONU et UP).

5 – Je conclurai en donnant une opinion personnelle qui n’engage que moi. 

Chapitre 1 : Ce nous savons aujourd’hui de l’impact de l’IA sur le monde travail

GPT-4 est le nom du modèle d’intelligence artificielle générative de texte le plus avancé au moment où j’écris ces lignes.

Son fonctionnement est le suivant : vous lui envoyez une instruction écrite (prompt) comme si vous parliez à un ami et la machine vous répond en prédisant mot à mot de la manière la plus probable.

La machine est capable de cet exploit car elle a été entraînée sur un immense corpus de données téléchargées depuis internet. Vous pouvez lire mon article complet sur le fonctionnement de Chat GPT si cela vous intéresse. 

Dans un premier temps, je vais vous partager les 3 effets avérés de GPT-4 sur le travail aujourd’hui. Puis nous étudierons dans quelle mesure l’IA créé ou supprime des emplois. 

A – Les 3 effets de GPT-4 sur le travail aujourd’hui

Février 2024, nous pouvons déjà tirer 3 solides conclusions sur l’impact de GPT-4 sur le travail. Les voici :

1 – L’IA augmente la performance globale sur des tâches complexes au travail

Le professeur Ethan Mollick, auteur d’une newsletter sur l’IA suivie par 100 000 lecteurs, a mené avec des collègues une étude contrôlée à grande échelle. Le professeur a étudié l’impact de l’IA sur des consultants du Boston Consulting Group, l’un des plus grands cabinets de conseil en stratégie au monde.

Les consultants qui utilisaient GPT-4 ont :

– accompli 12.2% de tâches de plus en moyenne

– 25,1% plus rapidement

– 40% plus qualitativement que ceux qui n’utilisaient pas le chatbot.

D’autres études montrent des résultats similaires…

…en moyenne, L’IA améliore de 20 à 80 % la productivité sur un large éventail de tâches, sans formation ni travail d’intégration.

Du jamais vu.

Et ce n’est que le début :

2 – Les effets sont plus grands sur les employés les moins performants (pour le moment)

Les IA actuelles font du bon travail elle même.

Elles nivellent donc vers le haut le travail des employés les moins performants qui l’utilisent.

Par exemple, j’ai formé un électricien qui se disait lui même “mauvais en orthographe”. 

Avec Chat GPT installé sur son téléphone, il utilise le dictaphone pour transmettre à voix haute les éléments importants d’une réunion client. Puis il demande à chat gpt de rédiger un email, qui est bien construit et sans faute. Le chatbot d’Open AI a changé sa vie et celle de ses clients, dont la satisfaction est montée en flèche !

Enfin :

3 – L’IA est meilleure à certaines tâches qu’à d’autres.

L’IA est excellente à certaines tâches qui semblent difficiles pour les humains. Elle est mauvaise dans des tâches qui semblent faciles.

Il est donc ardu de savoir à quoi elle est douée en avance.

La seule façon de comprendre là où elle est douée et là où elle ne l’est pas est de pratiquer au moins 10h.

Malgré ces limitations, ce type de technologie a déjà un impact profond sur le marché du travail.

B – Les impacts sur le marché du travail

Vous allez découvrir que même si les progrès des modèles types GPT-4 s’arrêtaient aujourd’hui, les impacts sur le marché du travail seraient déjà forts. 

I – L’IA supprime des emplois

Goldman Sachs estiment que 300 millions de jobs seront perdus ou dégradés par les technologies d’IA générative.

Dans une analyse publiée mi-janvier sur le blog du FMI, sa directrice générale, Kristalina Georgieva, évalue que l’IA pourrait avoir un impact sur 40 % des emplois dans le monde, et notamment dans les pays développés. Jusqu’à 60 % des emplois pourraient ainsi être impactés par l’intelligence artificielle dans les économies développées.

« Historiquement, les technologies d’automatisation et de l’information ont eu tendance à affecter les tâches répétitives, mais un des éléments qui rend l’IA unique est sa capacité à influer sur les emplois nécessitant d’importantes compétences », détaillait la DG du FMI. 

De plus, selon toolify, environ 40 % des entreprises envisagent de remplacer les rôles humains par l’IA, ce qui entraîne des suppressions d’emplois dans le soutien à la clientèle, la recherche et l’appui aux bureaux.

Par exemple, Bench SAAI a récemment annoncé une réduction de 177% de sa main-d’œuvre, ce qui a entraîné le licenciement de 70 employés.

Duolinguo, la plateforme d’apprentissage de langue populaire a licencié en décembre 2023, un pourcentage important des sous-traitants traducteurs de Dualingo. Les autres sous traitants ont changé de tâche. Ils sont passés de la traduction à l’examen du contenu généré par IA. 

L’année dernière, Google a fait la une des journaux avec la plus grande réduction d’emploi de son histoire, licenciant environ 12 000 employés, en partie liée à l’intégration de l’IA.

Enfin, Onclusible, une entreprise française basée à Courbevoie et spécialisée dans la veille médiatique a fait la une des médias francophones. Matthew Piercy, un de ses présidents, a confirmé l’arrivée de nouveaux outils dans l’entreprise, dont l’intelligence artificielle. Dans le même temps, il a annoncé un « plan de licenciement » de 217 postes sur 383 installés en France. Sous le feu des critiques, la direction a cependant fait marche arrière. 

Vous commencez à avoir des sueurs froides pensant que votre entreprise est la prochaine sur la liste ? Calmez vous et lisez la suite car : 

II – L’IA créé aussi des emplois !!!

La startup Mistral AI, récemment créée en France, embauche à tour de bras. Comme Mistral, je vois passer chaque jour des dizaines de nom de startup qui se crééent dans ce domaine effervescent. 

De plus, rendez-vous compte… 

Mon métier de formateur n’existait pas il y a un an ! 

Enfin, j’ai récemment accompagné de coachs en reconversion professionnelle. Je peux vous dire qu’ils vont avoir un travail de dingue dans les années qui viennent. 

La question actuelle n’est donc pas de savoir si l’IA va entraîner des licenciements. La réponse oui. La question est plutôt de savoir si le ratio entre emploi créé et emploi supprimé sera équilibré. 

J’aimerais maintenant vous partager une histoire de la Silicon Valley avec des camions : 

III – Les routiers au chômage avec les véhicules autonomes ! 

Dans son livre “La Fin de L’individu”, Gaspard Koenig  pare avec l’ambassadeur français aux USA qui s’effraye de l’impact des véhicules autonomes sur les routiers.

Donc le philosophe français se rend à l’American Trucking Association, un organisme qui regroupe les principaux acteurs de cette industrie.

Il rencontre le directeur des services techniques.

Ce dernier, jovial, lui demande : « Vous savez quel est mon problème principal en ce moment ? »

« Pas du tout, » dit Gaspard Koenig, pas du tout expert de la question des transports routiers aux États-Unis.

Le directeur lui répond : « C’est un problème de recrutement. Nous sommes en plein boum et les embauches ne suivent pas. À ce rythme-là, nous anticipons près d’un million d’offres non pourvues dans les 10 prochaines années. »

Les rapports de l’administration fédérale jouant à la science-fiction sur les camions autonomes lui paraissent contre-productif. Ils découragent les apprentis au moment même où ils en auraient besoin.

Circonspect, Gaspard Koenig insiste : « Elon Musk n’a-t-il pas promis de lancer dès 2019 la production de camions électriques capables de s’auto-piloter sur les autoroutes ? »

Réponse du directeur : « Bien sûr qu’il y a des avancées. On peut dorénavant équiper le camion de technologie d’assistance aux routiers, stabilisation du véhicule sur la voie, freinage d’urgence, platooning, qui permettra à des cohortes de camions de se déplacer à la queue leu leu. Mais combien y ont recours aujourd’hui ? Pas plus de 10-15% de la flotte. Tout cela prendra du temps. Il y a également une question d’acceptabilité de la part de l’opinion publique. Il faudra plusieurs générations pour que les actuelles technologies de pointe soient universellement adoptées. »

Et Gaspard de renchérir : « Va pour le temps. Les startupers oublient souvent que la société suit son cours séculaire sans rupture brutale. Mais tout de même, un jour viendra, juste dans un avenir lointain, où les camions seront autonomes. Comment ne pas s’en réjouir ? »

« Même dans cette hypothèse très irréaliste, finit-il par dire, ça conduira à créer davantage d’emplois. Quand on réduit les coûts, le marché grossit. Dans les avions, par exemple, on est passé, dans les années 1970, de 3 à 2 pilotes en cabine, le GPS remplaçant le navigateur. Et pourtant, le nombre total de pilotes en ligne a continué d’augmenter. »

Admettons qu’on puisse se dispenser d’un chauffeur sur les autoroutes.

Il faudra bien néanmoins prévoir un pilote, qu’il se trouve ou non physiquement dans la cabine, sur certains tronçons, où l’imprévisible peut toujours se reproduire.

De l’entrepôt à l’autoroute, de l’autoroute au point de livraison, au passage de certains points sensibles comme les écoles ou les ailes de construction, à cela s’ajoute le rôle d’une sorte de tour de contrôle pour superviser les trajets, et bien sûr d’informaticien pour assurer l’optimisation de tous les systèmes. In fine, un emploi unique aura été remplacé par de nombreuses fonctions impliquant tout autant le travail humain.

En conclusion de ce premier chapitre, nous pouvons dire que : 

C – L’IA n’est pas encore capable de remplacer les humains sur toutes les tâches

Les nouveaux modèles d’IA générative ont un impact déjà fort sur les professionnels, les poussant à réinventer leur pratique. Notamment en travaillant en binôme avec l’IA, ce qu’on appelle le travail hybride.

De plus, l’IA rabat les cartes, supprimant certains emplois et en créant de nouveau.

Pour rappel, en 1940, 60% des jobs qui existent aujourd’hui n’existaient pas !

Nos grands parents nous auraient-ils cru si je leur avais dit que je connaissais un webdesigner qui travaillait en “full remote” via la fibre ?

Ceci dit, les progrès de l’IA ne vont pas s’arrêter là.

Nous sommes qu’à l’iphone 1 de ce type de technologie.

Open AI, l’entreprise qui a créé Chat GPT, désire créer l’AGI : l’artificial general intelligence.

Une intelligence qui serait bien plus puissante que GPT-4 !

Chapitre 2 : Et si une IA super-puissante remplaçait tous nos emplois ?

Sam Altman est le patron d’Open AI, l’entreprise qui a créé Chat GPT.

Son but ultime est d’achever l’AGI ou Artificial General Intelligence.

Pour lui, cette IA serait tellement douée, qu’elle remplacerait la plupart des emplois que nous connaissons aujourd’hui.

De plus, cette IA produirait une richesse telle que les bénéfices engendrés serviraient à verser un revenu universel à tous les humains.

Deux autres théoriciens, Max Tegmark et Nick Bostrom pensent que nous pourrions créer une super-intelligence.

La super-intelligence est un peu différente de l’AGI car elle s’applique à tout intellect qui dépasse largement les performances cognitives des humains dans à peu près tous les domaines, y compris l’empathie, la capacité d’apprentissage ou le jugement politique.

Ce type de super-intelligence pourrait non seulement nous remplacer au travail, mais en plus, vouloir nous exterminer si elle n’est pas “alignée”.

Une IA alignée est une IA qui ne fera pas de mal aux humains, tandis qu’une IA non alignée pourrait vouloir nous détruire.

La menace du non alignement est prise au sérieux par les plus grandes universités du monde. Oxford a créé the Future Of Humanity Institute et Cambridge le Center for the Study Of Existential Risk. Leur objectif est d’étudier scientifiquement les risques posés à l’espèce humaine, notamment l’IA.

Mais pour qu’une telle IA advienne, ma thèse est qu’il faut que cette IA soit 100% consciente d’elle-même, sinon tout un tas de tâches que les humains font ne pourront pas être remplacées par la machine.

A – La conscience de l’IA : réalité ou mythe ?

I – Réalité

La conscience permettrait à l’IA d’avoir des jugements sur ce qu’il l’entoure et de comprendre le contexte.

Elle lui permettrait de comprendre sa propre existence et de vouloir faire ses propres choix.

L’informaticien Stuart Russel, de l’Université de Berkeley, pense qu’il pourrait être possible de créer des machines conscientes par accident, en essayant différentes combinaisons parmi les techniques d’IA dont nous disposons aujourd’hui.

Une telle conscience serait bien entendu différente de la nôtre.

Le professeur sait mieux que personne combien les mécanismes neuronaux demeurent une terra incognita, dont notre compréhension n’avance que poussivement.

Mais il n’exclut pas qu’une autre forme de soi, distincte de la subjectivité humaine, n’advienne au hasard d’une expérimentation informatique.

Si vous voulez comprendre ce que l’émergence de la conscience signifie, je vous conseille l’excellent film Ex-Machina.

Mais cette hypothèse de la conscience de la machine est discutée.

II – Mythe

Le célèbre neurobiologiste Antonio Damasio pense qu’il est impossible pour une machine de devenir consciente sans un corps. C’est la thèse de la cognition incarnée.

Pour lui, la construction de l’esprit résulte d’une interaction entre nos systèmes nerveux, le cerveau mais également l’intestin, notre second cerveau, et le reste de l’organisme.

Damasio l’explique par une notion d’homéostasie, cette forme d’autorégulation qui existe dans les formes les plus primitives de la vie.

L’homéostasie, c’est la volonté diffuse de persévérer dans son être, de maintenir l’unité intérieure en mettant en place des stratégies de collaboration entre les cellules ou les organes.

Au bout d’un long chemin, l’homéostasie produit les affects puis ultimement la conscience.

Notre esprit n’est donc qu’un dérivé du corps.

Pour lui, les cerveaux et le corps sont dans le même bien et produisent l’esprit de manière conjointe.

Ongwei Wang, le doyen du département de biologie de l’université de Tsinghua à Pékin, va dans le même sens que Damasio.

Il tient à préciser que notre esprit n’est pas une pure combinaison logique abstraite de toute incarnation.

Il est profondément lié aux réactions biochimiques qui se produisent dans l’organisme et qui gouvernent nos instincts, nos émotions, notre créativité.

Nos hormones expliquent tout autant nos décisions que nos synapses.

Bostrom et Tegmark considèrent les êtres humains comme des cerveaux sur pattes, des machines à calculer indépendamment de la substance dans laquelle elles s’incarnent.

Ils restent ainsi attachés à un dualisme archaïque et manquent à ce que définit l’intelligence, bien plus complexe qu’une simple machine à calculer.

L’IA est puissante mais très primitive, conclut Ongwei.

Un réseau neuronal informatique est aussi simple qu’une amibe.

Il reste très loin de la complexité d’un système nerveux.

Vous voyons donc que la conscience de l’IA est une problématique discutée.

Je vous propose maintenant d’aller voir du côté des chiffres avec une enquête récente porteuse d’enseignements.

B – 2023 : Ce qui disent 2778 chercheurs en IA sur la super intelligence

Il y a un mois, une grande enquête a interrogé 2778 chercheurs en IA de premier plan.

Le but était de recueillir leurs prédictions sur le rythme des progrès de l’IA et la nature et impacts des systèmes d’IA avancés.

Les prévisions globales donnent au moins 50 % de chances que les systèmes d’IA franchir plusieurs étapes d’ici 2028, dont :

  • la construction autonome d’un système de traitement des paiements site à partir de zéro,
  • la création d’une chanson impossible à distinguer d’une nouvelle chanson d’un musicien populaire,
  • et le téléchargement et l’affinement de manière autonome un grand modèle de langage.

Selon le panel de chercheurs interrogés, si la science continue sans interruption, la probabilité que des machines autonomes surpassent les humains dans toutes les tâches possibles a été estimée à 10 % d’ici 2027, et de 50 % d’ici 2047.

Cependant, la chance de tout être humain les professions devenant entièrement automatisables devrait atteindre 10 % d’ici 2037, et 50 % jusqu’en 2116.

Nous pouvons tirer deux enseignements de cette enquête :

1 – Si la science continue sans interruption : la stabilité de notre système économique et politique est remise en cause par des problématiques liées au changement climatique. Les tensions géopolitiques entre la Chine et les USA, la Russie et l’Ukraine provoquent des dérèglements et poussent les États à investir dans l’armement plus que la recherche. Ainsi, les progrès de l’IA pourraient s’arrêter à cause de ces déséquilibres.

2 – Même si le progrès continue, l’automatisation totale n’est pas pour demain puisque les scientifiques estiment à 50% la chance que toute profession soit entièrement automatisables en 2116.

Il est fort improbable qu’une IA super-intelligence automatise nos tâches dans les 70 prochaines années.

Bostrom, Tegmark pensent qu’une super-intelligence pourrait advenir. Stuart Russel pense que la machine pourrait devenir consciente par accident, même si ça ne serait pas comme la conscience humaine.

Mais leurs théories sont discutées par des spécialistes comme Ongwei Wang et Damasio qui considèrent qu’une IA ne pourrait pas devenir consciente sans corps.

Or, pour moi, une IA qui remplacerait tous nos emplois doit être consciente pour faire des choix moraux, avoir un but et faire ce qui est bon pour elle.

De plus, 2778 chercheurs en IA pensent que la totale automatisation aurait 50% de chance d’advenir en 2117.

La fin du travail n’est donc pas pour maintenant.

Chapitre 3 : Pourquoi les humains sont uniques

Les outils d’IA comme GPT-4 sont puissants.

Je suis le premier à être émerveillé par ces nouveaux outils.

Rendez-vous compte, en tant que non initié, je peux désormais générer des images avec le modèle de génération d’images Dall E 3, alors que je ne suis pas graphiste.

De plus, Open AI a dévoilé son dernier modèle Sora.

Vous pouvez à partir d’un simple texte, créer une vidéo de 60 secondes.

Et ce n’est pas tout.

Si je prends une photo des panneaux de signalisation à Evian avec écrit Palais Lumière et funiculaire, GPT-4 Vision reconnaît non seulement que les panneaux sont bleus, mais en plus il en déduit que nous sommes Evian !!!

C’est fou.

Et pourtant, les humains restent uniques.

A – La machine ne choisit pas

Imaginez que vous deviez rédiger un titre de livre.

Vous pouvez aller sur Chat GPT et lui dire : “Je veux rédiger un livre sur l’histoire des meubles au 19ème siècle. Peux-tu me proposer 10 titres ?”

Le chatbot vous répondra 10 titres de bonne facture.

Mais lequel choisir ?

Si vous n’avez pas l’expertise de ce qu’est un bon titre, vous ne pouvez pas choisir.

Et si l’IA le fait à votre place, rien ne garantit que ça sera la bonne réponse et que ça sera le bon titre pour vous. Car cela dépend de vos critères et de votre contexte. 

Les modèles de génération de texte d’aujourd’hui ne font que prédire mot à mot la réponse la plus probable à votre demande, sans avoir conscience de leur réponse.

Mais allons plus loin.

B – La machine n’a pas de bon sens !

“La machine est et restera dépourvue à la fois de bon sens et d’humour.”

Pour Yann Lecun, l’IA n’a pas de sens commun, c’est-à-dire qu’elle ne dispose pas d’un modèle de représentation du monde indépendant d’une tâche donnée et capable de gérer l’incertitude, la nouveauté et l’imprévu.

N’avez-vous jamais vécu cette situation ?

Vous avez mis en place votre Google Maps.

Vous suivez ce que vous dit la machine.

Et zut alors elle vous envoie sur un chemin de terre inaccessible, bien que ça soit un raccourci.

Car l’IA manque parfois de bon sens !

L’IA est en mesure d’éviter des milliers d’erreurs humaines, mais peut commettre des erreurs inimaginables pour un humain.

Par exemple, on ne va pas traverser une autoroute.

Ce dont le sens commun nous instruit immédiatement, l’IA a besoin de l’apprendre.

Mais il y a plus intéressant encore : 

C – Le paradoxe de Polanyi

David Autor, économiste au MIT, a publié il y a quelques années un article de recherche sur la question de l’automatisation.

Son point de départ est une observation de l’économiste hongrois Karl Polanyi : « Nous savons davantage que ce que nous pouvons exprimer. »

Par exemple, prenons la marche. 

“Nous sommes capables de marcher sans réfléchir à chaque mouvement, car notre cerveau a internalisé cette connaissance et l’a transformée en un automatisme.” explique Bertrand Jouvenot au Journal Du Net. 

Nous ne savons donc pas expliquer comment nous parvenons à marcher. 

Et c’est pareil pour notre travail au quotidien, où nous accomplissons à l’instinct certaines tâches sans pouvoir donner une explication détaillée. 

Le paradoxe de Polanyi s’applique à d’autres domaines comme : 

  • notre travail au quotidien 

Et c’est embêtant pour les ingénieurs en IA.

Comment des ingénieurs pourraient-ils programmer un ordinateur pour simuler un processus qu’ils ne maîtrisent pas dans tous les détails ?

Le code repose sur l’explicitation.

Plus une tâche sera difficile à décomposer, moins elle pourra être prise en charge par un robot.

Un environnement complexe aux paramètres imprécis pose un défi considérable aux algorithmes, quand bien même il semble évident, naturel à des êtres humains.

Le paradoxe de Polanyi s’applique donc à des fonctions sophistiquées requérant l’intuition et créativité.

Mais aussi à des activités qui demandent de s’adapter à des situations changeantes ou à des interactions humaines imprévisibles, par exemple faire le service dans un restaurant.

Pour résoudre ces problèmes, les informaticiens peuvent explorer deux options : simplifier l’environnement ou laisser la machine apprendre toute seule, c’est le Unsupervised Learning.

Mais David Autor dit que le meilleur algorithme peinera toujours à identifier une finalité, qu’une chaise est faite pour s’asseoir, une assiette pour manger ou un échiquier pour jouer.

La capacité d’imitation fera illusion jusqu’au moment où une modification brutale dans l’environnement le conduira à servir le bœuf bourguignon sur une chaise.

Par exemple, un programme d’IA spécialisé dans les échecs peut battre le meilleur maître humain d’échecs du monde, mais pas apporter le chocolat chaud à la table 5.

La menace de l’automatisation sera donc d’autant plus éloignée qu’une tâche requiert comme le résume David Autor, flexibilité, jugement et sens commun.

Justement, commentons davantage ce concept de sens commun pour que vous compreniez bien : 

D – Le sens commun manque cruellement à l’IA

Le sens commun est une fonction liée à notre homéostasie biologique.

Rappelons que l’homéostasie biologique est le processus par lequel les êtres vivants maintiennent un état interne stable malgré les changements de leur environnement externe. 

Imaginez que votre corps est une maison avec des systèmes de chauffage et de refroidissement intégrés. Lorsqu’il fait froid dehors, votre maison active le chauffage pour maintenir une température agréable à l’intérieur. De même, si vous avez chaud, elle déclenche la climatisation pour refroidir l’air. Votre corps fonctionne de la même manière pour maintenir un équilibre interne. Ces ajustements sont constants et automatiques, assurant que votre “maison” reste confortable et fonctionnelle, peu importe les conditions “météorologiques” extérieures

Le sens commun fait référence à notre capacité innée à comprendre et à interpréter le monde qui nous entoure de manière intuitive. Il inclut la compréhension des situations sociales, la capacité à tirer des conclusions basées sur des expériences vécues et à utiliser ces connaissances dans la vie quotidienne. Il nous aide à naviguer dans notre environnement, prendre des décisions adaptatives et interagir efficacement avec les autres.​

Tout comme l’homéostasie biologique permet à notre corps de s’adapter aux changements environnementaux pour maintenir un équilibre interne, le sens commun nous permet de comprendre et de réagir aux situations sociales et physiques de manière adaptative.

Le sens commun, comme l’homéostasie, sont essentiels à notre survie. Ils nous permettent d’éviter les dangers, de répondre aux besoins fondamentaux et de vivre en société.

Maintenant, allons plus loin…

Le sens commun s’appuie sur notre biologie (par exemple, la perception sensorielle, le traitement cognitif) pour interpréter le monde. 

Prenons l’exemple de la traversée d’une rue. Notre sens commun nous dicte de regarder des deux côtés avant de traverser pour éviter les voitures. Ce comportement s’appuie sur notre biologie de plusieurs manières :

  • La perception sensorielle : nos yeux détectent les véhicules en mouvement, et nos oreilles captent le bruit des moteurs ou des klaxons.
  • Le traitement cognitif : notre cerveau analyse rapidement ces informations sensorielles pour évaluer le danger potentiel.
  • Une réaction physique : Si une voiture approche rapidement, notre corps réagit instinctivement en restant sur le trottoir.

Dans cet exemple, le sens commun (ne pas traverser devant une voiture) est directement lié à notre capacité biologique à percevoir et traiter les informations de notre environnement. 

Nous avons ainsi démontré que notre survie dépend de l’interaction entre notre biologie et notre compréhension du monde. 

Ce sens commun échappe par essence à la capacité de calcul de l’IA. 

Il impose alors une limite au champ de la superintelligence comme au progrès de l’automatisation.

Aucune IA ne pourra comprendre l’essence de ce qu’est un restaurant, au sens où comprendre suppose à la fois la récréation mentale, l’expérience sensorielle et la capacité de conceptualiser.

Le test pour savoir si votre emploi est à risque porte donc moins sur la répétition que sur le sens commun.

Un serveur effectue un travail relativement répétitif mais intense en sens commun.

Il lui faut improviser une infinité de jugements impliquant la quasi-totalité de son expérience humaine, depuis la tête du client jusqu’à l’humeur du chef. Par contre, un comptable peut exercer, s’il doit in fine aligner des chiffres selon un ordre rigoureux, en faisant abstraction de ses propres sentiments, le robot pourra sans doute faire mieux.

De plus, nous pourrions imaginer un restaurant autonome où plusieurs IA dotées d’un corps  fonctionnent de concert pour faire tourner le restaurant. Il y aurait une IA pour l’accueil et prise de commande, pour la cuisine automatisée, le service en salle, la gestion des paiements et des retours clients, la maintenance et nettoyage). Ces IA n’auraient pas besoin de comprendre l’essence du restaurant mais il faudrait qu’elles puissent collaborer entre elles. Cette hypothèse du restaurant autonome semble relever de la science fiction aujourd’hui. 

E – Conclusion

Malgré les progrès des technologies d’intelligence artificielle, la plupart des scientiques sur lesquels je me suis appuyé s’accordent pour dire que l’IA n’est pas encore au point pour remplacer l’être humain qui –  par ses processus biologiques – a un sens commun que la machine n’a pas.

Les métiers demandant beaucoup de sens commun, avec une dose forte d’incertitude, de nouveauté et d’imprévu ne semblent pas être prêts à être automatisés.

Les autres, fonctionnant en système fermé et demandant du calcul, sont plus exposés.

Cependant – bien que relevant pour l’instant de la science-fiction – nous ne sommes pas à l’abri de la création par mégarde d’une conscience artificielle. De plus, l’IA n’a pas besoin de sens commun pour automatiser certaines tâches. 

Cela demande de la part des gouvernements, des entreprises technologiques et de l’ONU des mesures fortes de prévention. 

Chapitre 4 : Comment s’adapter à l’ère de l’IA ?

Eliezer Yudkowsky, est le chercheur principal d’une organisation à but non lucratif appelée Machine Intelligence Research Institute à Berkeley.

Il est aussi l’homme le plus techo-pessimiste sur l’IA.

Selon lui, il nous reste entre 2 et 10 ans avant que nous soyons confronté à la “fin automatique de toutes choses”

Il croit que les IA évolueront bientôt au niveau d’un dieu, trop rapide et résilient pour que nous puissons le contenir ou le restreindre. 

Pour lui, il ne faut pas réduire l’IA à un cerveau fabriqué par l’homme dans une seule boîte. 

Pour comprendre où les choses vont, il vous que vous imaginiez « une civilisation extraterrestre qui pense mille fois plus vite que nous », dans un grand nombre de boîtes, presque trop nombreuses pour que nous puissions les démonter, si nous le décidions.

Comme nous l’avons vu, la position Eliezer Yudkowsky est minoritaire parmi les scientifiques. 

Je pense néanmoins qu’il faut penser prendre des mesures à tout niveau pour minimiser les risques et maximiser les bénéfices de ce type de systèmes intelligents.

Nous commencerons par explorer les mécanismes gouvernementaux qui peuvent être mis en place, puis nous verrons comment les entreprises de la tech mettent en place des garde fous, puis nous nous intéresserons à ce que l’ONU fait sur le sujet. 

A – Au niveau des gouvernements

Robert Atkinson, à la tête de l’Information Technology Innovation Foundation et Edward Haldane, émanant du Council of Foreign Relations offrent des solutions concrètes pour embrasser l’ère de l’IA.

Atkinson prône l’optimisme et lutte contre la robophobie. 

Pour lui, la technologie génère des emplois, pas l’inverse. 

Il souligne l’importance de s’adapter, de se former aux métiers de demain pour transformer l’innovation en opportunité.

Haldane va dans le même sens. Il prône sur un accompagnement accru des travailleurs, avec des politiques de formation continue, de mobilité professionnelle et d’assurance chômage flexible. Lui aussi croit à la destruction créatrice. L’IA remplace, mais surtout elle créé !! 

Le FMI, par l’intermédiaire de sa DG va dans le même sens.

Dans les économies avancées comme la nôtre, les IA génératives vont davantage nous impacter car ce type de technologie automatise le travail de l’esprit. Paradoxalement, ces technologies vont développer davantage d’opportunités dans les pays développés, accroissant ainsi les différences de richesse avec le reste du monde.  

Enfin, parlons d’éducation.

J’ai eu la chance de rédiger un long essai sur l’impact de l’IA dans l’éducation

En plus des propositions d’Atkinson et Haldane, je propose d’imaginer une nouvelle école.

Dans un premier temps, je milite pour un apprentissage des fondamentaux sans intelligence artificielle. Le jeune élève devrait se confronter au monde réel avec une éducation vivante pour développer au maximum ses capacités cognitives, sociales et pratiques. 

Dans un second temps, disons le lycée, nous pourrions introduire une IA d’aide au devoir comme Mia Seconde, une application déployée à la rentrée 2024 en seconde.  Ce type d’IA donnerait des exercices personnalisés aux élèves en fonction de leur niveau et de leur intérêt. 

Post-lycée, le jeune devient un adulte dont l’esprit critique est désormais affûté. Il est prêt à continuer ses études et sait qu’il doit internaliser les connaissances et développer son expertise pour ne pas devenir obsolète à l’ère de l’IA. Aussi, l’enseignement supérieur devra préparer les jeunes à des métiers liés à la robotique et l’intelligence artificielle pour éviter un chômage de masse.

Au final, avec des politiques adaptées, l’avenir du travail sous le signe de l’IA est plein de promesses. L’innovation, couplée à l’éducation, formation continue et à la reconversion, mène à une évolution positive de l’emploi.

Maintenant, intéressons-nous aux moyens mis en place par les entreprises technologiques : 

B – Les entreprises technologiques

Google et Open AI conçoivent aujourd’hui les meilleurs modèles d’IA générative.

Il est donc de leur ressort de bien tester leur modèle, et les diffuser à la juste vitesse pour permettre l’adaptation de la société.

Rappelons nous que le changement sociétale met toujours plus de temps que le changement technologique.

De plus, ces entreprises ont pour rôle d’assurer la sécurité de leur modèle d’intelligence artificielle. Par exemple, il est important que ces IA restent alignées avec les valeurs humaines, dans le cas où une conscience émerge.

Pour l’instant, grâce à la méthode du Reinforcement Learning By Human Feedback, les humains peuvent contrôler la machine.

Mais ça ne pourrait pas durer.

Comme le dit Cédric Villani, le mathématicien français détenteur de la médaille fields, nous ne savons pas comment les IA de type GPT-4 créent de bons résultats. Ils sont appelés “boîtes noires” car leur fonctionnement interne complexe est difficile à comprendre et à expliquer. Ainsi, l’IA pourrait développer des compétences émergentes sans que nous sachions. 

Open AI a donc créé une équipe visant à créer un chercheur IA en alignement automatisé pour itérativement aligner la superintelligence.

Dans l’enquête sur les 2778 chercheurs en IA mentionnées dans le chapitre 2, la plupart  étaient d’accord sur le fait que la recherche visant à minimiser le potentiel les risques liés aux systèmes d’IA devraient être davantage priorisés.

Que pensez-vous d’une législation supranationale ?

C – Législation supranationale

L’Acte sur l’intelligence artificielle (AI Act) de l’Union européenne (UE) représente un cadre législatif visant à réglementer le développement et l’utilisation de l’IA. Proposé initialement en 2021, il cherche à renforcer les règles relatives à la qualité des données, la transparence, la supervision humaine et la responsabilité, tout en abordant les questions éthiques et les défis d’implémentation dans divers secteurs.

En juin 2023, des amendements ont renforcé le projet, interdisant notamment l’usage de la technologie d’IA pour la surveillance biométrique et exigeant des systèmes d’IA générative, tels que ChatGPT, de dire clairement que le contenu a été rédigé par le chatbot pour garantir sa transparence.

De plus, l’AI Act introduit un système de classification par risque pour les technologies d’IA, allant de risques minimaux à inacceptables.

Les systèmes à risque limité ou minimal, comme les filtres anti-spam ou les jeux vidéo, nécessitent peu d’exigences au-delà des obligations de transparence.

Les systèmes à risque inacceptable, tels que le scoring social par les gouvernements ou l’identification biométrique en temps réel dans les espaces publics, sont interdits.

Les systèmes d’IA à haut risque, incluant les véhicules autonomes et les dispositifs médicaux, doivent se conformer à des réglementations strictes, incluant des tests rigoureux et une documentation approfondie sur la qualité des données, ainsi qu’un cadre de responsabilité détaillant la supervision humaine.

Maintenant, intéressons nous aux mesures de niveau international

Le Programme des Nations Unies pour le développement (PNUD) est le principal organisme des Nations Unies pour le développement international. Il œuvre à l’éradication de la pauvreté et à la réduction des inégalités grâce au développement durable, dans plus de 170 pays et territoires. 

Ce dernier a mis en place son programme DEEP.

Deep vise à démocratiser et démystifier l’IA, en rendant cette technologie accessible et compréhensible pour tous. Cela implique de sensibiliser et d’éduquer le public sur les avantages, les risques et la terminologie de l’IA. Un exemple marquant est le cours en ligne gratuit « Éléments de l’IA » lancé par la Finlande en 2018, destiné à améliorer la compréhension critique de l’IA parmi les citoyens. L’objectif est de créer un débat inclusif et une exploration de l’IA au sein de la société, en impliquant une large tranche d’âge et de profils démographiques.

Le programme encourage également l’utilisation de l’IA pour améliorer les conditions de vie et les moyens de subsistance, en développant des produits, des outils et des technologies adaptés aux contextes locaux. Des stratégies nationales comme celle de la Colombie, visent à exploiter l’IA pour stimuler la prospérité économique, tandis que l’Inde et le Nigeria cherchent à former leurs citoyens et à mobiliser la diaspora pour l’utilisation de l’IA à des fins nationales.

De plus, DEEP prône pour une exploration et une expérimentation sûres de l’IA, en soulignant la nécessité de protéger les données personnelles et de promouvoir une expérimentation responsable.

Enfin, le programme met l’accent sur la protection des individus contre les impacts négatifs de l’IA, en abordant des questions telles que les biais des données, la responsabilité et la prise de décision éthique.

A ma connaissance, la législation ne va pas plus loin sur le sujet aujourd’hui.

Comme toujours, le but sera de trouver une législation ni trop permissive, ni trop restrictive. 

Les enjeux financiers sont tels que je ne ferais pas exclusivement confiance aux entreprises de la technologie pour s’auto-réguler. Une guerre fait rage entre google et open ai, et dans un guerre, tous les coups sont permis. Et si par mégarde, ces acteurs créent une IA qu’ils ne sont plus capables de contrôler ? Ou de manière plus mesurée, un système intelligent qui bouleverse tellement certaines professions que les gouvernements auront du mal à s’adapter ? Je pense notamment à Sora, le nouveau modèle de text to video d’Open AI qui pourrait mettre en danger de nombreux motion designer dans l’industrie de la vidéo, 

Chapitre 5 : La fin du travail est-elle pour bientôt ?

Ensemble, nous avons examiné ce qui est possible de faire avec les modèles type GPT-4 aujourd’hui, puis nous avons discuté les arguments des économistes et des prospectivistes qui disent que l’IA et la robotique assureront demain seules les fonctions productives et prévoient une société sans emploi. Nous avons ensuite montré les limites de leurs argumentations en ajoutant que des adaptations à tous niveaux doivent tout de même se faire vite pour accompagner le changement technologique. 

Je crois que la fin du travail n’est pas pour bientôt. 

Mais une mutation du travail profonde a déjà commencé. 

En tant qu’ingénieur, formateur en IA génératives dans le milieu professionnel, je peux développer en trois points : 

1 – “Nous sur-estimons les effets à court terme de la technologie, mais sous-estimons les effets à long terme”.

Pour moi, trop de promesses sont faites sur l’IA générative aujourd’hui.

La technologie est à ses prémisses. 

Et elle est dans de nombreux cas bancals à cause des hallucinations (quand l’IA donne une réponse qui a l’air vrai en apparence mais qui est en fait tout à fait fausse). 

La conséquence est que la plupart des professionnels peuvent continuer à travailler comme avant, sans conséquences. 

Mais à mesure que les modèles d’IA génératifs avancent (et ils avancent vite) alors les professionnels qui n’utilisent pas l’IA seront vite dépassés. Je crois que le capitalisme a encore quelques années devant lui. De ce fait, les professionnels qui ne seront plus assez performants seront écartés. Or l’IA est déjà un outil déjà incontournable en milieu professionnel comme nous l’avons découvert dans le chapitre 1. 

Je prône pour une formation dès maintenant pour que la transition se fasse en douceur. J’utilise moi même l’IA au quotidien pour gagner en excellence. Vous pouvez lire cet article sur les 5 usages concrets de l’IA que j’ai eu en une semaine. 

Le problème central aujourd’hui est le changement des méthodes de travail. 

Il était une fois un ami coach en réinsertion professionnelle, mandaté par le Pôle Emploi Suisse

Il n’était pas fan de l’intelligence artificielle, mais curieux de nature, il a décidé de tester l’outil. 

A la fin d’un accompagnement professionnel, mon ami doit rédiger une lettre de recommandation au futur employeur de son coaché. Cette lettre lui prend beaucoup de temps. Il a donc commencé par écrire une lettre avec Chat GPT et une lettre lui même. Il disait qui avait écrit quelle lettre et le candidat choisissait toujours la lettre rédigée par lui. 

Rassurant n’est ce pas ? 

Mais écoutez la suite… 

Audacieux, mon ami a décidé de ne plus qui entre lui et l’IA écrivait la lettre. 100% de ses coachés ont préféré la lettre rédigée par Chat GPT. Il a mis du temps à accepter cette évidence cruelle : “L’IA écrit mieux que moi”. Mais il a décidé d’écrire ces lettres 100% avec l’IA car cela rendait plus service à ses candidats. Son but est d’aider au mieux les candidats pas de se rassurer sur ses qualités d’écriture. 

Il a donc fait évoluer sa manière de travailler. 

2 – Je ne crois pas en l’émergence de la conscience sans corps. 

Comme Stuart Russel le soulève, je pense qu’il est possible qu’une conscience émerge de la machine, par mégarde. Mais cette conscience sera différente de ce que nous appelons conscience chez les humains. Pour moi, la conscience de la machine ne sera pas suffisante pour nous remplacer dans toutes les tâches, parce qu’il manque le corps.

Nous avons remarqué à quel point nos 5 sens nous permettaient de comprendre l’essence d’une pièce, d’un élément, d’un événement. Si nous voulions une telle IA, il faudrait alors recréer un humain artificiellement. Et alors, quel serait l’intérêt ? 

3 – L’humain trouvera toujours une manière de “travailler” 

Pascal disait : « Tout le malheur des hommes vient d’une seule chose, qui est de ne pas savoir demeurer en repos dans une chambre. »

Une étude publiée par des chercheurs de l’Université de Virginie dans la revue Science va dans ce sens. 

Elle a révélé que, confrontés à la tâche de rester seuls avec leurs pensées pendant 15 minutes, deux tiers des hommes et un quart des femmes ont préféré s’administrer au moins un choc électrique plutôt que de s’ennuyer.

Un homme a même choisi de s’administrer un choc électrique 190 fois.

Cette étude souligne à quel point il peut être difficile pour certaines personnes de rester seules avec leurs pensées.

Pour le meilleur et pour le pire, nous avons besoin de nos labeurs. 

Nous créons de l’activité.

Si la machine nous délivrait de tout effort, de toute peine, nous serions livrés au pire tourment métaphysique. 

Pour échapper à la pensée lancinante de la mort, nous trouverons toujours des biens à produire et des services à rendre.

Pour conclure : 

Les stoïciens nous recommandaient déjà il y a 2000 ans de faire le tri entre ce sur quoi nous avons prise et ce sur quoi nous n’avons pas prise.

En tant que citoyen français vivant à Evian, je n’ai pas prise sur les géants de la Silicon Valley qui font les apprentis sorciers. Je n’ai prise ni sur les politiques de l’ONU, ni sur les politiques de l’Etat Français. 

Par contre, je peux ouvrir Chat GPT aujourd’hui et le tester pour voir comment je peux l’utiliser dans mon travail. 

Je peux – en tant que chef d’entreprise – tenter de comprendre comment intégrer ces outils d’IA génératives dans mes processus. 

Je peux partager des mesures concrètes et pragmatiques pour éviter que les plus faibles soient laissés pour compte dans cette révolution. 

“Savoir n’est pas assez, il faut appliquer. 

Vouloir n’est pas assez, il faut faire”. 

Alors – allez-y, passez à l’action, testez ces nouveaux outils.

Embrassez la mentalité d’explorateur des femmes et des hommes qui – malgré la peur, le doute et l’inconfort – avancent ! 

Merci de m’avoir lu jusqu’au bout.

Excellente journée,

Jean-Baptiste.

.
Partagez cet article !
Jean-Baptiste
Jean-Baptiste
Publications: 87