Mon retour personnel (et sincère) sur la vague de l'IA
On an island #7 - le blog-notes personnel de JDO
Dans mon précédent post, j'avais promis de parler plus de moi, et de faire une newsletter en deux parties, une plus personnelle, et une plus liée à mon activité d'informaticien. Finalement, je vais faire les deux dans ce post, en parlant de mon vécu et de mon ressenti très personnel sur l'intelligence artificielle.
Je me suis aperçu en effet que je n'avais pas du tout abordé ce sujet dans mes précédentes newsletter. C'est donc devenu un peu "l'éléphant dans la pièce", tellement ce phénomène prend d'ampleur.
Ma définition (très imparfaite) de l'IA
Bon, déjà, sans faire l'erreur de confondre IA et IA générative, je vais tout de même parler beaucoup de cela. Tout d'abord parce que je suis loin de me considérer comme un expert en IA. Je suis tout au plus un "pratiquant", qui utilise des LLM dans son boulot. J'essaie de le faire avec un minimum de recul et d'astuce, c'est à dire sans me contenter de faire de bêtes appels aux API d'OpenAI. Pour autant, même si je comprends les concepts théoriques derrière tout cela, je suis loin de les maîtriser tous, et encore moins de les utiliser. Bref, je suis plutôt un utilisateur technique des stacks mises à notre disposition.
J’en profite pour faire un petit disclaimer : les plus techniques d’entre vous trouveront quelques approximations ici. Parfois parce que je souhaite ici proposer un point de vue plus “philosophique” que technique, parfois par méconnaissance de ma part, parfois par souhait de vulgarisation. Dans tous les cas, vos apports, compléments et rectificatifs sont bienvenus en commentaires :)
Le point le plus important pour moi, c'est que l'IA n'a rien de magique. Ce sont des stats, appliquées à grande échelle. Quand j'étais étudiant dans les années 90, il y avait déjà des cours d'IA, et c'était les cours les plus chiants du monde. Beaucoup de torture mentale et de théories mathématiques pour au final très peu de résultat. L'énorme différence avec ce qu'on connait aujourd'hui, c'est la puissance de calcul et de traitement des données.
Pour le dire autrement, ce qu'on appelle IA aujourd'hui, c'est un momentum où se sont croisés de vieilles théories un peu fumeuses avec une puissance de calcul qui devient énorme, pour réaliser que ces pistes n'étaient pas si fumeuses que cela. Encore mieux : on est arrivé, voilà environ deux ans avec la sortie publique de ChatGPT3, a quelque chose qui est devenu d'un coup complètement bluffant. Encore une fois pour une raison : la puissance de calcul et le volume des données.
Ce que je trouve drôle dans le mot "computing" et sa traduction française "informatique", c'est que chacun des mots contient une part de vérité de la définition de cette discipline : oui, c'est du calcul, et oui c'est du traitement de données. En ce sens, l'IA est l'évolution la plus pure de ces fondamentaux. Beaucoup de calculs sur beaucoup de données.
Si on prend un peu de recul sur "et l'humain dans tout ça", on peut se poser des questions assez fondamentales sur ce que fait réellement l'IA. On le sait, il y a beaucoup de triche, d'astuces, pour donner l'impression que l'on parle a un vrai humain. Mais quand l'IA est devenue bluffante, c'est quand elle s'est mise à répondre mieux qu'un humain. D'où vient cette magie ? Pour moi, la réponse est claire : utiliser ChatGPT apprend moins sur l'IA sur ce qu'est l'humain.
Pendant très longtemps, je n'ai, j'avoue, pas cru à cette piste de l'intelligence artificielle. Déjà parce que j'étais traumatisé par ces cours super-chiants (et décevants) des années 90. Et aussi parce que j'avais la croyance, au fond de moi, que le "génie de l'humain" était insurpassable, que cette magie, c'était en nous qu'elle était. OpenAI et d'autres n'ont en fait fait que prouver qu'un humain qui parle, c'est avant tout une accumulation de savoirs qu'il enregistre tout au long de sa vie, pour ensuite les ressortir au moment opportun, sans grand travail d'imagination. Juste de la régurgitation. Comme l'IA. Même un grand intellectuel ne fait, pour la plus grande part, que compiler le travail d'autres philosophes pour en faire un discours à sa sauce.
C'était sous mes yeux depuis le début : dans les cours de philo qu'on subissait en terminale, on ne faisait pas autre chose ; le fameux "penser par nous même" se résumait à découvrir, puis compiler, le travail des grands classiques de la philosophie. Un bouquin tel que "Propos sur le bonheur", d'Alain, ne fait que cela : proposer des sources de pensées philosophiques. Pour autant, ça a été un grand choc pour moi lorsque l'IA m'a mis sous le nez la pertinence de ce travail de compilation. Je continue à penser qu'il y a "une part de magie" en nous, qui fait notre humanité. Mais je ne pouvais que constater qu'on me prouvait que cette part était minuscule, ou du moins suffisamment petite pour pouvoir faire parfaitement illusion en construisant une machine qui reproduit ce mécanisme "enregistrement/régurgitation".
Si on met du Pareto là dedans, ça revient à dire qu'un cerveau humain, c'est 80% de traitement de l'information, et 20% de "magie" (ou âme, ou intelligence humaine, ou part divine, mettez y le mot que vous voulez). Et que, donc, l'IA est capable de simuler les 80% de cette "humanité" (ne cherchez pas de socle solide pour expliquer ces chiffres, il n'y en a pas. C'est peut-être 60/40, ou 99,99/0,01. Ca permet juste d'illustrer mon propos). Sauf que les supercalculateurs d'aujourd'hui sont capables de faire fonctionner cette part en ingurgitant tout le savoir de l'humanité, et pas simplement ce qu'un humain lambda apprend pendant un cycle scolaire, puis tout au long de sa vie.
Si je prend mon temps dans cette longue introduction, c'est pour rappeler qu'il n'y a pas de magie dans l'IA, mais quelques trucs, et beaucoup de statistiques. Et que la vrai part d'humanité dans le cerveau humain, si elle n'est pas où on le pensait, reste présente, prête à être utilisée. Et ne sera jamais reproductible par une machine. Partir à la découverte de cette vraie part d'humanité est la deuxième grande aventure que propose l’IA.
Crier aux loups sur une IA bouffant l’humain tout cru en ignorant ces « trucs », c’est un peu comme si un intellectuel regardait un magicien couper une femme en deux, puis ensuite dénoncerait partout une société future où tous les humains seraient tronçonnés en morceaux.
En revanche, nier l'IA et en faire un gadget, un n-ième truc à la mode, c'est nier que l'IA, comme je le disais précédemment, est la forme la plus pure de l'évolution de ce computing/informatique. Et que, même si elle ne reprend que 80% de la mécanique du cerveau humain, elle le fait à une échelle de savoir qu'un humain sera incapable d'atteindre.
La prochaine étape, c'est la fameuse "IA générale", qui sera capable d'apprendre. Un LLM peut déjà ingurgiter encore plus de contenu, et donc a sa part d'apprentissage. Mais au prix d'efforts délirants. Si on observe un bébé apprenant la marche, il va le faire en quelques essais. La même chose pour un robot prend des années de recherche, d'étude de la marche chez l'humain, et des millards d'essais/erreurs pour le moteur d'IA impliqué. Là est sans doute une part de la vraie magie du cerveau. Jusqu'à quand ?
L'IA, et moi et moi et moi
Venons en à mon petit nombril. Comme je le disais, je suis informaticien, plutôt senior (voire très senior), et ma trajectoire de carrière m'a amené à remettre les mains dans le cambouis du code. Je me suis frotté à diverses expérience de conduite de projet et de management d'équipe, mais j'en suis toujours revenu à mon fondamental : j'aime voir mon travail comme de l'artisanat, comme le gars qui préfère sublimer la technique de fabrication de chaussures à la main plutôt que de faire confiance à la production industrielle.
Jusqu'à il y a peu, j'étais assez à l'aise dans mon intuition : que ça doit dans les méthodologies, ou les outils, j'ai vu passer bien des vagues pour industrialiser, automatiser, mon métier, mais on en revenait toujours ensuite aux fondamentaux. Et même si la chasse aux bugs est une activité éprouvante, j'ai toujours été fasciné par ce paradoxe qui fait du développement informatique une activité profondément humaine.
Forger un raisonnement, une mécanique, dans mon esprit, puis, avec un clavier et un écran, être capable de sortir ce raisonnement de mon cerveau pour le transférer dans une machine, et ensuite le faire fonctionner même lorsque je ne suis pas dans la pièce, et pourquoi pas en des milliers d'exemplaires. La simple idée qu'un mécanisme que j'ai pu concevoir le 17 février 2003 puisse encore fonctionner, à l'identique, dans un programme tournant quelque part sur un serveur dont j'ai oublié jusqu'à l'existence, m'a toujours fasciné.
Mais ça, c'était avant l'IA.
(à suivre....)
Sur mon île
Ca y est, les marins se sont réappropriés l’immensité de l’océan. On se sent encore plus petit, et en même temps pleinement intégré à cette étendue d’eau.
(photo Mathieu Dupuis)
En vrac
Le plat emblématique de cette saison du homard en nouvelle-Angleterre et en Acadie, c’est le lobster roll (ou “guédille de homard” comme le nomme ici). Voici une interprétation très française mais qui semble absolument délicieuse de ce plat
Les univers de la crypto et de l’informatique quantique vont-ils se croiser ? Ca n’est pas pour demain, mais si cela arrive un jour cela pourrait changer beaucoup de choses
L’art du vibe-coding d’après YCombinator