Software 3.0: The Evolution of Programming with AI
20 août 2025
AI & Software Development
Introduction and Context
3.0, tout repose sur la programmation en langage naturel. Les programmes sont écrits en anglais, ce que nous pouvons appeler le « prompting », mais ces LLM deviennent des ordinateurs programmables.
Bonjour et bienvenue dans Generation AI, le podcast où nous démystifions l'intelligence artificielle dans le monde de l'enseignement supérieur. Je suis votre hôte Ardis Kadiu et avec moi aujourd'hui se trouve mon ami et co-animateur JC Bonilla. Salut JC.
Ardis, que se passe-t-il ici ? Nous avons annoncé la semaine dernière votre transition et votre évolution et vous êtes prêt à changer le scénario. Je remarque que vous voulez introduire certaines choses, l'enseignement supérieur et d'autres sujets. Est-ce ce qui se passe ici ? Nous évoluons déjà avec votre évolution.
Hé, ça s'appelle Generation AI, pas Generation Higher Ed. Je plaisante. Mais l'épisode de la semaine dernière était intéressant. C'était un bon épisode. Et j'ai pensé que nous devions faire un épisode un peu plus « geek » cette semaine.
Hé, on s'est un peu attendris. C'était très humain. J'ai même versé une petite larme. Alors, place au pouvoir des nerds, c'est une plongée technique approfondie ; nous avons tous les deux été transportés par une conférence et la conversation d'aujourd'hui porte sur le logiciel 3.0. Je suis tellement excité Ardis et je pense que c'est vous qui allez piloter cela aujourd'hui, c'est plus votre fort et j'essaierai de rattraper toute cette évolution de ce secteur du logiciel tel que nous le connaissons. Devrions-nous donner un peu de contexte ?
Absolument. Andrej Karpathy, pour ceux qui ne le connaissent pas, il a travaillé chez Tesla et est l'un des fondateurs d'OpenAI. C'est une personne vraiment innovante. Il a travaillé sur les voitures autonomes de Tesla et il a donné une conférence à Y Combinator intitulée « Software is Evolving Again » (Le logiciel évolue à nouveau). Nous avons trouvé que certaines idées étaient incroyables et nous voulions discuter de ce que cela signifie, parcourir cette conférence, essayer de les mettre dans le contexte de notre vision de l'industrie, de l'enseignement supérieur et de la prochaine évolution du logiciel. Le point le plus important ici est que, dans le cadre de Generation AI, cela s'inscrit parfaitement dans notre façon de concevoir l'IA et la manière dont les ordinateurs et l'IA démocratisent la programmation pour créer cette nouvelle classe d'applications partiellement autonomes. Quoi qu'il en soit, nous pouvons commencer.
Un cadre mental que je recommande à tout le monde d'adopter en écoutant cet épisode. Premièrement, c'est techniquement intense au niveau logiciel et vous nous entendrez essayer de comprendre pourquoi JC et Ardis ont cette conversation sur le logiciel. C'est juste que le déploiement actuel de l'IA tel que nous le connaissons et la manière dont il repousse les limites du développement de l'IA ou l'émergence de l'ingénieur IA sont littéralement ce qui crée ce changement fondamental. Cette révolution nous explique comment les ordinateurs font ce qu'ils font, comment ils pensent et spécifiquement, parce que nous sommes Generation AI, ce que cela signifie aujourd'hui et où cela nous mène. Je pense que vous allez nous faire parcourir ces étapes logicielles, ce qu'est la version 1.0, 2.0, afin que nous puissions décortiquer la version 3.0 que l'IA est en train de créer. Ardis, voulez-vous parler des deux ères menant au cadre de la troisième ère ?
The Three Eras of Software (1.0, 2.0, 3.0)
Absolument JC. Nous vivons vraiment cette troisième révolution fondamentale dans la manière de dire aux ordinateurs quoi faire. Cette fois, nous les programmons vraiment dans la même langue que celle que vous écoutez en ce moment, l'anglais. Si nous reprenons le cadre des trois ères, vous avez le Logiciel 1.0 qui va des années 1950 aux années 2010. Ce sont des instructions explicites écrites dans des langages de programmation comme Python, C++, COBOL à l'époque, mais les humains écrivent chaque ligne de code.
Les mainframes. Les bons vieux mainframes.
Si vous y réfléchissez, c'est déterministe, le comportement est prévisible, vous écrivez des tests autour et vous écrivez une fonction pour classer un e-mail comme spam. Vous dites simplement : voici les mots-clés dont j'ai besoin et ceci est un spam ou non.
On peut dire que vous et moi avons été formés classiquement comme ingénieurs dans cette ère, avec l'état d'esprit traditionnel de la programmation.
Exactement. Donc, si vous écrivez du code aujourd'hui, c'est du Logiciel 1.0. Beaucoup d'entreprises SaaS sont bâties là-dessus. Passons maintenant au Logiciel 2.0, Karpathy y fait référence en 2017 dans un essai. Essentiellement, les programmes sont écrits sous forme de poids de réseaux neuronaux. Durant le Logiciel 2.0, vous fournissez des données et construisez des modèles, et ces modèles sont le Logiciel 2.0. Pensez à l'IA perceptive, aux réseaux neuronaux pour classer cet e-mail comme spam : vous leur donnez simplement des exemples d'e-mails de spam et d'e-mails légitimes, puis le logiciel est ce réseau neuronal qui se construit. Ce sont les poids dans ce réseau neuronal qui constituent la partie logicielle. Nous sommes passés du Logiciel 1.0 où nous écrivons toutes les lignes de code, au Logiciel 2.0 écrit sous forme de poids de réseaux neuronaux. Les données et l'architecture définissent le comportement et l'entraînement compile le programme. Les humains deviennent des conservateurs de données plutôt que des rédacteurs de code. Un exemple est l'entraînement d'un réseau neuronal sur des milliards d'e-mails pour apprendre à détecter le spam.
100 %.
Cela va des années 2010 aux années 2020, donc environ une décennie. La première a été longue, environ 60 ans. La deuxième a été courte, environ 10 ans, et nous allons parler de la troisième, le Logiciel 3.0, qui n'a que quelques années maintenant.
Cette compression temporelle est un processus naturel que nous voyons dans la technologie. Pensez à l'évolution de la radio, puis de la télévision et d'Internet en termes d'adoption. Nous voyons cela en ce qui concerne le langage de programmation. Je voulais approfondir les réseaux neuronaux car lorsque les gens pensent à la programmation traditionnelle, comment est-ce un langage de programmation ? Ce n'est pas un langage de programmation en soi ; c'est l'approche consistant à utiliser des réseaux neuronaux, ce qui signifie qu'elle est inspirée par le cerveau. C'est l'aspect réglage, donc les ingénieurs logiciels effectuent des mouvements qui ne sont pas déterministes. Cette introduction d'autres méthodologies a façonné l'industrie du logiciel, ce qui nous amène au Logiciel 3.0.
Le 3.0, c'est la programmation en langage naturel. Les programmes sont écrits en anglais, ce qu'on peut appeler le « prompting », mais ces LLM deviennent des ordinateurs programmables. Les grands modèles de langage que nous avons vus ces dernières années deviennent les ordinateurs programmables. Tout le monde devient programmeur. Vous donnez au LLM une instruction et un e-mail et dites de classer cela comme spam ou non, et c'est fait. Vous êtes passé de l'écriture d'une fonction à l'utilisation d'un réseau neuronal pour le classer, avec le langage naturel, ces LLM devenant des ordinateurs programmables. Gardez cette idée de l'IA comme ordinateur à l'esprit car chacune de ces transitions représente une couche d'abstraction fondamentale. Nous sommes passés de l'instruction machine au code lisible par l'homme, puis aux modèles basés sur les données et maintenant aux instructions en langage naturel. C'est logique ?
Laissez-moi simplement brosser le tableau pour tous ceux qui ne viennent pas de la programmation mais qui ont peut-être vu du code. Dans le Logiciel 1.0, le code ressemblait à un script avec des définitions de fonctions et des structures de données. Dans la version 2.0, si vous regardiez le code, il commençait à introduire beaucoup de tableaux car vous deviez intégrer ces poids. Ce qui se passe dans la version 3.0, c'est que vous commencez à voir du code avec de grandes instructions en anglais. C'est un changement majeur. Programmer en anglais est une chose fascinante. Commençons à décortiquer cette version 3.0 et c'est là que ça va devenir une conversation technique amusante.
LLMs as the New Operating System
Pensez aux grands modèles de langage comme au nouveau système d'exploitation. Un changement d'infrastructure est en cours. Karpathy observe que ces LLM ont simultanément les propriétés de services publics, d'usines de fabrication et de systèmes d'exploitation. Andrew Yang a déclaré il y a quelques années que l'IA allait être comme l'électricité ; elle devient un service public. L'IA alimente tout ce que nous faisons, tout comme l'électricité. Nous voyons cela se produire en ce moment. Vous pouvez acheter des jetons (« tokens ») essentiellement auprès de fournisseurs de services. Ils se banalisent et vous pouvez passer d'un fournisseur à un autre selon vos charges de travail. Cela devient un service public. Il y a des investissements massifs en capital, comme la construction d'un réseau électrique. Seules quelques entreprises auront cet accès mesuré où vous payez au jeton. C'est une haute disponibilité et fiable. Quand ils tombent, le monde entier s'arrête parce que tout le monde panique.
Pour reconstruire l'analogie, je viens d'allumer la lumière. C'est moi qui fais un « prompt » en ce moment : « comment cuisiner un riz au lait quand j'ai ces ingrédients » et ChatGPT me donne la réponse. Ce qui se passe en coulisses, c'est que l'infrastructure, les services publics, c'est ce laboratoire de pointe qui a mis d'énormes ressources pour construire son infrastructure et a collaboré avec des partenaires pour le cloud computing, l'entraînement, les données et les usines.
En plus des services publics, l'autre chose à laquelle vous pouvez penser sont les usines de fabrication. Il y a des exigences de capital énormes pour entraîner ces modèles. Il y a des secrets techniques et de R&D profonds, des tailles de modèles et des capacités. Ces LLM et cette infrastructure deviennent un LLM. Mais la partie la plus intéressante est le système d'exploitation. Le grand modèle de langage en tant que système d'exploitation redéfinit une plateforme informatique entière. Le LLM est le processeur (CPU), la fenêtre de contexte est la RAM ou la mémoire, et les applications tournent sur différents systèmes d'exploitation LLM comme ChatGPT, Claude ou Gemini. Vous avez les sources fermées et les sources ouvertes. Karpathy a dit qu'actuellement nous sommes dans l'ère informatique des années 1960 parce que tout est très centralisé. Nous ne pouvons pas faire tourner ces choses localement. Les mainframes étaient chers et centralisés et maintenant nous nous connectons tous avec nos terminaux. L'informatique LLM personnelle n'est pas encore arrivée. C'est intéressant quand on y pense de cette façon, comme le Mac ou votre iPhone. Ce n'est pas encore là parce que nous nous connectons toujours pour obtenir cette intelligence auprès des grands fournisseurs. Nous refaisons toute la révolution informatique, mais l'intelligence est l'abstraction primaire plutôt que simplement le calcul. Ce qui manque, c'est la partie interface graphique (GUI). Apple a révolutionné l'interface graphique.
L'interface graphique utilisateur. Le double-clic, le cliquer-glisser, cette expérience avec laquelle nous traitons aujourd'hui a révolutionné l'informatique personnelle. Elle a émergé d'un passage d'un terminal à invite de commande. J'utilisais un IBM 286. J'allais dans le monde des commandes, l'invite, et j'utilisais DOS pour donner des instructions et exécuter le code. C'est une technologie des années 1980. Être dans les années 60, c'est l'époque où il y avait des cartes perforées. Pour en revenir à l'interface graphique, ce que vous venez de dire est fascinant. Il y a des systèmes qui ressemblent à une évolution, mais l'interface graphique est actuellement l'une des plus grandes choses qui n'existe pas et nous ne la voyons pas encore venir.
The Interface of Intelligence
Exactement. Si les LLM sont le nouveau paradigme informatique et que nous considérons l'intelligence comme un nouveau paradigme informatique, nous sommes toujours dans la phase terminale. On a l'impression qu'il n'y a pas d'interface graphique pour ce nouveau paradigme. Peut-être que la voix le deviendra plus tard, mais pour l'instant, nous sommes exactement dans ce dont vous parlez : juste un terminal en ligne de commande. L'interface graphique pour l'intelligence n'a pas encore été inventée et nous n'en sommes qu'aux débuts. C'était intéressant qu'il le décrive ainsi parce que pour beaucoup d'entre nous, nous pensons qu'il y a tellement d'intelligence et que toutes ces choses se passent, mais si l'on regarde l'histoire de l'informatique, nous sommes très précoces.
Une remarque sur l'interface graphique. Pensez-vous que nous allons sauter complètement cette phase pour passer directement à la voix ? J'ai du mal à voir comment nous interagirons avec le cliquer-déposer comme l'informatique en avait besoin. Je pense que nous allons vers la voix et ce sera une interface utilisateur totalement différente, plus proche d'une interface humaine.
La raison pour laquelle les interfaces graphiques sont si importantes est que nos cerveaux sont doués pour interpréter visuellement des informations à large bande passante. Actuellement, les LLM sont mauvais avec le monde physique car ils ne peuvent pas traiter autant d'informations, alors que notre traitement visuel est loin devant tout le reste. Visuellement, nous pouvons absorber beaucoup plus d'informations. La voix est importante, mais visuellement nous absorbons davantage. Si nous avons des éléments sur lesquels cliquer qui représentent le monde physique avec une localisation, une profondeur, des formes et des tailles, il y a tellement d'informations qui peuvent être encodées. C'est pourquoi les interfaces graphiques sont importantes. La réponse est que je pense que nous n'allons pas passer uniquement à la voix car il y a un sentiment de découvrabilité qui n'est pas présent avec la voix. Nous allons avoir un hybride. J'ai l'impression que nous aurons toujours cette approche multimodale ambiante dans notre interaction, c'est juste que le texte semble très lent pour l'instant.
Characteristics of Software 3.0 Applications
Intéressant. Où la réflexion de Karpathy mène-t-elle la superintelligence ? Cela va être construit pour une IA qui accomplit des choses que les humains ne sont pas intéressés à faire ou ne sont pas doués pour faire. Comment tout cela est-il assemblé ?
C'est intéressant. Il appelle ces LLM les « esprits de personnes ». Il a un cadre où il les nomme ainsi.
C'est lui qui a inventé le terme « vibe coding ». Il est fantastique pour étiqueter ces choses et leur donner de l'adhérence. Esprit numérique. Vous m'avez eu avec le mot « esprit ».
Il appelle les LLM des simulations stochastiques de personnes.
Cela signifie aléatoire. Pourquoi ai-je l'impression de vous traduire aujourd'hui ? Tout ce que vous dites, je me dis : « c'est génial ». Continuez.
Stochastique signifie que c'est probabiliste. Il y a du bruit et on n'obtient pas toujours la même chose.
Ce bon vieux Wiener.
Ils ont des superpouvoirs. Ils se souviennent de tout et peuvent traiter instantanément de grandes quantités d'informations. C'est comme avoir Rain Man avec accès à toutes les connaissances humaines.
Bien sûr. Il se rappelle de tout, lit l'annuaire et se souvient de chaque numéro. Il a la mémoire et sait comment l'extraire et la mettre en contexte.
Il y a aussi les hallucinations. Ils ont ce qu'ils appellent une intelligence dentelée. Ils sont surhumains pour certaines tâches mais mauvais pour d'autres. Pensez à la façon dont vous demandez à un LLM ce qui est le plus grand entre 9,11 ou 9,9, et la réponse qu'il donne est 9,11. Un humain comprend que 9,9 est plus grand. Il n'y a pas de mémoire à long terme ou d'apprentissage pour ces LLM, donc la fenêtre de contexte n'est que la fenêtre de travail. J'utilise l'analogie du film « Amour et Amnésie » ; tout est effacé. Ils se réveillent frais à chaque conversation, ce qui change fondamentalement la façon dont nous concevons les systèmes autour d'eux. S'il n'y a pas de mémoire, comment concevoir des systèmes ? Ils ne peuvent pas apprendre de nouvelles choses. Nous devons construire des applications qui tiennent compte à la fois des capacités surhumaines et des limitations humaines. C'est difficile pour les développeurs formés classiquement à cause des résultats imprévisibles. Karpathy explique que même si nous avons cette intelligence, nous devons tenir compte de la puissance et des limites. Il va y avoir une échelle mobile dans la manière de construire les systèmes. Il dit que lors de la création d'applications Logiciel 3.0, il y a quatre caractéristiques clés. La première est la gestion du contexte et de la mémoire. La deuxième est l'orchestration multi-LLM pour différentes tâches en coulisses. La troisième est l'interface graphique spécifique à l'application. La quatrième est le curseur d'autonomie : quelle autonomie voulez-vous donner à l'IA par rapport au contrôle que vous voulez garder ? Il cite Cursor comme un agent de codage qui gère le contexte, l'orchestration et des interfaces spécifiques. Vous pouvez avoir des complétions par tabulation ou de l'édition de fichiers, ou d'un autre côté, vous pouvez demander à Cursor d'écrire tout un référentiel de modifications.
The Decade of Agents and Vibe Coding
La partie qui est intéressante pour moi est le curseur d'autonomie où vous donnez une autonomie partielle ou totale à un LLM. Cette idée du contexte, de la multi-orchestration et des composants visuels de l'interface graphique, c'est ce que vous dites : allez-y à fond ou restez dans vos limites.
Il s'agit des agents. Il parle des agents comme des blocs de construction. Il dit que les agents sont vraiment surestimés en ce moment ; ce n'est pas l'année des agents, c'est la décennie des agents car les agents vont évoluer au cours de cette décennie. Vous avez ce curseur d'autonomie. Le curseur part de très bas à très haut. La meilleure analogie est l'armure d'Iron Man. L'armure d'Iron Man est une augmentation pour rendre Tony surhumain. Mais d'un autre côté, elle peut aussi être autonome. Jarvis peut travailler aux côtés de Tony, mais il y a une échelle mobile. Cette idée de l'humain dans la boucle devient vraiment intéressante. Nous voulons des outils qui rendent les humains surhumains, pas des outils qui les remplacent. C'est pourquoi il dit que les agents sont surestimés ; tout le monde parle des agents remplaçant les humains immédiatement, mais nous n'y sommes pas encore. Il y aura beaucoup à construire au cours de la prochaine décennie. Cela m'excite car même si tout va vite, tellement de logiciels doivent être reconstruits. Il a donné l'exemple de l'autopilote de Tesla. Il a passé cinq ans à construire les capacités de conduite autonome et a dit qu'il y a 10 ans, il est monté dans une Waymo et a pensé que la conduite autonome était arrivée. Une décennie plus tard, nous n'y sommes pas encore tout à fait. Nous surestimons la rapidité de cette transition.
2025 est l'année des agents : pensée dangereuse. C'est la décennie des agents : plus réaliste. C'est une perspective rafraîchissante sur les progrès que nous avons accomplis. Je sais que 2025 est l'année des agents en termes d'autonomie partielle. L'autonomie complète est là où la décennie des agents est plus réaliste. Quel est votre sentiment là-dessus ?
Je suis plutôt d'accord mais cela dépend des types d'applications. Les agents vont affecter différentes parties de nos flux de travail. L'envoi de communications aux étudiants va être autonome. Vous pouvez faire confiance à l'IA et fournir quelques conseils. Différents systèmes auront différents niveaux d'autonomie. Les applications Logiciel 3.0 vont avoir ce curseur. Les développeurs doivent s'habituer à programmer dans ce nouveau paradigme et à guider ces « esprits de personnes ». L'aspect le plus sans précédent du Logiciel 3.0 est qu'il utilise le langage naturel. N'importe qui peut désormais communiquer et les programmer. Les deux vagues précédentes nécessitaient une expertise technique, mais maintenant le langage de programmation est l'anglais. Karpathy a inventé le mot « vibe coding ». La révolution de la démocratisation de l'accès est là.
La courbe d'apprentissage pour le logiciel traditionnel a pris des années pour être compétent. Je pense qu'un changement de paradigme de programmation utilisant l'anglais est très intéressant et c'est là qu'on voit des enfants le faire. Avez-vous vu des enfants faire du « vibe coding » ?
En fait, j'ai vu des vidéos que Karpathy a montrées d'enfants faisant du « vibe coding » et construisant des choses. C'était une classe d'enfants de sept ans.
C'est très intéressant. J'ai parlé à mes enfants des téléphones et de l'IA. Démocratiser le codage à cet âge précoce est fascinant.
Petite histoire : la semaine dernière à Engage, j'ai fait une présentation sur le « vibe coding ». Les gens ont fait des retours sympas. Peter disait : « Je ne vais pas faire de vibe coding, je suis un développeur sérieux », alors je l'ai fait. Nous avons utilisé Lovable dans le cadre de cette présentation. J'ai reçu un message d'un DSI qui disait avoir adoré Lovable. Il avait deux heures le matin et a concocté un prototype que le recteur avait demandé. Il a dit qu'il n'aurait pas eu les ressources pour le faire autrement et que cela aurait pris des mois pour embaucher un consultant. Le Logiciel 3.0 donne accès à beaucoup de gens. Ce n'est pas parfait et vous avez besoin de sécurité, mais cela va dans la bonne direction.
Infrastructure for an AI-First World
Le point essentiel est ce changement de paradigme où l'IA prend une place de choix. Ce sont les fruits à portée de main. Les infrastructures traditionnelles ont été conçues pour que l'humain clique. C'est de là que le « vibe coding » commence à puiser.
L'opportunité d'infrastructure pour construire pour ces agents et ce nouveau paradigme du Logiciel 3.0. Nous avons maintenant trois types de consommateurs d'informations numériques : les humains qui utilisent des interfaces graphiques, les applications qui utilisent des API et les agents IA. Une chose qui est devenue populaire est un fichier LLM.txt pour votre site web. Les LLM ne sont pas très doués pour le « cliquer ici ». Ils comprennent le texte, nous devons donc construire une infrastructure faite pour ces agents. Il vaut la peine d'optimiser ces interfaces pour la consommation par l'IA. Nous voyons déjà la transformation du comportement des consommateurs à travers les résumés Google. Nous parlerons davantage de la façon dont le monde du contenu fait face à ce changement de paradigme majeur. Nous avons parlé du MCP comme protocole pour que ces agents extraient des informations de différents systèmes. Cela se passe en ce moment même. Passons maintenant aux implications pour l'éducation et l'entrepreneuriat.
Implications for Education
Commençons par l'éducation étant donné notre public.
L'éducation actuelle suppose une rareté de l'information et des outils. Le Logiciel 3.0 crée une abondance des deux.
C'est l'exemple de Gordon State. Accès et prolifération du travail.
Karpathy construit actuellement des systèmes éducatifs.
C'est son entreprise, n'est-ce pas ?
Oui. Le cadre éducatif qu'il propose maintient l'étudiant séparé de l'enseignant, mais ils travaillent sur le même programme auditable. Il se demande comment garder l'IA sous contrôle avec des parcours d'apprentissage structurés, mais avec une boucle de collaboration humain-IA. Cela a beaucoup de sens pour construire des systèmes d'apprentissage dans le Logiciel 3.0.
Laisser l'IA s'occuper de la diffusion des connaissances est intelligent. Laisser les humains se charger de l'accompagnement et de l'empathie est préférable. Cette collaboration de co-intelligence dans l'apprentissage est la clé.
Ensuite, il y a le changement de compétences. Avant, il fallait apprendre la syntaxe. Maintenant, il s'agit d'ingénierie de prompt ou de contexte. On passe de la mémorisation d'algorithmes à la compréhension du moment où les appliquer et comment connecter les systèmes. On passe du débogage de code au débogage du raisonnement de l'IA. Cette opportunité est intéressante.
J'utilisais une analogie avec un membre de ma famille sur le raisonnement de l'IA. C'est similaire à la façon dont les avocats sont formés à la logique pour défendre des arguments. Les développeurs de logiciels seront formés à la logique de l'IA pour comprendre comment les décisions sont prises. C'est là que réside la mise à l'échelle de ces connaissances.
Entrepreneurship and the Future of SaaS
Chaque application peut devenir partiellement autonome. Le logiciel doit être reconstruit pour ce nouveau système d'exploitation. L'écosystème d'outils a besoin d'une refonte pour la pile 3.0. Il existe des opportunités de migration du côté des logiciels et des systèmes à mesure que les organisations apportent de la valeur via cette nouvelle infrastructure d'intelligence.
Je me souviens de la transition quand le big data est apparu. Des entreprises valant des milliards de dollars ont émergé de la tuyauterie. Nous parlons de la même chose avec l'entrepreneuriat. Des milliards de dollars émergeront pour que vous puissiez déplacer votre pile vers cette pile 3.0 qui est nativement IA.
Il y a aussi des enjeux d'infrastructure. À quoi ressemble une authentification ou un paiement prioritairement IA ? À quoi ressemblent les outils de débogage visuel pour les applications LLM ? Les plateformes de gestion de données et d'orchestration sont passionnantes. C'est ce qu'Element construit. À mesure que les flux de travail deviennent agentiques, la construction de l'orchestration est importante.
Quand on pense « agentic », on ne veut pas seulement qu'un agent gère vos e-mails. Vous voulez cent agents pour faire cent variations et un autre agent pour choisir le contenu le plus performant. Cette orchestration est un jeu fascinant.
Dans Avengers, Doctor Strange regarde des millions de futurs et un seul où ils gagnent. Vous aurez des centaines d'agents construisant en parallèle et ensuite vous choisirez le meilleur.
Aux yeux de l'IA, je pourrais concevoir un billion de versions qui vous inciteraient à cliquer sur un lien. Je veux en personnaliser une parmi toutes les permutations. Qu'en est-il du SaaS traditionnel ? Cela s'applique également à des entreprises comme Element ou n'importe qui dans l'EdTech.
Il va y avoir une transition. Comment moderniser les choses pour qu'elles soient plus autonomes ? Ces LLM peuvent-ils voir tout ce qu'un utilisateur humain peut voir ? Les LLM peuvent-ils entreprendre toutes les actions qu'un humain peut entreprendre ? Il va y avoir un fossé dans le passage du SaaS traditionnel dans cette direction. Comment les humains supervisent-ils ? Ce sont des opportunités de modernisation. Les interfaces actuelles sont conçues pour le clic humain ; nous devons concevoir des interfaces pour les agents. Nous avons besoin d'équivalents accessibles à l'IA pour chaque action. Nous commençons à envisager le MCP comme une interface, mais même le MCP montre des failles quand on y fourre 50 outils. Nous devons construire cela. Le logiciel traditionnel doit faire la transition pour être prêt pour les agents, sinon il sera délogé par le logiciel prioritairement IA. De grandes perturbations arrivent pour le SaaS traditionnel.
Adopting the Software 3.0 Paradigm
La refonte de l'informatique et cette diffusion technologique sont à nos portes. Karpathy nous place dans les années 1960. Cela ne veut pas dire que nous avons 50 ans de retard ; cela pourrait arriver en très peu de temps. Comment commencer à adopter ce changement de paradigme ? Comment devenir compatible 3.0 ?
Pour les développeurs, vous devez apprendre les trois paradigmes. Ils doivent coexister dans un futur proche. Vous devez commencer à intégrer une autonomie partielle dans les applications existantes. Concentrez-vous sur la boucle génération-vérification pour rendre la surveillance humaine rapide et facile. Vous devez faciliter l'approbation des actions par les humains. Expérimentez avec des interfaces prioritairement conçues pour les agents. Pour les entrepreneurs, identifiez les opportunités de migration de 1.0 vers 3.0. Construisez l'infrastructure pour la pile. Concevez avec le curseur d'autonomie à l'esprit afin que les utilisateurs contrôlent l'implication de l'IA pour accélérer l'adoption. Rappelez-vous le principe de l'armure d'Iron Man : augmenter l'humain. Pour nous tous, commencez simplement le « vibe coding ». Tout le monde est désormais programmeur.
Apprenez à aimer Lovable ou Cursor ou n'importe quelle application.
C'est une transition d'une décennie, pas seulement un cycle de battage médiatique. Concentrez-vous sur les compétences de collaboration humain-IA. Apprenez à mieux prompter et à faire de l'ingénierie de contexte. Cela devient une partie de votre identité et du futur du travail. Nous allons en avoir de plus en plus besoin. C'est un moment 3.0. Commencez, tout simplement.
Karpathy a dit : « Nous devons réécrire une tonne de code. Nous allons déplacer le curseur de la gauche vers la droite. » Nous sommes en plein dedans. Je suis excité d'être du voyage. C'est la première fois en tant que leader que je vis une révolution, alors je surfe sur cette vague.
J'espère que cela vous a été utile. L'ère du Logiciel 3.0 a besoin de bâtisseurs, de penseurs et de créateurs, et ce public correspond parfaitement. Nous apporterons davantage de ces idées dans les prochains épisodes. À la prochaine.