21/01/2025
Caractéristiques

L’IA a fait des pas de géant en 2024, avec l’arrivée de l’AGI


L’intelligence artificielle a connu une année record en 2024. Cette technologie de pointe a remporté des prix, attiré les investisseurs, charmé Wall Street et montré qu’elle pouvait raisonner mathématiquement – même expliquer les équations différentielles.

Cela a également attiré l’attention des régulateurs mondiaux, préoccupés par les risques liés à la vie privée et à la sécurité. D’autres craignaient que l’IA puisse bientôt évoluer vers l’intelligence artificielle générale (AGI), puis vers la superintelligence artificielle – dépassant capacités cognitives humaines. Des scénarios catastrophiques ont été posés et discutés : bioterrorisme, systèmes d’armes autonomes et même événements « au niveau de l’extinction ».

Voici 10 des faits saillants de l’IA en 2024.

La GenAI n°1 domine

L’intelligence artificielle générative (GenAI), un sous-ensemble de l’IA, est capable de créer quelque chose à partir de rien (enfin, en dehors de ses volumineuses données d’entraînement). Invitez-le avec une ligne de texte, par exemple, et il peut générer une histoire de fantômes de 500 mots.

GenAI a occupé le devant de la scène en 2024. Et il n’y avait pas que ChatGPT, le chatbot basé sur l’IA développé par OpenAI. Les séries Gemini de Google, Copilot de Microsoft, Claude d’Anthropic et Meta’ Llama 3 ont également contribué à repousser les limites, en développant des logiciels capables de lire et de générer non seulement du texte, mais également de l’audio, de la vidéo et des images.

Les laboratoires d’IA ont dépensé librement pour alimenter ces avancées. Les dépenses en IA ont grimpé à 13,8 milliards de dollars en 2024, soit plus de six fois le montant déboursé en 2023. selon Menlo Ventures« un signal clair que les entreprises passent de l’expérimentation à l’exécution, intégrant l’IA au cœur de leurs stratégies commerciales. »

#2 L’IA remporte les prix Nobel de physique et de chimie

Une preuve supplémentaire que l’IA est là pour rester a été fournie en octobre lorsque le Académie royale des sciences de Suède a annoncé les prix Nobel 2024. Geoffrey Hinton et John Hopfield ont remporté le prix de physique « pour les découvertes et inventions fondamentales qui permettent l’apprentissage automatique avec des réseaux de neurones artificiels ». Les réseaux de neurones constituent une technologie centrale dans l’IA d’aujourd’hui.

Hinton, un informaticien et psychologue cognitif anglo-canadien – c’est-à-dire, pas un physicien — a on l’appelle souvent le « parrain de l’IA ». Ses travaux novateurs sur les réseaux neuronaux remontent aux années 1980, lorsqu’il utilisé des outils de physique statistique comme une machine Boltzmann pour faire progresser l’apprentissage automatique.

Ailleurs, Demis Hassabis – co-fondateur et PDG de Google DeepMind – et John Jumper ont reçu le prix Nobel de chimie pour développer un modèle d’intelligence artificielle capable de prédire les structures complexes des protéines.

Le Canada remporte le prix Nobel pour ses travaux sur l’IA. Source: Justin Trudeau

#3 Nvidia dépasse Apple en tant qu’entreprise la plus valorisée au monde

Il faut un type spécial de puce informatique pour former et exécuter les énormes modèles de langage (LLM) qui étaient si dominants en 2024, et le fabricant de puces Nvidia a produit plus de ces unités de traitement graphique spéciales, ou GPU, que n’importe quelle entreprise au monde.

Il n’est donc pas surprenant que Nvidia soit également devenue l’entreprise la plus valorisée au monde en 2024, atteignant 3,53 billions de dollars de capitalisation boursière fin octobre, éclipsant les 3,52 billions de dollars d’Apple.

« De plus en plus d’entreprises adoptent désormais l’intelligence artificielle dans leurs tâches quotidiennes et la demande reste forte pour les puces Nvidia. » commenté Russ Mould, directeur des investissements chez AJ Bell.

Nvidia conservera-t-il sa domination manufacturière en 2025 et au-delà ? Les GPU Blackwell, très attendus de Nvidia, dont le lancement est prévu au 4ème trimestre, ont été retardés à cause de défauts de conception semble-t-il, mais étant donné l’énorme avance de Nvidia dans le domaine des GPU – il contrôlait 98 % du marché en 2023 – peu de gens s’attendent à ce qu’il soit bientôt dépassé.

En rapport: ai16z réfléchit au remaniement de la tokenomics et au lancement de la L1

#4 Législation sur l’IA dans l’UE

Tout le monde souhaite une intelligence artificielle sûre, sécurisée et bénéfique pour la société dans son ensemble, mais adopter des lois et mettre en œuvre des règles pour garantir une IA responsable n’est pas une tâche facile. Pourtant, en 2024, les autorités réglementaires mondiales ont fait quelques premiers pas.

La loi sur l’intelligence artificielle de l’Union européenne est entrée en vigueur en août, introduisant des garanties pour les systèmes d’IA à usage général et répondant à certains problèmes de confidentialité. La loi fixe des règles strictes sur l’utilisation de l’IA pour la reconnaissance faciale, par exemple, mais elle cherche également à faire face à des risques plus larges tels que l’automatisation des tâches, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La législation sera mise en œuvre par étapes, s’étendant jusqu’en 2027.

Réglementer l’IA ne sera cependant pas facile, comme la Californie l’a découvert en 2024 avec son projet de loi SB 1047 qui a été écarté (avec veto) par le gouverneur de l’État en septembre. Décrit comme le « l’effort le plus radical jamais réalisé pour réglementer l’intelligence artificielle » Le SB 1047 bénéficiait du soutien de certains partisans de l’IA comme Geoffrey Hinton et Elon Musk, qui affirmaient qu’il fournissait des garde-fous indispensables à cette technologie en évolution rapide.

Mais c’est aussi suscité des critiques d’autres technologues, comme Andrew Ng, fondateur de DeepLearning.AI, car cela imposait une responsabilité aux développeurs d’IA, ce qui pourrait sans doute étouffer l’innovation.

#5 Émergence des petits modèles de langage (SLM)

Des modèles d’IA extrêmement volumineux formés sur des milliards de points de données est devenu monnaie courante en 2024. ChatGPT a été formé sur 570 gigaoctets de données textuelles récupérées sur Internet, soit environ 300 milliards de mots, par exemple.

Mais pour de nombreuses entreprises, l’avenir de l’IA réside dans des modèles linguistiques plus petits et spécifiques à un secteur, dont certains ont commencé à émerger en 2024.

En avril, Microsoft a déployé ses petits modèles de langage Phi-3tandis qu’Apple a présenté huit petits modèles linguistiques pour ses appareils portables. Microsoft et Khan Academy utilisent désormais les SLM pour améliorer le tutorat en mathématiques des étudiants, par exemple.

« Il y a beaucoup plus de calcul disponible à la périphérie, car les modèles deviennent plus petits pour des charges de travail spécifiques, [and] vous pouvez en fait en tirer beaucoup plus d’avantages », a expliqué Yorke Rhodes, directeur de la transformation numérique, de la blockchain et de la chaîne d’approvisionnement cloud chez Microsoft, lors d’une conférence en mai.

Les SLM nécessitent moins de données de formation et de puissance de calcul pour être développés et exécutés, et leurs capacités « commencent vraiment à se rapprocher de certains des grands modèles de langage », a-t-il ajouté.

#6 L’IA agentique passe au premier plan

Les chatbots comme ChatGPT ont pour objectif de poser des questions et de recevoir des réponses sur un large éventail de sujets, bien qu’ils puissent également écrire le code d’un logicielrédigez des e-mails, générez des rapports et même écrivez de la poésie.

Mais les agents IA vont bien au-delà des chatbots et peuvent réellement prendre des décisions pour les utilisateurs, leur permettant ainsi d’atteindre des objectifs spécifiques. Dans le secteur de la santé, un agent IA pourrait être utilisé pour surveiller les données des patientsen faisant des recommandations le cas échéant pour modifier un traitement spécifique, par exemple.

Caractéristiques

Luna est un agent IA construit sur Virtuals. Source: X

Pour l’avenir, le cabinet de conseil en technologie Gartner nommé Agentic AI comme l’une de ses « principales tendances technologiques stratégiques pour 2025 ». En effet, d’ici 2028, près d’un tiers des applications logicielles d’entreprise incluront l’IA agentique, l’entreprise prédits, contre moins de 1 % en 2024.

Les agents d’IA pourraient même être utilisés pour rédiger des contrats intelligents basés sur la blockchain (techniquement, ils peuvent déjà le faire, mais les risques d’un bug errant et d’une perte de fonds sont actuellement trop élevés). Le projet Blockchain Avalanche a déjà commencé à construire une nouvelle machine virtuelle à l’intersection de l’IA et des blockchains pour le faire dans un langage naturel. « Vous écrivez votre [smart contract] programmes en anglais, allemand, français, tagalog, chinois […] une langue naturelle que votre mère vous a enseignée dans sa langue maternelle », a déclaré Emin Gün Sirer, fondateur d’Ava Labs.

La programmation de contrats intelligents telle qu’elle existe aujourd’hui est très difficile, donc un agent d’IA facile à utiliser pourrait potentiellement apporter « des milliards de nouveaux contrats ». [blockchain] utilisateurs », a prédit Sirer.

#7 Modèles de raisonnement pour résoudre des « problèmes difficiles »

Les chatbots ont d’autres limites. Ils peuvent par exemple avoir du mal à résoudre des problèmes mathématiques simples et des tâches de codage de logiciels. Ils ne sont pas doués pour répondre aux questions scientifiques.

OpenAI a cherché à remédier au problème en septembre avec la sortie d’OpenAI o1, une nouvelle série de modèles de raisonnement »pour résoudre des problèmes difficiles», comme les équations différentielles. La réponse a été majoritairement positive.

« Enfin, un modèle d’IA capable de gérer tous les problèmes complexes de science, de codage et de mathématiques que je lui soumets toujours. » tweeté Kevin Roose, chroniqueur au New York Times.

Lors des tests, o1 a obtenu des résultats aussi bons que les 500 meilleurs étudiants des États-Unis lors d’une qualification pour l’Olympiade de mathématiques des États-Unis, par exemple, et a dépassé la précision du niveau de doctorat humain sur une référence de problèmes de physique, de biologie et de chimie, OpenAI. signalé.

#8 Se concentrer sur l’AGI

Pourquoi les progrès dans la résolution structurée de problèmes, tels que décrits ci-dessus, sont-ils importants ? Ils rapprochent progressivement l’IA de fournir une intelligence de type humainc’est-à-dire l’intelligence générale artificielle, ou AGI.

Les modèles o3 d’OpenAI, sortis juste avant Noël, ont obtenu des résultats encore meilleurs que o1, notamment aux tests de mathématiques et de codage, tandis que d’autres projets comme Gémeaux 2.0 de Google a également progressé en 2024 dans la résolution structurée de problèmes, c’est-à-dire la décomposition de tâches complexes en étapes gérables.

Cependant, l’AGI reste encore un objectif lointain aux yeux de nombreux experts. Les modèles avancés d’aujourd’hui manquent encore d’une compréhension intuitive des concepts physiques comme la gravité ou la causalité, par exemple. Les algorithmes d’IA actuels ne peuvent pas non plus réfléchir seuls aux questions, ni savoir si et quand les scénarios prennent une tournure inattendue.

Dans l’ensemble, « AGI est un voyage, pas une destination – et nous n’en sommes qu’au début », Brian Hopkins, vice-président des technologies émergentes du cabinet de conseil Forrester, déclaré récemment.

#9 Signes d’une pénurie imminente de données de formation

Il ne fait aucun doute que 2024 a été une année passionnante pour les développeurs et les utilisateurs de l’IA, et rares sont ceux qui s’attendent à ce que l’innovation en matière d’IA s’apaise de sitôt. Mais il y a également eu des suggestions en 2024 selon lesquelles la sous-époque LLM de l’IA aurait peut-être déjà atteint son apogée.

La raison en est une pénurie imminente de données. Des entreprises comme OpenAI et Google pourraient bientôt manquer de données, élément vital de l’IA, utilisées pour « former » des systèmes d’intelligence artificielle massifs.

Après tout, seule une quantité limitée de données peut être récupérée sur Internet. De plus, les développeurs LLM découvrent qu’ils ne peuvent pas toujours collecter des données accessibles au public en toute impunité. Le New York Times, pour sa part, a a poursuivi OpenAI pour violation du droit d’auteur en ce qui concerne son contenu d’actualité. Il est peu probable qu’elle soit la seule grande agence de presse à recourir aux tribunaux.

« Tout le monde dans l’industrie voit des rendements décroissants » dit Demis Hassabis de Google.

Une solution pourrait consister à former des algorithmes à l’aide de données synthétiques, c’est-à-dire des données générées artificiellement qui imitent les données du monde réel. Le LLM Claude 3 du développeur d’IA Anthropic, par exemple, a été formés, au moins en partie, sur des données synthétiquesc’est-à-dire « les données que nous générons en interne », selon l’entreprise.

Même si le terme « données synthétiques » peut sembler un oxymore, les scientifiques, y compris certains experts médicaux, affirment créer de nouvelles données à partir de zéro est prometteur. Il pourrait par exemple soutenir l’IA médicale en remplissant des ensembles de données incomplets, ce qui pourrait contribuer à éliminer les préjugés à l’égard de certains groupes ethniques, par exemple.

Caractéristiques

Anthropic essaie d’ouvrir la voie en matière d’IA éthique. Source : Anthropique

#10 Émergence d’une IA plus éthique

Fait intéressant, anthropique explique en détail comment il obtient ses données de formation dans l’article référencé ci-dessus. Il convient de noter en particulier qu’il exploite son système d’exploration de sites Web de manière « transparente », ce qui signifie que les fournisseurs de contenu de sites Web – comme le New York Times, vraisemblablement – ​​« peuvent facilement identifier les visites d’Anthropic et signaler leurs préférences à Anthropic ».

L’entreprise a déployé des efforts considérables pour empêcher toute utilisation abusive de sa technologie, créant même un responsable du mesuragedont le champ d’application a été élargi en 2024 dans le but de créer une IA « sûre ». Les efforts de l’entreprise ne sont pas passés inaperçus. Le magazine Time l’a classée parmi les 100 entreprises les plus influentes en 2024, le vantant en tant que « société d’IA pariant que la sécurité peut être une stratégie gagnante ».

Compte tenu de la dérive du développement de l’IA en 2024 et des inquiétudes du public concernant les risques catastrophiques potentiels liés à ces nouveaux systèmes frontières, il semble tout à fait probable qu’un plus grand nombre de développeurs adoptent bientôt une IA plus transparente et plus responsable.

Revue: Story Protocol aide les créateurs de propriété intellectuelle à survivre aux assauts de l’IA… et à être payés en crypto