Comment intégrer l’API de ChatGPT ? Guide complet de A à Z

Robot analysant des données

ChatGPT…

À part si vous vivez en autarcie sur une île reculée, vous avez sans doute entendu parler de cette IA. Polyvalente, puissante et facile à utiliser, elle attise les intérêts des départements informatiques et innovation des entreprises.

Et justement, aujourd’hui, nous allons vous montrer comment utiliser l’API de CHatGPT pour l’intégrer à votre application ?

Allons-y.

Sommaire

5+1 étapes pour intégrer ChatGPT au sein de votre application web/mobile

Étape 1 : quel modèle GPT allez-vous choisir ?

GPT-4

Les avantages de GPT-4 face à GPT-3.5 turbo

Les inconvénients de GPT 4 comparé à GPT-3.5 turbo

GPT-3.5

GPT-3.5 Turbo

Les avantages de GPT-3.5 Turbo par rapport à Text-Davinci-003

Les inconvénients de GPT-3.5 par rapport à Text-Davinci-003

Text-Davinci-003

Les avantages de Text-Davinci-003 par rapport à GPT-3.5

Les inconvénients de Text-Davinci-003 comparé à GPT-3.5

Text-Davinci-003 vs GPT-3.5 : lequel choisir ?

Étape 2 : Obtenez votre clé API chez Open AI

Comment récupérer votre clé API chez OpenAI ?

Combien coûtent les différentes clés d’accès à l’API d’Open AI ?

3 – Installez le client de l’API sur votre serveur

4 – Authentifiez-vous grâce à votre clé API

5 – Dialoguez avec ChatGPT

Bonus : donnez une mémoire conversationnelle à votre ChatGPT maison

Pourquoi intégrer l’API de ChatGPT au sein de votre application mobile ou site web ?

Excepté pour l’excellent coup de communication que cela ferait à votre entreprise, intégrer ChatGPT à plusieurs avantages. Notamment :

  • l’amélioration de la qualité de l’expérience utilisateur de votre plateforme ;
  • l’augmentation de vos ventes (et donc de votre CA (émoji sourire) ;
  • l’amélioration de votre service client.

Bien sûr, on pourrait allonger la liste à l’infini, mais nous avons mieux à vous proposer : deux articles qui vous montrent comment augmenter la performance et la rentabilité de votre entreprise grâce à ChatGPT.

Cela vous intéresse ? Alors c’est par ici si vous souhaitez augmenter les ventes de votre marketplace grâce à l’intelligence artificielle. Et pour booster votre expérience-utilisateur, cliquez ici.

Maintenant que vous connaissez les avantages que vous pouvez tirer de l’algorithme phare d’OpenAI, entrons dans le vif du sujet.

5+1 étapes pour intégrer ChatGPT au sein de votre application web/mobile

Robot sortant d'un téléphone portable
Robot sortant d’un téléphone portable

Pour résumer, voici le parcours que vous devez suivre :

  1. choisir le modèle GPT qui conviendra le mieux à vos besoin ;
  2. récupérer votre clé API sur le site web de OpenAI ;
  3. installer votre client ChatGPT sur votre serveur ;
  4. vous authentifier grâce à votre clé API ;
  5. dialoguer avec ChatGPT via des lignes de codes.

Rassurez-vous, même si vous n’êtes pas un développeur d’application ou un génie de l’informatique, ces manipulations sont faciles.

C’est parti !

Étape 1 : quel modèle GPT allez-vous choisir ?

Derrière le nom ChatGPT, saviez-vous que se cachent plusieurs modèles de traitement de langage naturels ?

Vous trouverez ces modèles regroupés en « familles de modèles », et il y en a deux qui nous intéressent :

  • la famille « GPT 4 », qui correspond, vous l’aurez compris, à ChatGPT-4 ;
  • la famille « GPT-3.5 » dont le nom est suffisamment explicite.

Avant de vous présenter les différentes IA génératives d’OpenAI, sachez que nous n’avons sélectionné que celles qui bénéficieront de mises à jour régulières sur le long-terme. Pour découvrir tous les modèles GPT, rendez-vous sur la page officielle d’OpenAI.

GPT-4

GPT-4 regroupe les dernières itérations faites sur le modèle GPT. De plus, c’est aussi la seule de toutes ces IA qui soit capable de prendre des images en entrée.

Par conséquent, si vous comptez utiliser votre Chatbot carburant à l’IA sur des photos, optez pour cette IA.

Parmi la famille de modèles GPT-4, voici les deux entre lesquels vous devrez choisir :

  • GPT-4, qui est le modèle par défaut ;
  • GPT-4-32K, qui est identique au précédent, à l’exception qu’il gère un contexte 4 fois plus grand (32768 tokens vs 8192 tokens pour la version de base).

Finalement, la seule différence entre les deux modèles proposés dans cette famille réside dans la taille du contexte.

Ainsi, si vous prévoyez d’utiliser l’IA pour gérer de (très) longues conversations, optez pour l’API de GPT-4-32K.

Attention toutefois : les jetons de GPT-4-32k vous coûteront trois fois plus cher que ceux de GPT-4.

Les avantages de GPT-4 face à GPT-3.5 turbo
Les inconvénients de GPT 4 comparé à GPT-3.5 turbo
  • il est 10 à 30 fois plus cher que GPT-3.5 turbo ;
  • vous devez vous inscrire sur une liste d’attente donnant un accès prioritaire aux développeurs d’applications contribuant à l’amélioration de l’IA.

Maintenant, passons en revue l’autre alternative qui s’offre à vous : GPT-3.5

GPT-3.5

GPT-3.5 est la version à cheval entre ChatGPT 3 et ChatGPT 4. Elle est donc un bon équilibre entre performance, disponibilité et prix.

Cependant, ne vous laissez pas avoir par son nom : cette famille de modèles ne comporte pas du tout les mêmes que ChatGPT-3.

Ainsi, Ada, Curie et Babbage ne sont plus de la partie. Seul le modèle Instruct Davinci est encore présent.

Et justement, voici les modèles de langages disponibles dans la famille ChatGPT-3.5 :

  • GPT-3.5  Turbo ;
  • Text-Davinci-003.

À noter que contrairement à GPT-4, la taille de leurs contextes est de 4096 tokens tous deux.

GPT-3.5 Turbo

GPT-3.5 Turbo est le modèle par défaut de cette famille de modèle.

Honnêtement, vous pouvez tout faire avec, y compris les tâches prises en compte par le modèle Text-Davinci-003.

Mais alors pourquoi nous vous demandons de choisir entre les deux ? Pour des questions de performances.

Pas de panique, nous vous avons préparé un résumé des avantages et des inconvénients de ce modèle par rapport à son jumeau.

Les avantages de GPT-3.5 Turbo par rapport à Text-Davinci-003
  • il obtient de bien meilleures performances sur les tâches de classification zero-shot (la capacité du modèle à identifier et à traiter des catégories de données qu’il n’a jamais rencontrées) ;
  • corollaire du premier point, GPT-3.5 obtient de meilleurs scores sur les tâches d’analyse de sentiments ;
  • ses capacités de résolution des problèmes mathématiques sont supérieures à celles de Text-Davinci-003.
Les inconvénients de GPT-3.5 par rapport à Text-Davinci-003
  • il a tendance à produire des réponses trop longues lorsqu’un utilisateur lui pose une question -et vous ne voulez pas noyer vos clients sous une masse de texte et réduire à néant vos efforts d’optimisation du parcours client. N’est-ce pas 😉? ;
  • lorsque vous devrez faire une classification non-supervisée entre plusieurs classes, il va utiliser vos ressources de manière inefficace.

Après ce rapide aperçu de GPT-3.5, passons maintenant à Text-Davinci-003.

Text-Davinci-003
Leonard De Vinci regardant un écran d'ordinateur, image créé par Dalle-Bing
Leonard De Vinci regardant un écran d’ordinateur, image créé par Dalle-Bing

Si vous êtes en quête d’un algorithme d’IA ayant de très bonnes performances sur les tâches de traitement du langage naturel, alors il est fait pour vous.

Plus exactement, Text-Davinci-003 devance GPT-3.5 sur une tâche bien particulière : l’apprentissage non-supervisé K-Shot.

C’est la capacité du modèle à découvrir des relations entre les éléments à partir d’un jeu de données. Et contrairement à GPT-3.5 qui nécessite des jeux d’entraînements extrêmement étoffés, ce modèle n’a besoin que de quelques exemples.

Pour résumer.

Les avantages de Text-Davinci-003 par rapport à GPT-3.5
  • il est bien plus performant que GPT-3.5 lorsqu’il s’agit de trouver des relations entre les éléments d’une petite database ;
  • ses réponses aux prompts sont beaucoup plus courtes que celles fournies par GPT-3.5 turbo.
Les inconvénients de Text-Davinci-003 comparé à GPT-3.5
  • il est moins performant lorsqu’il s’agit d’analyser les sentiments de son interlocuteurs ;
  • ses réponses sont légèrement moins précises ;
  • il n’excelle pas sur les tâches nécessitant un raisonnement mathématiques.
Text-Davinci-003 vs GPT-3.5 : lequel choisir ?
Leonard De Vinci affrontant un robot
Leonard De Vinci affrontant un robot

Face à ces différences hautement techniques, vous vous demandez lequel des deux choisir ? Voici un petit guide :

  • Choisissez GPT-3.5 Turbo si vous voulez utiliser ChatGPT pour la création de contenu, la recherche scientifique ou la gestion de votre SAV et vos médias sociaux ;
  • Choisissez Text-Davinci-003 si vous comptez faire de la vision par ordinateur, de la conception de produit ou si vous êtes un professionnel de la cybersécurité.

Vous ne vous retrouvez pas dans l’une de ces catégories ? Nous pouvons vous aider à choisir le meilleur modèle GPT pour votre entreprise.

Une fois que vous aurez fait votre choix, place à l’étape suivante : obtenir l’accès à l’API d’OpenAI.

Étape 2 : Obtenez votre clé API chez Open AI

Une API, ou Application Programming Interface, est une interface de programmation qui vous permet d’utiliser un service tiers.

En une seule requête, vous avez accès à toutes les fonctionnalités de ChatGPT. Mais sachez que si vous souhaitez intégrer d’autres IA signées OpenAI – Whisper, DALL.E et Moderation -, vous pourrez utiliser la même clé.

Et si vous souhaitez personnaliser votre ChatGPT maison, vous avez deux options : faire du fine-tuning et/ou demander à votre chef de projet informatique de ré-entraîner le modèle sur des données spécifiques à votre entreprise.

Maintenant que tout est dit, entrons dans le vif du sujet.

Comment récupérer votre clé API chez OpenAI ?

D’emblée, sachez qu’Open AI vous donne jusqu’à 25 clés d’accès, ce qui vous permet d’intégrer des versions de ChatGPT customisées.

Pour obtenir une clé, suivez les étapes suivantes :

  • allez sur le site web de OpenAI ;
  • créez un compte ou connectez-vous ;
  • accédez à l’onglet « View API Keys » ;
  • sur cette page, faites un clic sur le bouton « Create new secret key » ;
  • une fenêtre ou un pop-up va s’ouvrir devant vous, recopiez le code fourni.

Félicitations, vous venez de créer votre clé pour accéder aux services d’OpenAI !

Grâce à elle, vous allez prouver aux serveurs d’OpenAI que vos demandes de connexions sont légitimes. Et aussi que vous n’êtes pas un pirate informatique.

Une fois votre clé obtenue, vous devrez vous plier à quelques mesures de sécurité pour éviter de voir votre compte piraté. Notamment :

  • ne la partagez jamais avec qui que ce soit ;
  • ne la recopiez pas sur un fichier texte que vous laisserez traîner sur le bureau de votre PC ;
  • créez une clé pour chaque projet – ainsi, vous pourrez ajuster votre modèle.

Avant de passer à la prochaine étape, nous devons répondre à une question qui hante le comptable qui sommeil en vous : combien coûtent les accès à l’API d’OpenAI.

Combien coûtent les différentes clés d’accès à l’API d’Open AI ?

Vous vous souvenez des différents modèles vus plus haut ? Voici leurs coûts respectifs :

  • GPT-4 simple : 0.03$ pour 1000 jetons en mode « Rapide » et 0.06$ pour 1000 jetons en mode « Achèvement » ;
  • GPT-4-32k : 0.06$ pour 1000 jetons en mode « Rapide » et 0.12 $ pour 1000 jetons en mode « Achèvement » ;
  • GPT 3.5 Turbo et Text-Davinci-003 : 0.002$ pour 1000 jetons (et oui, nous avons bien compté les 0).

Sachant qu’un token, ou jeton, équivaut à environ quatre caractères. Soit approximativement 750 mots pour 1000 jetons, cela vous donne une idée de votre budget final.

Mais pas de panique, vous n’avez pas besoin de sortir votre carte bancaire pour intégrer ChatGPT sur votre plateforme. Et pour cause, OpenAI vous offre 5$ de crédit gratuit lors de l’ouverture d’un nouveau compte.

Votre API en main, il est temps de vous en servir.

3 – Installez le client de l’API sur votre serveur

Pour pouvoir utiliser votre API, vous devez installer ce que l’on appelle un « client » sur votre serveur. La manipulation est assez simple.

La voici :

  • connectez-vous à votre serveur, avec les accès administrateurs de préférence ;
  • créez un répertoire facile d’accès, voire à la racine de votre arborescence ;
  • ensuite créez un fichier texte.

L’extension du fichier va dépendre du langage de programmation favori de vos équipes de développeurs :

  • .py pour les passionnés de python ;
  • .js si vous êtes plus Node.js/JavaScript ;
  • .rb si vos développeurs web utilisent le langage Ruby.

Même si l’API fonctionne avec tous les langages de programmation – y compris via des requêtes HTTPS avec le langage cURL- il est recommandé d’utiliser les bibliothèques développées par OpenAI.

Il en existe deux : une rédigée avec le framework node.js (JavaScript) et une autre en python. Nous utiliserons celle en python pour la suite

Ouvrez votre IDE -environnement de développement intégré, si vous n’en avez pas, téléchargez notepad++ ou vs code. Ensuite, selon le langage de programmation que vous avez choisi, recopiez l’instruction suivante dans votre terminal :

!pip install openai

Félicitations, vous venez d’installer le client d’OpenAI sur votre serveur.

4 – Authentifiez-vous grâce à votre clé API

Maintenant que vous pouvez chuchoter du code informatique dans les oreilles d’OpenAI, vous devez lui prouver que vous êtes légitime.

Vous devez authentifier vos requêtes.

Pour y parvenir, rien de plus simple : remplacez la valeur de la variable d’environnement « OPENAI_API_KEY ». Et voici comment procéder :

import openai
import openai_secret_manager  

secrets = openai_secret_manager.get_secret("openai")
api_key = secrets["api_key"]  
openai.api_key = api_key

À partir de maintenant, vous pouvez poser vos questions à ChatGPT.

5 – Dialoguez avec ChatGPT

Après de si longues minutes à suivre ce tutoriel, vous brûlez d’envie d’envoyer vos prompts à ChatGPT. N’est-ce pas ?

Voici comment procéder :

response = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",  
  messages=
    {"role": "system", "content": "Tu es un expert du développement web."}
)

Et pour récupérer sa réponse, rien de plus simple : accéder à la variable choices.message.content.

completion.choices[0].message.content

Félicitations ! Vous venez d’intégrer l’API de ChatGPT au sein de votre plateforme.

Libre à vous de modifier les prompts et de vous amuser avec les résultats. Souhaitez-vous découvrir tous les paramètres des fonctions de l’API ? Voici le lien de la documentation de l’API ChatGPT.

Toutefois, en testant votre chatbot, une anomalie va rapidement vous sauter aux yeux : il oublie absolument toute votre conversation à chaque prompt.

Impossible pour lui de fournir des réponses contextualisées. Ce qui, il faut l’avouer, retire un peu l’intérêt d’utiliser ChatGPT.

Heureusement, ce problème se corrige assez facilement.

Bonus : donnez une mémoire conversationnelle à votre ChatGPT maison

Robot entrain d'acquérir une mémoire
Robot entrain d’acquérir une mémoire

Pour que votre instance de ChatGPT n’ait plus une mémoire de poisson rouge, vous devez comprendre la structure de cette instruction :

completion = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[
    {"role": "ROLE_AUTEUR_MESSAGE", "content": "VOTRE_PROMPT"}
  ]
)

Détaillons la.

Comment utiliser les paramètres de la fonction openai.ChatCompletion.create pour conserver l’historique de conversation

  • « role » : ce paramètre détermine le comportement de l’IA lors de votre conversation ;
  • « content » : il s’agit de votre prompt.

Pour que votre ChatBot dopé à ChatGPT puisse retenir votre conversation, vous devez modifier le paramètre « role ». Vous pouvez lui donner 3 valeurs :

  • « system », elle vous permet de « dire » au modèle quel comportement il doit adopter. Ainsi, vous pouvez lui demander d’agir comme un expert dans un domaine précis ;
  • « user », signifie que la commande que l’IA doit traiter la commande de ce message comme s’il s’agissait d’une entrée fournit par votre client final ;
  • « assistant », cette valeur permet de dire au modèle que le contenu du message provient de lui. C’est grâce à cette valeur que vous pourrez sauvegarder votre conversation dans la mémoire du modèle.

Plutôt que de longues explications, nous allons prendre un cas concret.

Comment créer un chatbot avec une mémoire : code + explications

Supposons que vous voulez utiliser l’API de ChatGPT, vous voulez que ChatGPT se comporte comme un professionnel du développement web.

Supposons aussi que vous ayez une idée précise sur quelle est la meilleure agence de développement web parisienne.

Enfin, supposons que l’internaute qui discute avec votre ChatBot souhaite contacter la meilleure agence de développement web de Paris.

Voici ce que cela va donner.

response = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",  
  messages=[
    {"role": "system", "content": "Tu es un expert du développement web."},
    {"role": "user", "content": "Quelle est la meilleure agence de développement web Parisienne à qui confier mes projets ?"},
    {"role": "assistant", "content": "Poyesis !"},
    {"role": "user", "content": "Comment est-ce que je peux les contacter ?"}
  ]
)

Vous n’avez plus qu’à adapter les contenus de cette commande selon vos objectifs.

Ça y est !

Vous venez d’incorporer avec succès ChatGPT au sein de votre application.

Si vous êtes à la recherche d’une agence de développement informatique pour vous aider à profiter de toute la puissance de ChatGPT, contactez-nous.

Guerre des IA : qui sont les 4 concurrents de ChatGPT ?

Après le succès fulgurant de ChatGPT, propulsé par OpenAI et Microsoft, les autres géants de la tech n’ont pas tardé à réagir.

Déjà, lundi, Google nous tisait sa future IA Google Bard. Mercredi, Baidu et NetEase lui ont emboîté le pas en annonçant leurs IA respectives. Et enfin, jeudi, Alibaba à la CNBC son IA générative maison.

Manifestement, la guerre des IA est lancée, et elle n’est pas près de s’arrêter. Le point sur les (futurs) concurrents de ChatGPT.

1- Google Bard

Google et l’intelligence artificielle, c’est une histoire d’amour de longue date.

Déjà, en 2015, Google rendait public TensorFlow, son outil d’apprentissage automatique. Lors de sa conférence Google I/O de 2021, la firme nous avait proposé LaMDA, son modèle d’IA générative.

 

 

Déjà, nous nous voyions discuter de manière conversationnelle avec notre téléphone, lui poser des questions complexes, avoir des réponses pertinentes générées automatiquement (ça ne vous rappelle rien ?).

Seulement, l’effervescence est vite retombée, Alphabet (la maison mère de Google) préférant une approche plus prudente. Du moins jusqu’à l’arrivée de ChatGPT.

Sentant ses parts de marché et son modèle économique basé sur les publicités menacés, Google a réagi en activant le code rouge en janvier. Pour la firme de Mountain view, l’IA générative est désormais la priorité numéro 1.

Et c’est ainsi que ce lundi 06 février, Google a officialisé (un peu trop tôt ?) son IA : Google Bard.

Vidéo de promotion de Google Bard diffusée sur le blog officiel de Google

Seulement, tout ne s’est pas passé comme prévu…

Google Bard, ou la démo ratée de Google à 100 milliards de dollars

Avant de mentionner le désastre qu’a été la présentation de Google Bard, remettons les choses dans le contexte. En effet, quelques heures plus tôt, Microsoft à surpris les passionnés du web en annonçant intégré une nouvelle version de ChatGPT directement dans Edge et Bing.

Un vrai désastre pour Google dont le principal argument anti-chatGPT était jusque-là que l’IA d’OpenAI ne disposait pas de données récentes.

Par exemple, aux yeux – ou plus exactement, pour les réseaux de neurones – de ChatGPT, Jack Dorsey est encore président de Twitter.

Mais avec ce changement, Google a été obligé de montrer dans la précipitation que lui aussi maîtrisait l’IA. Quitte à négliger l’importance des tests utilisateurs.

Ce qui nous ramène à la Google Keynote tenue à Paris mercredi 08 février 2023.

Les journalistes, investisseurs, experts de la tech et autres passionnés n’attendaient qu’une seule chose : voir Google Bard en direct…

Et ce fut un flop total.

Non seulement, l’essentiel de la communication de Google tournait autour des améliorations de ses produits existants – Search, Map et translate-, mais l’IA s’est montrée décevante.

À la question « Quelles sont les nouvelles découvertes du télescope spatial James Webb dont je peux parler à mon enfant de 9 ans ? », l’IA a répondu : « [Le téléscope] a pris les toutes premières images d’une planète en dehors de notre propre système solaire ».

 

Ce qui est faux. Cet honneur revenant au VLT Yepun en 2004 comme le confirme la Nasa.

Sans surprise, cette erreur monumentale a été répercutée sur le prix de l’action en bourse de Google. Elle a perdu 9% de sa valeur, soit une perte nette de 100 milliards de dollars de capitalisation boursière.

L’erreur de Google Bard, monumentale, mais pas complètement à côté de la plaque

Toutefois, l’IA n’a pas totalement tort. En effet, en septembre 2022, le télescope James Webb à découvert une exoplanète située hors de notre système solaire.

Une première pour l’humanité. Une source de confusion pour l’IA.

Afin de nuancer davantage, rappelons que selon ChatGPT, James Webb est encore en construction, ce qui n’est guère mieux.

Les deux ont tout faux.

2- Ernie de Baidu

Robot IA devant le logo de Baidu, le moteur de recherche Chinois

Du côté de l’empire du milieu, la guerre des IA bat aussi son plein.

Hors de question pour les géants chinois de la tech de se laisser dépasser par leurs homologues américains.

C’est ainsi que mercredi, Baidu a annoncé le lancement de son IA en préparation depuis 2013 : ERNIE pour Enhanced Representation through Knowledge Integration.

Contrairement à Google, cette IA sera d’abord mise à disposition des utilisateurs en tant qu’agent conversationnel. Ce ne sera qu’après avoir été éprouvée qu’elle sera insérée dans le moteur de recherche Baidu.

À l’annonce de la nouvelle, le cours de l’action de la firme chinoise a grimpé de 13 %.

3- la mystérieuse IA d’Alibaba

Toujours du côté de l’empire du milieu, un autre géant de la tech a fait grand bruit : Alibaba.

Le géant de l’e-commerce a en effet annoncé travailler sur sa future IA. Seulement, même si Alibaba affirme travailler dessus depuis 5 ans, le manque de détails fournis pousse à s’interroger sur les capacités de sa future IA.

La seule information confirmée étant qu’elle est actuellement testée par des employés en interne.

Quand sortira-t-elle ? Que pourrez-vous faire avec ? Difficile de le savoir.

 4- NetEase et son intelligence artificielle éducative

Robot IA assis sur un banc lisant un livre éducatif

Autre dragon de la tech chinois, NetEase est un spécialiste du jeu vidéo.

Mais ce ne sont pas ses jeux qui nous intéressent aujourd’hui, mais plutôt sa filiale dédiée à l’éducation : Youdao.

Jeudi, elle a surpris le monde en annonçant une IA générative entièrement dédiée à l’éducation. Une première mondiale.

En guise de rappel, NetEase-Youdao n’est pas à ses débuts en matière d’IA. Par exemple, elle fournit déjà des services de traduction automatique ou de questions-réponses à plus d’un milliard d’utilisateurs.

Tout comme Alibaba, la firme s’est montrée discrète dans sa communication. Ainsi, aucune information sur sa date de sortie ou ses fonctionnalités n’a fuitée

Pourquoi les mastodontes de la tech se ruent sur les IA génératives ?

En parcourant le web cette semaine, peut-être avez-vous remarqué que le terme « IA » revient beaucoup plus qu’à l’accoutumée.

Mais est-ce seulement une tendance ? Pas du tout.

L’IA était déjà perçue comme un moteur du web 3.0, mais avait été effacée par le métavers, la blockchain et les NFT.

Preuve en est que même Facebook qui avait adopté un virage serré vers les mondes du métavers remet le cap sur le développement de son IA. Une annonce qui a surpris tant l’échec cuisant de son IA conversationnelle, BlenderBot3, a marqué plus d’un.

Même Apple, qui peut toujours compter sur les revenus colossaux générés par l’IPhone, se lance à corps perdu dans le développement de son IA. D’ailleurs, elle a annoncé qu’elle va tenir une conférence entièrement dédiée à l’IA la semaine prochaine à l’Apple Park de Cupertino.

Finalement, l’intelligence artificielle deviendra un outil indispensable pour les entreprises. Un outil capable de booster leurs compétitivités.