Quand on pense à ce gaz à effet de serre, on pense immédiatement aux mines de charbons, aux pots d’échappement des voitures ou aux cheminées des usines.
Et pourtant, une autre source de pollution est très souvent oubliée par les défenseurs de la protection de l’environnement.
Spoiler, vous l’avez entre les mains : il s’agit du numérique.
Si au début des années 2000, la dématérialisation était parfois présentée comme un moyen de réduire l’empreinte écologique des entreprises, aujourd’hui… le constat est plus mitigé.
Preuve en est la conclusion d’une étude de l’ADEME et de l’ARCEP : 4 % des émissions de GES de la France proviennent des technologies de l’information ou TIC.
Hélas, cela se répercute aussi sur votre score ESG\RSE. Il baisse en partie à cause de vos logiciels-maison.
Heureusement, il existe une solution pour amoindrir l’impact de votre matériel informatique et faciliter la transition écologique de votre boîte : le green code.
Sommaire
Qu’est-ce que le green code ?
Pourquoi les applications ne sont pas optimisées ?
Quels sont les avantages du green coding ?
11 pratiques du green code à appliquer au sein de votre entreprise
Qu’est-ce que le green code ?
Développeur web assis dans un champ
Le green code, ou code informatique vert en français, est un code source allégé et optimisé autant que possible. Il s’agit d’une partie d’une démarche écologique plus large menée par les DSI : le green IT.
L’objectif ?
Obtenir un logiciel nécessitant moins de puissance de calcul, d’espace de sauvegarde, et surtout plus rapide.
Adopter l’éco-design pour votre application a trois avantages en termes de business et de compétitivité :
votre bilan carbone va chuter – à vous les certifications des labels écologiques ;
votre responsabilité sociétale va être revue à la hausse ;
vos clients seront plus heureux, car votre solution digitale sera plus efficace ;
vos équipements électriques et ceux de vos clients auront une plus grande durée de vie.
Seulement, vous vous en doutez, la plupart des logiciels sont loin d’être optimisés à 100 %.
Et c’est assez facile même pour vos clients de s’en apercevoir :
la batterie de leurs périphériques fond comme neige au soleil dès qu’ils allument votre application ;
vos produits digitaux sont affreusement lents.
Pour les internautes, ce sont des red flags : la plupart d’entre eux désinstalleront votre application ou quitteront votre site à l’instant.
Bref, si votre application est un obésiciel – un programme remplit de bouts de codes lents, dupliqués et nécessitant une puissance de calcul démesurée – il n’y a pas que votre chargé de responsabilité sociétale qui est concerné.
Vos commerciaux, marketeurs, chefs de projets informatiques et chargés du SAV le sont aussi.
Pourquoi les applications ne sont pas optimisées ?
Ordinateur émettant une fumée noire
Deux raisons expliquent ce problème:
les développeurs doivent souvent livrer des applications dans des délais serrés, ce qui réduit le nombre d’heures consacrées à l’optimisation du logiciel en développement ;
la loi de Moore.
Si vous n’êtes pas un aficionado de la programmation informatique, voici ce que dit cette loi édictée par Moore : « la puissance de calcul des ordinateurs doublera tous les deux ans ».
Édictée pour la première fois en 1971 et corrigée en 1975, elle s’est révélée exacte jusqu’au début des années 2020.
Et cette loi a eu un impact considérable sur les créateurs de logiciels : ils ont eu beaucoup plus de puissance de calculs que nécessaires pendant longtemps.
Exit les longues heures à analyser la taille des mémoires tampon pour gagner quelques kilo-octets.
Exit les multiples tests d’algorithmes et de techniques de parallélisation pour gagner quelques millisecondes de temps d’exécution.
Oui, ça a grandement contribué à diminuer les temps de développement. Par contre, cela a conduit à la production d’une montagne de codes informatiques inutiles, mal écrits et basés sur des algorithmes non-optimisés.
Sans surprise, ils tendent à augmenter la consommation de ressources sur les périphériques sur lesquels ils s’exécutent. Ce qui, à l’heure où les enjeux environnementaux et le réchauffement climatique sont des sujets sensibles pour les consommateurs, passe mal.
Concrètement, voici quelques moyens simples de repérer des codes non-optimisées sans avoir à faire un audit énergétique de votre logiciel :
Il utilise des langages de programmation et/ou des frameworks qui ne sont plus mis à jour ;
Les équipes techniques lui ajoutent régulièrement de nouvelles couches de codes pour repousser sa fin de vie malgré son obsolescence apparente ;
Il s’exécute sur un système d’exploitation trop différent de celui pour lequel il a été conçu.
Interface logicielle ouverte en plein milieu d’une fôret
Les avantages de minimiser l’impact environnemental de vos logiciels sont légion. En voici quelques-uns :
une architecture logicielle réalisant de plus grandes économies d’énergie ;
le renforcement de l’image de marque de votre entreprise auprès des consommateurs grâce à l’obtention de labels d’éco-conception (Green code lab, label Numérique Responsable, etc.) ;
des budgets moins élevés pour le remplacement de votre parc informatique, vu que ces derniers ont une plus grande durée de vie.
Maintenant que vous savez à quel point la rentabilité de votre entreprise peut croître grâce au green coding, passons au point suivant : quelles sont les pratiques de green coding ?
11 pratiques du green code à appliquer au sein de votre entreprise
Vous souhaitez éco-concevoir vos produits digitaux ? Voici quelques astuces qui peuvent vous aider :
utilisez des algorithmes optimisés au sein des modules de vos programmes informatiques ;
éliminez les fonctions inutiles au sein de votre programme ;
réduisez la quantité de bouts de code dupliqué, et créez des fonctions plutôt ;
refactorisez les fonctions non-optimisées ;
utilisez des structures de données efficaces et adaptées aux données que vous allez y stocker ;
utilisez les bons formats d’image — par exemple, assurez-vous que toutes vos images soient aux formats .jpg ou .WebP si vous créez un site e-commerce ;
évitez les chargements automatiques de ressources non-utilisées – à l’instar des vidéos d’arrière-plan ;
limitez le nombre de requêtes HTTP/HTTPS vers vos serveurs ;
développez votre logiciel selon une architecture micro-services ;
Vous trouvez ces explications techniques ? Retenez juste qu’ici, le mot d’ordre est de créer un logiciel consommant le moins de ressources informatiques possibles.
Et si vous souhaitez avoir des idées spécialement pour votre logiciel, site web ou application mobile, contactez notre chef de projet. Son œil d’expert vous aidera à trouver les modifications à apporter à votre code pour le rendre plus éco-responsable.
Si pour beaucoup, 2020 rime avec le Covid-19, l’inflation et le « quoi qu’il en coûte », pour les experts français de la cybersécurité, elle rime avec scandale.
En cause, la BPI France et la fintech française Doctolib ont toutes deux commis la même erreur : héberger les données de leurs clients français – dont peut-être les vôtres – chez Amazon AWS.
Immédiatement, les experts de la protection des données et certains décideurs français sont montés au créneau contre Amazon Cloud.
Leur leitmotiv : héberger des données chez Amazon Cloud ne garantit pas qu’elles soient traitées selon le RGPD européen. En plus de les exposer au Cloud Act américain.
Paradoxalement, la même année, l’infrastructure cloud d’AWS était utilisée par 80 % des entreprises du CAC 40 ; par 66 % des startups du Next 40 ; et 8 licornes made in France sur 10 utilisaient ses services cloud (source).
Alors est-ce que vous pouvez faire confiance à la solution Cloud d’Amazon ? Est-ce qu’Amazon traitera les données de vos clients selon les normes européennes ? Ou alors finiront-elles sur la table d’une énième agence de renseignement/espionnage industriel états-unienne ?
Découvrez-le tout de suite.
Qu’est-ce que AWS ?
Si vous n’êtes pas un expert de l’infrastructure informatique ou un DSI, AWS vous est peut-être inconnu.
Amazon Web Services – ou AWS pour les intimes – n’est rien d’autre que le leader dans l’industrie des services du cloud computing. Loin devant d’autres géants comme IBM cloud, Google Cloud Platform (GCP) et Oracle Cloud Infrastructure.
En appuyant le déploiement de vos applications cloud sur l’infrastructure informatique d’Amazon AWS, vous bénéficierez de :
de machines virtuelles aptes aux calculs hautes performances, un must si votre entreprise est dans le secteur de la finance ou du marketing ;
des analyses en temps réel de vos données, grâce à des algorithmes de machine Learning ;
un espace de stockage extensible à l’infini, répondant à vos besoins en termes d’agilité et de flexibilité, et bien d’autres.
Malgré cette offensive de charme qui ne laisse aucun DSI indifférent, certaines associations font la traque aux clients des datacenters d’Amazon.
Et voici pourquoi.
Pourquoi AWS est parfois critiqué en France ?
Drapeau américain
La réponse tient en une phrase : Amazon est une entreprise américaine, et par conséquent soumis aux lois états-uniennes.
Si l’amour du pays de Joe Biden pour l’espionnage n’est plus un secret, courant 2018, il a pris des proportions jamais atteintes.
Et ce, à cause du vote de deux lois extraterritoriales par le congrès américain visant l’informatique en nuage : le Cloud Act et le FISAA.
Les lois extraterritoriales des USA : une arme de surveillance
Connaissez-vous les lois extraterritoriales ?
Si votre réponse est non, sachez qu’il s’agit d’un type de lois qui ont la particularité de s’étendre hors de la juridiction du pays du législateur qui les promulgue.
Et dans ce domaine, les champions toutes catégories sont les USA et leurs 14 agences de renseignements.
Vous voyez le rapport avec le fait d’utiliser les infrastructures d’Amazon Cloud ou ne serait-ce que l’un de ses services de stockage ?
Pour bien le comprendre, un point sur les deux lois évoquées plus haut s’impose.
Le Clarifying Lawful Overseas Use of Data Act, ou Cloud Act
Entre les nombreux scandales de l’ère Trump, la promulgation du Cloud Act en 2018 est passée relativement inaperçue. Excepté dans la presse spécialisée dans l’informatique et chez les grandes entreprises.
Que dit le Cloud Act ?
Cette loi donne aux organismes gouvernementaux américains le droit d’accéder aux données des applications hébergées hors des USA. Et ce, qu’importe que la société — l’hébergeur tout comme l’entreprise cliente — soit américaine ou non.
Avant de crier au génocide des libertés individuelles permit par le Cloud Act, sachez que cette loi n’est pas seule.
Le Foreign Intelligence Surveillance Act (FISA)
La loi FISA est une loi datant de 1978, votée par le congrès américain afin de servir de cadre légal à la collecte d’informations via les ressources informatiques alors naissantes.
Seulement, depuis 2001, ses pouvoirs ont été étendus grâce au “PATRIOT ACT”, avant d’être modifiés en 2008 suite à la crise des subprimes.
Pourquoi nous parlons de cette loi d’une autre époque ? Parce qu’elle a encore été étendue en 2018 pour 5 ans.
D’ailleurs, voici ce que dit le site officiel du bureau d’assistance à la justice (américaine) : « [La loi FISAA] définit les procédures pour la surveillance électronique et physique et la collecte sur les renseignements étrangers ».
Dès le premier paragraphe, vous êtes mis(e) dans le bain : « La section 702 est une disposition clé de la loi de 2008 modifiant la loi FISA qui permet au gouvernement de procéder à une surveillance ciblée de personnesétrangères situées en dehors des États-Unis, avec l’assistance forcée des fournisseurs de services de communication électronique, afin d’obtenir des informations sur les services de renseignement étrangers. »
Et avant que vous ne vous posiez la question : non, votre consentement n’est pas requis pour que les agences puissent collecter vos données. D’ailleurs, ni mandat ni décision de justice ne sont requis –ce qui suscite la colère des GAFAM.
En lisant ces deux lois, vous avez sans doute remarqué que le respect de la législation des pays des cibles n’est pas une priorité pour le législateur américain.
Et voilà, vous venez de comprendre la principale peur des entreprises qui ne souhaitent pas utiliser le stockage cloud d’Amazon.
La souveraineté numérique française, ou pourquoi héberger ses données chez AWS inquiète
Vous l’avez compris, la raison pour laquelle certaines personnes vous déconseillent d’utiliser AWS n’est pas due à ses performances. Mais plutôt à la perte de souveraineté de la France sur vos données.
Et ces personnes ont à moitié raison, et à moitié tort.
En effet, le sujet de la souveraineté technologique de la France est un sujet brûlant. Aussi bien à l’Élysée que dans les cercles de réflexions français et chez les experts des systèmes d’informations.
Preuve en est cette déclaration du président Emmanuel Macron le jour de la clôture du salon VivaTech 2023:
La French Tech fait partie de notre quotidien. Elle apporte des solutions à nos défis sociétaux, crée des emplois et sert notre souveraineté technologique. Partout en France, avec ses milliers de startups, la French Tech est devenue essentielle à notre économie et notre société.
Heureusement pour vous, l’Europe n’a pas tardé à vous protéger, ainsi que vos données et celles de votre entreprise, de l’espionnage américain.
Le RGPD et le Data Privacy Framework (Ex Privacy Shield) : les ripostes européennes
Imaginez un instant…
Lors d’un meeting avec votre responsable informatique, vous apprenez que les données de vos clients ont été dérobées par les USA directement auprès de votre hébergeur.
Ce serait un cauchemar, vos clients ne tardant pas à vous claquer la porte au nez et à revenir accompagnés d’une légion d’avocats.
Heureusement, grâce aux deux lois de protection des données de l’Union Européenne, cela n’a aucune chance d’arriver.
Le RGPD
Le RGPD, ou Règlement Général sur la Protection des Données, est un ensemble de mesures qui visent à rendre impossible l’usage de données personnelles par un tiers sans son autorisation.
Il dit ceci : « Toute décision d’une juridiction ou d’une autorité administrative d’un pays tiers exigeant d’un responsable du traitement ou d’un sous-traitant qu’il transfère ou divulgue des données à caractère personnel ne peut être reconnue ou rendue exécutoire de quelque manière que ce soit qu’à la condition qu’elle soit fondée sur un accord international, […], sans préjudice d’autres motifs de transfert en vertu du présent chapitre. »
Cela signifie 2 choses pour vous :
les données de votre entreprise ainsi que celles de vos clients européens et/ou stockées en Europe ne seront pas partagées sans votre accord tacite ;
même si vous faites appel à un sous-traitant, vos données sont toujours protégées.
Et bonne nouvelle : Amazon AWS est membre du CISPE (Cloud Infrastructure Services Providers en Europe) et dispose d’un Data Center installé en France depuis 2017. Autant dire donc qu’en hébergeant vos données chez AWS France, vous êtes certain d’être sous la protection du RPGD européen.
De plus, les membres du CISPE se sont engagés à stocker leurs données entièrement dans l’Espace Économique Européen. Bien loin de l’oncle Sam et de ses agences de renseignements.
Mais, ne cédez pas à l’optimisme trop vite.
En effet, le RGPD est clair : vos données peuvent être échangées avec une puissance étrangère – les USA – si un accord international existe.
Et une ébauche d’accord existe : le Data Privacy Framework.
Le Data Privacy Framework
Bien avant l’essor des technologies cloud, l’échange de données USA-UE faisait déjà l’objet d’âpres débats.
Preuve en est le Safe Harbor, promulgué en 2000 et aboli en 2015.
Suivi du Bouclier de Protection des données UE-USA, promulgué en 2016.
Il visait à améliorer le sort des données informatiques européennes sur 3 aspects :
l’option pour un plaignant (européen) de faire supprimer ses données ;
la collecte de quantités importantes de données ;
une délimitation des pouvoirs et de l’indépendance du médiateur.
Seulement, cet accord a vite été jugé insuffisant et a été enterré en 2020 par la Cour de Justice de l’Union Européenne par l’arrêt Schrem contre Facebook Ireland Ltd.
Depuis mars 2022, les deux puissances travaillent en commun sur un nouvel accord : le Privacy Shield 2.0 ou Data Framework Privacy.
Ici, nous n’allons pas détailler le Privacy Shield de long en large, vu qu’il a été abandonné. Ni même son successeur, dont les informations sont encore rares.
Notre objectif étant de vous faire savoir que de tels accords existent.
Au final, est-ce qu’héberger vos données chez AWS France est une mauvaise idée ?
Réponse courte : non.
Stocker vos données chez Amazon vous offre les garanties qu’elles seront traitées selon le RGPD. Et pour cause : la firme américaine est parfaitement conforme au RGPD et stocke toutes vos données sur le sol européen.
Vous vous demandez comment l’entreprise réagirait face à une injonction de l’oncle Sam lui ordonnant de partager vos données ?
Comment Amazon compte protéger vos données des lois américaines
Amazon le sait, si des scandales de partage de données d’utilisateurs européens venaient entacher son image, sa croissance serait brutalement interrompue.
Sur sa page web dédiée à la confidentialité des données, voici ce que la firme déclare :
elle ne divulguera pas vos données, y compris aux organismes gouvernementaux américains ;
en cas d’injonction d’une agence fédérale, elle redirigera la source vers vous, afin que vous puissiez donner votre accord tacite ou pas ;
Si elle est obligée à partager vos données, elle vous donnera un préavis raisonnable pour que vous puissiez obtenir une ordonnance préventive ;
elle délivrera uniquement le minimum d’informations si toutes les possibilités de recours sont épuisées ;
et enfin, elle contestera toute demande non-conforme au RPGD.
Et pour finir, voici quelques avantages offerts par Amazon.
L’aspect légal étant parfaitement défini et sécurisé, une autre raison peut vous pousser à utiliser les services d’Amazon : les fonctionnalités de sa branche Cloud.
Les avantages du Cloud computing d’AWS France
En voici quelques-uns :
AWS Activate, qui offre aux PME et aux Start-up 100 000$ de crédit à utiliser dans les services Amazon ;
un chiffrement sur une clé longue de 256 bits grâce à la norme AES 256 qui rend impossible le déchiffrement de vos données par une attaque de force brute ;
des tarifs flexibles, qui ne vous font payer que ce que vous utilisez réellement ;
une puissance de calcul extensible au besoin.
En conclusion, est-ce que stocker vos data chez Amazon est risqué ? Non, pas du tout.
À part si vous vivez en autarcie sur une île reculée, vous avez sans doute entendu parler de cette IA. Polyvalente, puissante et facile à utiliser, elle attise les intérêts des départements informatiques et innovation des entreprises.
Et justement, aujourd’hui, nous allons vous montrer comment utiliser l’API de CHatGPT pour l’intégrer à votre application ?
Allons-y.
Sommaire
5+1 étapes pour intégrer ChatGPT au sein de votre application web/mobile
Étape 1 : quel modèle GPT allez-vous choisir ?
GPT-4
Les avantages de GPT-4 face à GPT-3.5 turbo
Les inconvénients de GPT 4 comparé à GPT-3.5 turbo
GPT-3.5
GPT-3.5 Turbo
Les avantages de GPT-3.5 Turbo par rapport à Text-Davinci-003
Les inconvénients de GPT-3.5 par rapport à Text-Davinci-003
Text-Davinci-003
Les avantages de Text-Davinci-003 par rapport à GPT-3.5
Les inconvénients de Text-Davinci-003 comparé à GPT-3.5
Text-Davinci-003 vs GPT-3.5 : lequel choisir ?
Étape 2 : Obtenez votre clé API chez Open AI
Comment récupérer votre clé API chez OpenAI ?
Combien coûtent les différentes clés d’accès à l’API d’Open AI ?
3 – Installez le client de l’API sur votre serveur
4 – Authentifiez-vous grâce à votre clé API
5 – Dialoguez avec ChatGPT
Bonus : donnez une mémoire conversationnelle à votre ChatGPT maison
Pourquoi intégrer l’API de ChatGPT au sein de votre application mobile ou site web ?
Excepté pour l’excellent coup de communication que cela ferait à votre entreprise, intégrer ChatGPT à plusieurs avantages. Notamment :
l’amélioration de la qualité de l’expérience utilisateur de votre plateforme ;
l’augmentation de vos ventes (et donc de votre CA (émoji sourire) ;
l’amélioration de votre service client.
Bien sûr, on pourrait allonger la liste à l’infini, mais nous avons mieux à vous proposer : deux articles qui vous montrent comment augmenter la performance et la rentabilité de votre entreprise grâce à ChatGPT.
Maintenant que vous connaissez les avantages que vous pouvez tirer de l’algorithme phare d’OpenAI, entrons dans le vif du sujet.
5+1 étapes pour intégrer ChatGPT au sein de votre application web/mobile
Robot sortant d’un téléphone portable
Pour résumer, voici le parcours que vous devez suivre :
choisir le modèle GPT qui conviendra le mieux à vos besoin ;
récupérer votre clé API sur le site web de OpenAI ;
installer votre client ChatGPT sur votre serveur ;
vous authentifier grâce à votre clé API ;
dialoguer avec ChatGPT via des lignes de codes.
Rassurez-vous, même si vous n’êtes pas un développeur d’application ou un génie de l’informatique, ces manipulations sont faciles.
C’est parti !
Étape 1 : quel modèle GPT allez-vous choisir ?
Derrière le nom ChatGPT, saviez-vous que se cachent plusieurs modèles de traitement de langage naturels ?
Vous trouverez ces modèles regroupés en « familles de modèles », et il y en a deux qui nous intéressent :
la famille « GPT 4 », qui correspond, vous l’aurez compris, à ChatGPT-4 ;
la famille « GPT-3.5 » dont le nom est suffisamment explicite.
Avant de vous présenter les différentes IA génératives d’OpenAI, sachez que nous n’avons sélectionné que celles qui bénéficieront de mises à jour régulières sur le long-terme. Pour découvrir tous les modèles GPT, rendez-vous sur la page officielle d’OpenAI.
GPT-4
GPT-4 regroupe les dernières itérations faites sur le modèle GPT. De plus, c’est aussi la seule de toutes ces IA qui soit capable de prendre des images en entrée.
Par conséquent, si vous comptez utiliser votre Chatbot carburant à l’IA sur des photos, optez pour cette IA.
Parmi la famille de modèles GPT-4, voici les deux entre lesquels vous devrez choisir :
GPT-4, qui est le modèle par défaut ;
GPT-4-32K, qui est identique au précédent, à l’exception qu’il gère un contexte 4 fois plus grand (32768 tokens vs 8192 tokens pour la version de base).
Finalement, la seule différence entre les deux modèles proposés dans cette famille réside dans la taille du contexte.
Ainsi, si vous prévoyez d’utiliser l’IA pour gérer de (très) longues conversations, optez pour l’API de GPT-4-32K.
Attention toutefois : les jetons de GPT-4-32k vous coûteront trois fois plus cher que ceux de GPT-4.
Les avantages de GPT-4 face à GPT-3.5 turbo
une meilleure compréhension des prompts ;
une meilleure gestion du contexte (l’historique des conversations entre l’utilisateur et lui) ;
la capacité de prendre des images en entrée, sans avoir à les prétraiter.
Les inconvénients de GPT 4 comparé à GPT-3.5 turbo
il est 10 à 30 fois plus cher que GPT-3.5 turbo ;
vous devez vous inscrire sur une liste d’attente donnant un accès prioritaire aux développeurs d’applications contribuant à l’amélioration de l’IA.
Maintenant, passons en revue l’autre alternative qui s’offre à vous : GPT-3.5
GPT-3.5
GPT-3.5 est la version à cheval entre ChatGPT 3 et ChatGPT 4. Elle est donc un bon équilibre entre performance, disponibilité et prix.
Cependant, ne vous laissez pas avoir par son nom : cette famille de modèles ne comporte pas du tout les mêmes que ChatGPT-3.
Ainsi, Ada, Curie et Babbage ne sont plus de la partie. Seul le modèle Instruct Davinci est encore présent.
Et justement, voici les modèles de langages disponibles dans la famille ChatGPT-3.5 :
GPT-3.5 Turbo ;
Text-Davinci-003.
À noter que contrairement à GPT-4, la taille de leurs contextes est de 4096 tokens tous deux.
GPT-3.5 Turbo
GPT-3.5 Turbo est le modèle par défaut de cette famille de modèle.
Honnêtement, vous pouvez tout faire avec, y compris les tâches prises en compte par le modèle Text-Davinci-003.
Mais alors pourquoi nous vous demandons de choisir entre les deux ? Pour des questions de performances.
Pas de panique, nous vous avons préparé un résumé des avantages et des inconvénients de ce modèle par rapport à son jumeau.
Les avantages de GPT-3.5 Turbo par rapport à Text-Davinci-003
il obtient de bien meilleures performances sur les tâches de classification zero-shot (la capacité du modèle à identifier et à traiter des catégories de données qu’il n’a jamais rencontrées) ;
corollaire du premier point, GPT-3.5 obtient de meilleurs scores sur les tâches d’analyse de sentiments ;
ses capacités de résolution des problèmes mathématiques sont supérieures à celles de Text-Davinci-003.
Les inconvénients de GPT-3.5 par rapport à Text-Davinci-003
il a tendance à produire des réponses trop longues lorsqu’un utilisateur lui pose une question -et vous ne voulez pas noyer vos clients sous une masse de texte et réduire à néant vos efforts d’optimisation du parcours client. N’est-ce pas 😉? ;
lorsque vous devrez faire une classification non-supervisée entre plusieurs classes, il va utiliser vos ressources de manière inefficace.
Après ce rapide aperçu de GPT-3.5, passons maintenant à Text-Davinci-003.
Text-Davinci-003
Leonard De Vinci regardant un écran d’ordinateur, image créé par Dalle-Bing
Si vous êtes en quête d’un algorithme d’IA ayant de très bonnes performances sur les tâches de traitement du langage naturel, alors il est fait pour vous.
Plus exactement, Text-Davinci-003 devance GPT-3.5 sur une tâche bien particulière : l’apprentissage non-supervisé K-Shot.
C’est la capacité du modèle à découvrir des relations entre les éléments à partir d’un jeu de données. Et contrairement à GPT-3.5 qui nécessite des jeux d’entraînements extrêmement étoffés, ce modèle n’a besoin que de quelques exemples.
Pour résumer.
Les avantages de Text-Davinci-003 par rapport à GPT-3.5
il est bien plus performant que GPT-3.5 lorsqu’il s’agit de trouver des relations entre les éléments d’une petite database ;
ses réponses aux prompts sont beaucoup plus courtes que celles fournies par GPT-3.5 turbo.
Les inconvénients de Text-Davinci-003 comparé à GPT-3.5
il est moins performant lorsqu’il s’agit d’analyser les sentiments de son interlocuteurs ;
ses réponses sont légèrement moins précises ;
il n’excelle pas sur les tâches nécessitant un raisonnement mathématiques.
Text-Davinci-003 vs GPT-3.5 : lequel choisir ?
Leonard De Vinci affrontant un robot
Face à ces différences hautement techniques, vous vous demandez lequel des deux choisir ? Voici un petit guide :
Choisissez GPT-3.5 Turbo si vous voulez utiliser ChatGPT pour la création de contenu, la recherche scientifique ou la gestion de votre SAV et vos médias sociaux ;
Choisissez Text-Davinci-003 si vous comptez faire de la vision par ordinateur, de la conception de produit ou si vous êtes un professionnel de la cybersécurité.
Une fois que vous aurez fait votre choix, place à l’étape suivante : obtenir l’accès à l’API d’OpenAI.
Étape 2 : Obtenez votre clé API chez Open AI
Une API, ou Application Programming Interface, est une interface de programmation qui vous permet d’utiliser un service tiers.
En une seule requête, vous avez accès à toutes les fonctionnalités de ChatGPT. Mais sachez que si vous souhaitez intégrer d’autres IA signées OpenAI – Whisper, DALL.E et Moderation -, vous pourrez utiliser la même clé.
Et si vous souhaitez personnaliser votre ChatGPT maison, vous avez deux options : faire du fine-tuning et/ou demander à votre chef de projet informatique de ré-entraîner le modèle sur des données spécifiques à votre entreprise.
Maintenant que tout est dit, entrons dans le vif du sujet.
Comment récupérer votre clé API chez OpenAI ?
D’emblée, sachez qu’Open AI vous donne jusqu’à 25 clés d’accès, ce qui vous permet d’intégrer des versions de ChatGPT customisées.
Pour obtenir une clé, suivez les étapes suivantes :
sur cette page, faites un clic sur le bouton « Create new secret key » ;
une fenêtre ou un pop-up va s’ouvrir devant vous, recopiez le code fourni.
Félicitations, vous venez de créer votre clé pour accéder aux services d’OpenAI !
Grâce à elle, vous allez prouver aux serveurs d’OpenAI que vos demandes de connexions sont légitimes. Et aussi que vous n’êtes pas un pirate informatique.
Une fois votre clé obtenue, vous devrez vous plier à quelques mesures de sécurité pour éviter de voir votre compte piraté. Notamment :
ne la partagez jamais avec qui que ce soit ;
ne la recopiez pas sur un fichier texte que vous laisserez traîner sur le bureau de votre PC ;
créez une clé pour chaque projet – ainsi, vous pourrez ajuster votre modèle.
Avant de passer à la prochaine étape, nous devons répondre à une question qui hante le comptable qui sommeil en vous : combien coûtent les accès à l’API d’OpenAI.
Combien coûtent les différentes clés d’accès à l’API d’Open AI ?
Vous vous souvenez des différents modèles vus plus haut ? Voici leurs coûts respectifs :
GPT-4 simple : 0.03$ pour 1000 jetons en mode « Rapide » et 0.06$ pour 1000 jetons en mode « Achèvement » ;
GPT-4-32k : 0.06$ pour 1000 jetons en mode « Rapide » et 0.12 $ pour 1000 jetons en mode « Achèvement » ;
GPT 3.5 Turbo et Text-Davinci-003 : 0.002$ pour 1000 jetons (et oui, nous avons bien compté les 0).
Sachant qu’un token, ou jeton, équivaut à environ quatre caractères. Soit approximativement 750 mots pour 1000 jetons, cela vous donne une idée de votre budget final.
Mais pas de panique, vous n’avez pas besoin de sortir votre carte bancaire pour intégrer ChatGPT sur votre plateforme. Et pour cause, OpenAI vous offre 5$ de crédit gratuit lors de l’ouverture d’un nouveau compte.
Votre API en main, il est temps de vous en servir.
3 – Installez le client de l’API sur votre serveur
Pour pouvoir utiliser votre API, vous devez installer ce que l’on appelle un « client » sur votre serveur. La manipulation est assez simple.
La voici :
connectez-vous à votre serveur, avec les accès administrateurs de préférence ;
créez un répertoire facile d’accès, voire à la racine de votre arborescence ;
ensuite créez un fichier texte.
L’extension du fichier va dépendre du langage de programmation favori de vos équipes de développeurs :
.py pour les passionnés de python ;
.js si vous êtes plus Node.js/JavaScript ;
.rb si vos développeurs web utilisent le langage Ruby.
Même si l’API fonctionne avec tous les langages de programmation – y compris via des requêtes HTTPS avec le langage cURL- il est recommandé d’utiliser les bibliothèques développées par OpenAI.
Il en existe deux : une rédigée avec le framework node.js (JavaScript) et une autre en python. Nous utiliserons celle en python pour la suite
Ouvrez votre IDE -environnement de développement intégré, si vous n’en avez pas, téléchargez notepad++ ou vs code. Ensuite, selon le langage de programmation que vous avez choisi, recopiez l’instruction suivante dans votre terminal :
!pip install openai
Félicitations, vous venez d’installer le client d’OpenAI sur votre serveur.
4 – Authentifiez-vous grâce à votre clé API
Maintenant que vous pouvez chuchoter du code informatique dans les oreilles d’OpenAI, vous devez lui prouver que vous êtes légitime.
Vous devez authentifier vos requêtes.
Pour y parvenir, rien de plus simple : remplacez la valeur de la variable d’environnement « OPENAI_API_KEY ». Et voici comment procéder :
À partir de maintenant, vous pouvez poser vos questions à ChatGPT.
5 – Dialoguez avec ChatGPT
Après de si longues minutes à suivre ce tutoriel, vous brûlez d’envie d’envoyer vos prompts à ChatGPT. N’est-ce pas ?
Voici comment procéder :
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=
{"role": "system", "content": "Tu es un expert du développement web."}
)
Et pour récupérer sa réponse, rien de plus simple : accéder à la variable choices.message.content.
completion.choices[0].message.content
Félicitations ! Vous venez d’intégrer l’API de ChatGPT au sein de votre plateforme.
Libre à vous de modifier les prompts et de vous amuser avec les résultats. Souhaitez-vous découvrir tous les paramètres des fonctions de l’API ? Voici le lien de la documentation de l’API ChatGPT.
Toutefois, en testant votre chatbot, une anomalie va rapidement vous sauter aux yeux : il oublie absolument toute votre conversation à chaque prompt.
Impossible pour lui de fournir des réponses contextualisées. Ce qui, il faut l’avouer, retire un peu l’intérêt d’utiliser ChatGPT.
Heureusement, ce problème se corrige assez facilement.
Bonus : donnez une mémoire conversationnelle à votre ChatGPT maison
Robot entrain d’acquérir une mémoire
Pour que votre instance de ChatGPT n’ait plus une mémoire de poisson rouge, vous devez comprendre la structure de cette instruction :
Comment utiliser les paramètres de la fonction openai.ChatCompletion.create pour conserver l’historique de conversation
« role » : ce paramètre détermine le comportement de l’IA lors de votre conversation ;
« content » : il s’agit de votre prompt.
Pour que votre ChatBot dopé à ChatGPT puisse retenir votre conversation, vous devez modifier le paramètre « role ». Vous pouvez lui donner 3 valeurs :
« system », elle vous permet de « dire » au modèle quel comportement il doit adopter. Ainsi, vous pouvez lui demander d’agir comme un expert dans un domaine précis ;
« user », signifie que la commande que l’IA doit traiter la commande de ce message comme s’il s’agissait d’une entrée fournit par votre client final ;
« assistant », cette valeur permet de dire au modèle que le contenu du message provient de lui. C’est grâce à cette valeur que vous pourrez sauvegarder votre conversation dans la mémoire du modèle.
Plutôt que de longues explications, nous allons prendre un cas concret.
Comment créer un chatbot avec une mémoire : code + explications
Supposons que vous voulez utiliser l’API de ChatGPT, vous voulez que ChatGPT se comporte comme un professionnel du développement web.
Supposons aussi que vous ayez une idée précise sur quelle est la meilleure agence de développement web parisienne.
Enfin, supposons que l’internaute qui discute avec votre ChatBot souhaite contacter la meilleure agence de développement web de Paris.
Voici ce que cela va donner.
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "Tu es un expert du développement web."},
{"role": "user", "content": "Quelle est la meilleure agence de développement web Parisienne à qui confier mes projets ?"},
{"role": "assistant", "content": "Poyesis !"},
{"role": "user", "content": "Comment est-ce que je peux les contacter ?"}
]
)
Vous n’avez plus qu’à adapter les contenus de cette commande selon vos objectifs.
Ça y est !
Vous venez d’incorporer avec succès ChatGPT au sein de votre application.
Si vous êtes à la recherche d’une agence de développement informatique pour vous aider à profiter de toute la puissance de ChatGPT, contactez-nous.