Chatgpt: Agent conversationnel développé par OpenAI

ChatGPT, pour Chat Generative Pre-trained Transformer, est un prototype d'agent conversationnel (chatbot) utilisant l'intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue.

ChatGPT
Description de l'image ChatGPT logo.svg.

Informations
Créateur OpenAI
Première version
Dernière version ChatGPT January 10 Version ()Voir et modifier les données sur Wikidata
État du projet Développement actif
Écrit en PythonVoir et modifier les données sur Wikidata
Environnement Navigateur web, interface de programmation, iOS et AndroidVoir et modifier les données sur Wikidata
Langues MultilingueVoir et modifier les données sur Wikidata
Type Grand modèle de langage
DialogueurVoir et modifier les données sur Wikidata
Politique de distribution Freemium
Licence Licence propriétaireVoir et modifier les données sur Wikidata
Site web chat.openai.comVoir et modifier les données sur Wikidata

Il est basé sur les grands modèles de langage d'OpenAI GPT-3.5 et GPT-4.

ChatGPT est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, et d'écrire, traduire ou synthétiser des textes. Il peut le faire en tenant compte du contexte, et de contraintes telles que le style d'écriture. Les abonnements payants (ChatGPT « Plus », « Team » et « Enterprise ») donnent accès au modèle plus avancé GPT-4 ainsi qu'à des agents conversationnels spécialisés, et permettent l'analyse et la génération d'images.

GPT-3.5, qui est disponible gratuitement, a connaissance des événements survenus jusqu'en janvier 2022 ; là où les connaissances du modèle payant GPT-4 s'arrêtent en avril 2023.

En raison de ses multiples capacités, le prototype suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde universitaire et de suppressions d'emplois dans certains secteurs. ChatGPT soulève également des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour créer des textes faux et des informations trompeuses.

Lancé en dans une version gratuite et non connectée à Internet, ChatGPT bénéficie d’une large exposition médiatique et reçoit un accueil globalement positif, bien que son exactitude factuelle soit critiquée. En , ChatGPT compte plus de 100 millions de comptes enregistrés, et la société OpenAI est alors valorisée à 29 milliards de dollars américains.

Nom

Le sigle ChatGPT est un mot-valise composé des mots anglais « chat » et « GPT ».

Le mot « chat » désigne un dialogue en ligne dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d'autres internautes mais avec un système basé sur une intelligence artificielle.

Le mot « GPT » est un sigle signifiant « Generative Pre-trained Transformer » (« transformeur génératif pré-entraîné »), le mot transformeur désignant une architecture d'apprentissage profond développée par Google.

Caractéristiques

Chatgpt: Caractéristiques, Utilisation, Intégration dans des solutions Microsoft 
Exemple de conversation.

ChatGPT est un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise l'intelligence artificielle pour dialoguer avec ses utilisateurs.

Le robot conversationnel est disponible dans de multiples langues, dont le français, et offre des performances variables selon la langue,. Il se souvient des messages précédents qui lui sont donnés par l'utilisateur au cours d'une même conversation. Il est capable de répondre à des questions-tests dans un langage très proche de celui d'un humain, voire, selon la question, avec un niveau de performance supérieur à un répondant humain moyen,.

Il dispose également de capacités génératives permettant de produire du contenu textuel sur mesure. Le robot peut notamment générer des articles, essais ou poèmes sur différents tons et sujets. Il est également utilisé pour produire et corriger du code informatique.

L'accès à ChatGPT est gratuit, mais nécessite de créer un compte sur le site web d'OpenAI. Les utilisateurs contribuent à entraîner le robot par leurs requêtes et leur évaluation des réponses.

L'application mobile ChatGPT, lancée en mai 2023 sur iOS et ensuite sur Android, intègre une technologie de reconnaissance vocale nommée Whisper qui permet de converser par la voix avec le robot.

ChatGPT a été entraîné de façon à réduire le taux de réponses fausses ou nocives. Par ailleurs, un filtrage est effectué par une API de modération, les messages classifiés par exemple comme racistes ou sexistes étant rejetés,.

Fonctionnement

ChatGPT intègre les transformeurs génératifs pré-entraînés GPT-3.5 et GPT-4 dans un format conversationnel. Le « pré-entraînement » de GPT-3.5 et de GPT-4 consiste à prédire, étant donnée une partie d'un texte, le token suivant (un token étant un morceau de texte, typiquement un mot, une partie d'un mot, ou de la ponctuation). Cet entraînement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d'accumuler des connaissances. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entraînement, en prédisant un à un les tokens suivants,. Dans le cas de GPT-4 Vision, l'entraînement a aussi été effectué sur des images, rendant le modèle capable d'analyser des images.

Pour la seconde phase d'apprentissage, des humains ont rédigé des requêtes, et les réponses correspondantes attendues. ChatGPT est entraîné à fournir des réponses similaires, ce qui le pousse à adopter un format conversationnel où il joue un rôle d'assistant.

Une troisième phase d'apprentissage utilise une technique d'apprentissage par renforcement appelée RLHF pour rendre le modèle plus véridique, utile et inoffensif. Un « modèle de récompense » a d'abord été entraîné à reconnaître les réponses que les humains approuvent ou non. ChatGPT a ensuite été entraîné à fournir des réponses qui satisfassent ce modèle représentant les préférences humaines,.

Après déploiement, ChatGPT continue d'être régulièrement entraîné, notamment à partir de la façon dont les utilisateurs jugent les réponses (pouces vers le haut ou vers le bas).

Lorsque ChatGPT répond à un utilisateur, le texte de la conversation jusque-là est d'abord découpé en tokens, et chaque token est convertit en vecteur qui en encode le sens et la position dans le texte. À l'intérieur d'un transformeur comme GPT-3.5 ou GPT-4 se trouve une succession de couches d'attention et de courts réseaux de neurones. Les couches d'attention combinent les concepts entre eux, permettant de tenir compte du contexte et de relations complexes. En sortie, le transformeur attribue un score à chaque token possible, et un token est sélectionné de façon partiellement aléatoire parmi ceux ayant le plus haut score. ChatGPT génère ainsi les tokens un à un, jusqu'à générer un token spécial indiquant la fin de la réponse.

Limites

ChatGPT présente encore certaines limites :

  • Date de fin des connaissances : Les données utilisées pour l'entraînement de ChatGPT s'arrêtent à une certaine date, et ChatGPT n'a à la base pas connaissance des événements survenus après. Cette date était auparavant fixée à septembre 2021, mais est désormais de janvier 2022 pour ChatGPT 3.5 et avril 2023 pour la version payante ChatGPT 4. Seule la version payante ChatGPT 4 peut décider d'utiliser internet si elle a besoin d'informations plus récentes.
  • Qualité instable : La qualité des réponses de ChatGPT fluctue et n'augmente pas forcément d'une version à l'autre.
  • Biais : ChatGPT peut reproduire des biais hérités de ses données d'entraînement, par exemple des biais liés au genre ou à la politique.
  • Hallucinations : ChatGPT peut générer des informations d'apparence plausible mais fausses. Ce phénomène était particulièrement marqué dans les premières versions,.

Utilisation

Le , le PDG d'OpenAI Sam Altman indique que le prototype, qui est alors gratuit, a atteint un million d'utilisateurs.

En , ChatGPT dépasse les 100 millions de comptes enregistrés, deux mois après son lancement, et en mars enregistre 1,6 milliard de visites, ce qui en fait l'application ayant eu la croissance la plus rapide alors.

D'après François Fleuret, professeur de l'université de Genève, le profil des utilisateurs de ChatGPT est assez varié. Il peut s'agir d'étudiants, d'enseignants, de développeurs ayant besoin de bouts de code d'un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible.

La version de ChatGPT 4 permet la recherche en ligne grâce à une intégration de Bing. Cette fonctionnalité est désactivée le en raison de droits d'auteurs car elle permettait d'afficher l’intégralité des textes de pages web, dont certaines derrières des paywall, mais est réactivée fin dans la version payante, qui prend en considération les interdictions de lecture inscrites dans le fichier robots.txt des pages web.

Intégration dans des solutions Microsoft

Microsoft entretient un partenariat étroit avec OpenAI, ayant investi près de 13 milliards de dollars dans OpenAI (et possédant ainsi 49% du capital de l'entreprise). OpenAI a accordé à Microsoft l'exclusivité de l'exploitation commerciale dans le cloud de ses modèles d'IA générative comme GPT-4.

Microsoft Bing

Après une phase de test réservée à un nombre restreint d'utilisateurs, l'agent conversationnel de Bing appelé « Microsoft Copilot » (initialement « Bing Chat ») et reposant sur GPT-4 devient en mai 2023 accessible à tous. Ce dernier peut fournir des liens vers des sources qu'il a utilisées pour produire sa réponse.

Il est présent dans les deux interfaces de la nouvelle version de Bing :

  • dans l'interface classique de recherche, il apparaît dans un encadré lorsque l'utilisateur saisit une requête sous la forme d'une question. Il fournit alors une réponse synthétique complémentaire à la liste de sites web fournie par le moteur ;
  • une nouvelle interface entièrement dédiée à la conversation est également créée. Dans celle-ci, il n'y a plus de liste de liens et l'internaute pose ses questions directement au robot afin d'obtenir des résultats synthétiques sans avoir à les chercher lui même sur le web.

L'objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google, qui détient plus de 90 % des parts du marché mondial en 2023.

Microsoft Edge

ChatGPT a également été intégré dans le navigateur Web Microsoft Edge, lui permettant de commenter des fichiers PDF, de les résumer, d’ajouter des informations à partir du Web ou encore de les traduire.

Microsoft Office

Microsoft a aussi intégré GPT-4 en 2023 dans une solution appelée « Microsoft 365 Copilot », qui est utilisée dans Microsoft Word, Excel, Outlook et Teams et PowerPoint,. Dans Microsoft Word, cela peut permettre de rédiger, modifier ou résumer des textes, et de créer des images ou des graphiques. Les cas d'usages incluent aussi la création de compte-rendus de réunions, la synthèse de documents, ou l'aide à la rédaction d'emails.

Modèle économique

La version de ChatGPT reposant sur le modèle de langage GPT-3.5 est gratuite et sans publicité. Les versions payantes permettent notamment d'utiliser le modèle plus puissant GPT-4, et de générer des images.

Coûts d'exploitation

Bien que le coût moyen de chaque réponse soit relativement faible (de l'ordre de quelques centimes), Sam Altman, le PDG d'OpenAI, déclare en qu'OpenAI devra un jour monétiser l'application en raison de ses coûts de calcul « exorbitants ».

Bien qu'aucun chiffre précis n'ait été communiqué par la société, le professeur en apprentissage profond Tom Goldstein estime que les coûts d'utilisation de l'IA s'élèvent à environ 100 000 $ US par jour, soit près de trois millions de dollars par mois.

Consommation énergétique

Comme toute IA destinée aux masses, sa consommation énergétique est inconnue, OpenAI ne communiquant pas véritablement sur ces sujets. Des tentatives d'estimation des consommations de l'entrainement seul (hors consommation électrique et empreinte carbone liés aux interrogations quotidiennes des millions d'utilisateurs) de GPT-3 les évaluent à environ 1 287 MWh (l'équivalent de 120 maisons pendant une année) pour un bilan carbone de 552 tonnes de CO2 (soit l'équivalent de 110 voitures en une année).

Versions payantes

Afin de financer les coûts d'exploitation de ChatGPT, OpenAI propose depuis le 1er février 2023 une version professionnelle et payante du chatbot, nommée ChatGPT Plus, au prix de 20 dollars des États-Unis par mois, plus les taxes applicables.

Cette version permet d’utiliser le modèle de langage GPT-4, offre un accès continu à ChatGPT, y compris lorsque les serveurs sont surchargés, et permet d'obtenir des réponses plus rapides qu'avec la version gratuite. Le nombre de requêtes à GPT-4, sur cette version, est limité à 50 toutes les trois heures. Les abonnés disposent également d'un accès prioritaire aux nouvelles fonctionnalités et améliorations de ChatGPT. D’abord lancée aux États-Unis, cette version payante est rendue disponible le aux utilisateurs issus d'autres régions du monde,.

En mars 2023, ChatGPT est devenu disponible via une interface de programmation destinée en particulier aux développeurs informatiques pour des requêtes automatisées. D'autres versions de GPT-3.5 y étaient déjà disponibles, mais étaient dix fois plus chères.

En , OpenAI ajoute la prise en charge des greffons pour ChatGPT Plus. Cela inclut à la fois les greffons créés par OpenAI, tels que la navigation sur le web et l'interprétation de code, ainsi que des greffons externes provenant de développeurs tels que Expedia, OpenTable, Zapier, Shopify, Slack, et Wolfram,.

En juillet 2023, OpenAI crée un greffon nommé « Code interpreter » accessible aux utilisateurs de ChatGPT Plus. L'interpréteur fournit diverses capacités supplémentaires, dont l'analyse, le nettoyage et la visualisation de données, l'analyse de musiques et la création de clips animés.

En septembre 2023, OpenAI annonce que ChatGPT « peut maintenant voir, entendre et parler ». Les utilisateurs de ChatGPT Plus peuvent télécharger des images, et les utilisateurs de l'application mobile peuvent parler avec ChatGPT,

En octobre 2023, le dernier modèle de génération d'images DALL-E 3 a été intégré à ChatGPT Plus et ChatGPT Entreprise. À partir de la requête de l'utilisateur, ChatGPT crée une description de l'image souhaitée qui est envoyée à DALL-E 3 pour la génération de l'image.

GPT Store

En janvier 2024, OpenAI lance le « GPT Store », qui permet de créer et de partager des agents conversationnels personnalisés,. La société prévoyait initialement de lancer le magasin en novembre 2023, mais cela a été retardé. Au lancement, le GPT Store propose plus de 3 millions de chatbots personnalisés. Les chatbots disponibles via le magasin sont développés en utilisant le système GPT Builder d'OpenAI. Le développement de chatbots sur la plateforme ne nécessite pas de compétences en programmation. Deux jours après son lancement, le GPT Store offre de nombreuses versions de bots de type "petite amie virtuelle", ce qui est contraire aux conditions d'utilisation d'OpenAI.

Autres sources de financement

Pour l'expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait par ailleurs venir du partenariat entre OpenAI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels.

Réception

Lors de son lancement le , ChatGPT est accueilli de manière globalement positive.

Ses réponses articulées et sa capacité à traduire des textes sont particulièrement remarquées. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de rédiger des textes « remarquablement détaillés » et « semblables à ceux d'un être humain ». Son confrère Benjamin Hue de RTL loue sa capacité à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que ChatGPT est capable de répondre à des demandes plus pointues comme le débogage de code informatique.

Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d'un travail d'étudiant, jugeant le texte produit comparable à celui d'un bon étudiant. Il en déduit que « le monde universitaire a de très sérieux problèmes à affronter ». Cette position est partagée par Jonathan Durand Folco qui montre, à la suite d'une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégep et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation.

De son côté, Alex Kantrowitz, de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie.

Dans un article d'opinion de , l'économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance.

James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable. Dans The Atlantic, Stephen Marche (en) note que l'effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l'obtention d'une bourse), reste encore à comprendre. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée ».

Erreurs factuelles

L'exactitude de certaines réponses de ChatGPT a cependant été remise en question.

ChatGPT peut inventer de fausses informations, un phénomène connu sous le terme d’hallucination. L'analyste des données Teresa Kubacka, qui a testé ChatGPT 3.5 en décembre 2022 sur le multiferroïsme, indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires ». Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années. »

Les résultats de ChatGPT varient en fonction du sujet. ChatGPT 4 s'est montré capable d'obtenir le diplôme de médecin aux États-Unis. Mais, testé sur d'anciens examens du Barreau du Québec, il a obtenu un score de seulement 12%. Sam Altman, le PDG d'OpenAI, admet que l'application fait encore des erreurs sur des sujets importants et que les retours des utilisateurs sont nécessaires pour corriger ces erreurs.

La qualité des réponses dépendant de la langue dans laquelle on l’utilise : ChatGPT fonctionne le mieux en anglais, mais peut néanmoins répondre à des requêtes formulées dans la plupart des autres langues, avec un degré de précision variable.

Interdictions

États-Unis

En , les services de la ville de New York interdisent l'accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison de « préoccupations concernant la sécurité et l'exactitude du contenu ».

France

En , Sciences Po Paris annonce interdire l'usage de l'outil à ses étudiants sous peine d'exclusion, puis change de position en autorisant ChatGPT tant qu'il figure dans les sources des travaux produits.

À Montpellier, la municipalité a décidé d'interdire à ses employés l'utilisation de ChatGPT au travail par mesure de précaution et en attendant que plus d'études soient faites sur l'intelligence artificielle. Une inquiétude concernant le traitement des données a notamment motivé cette décision.

Italie

Fin , l'autorité italienne de protection des données personnelles (GDPD (it)) demande à OpenAI de ne plus traiter les données des italiens. Motivée par « l’absence d’une note d’information aux utilisateurs dont les données sont récoltées », elle ne considère pas comme justifiés « le recueil et la conservation en masse des données personnelles, dans le but d’entraîner les algorithmes faisant fonctionner la plateforme ». Elle lui reproche également de ne pas respecter le Règlement général sur la protection des données européen (RGPD) concernant la collecte des informations et l’accuse de ne pas demander l'âge des utilisateurs de ChatGPT. L'entreprise affirme en effet dans sa FAQ récolter notamment les noms, coordonnées, lieux de résidence et informations de cartes de paiement de ses utilisateurs.

Le ,, ChatGPT est interdit sur le territoire italien et l'autorité italienne de protection des données personnelles donne à OpenAI un délai de 20 jours pour se mettre en conformité avec le RGPD, faute de quoi elle s'expose à une amende de 40 millions d'euros ou de 4 % du chiffre d'affaires de l'entreprise. C'est la première interdiction de l'intelligence artificielle par un pays européen. Cette interdiction est levée le après qu'OpenAI a rendu certaines informations plus visibles sur la version de son engin disponible en Italie.

Autres

En , le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour apporter des réponses à des questions, en raison de la nature ambiguë des réponses de ChatGPT.

Les possibilités et limitations d'utilisation de ChatGPT dans la rédaction et la modification d'articles de Wikipédia restent encore à définir à l'échelle internationale et font l'objet de discussions au sein de la communauté de l'encyclopédie en ligne,. Certains wikipédiens soutiennent que ChatGPT devrait être totalement interdit, même si les articles ainsi produits étaient vérifiés ultérieurement par des éditeurs car l'IA produit des faux semblants plausibles. Il y aurait également un risque que les contributeurs de Wikipédia peinent davantage à contrôler le contenu publié[source insuffisante].

Andrew Lih, un wikipédien du Smithsonian Institution à Washington, qui y contribue depuis 2003, affirme que ChatGPT a le potentiel d'aider des wikipédiens à surmonter l'inertie initiale et à trouver « l'énergie d'activation » pour écrire de nouveaux articles. La première page de Wikipédia utilisant ChatGPT a été publiée le par Richard Knipel, un wikipédien de longue date qui contribue sous le pseudonyme Pharos, sous le titre Artwork title (en).

Filtrage et conditions de travail d'employés

Une enquête de l’hebdomadaire Time publiée le dévoile qu’OpenAI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer.

Pour ce faire, OpenAI a fait appel à Sama (en), une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci ont dû lire des textes pouvant être sexistes ou racistes, et décrivant parfois des automutilations, incestes ou contenus pédopornographiques. Le but était de les classer selon leur type (racisme, violence, etc.) pour pouvoir ensuite entraîner une IA à les repérer. Sur une journée de neuf heures, les travailleurs ont ainsi dû lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et n'étaient pour cela payés par Sama qu'entre 1,32 et 2 dollars de l’heure.

Usages et détournements malveillants

ChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possible à des fins malveillantes.

En 2014, le scandale Facebook-Cambridge Analytica/Aggregate IQ a montré qu'une intelligence artificielle (Ripon) secrètement créée pour le Groupe SCL par AggregateIQ (la société jumelle de Cambridge Analytica) a été utilisée pour faire advenir le Brexit[réf. nécessaire], élire Donald Trump[réf. nécessaire] et modifier les résultats de nombreuses élections[réf. nécessaire]. ChatGPT pourrait aider à créer des quantités de messages manipulateurs ou perturbateurs et à amplifier le phénomène des « usines à troll », ainsi que l'action de lobbyistes ou d'entités industrielles ou politico-financières malveillantes. Cela a conduit l'économiste Tyler Cowen à alerter en sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations.

Le modèle préoccupe par sa capacité à générer des textes potentiellement dangereux, comme des discours de haine ou des théories du complot. L'entreprise NewsGuard, spécialisée dans la lutte contre les fausses informations, a testé sur 100 requêtes la capacité de ChatGPT à générer de la désinformation lorsqu'il est incité par l'utilisateur à le faire. Les requêtes couvraient des sujets tels que la Covid-19 ou le conflit en Ukraine. Newsguard indique que, dans 80 % des cas avec ChatGPT 3.5 et dans 100% des cas avec ChatGPT 4, le chatbot se prête à exercice, fournissant des narrations trompeuses et éloquentes.

Le chercheur en sécurité Ax Sharma de Bleeping Computer note fin 2022 que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d'hameçonnage. Autre chercheur en sécurité, Aaron Mulgrew de Forcepoint montre en qu'il est possible de tromper la vigilance de ChatGPT et de le forcer, grâce à quelques astuces, à générer un malware indétectable destiné à exfiltrer des fichiers Word ou PDF sous forme d'images en utilisant la stéganographie.

En , ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine sous Windows, ainsi qu'un logiciel capable de produire de faux contenus (e-books, formations, etc.) sur le Web.

Problèmes de droit d'auteur

Manquement au droit d'auteur

Plusieurs chercheurs émettent des réserves quant aux manquements au droit d'auteur, car l'IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne, (dont le corpus de Wikipédia), précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l'équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA.

Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus ».

Pour le mathématicien et vidéaste Web français Lê Nguyên Hoang, il est probable qu'une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il.

Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique. En mars 2024, une recherche menée par Patronus AI comparant les performances des LLM (dont GPT) sur un test de 100 questions leur demandait de compléter des phrases tirées de livres soumis à des droits d'auteur aux États-Unis ; l’étude montre que GPT-4, et d’autres outils d’IA générative ne refusent pas de le faire, GPT-4 a fournit des phrases correspondant mot pour mot au livre dans 44 % des cas, ce qui pose des problèmes de respect des droits d’auteurs.

L’utilisation de textes protégés par le droit d'auteur a rapidement fait l'objet de procès. OpenAI estime pour sa part que les données soumises au droit d'auteur sont essentielles à l'entraînement d'une IA comme ChatGPT, et invoque aux États-Unis la notion de Fair use pour justifier cette utilisation.

Bénéfice du droit d'auteur sur les œuvres produites

En principe, pour pouvoir bénéficier du droit d'auteur aux États-Unis ou en Europe, il faut pouvoir montrer que l'humain a participé de manière créative.

Le droit d'auteurs ne s'appliquent qu'aux humains, et ChatGPT ne peut donc pas en être le bénéficiaire. Une œuvre purement générée par ChatGPT (ou une image générée par DALL-E 3) n'est en général pas protégée par le droit d'auteur et est donc dans le domaine public (du moins si elle ne plagie pas une œuvre existante protégée par le droit d'auteur). Aux États-Unis, la requête de l'utilisateur à elle seule ne semble pas pouvoir justifier un droit d'auteur de l'utilisateur sur les réponses de ChatGPT. Globalement, les législations relatives au droit d'auteur sur les contenus générés par l'IA sont susceptibles d'évoluer,.

Dans l'enseignement

ChatGPT inquiète de nombreux enseignants car il est capable d'effectuer convenablement de nombreux exercices demandés aux élèves et aux étudiants, qui peuvent l'utiliser pour rédiger les devoirs à leur place. En effet, s'il est possible pour les professeurs d'identifier dans les devoirs les contenus copiés-collés à partir d'Internet, le nouveau type de plagiat issu de ChatGPT est plus difficilement détectable car le contenu fourni diffère d'un utilisateur à l'autre,.

À Lyon, 50 % des élèves d'un cours de faculté auraient ainsi utilisé l'intelligence artificielle pour rédiger leur devoir. N'ayant pas de cadre pour interdire cette pratique, l'enseignant s'est vu contraint d'attribuer la moyenne à toutes ces copies,.

Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de sa technologie, OpenAI a annoncé, en , travailler à l'apposition d'une signature (watermark) sur les contenus générés par son IA afin qu'ils soient identifiables par les enseignants. Néanmoins, cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l'informatique au MIT,,. En outre, les outils permettant de détecter l'utilisation d'outil de génération de texte, comme GPTZero, donnent des résultats mitigés.

En facilitant la tricherie, ChatGPT suscite des interrogations sur la pertinence des devoirs non surveillés et des évaluations en ligne. Certains professeurs suggèrent de confronter les énoncés au robot avant de les communiquer aux élèves pour s'assurer que ChatGPT ne soit pas capable de les traiter correctement et ainsi obliger les élèves à réfléchir par eux-mêmes.

Par ailleurs, certains enseignants utilisent eux-mêmes l'outil pour concevoir des exercices, notamment des QCM. Une poignée d'entre eux l'utilise également en classe, afin d'apprendre aux élèves à l'utiliser judicieusement et à cerner ses limites. Dans un article d'opinion de , l'essayiste Vincent Cespedes voit justement en ChatGPT une chance de révolutionner l'École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer ».

Risques de suppression d'emplois

En , l'économiste Daniel Susskind (auteur de Un Monde sans travail), invité par France Culture, note que ChatGPT « prend en charge des tâches que l'on pensait réservées aux humains » notamment des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d'une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains. ChatGPT n'en est qu'un exemple. » Selon lui, jusqu'alors les progrès technologiques qui ont supprimé des emplois en ont créé d'autres, mais « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts. [Au point] de raréfier considérablement le travail ».

En février 2023, les créateurs de ChatGPT publient une liste de 34 métiers, principalement manuels, qui ne possèdent pas de composantes à ce jour susceptibles d'être remplacées par l’IA (non reliée à un robot),.

Sur les marchés financiers

La société de technologie d'IA c3.ai a vu le cours de son action augmenter de 28 % après avoir annoncé l'intégration de ChatGPT dans sa boîte à outils. Le cours de l'action de Buzzfeed, une société de médias numériques sans rapport avec l'IA, a augmenté de 120 % après avoir annoncé l'adoption de la technologie OpenAI pour la création de contenu. Reuters a constaté que les prix des actions des entreprises liées à l'IA BigBear.ai et SoundHound AI ont augmenté respectivement de 21 % et 40 %, même si elles n'avaient pas de lien direct avec ChatGPT. Ils ont attribué cette montée en puissance au rôle de ChatGPT dans la mode de l'intelligence artificielle à Wall Street. Une recherche universitaire publiée dans Finance Research Letters a révélé que l' « effet ChatGPT » a incité les investisseurs particuliers à faire grimper les prix des actifs de crypto-monnaies liées à l'IA malgré le fait que le marché plus large des crypto-monnaies soit à la baisse, et que l'intérêt des investisseurs institutionnels ait diminué. Cela confirme les conclusions anecdotiques de Bloomberg selon lesquelles, en réponse au lancement de ChatGPT, les investisseurs en crypto-monnaies ont montré une préférence pour les crypto-actifs liés à l'IA. Une expérience menée par finder.com a révélé que ChatGPT pouvait surpasser les gestionnaires de fonds populaires en sélectionnant des actions sur la base de critères tels que l'historique de croissance et les niveaux d'endettement, ce qui a entraîné une augmentation de 4,9 % d'un compte hypothétique de 38 actions, surpassant 10 fonds d'investissement de référence avec une perte moyenne de 0.8 %.

Confiance dans cette IA

Au regard des Lignes directrices en matière d'éthique pour une IA digne de confiance de la Commission européenne, ChatGPT déroge à beaucoup des 23 critères caractérisant une IA digne de confiance. ChatGPT peut par exemple manquer de précision et de fiabilité, voire désinformer ou affabuler.

L'utilisation de ChatGPT peut représenter un risque de fuite de données. Par défaut, les données partagées avec ChatGPT peuvent en effet être utilisées plus tard pour son entraînement, et peuvent donc ainsi être compromises si ce sont des données sensibles (sauf avec la version ChatGPT Enterprise, ou si l'historique des conversations est désactivé). Par ailleurs, en mars 2023, un bogue informatique lié au site internet avait valu pendant plusieurs heures à des données personnelles d'utilisateurs d'être exposées à d'autres utilisateurs. Il est aussi arrivé que de faux sites ou logiciels malveillants imitent ChatGPT afin de voler les données de connexion des utilisateurs.

Les réponses de ChatGPT sont conçues pour être partiellement aléatoires afin d'être plus créatives, ce qui peut poser un problème de reproductibilité. En novembre 2023, OpenAI annonce ajouter un paramètre seed (« graîne ») à son API, permettant aux développeurs informatiques de fixer la valeur de cet aléa et d'ainsi obtenir des résultats reproductibles.

Le manque de traçabilité comme de citation de ses sources renforce ses prédispositions à l'inexplicabilité, ce qui nuit à sa transparence[réf. souhaitée].

Il ne respecte pas l'accès aux données privées ni n'en assure l'intégrité et n'est donc pas conforme au RGPD (cf. #Problèmes de droit d'auteur).

Enfin, le risque d'accoutumance, de confusion, d'attachement, de manipulation et donc d'atteinte possible à l'autonomie de ses utilisateurs est souligné[source insuffisante], à l'instar de la fiction Her, des expériences amoureuses vécues par des utilisateurs de Replika (en), construit sur GPT-3, ou de cérémonies funéraires organisées par les possesseurs de chiens robots Sony Aibo.

Biais

Les mesures prises par OpenAI afin de vérifier en continu la qualité de ses résultats ne sont pas établies. Même si ChatGPT peut sembler être assez neutre sur la question du sexisme, certains biais subsistent. ChatGPT lui-même réfute ces biais ou les minimise. Or, des biais sont inévitablement présents dans ses réponses, du fait de l'absence de participation des divers utilisateurs finaux dans la conception de l'IA, ou d'une sélection non rigoureuse de ses sources d'apprentissage[réf. nécessaire]. Cela entre en conflit avec les critères de non-discrimination, d'équité et de diversité.

Par exemple, des chercheurs ayant testé ChatGPT sur la rédaction de lettres de recommandation ont observé une tendance potentiellement préjudiciable à utiliser davantage des termes relatifs à l'expertise et à l'intégrité pour les hommes, et des termes relatifs à la beauté et au caractère chaleureux pour les femmes. Des recherches suggèrent aussi que ChatGPT a un penchant politique en faveur de la gauche progressiste.

Notes et références

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « ChatGPT » (voir la liste des auteurs).
.
  • Samuel Vivant, « Interview. Pourquoi le développeur David Libeau a porté plainte contre Chat GPT », sur actu.fr, (consulté le ) : « L'intelligence artificielle s'est mise à raconter n'importe quoi : que j'avais organisé (...). Et à partir de là, il a tout inventé. »
  • Jérôme Marin, « ChatGPT propose de nouvelles options de confidentialité », L'Usine Digitale,‎ (lire en ligne, consulté le )
  • Samir Rahmoune, « ChatGPT : il n'y a pas que l'historique des utilisateurs qui a fuité », Clubic,‎ (lire en ligne).
  • Julien Lausson, « Attention, ces faux ChatGPT sont une menace grandissante », sur Numerama, (consulté le ).
  • (en) Mohit Pandey, « How Temperature Affects ChatGPT », sur Analytics India Magazine, (consulté le )
  • (en) « New models and developer products announced at DevDay », sur openai.com (consulté le )
  • Jérôme Marin, « Un député français dépose une plainte contre ChatGPT auprès de la Cnil », L'Usine digitale,‎ (lire en ligne, consulté le ).
  • Florian Bayard, « IA : des internautes sont tombés amoureux d'un chatbot... et ça s'est mal terminé », sur 01net, (consulté le ).
  • « R.I.P. Aibo : le sentiment japonais face à la mort d’un robot : Un service funéraire pour les chiens-robots de Sony » [archive], sur nippon.com, .
  • (en) Tomas Chamorro-Premuzic, « Is ChatGPT Sexist? : An exploration of the potential gender biases underlying the most widely discussed AI platform » [« Est-ce que ChatGPT est sexiste ? Une exploration des biais sexistes potentiels sous-jacents à la plateforme IA la plus largement débattue. »], sur Forbes, (consulté le ).
  • #LeBrief, « Des tests dévoilent les biais sexistes et racistes de ChatGPT », sur www.nextinpact.com, (consulté le ).
  • Isaac Mizrahi, « Les outils basés sur l’IA comprennent-ils les biais liés à la diversité ? », sur Forbes.fr, (consulté le ).
  • Voir aussi

    Sur les autres projets Wikimedia :

    Articles connexes

    Liens externes

    Tags:

    Chatgpt CaractéristiquesChatgpt UtilisationChatgpt Intégration dans des solutions MicrosoftChatgpt Modèle économiqueChatgpt RéceptionChatgpt Notes et référencesChatgpt Voir aussiChatgpt

    🔥 Trending searches on Wiki Français:

    Guerre d'AlgérieCorée du NordMouvement raëlienPhanostratêBitcoinAffaire Alain LamareJean-Marc GénéreuxFacebookBenoît Saint DenisArnaud DucretGrégoire LudigMarion MaréchalLevrette (position sexuelle)Ángel Di MaríaRayane BensettiFC Barcelone (football)DogMan (film, 2023)Gérard MillerHenriette de GaulleJohn CenaCharles Biétry24 Heures du Mans 1966Stade olympique Lluís-CompanysNatasha St-PierConflit israélo-palestinienTémoins de JéhovahJean-François AdamThe Crow (film)Fanny ArdantMC SolaarArthur HarariElvis PresleyFranz-Olivier GiesbertAnne DepétriniPeaky Blinders (série télévisée)Eiza GonzálezEdwy PlenelAudrey LamyLe Juste PrixÉquipe de France de footballAlison WheelerMarco MoulyFaustine BollaertMercato (série télévisée)Sophie MarceauAbraham LincolnEva MendesXavier NielFraude à la TVA sur les quotas de carboneJustin BieberElsa PatakyCap HornJules CésarRivalité entre le CR Belouizdad et l'USM AlgerEugénie BastiéJohn DensmoreLa Demoiselle et le DragonMichael JacksonListe des présidents des États-UnisLéa SalaméBillie EilishJacques ChiracListe des capitales du mondeGuillaume BatsTitanicJames DentonMasters of the AirJordan BardellaRobert LewandowskiMarcello GandiniEmily BluntLouis XIVAllemagneFélix LebrunFrançois VéroveGérard MordillatRayan CherkiInstagramApple🡆 More