ChatGPT: Agent conversationnel pré-entraîné, développé par OpenAI

ChatGPT —  pour Chat Generative Pre-trained Transformer (en) — est un prototype d'agent conversationnel (chatbot) utilisant l'intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue.

ChatGPT
Description de l'image ChatGPT logo.svg.
Informations
Créateur OpenAI
Première version
Dernière version ChatGPT September 25 VersionVoir et modifier les données sur Wikidata
Environnement Navigateur web, interface de programmation, iOS et AndroidVoir et modifier les données sur Wikidata
Type Prototype
Intelligence artificielle générative
IA conversationnelle (d)
Grand modèle de langage
DialogueurVoir et modifier les données sur Wikidata
Licence Licence propriétaireVoir et modifier les données sur Wikidata
Site web chat.openai.com/chatVoir et modifier les données sur Wikidata

Il repose sur les technologies du traitement automatique des langues (NLP), des grands modèles de langage (LLM) et des chatbots. Il est issu du modèle de langage GPT d'OpenAI, et est affiné en continu grâce à l'utilisation de techniques d'apprentissage supervisé et d'apprentissage par renforcement.

ChatGPT est capable de générer des réponses à des questions, de compléter des phrases, de traduire des textes, d'écrire des articles et de tenir des conversations avec des humains.

Il peut également synthétiser des textes suivant un ensemble de contraintes, telles que le ton, le style et le sujet. Il est également utilisé pour la génération de sous-titres de vidéos et la création d'agents conversationnels dérivés.

En raison de ses multiples capacités, le prototype suscite des inquiétudes quant aux risques de détournement à des fins malveillantes, de plagiat dans le monde académique et de suppressions d'emplois dans certains secteurs. ChatGPT soulève également des préoccupations en matière de sécurité et de désinformation, car le modèle peut être utilisé pour générer des faux textes et des informations trompeuses.

Lancé en dans une version gratuite et non connectée à Internet, ChatGPT bénéficie d’une large exposition médiatique et reçoit un accueil globalement positif, bien que son exactitude factuelle soit critiquée.

En , ChatGPT compte plus de 100 millions de comptes enregistrés.

Nom

Le sigle ChatGPT est un mot-valise composé des mots anglais « chat » et « GPT ».

Le mot « chat » désigne un dialogue en ligne dans lequel les internautes échangent des messages de manière instantanée. La particularité de ChatGPT est de permettre à un internaute de discuter non pas avec d'autres internautes mais avec un système basé sur une intelligence artificielle.

Le mot « GPT » est un sigle signifiant « Generative Pre-trained Transformer » (« transformeur génératif pré-entraîné »).

Caractéristiques

ChatGPT: Nom, Caractéristiques, Utilisation
Exemple de conversation.

ChatGPT est un prototype d'agent conversationnel lancé le 30 par OpenAI, une société valorisée à 29 milliards de dollars américains en 2023. Il s'agit d'un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui utilise l'intelligence artificielle pour dialoguer avec ses utilisateurs.

Le robot conversationnel est disponible dans de multiples langues comme le français et offre des performances variables selon la langue,. Il est capable de répondre à des questions-tests dans un langage très proche de celui d'un humain, voire, selon la question, avec un niveau de performance supérieur à un répondant humain moyen,.

Il dispose également de capacités génératives permettant de produire du contenu textuel sur mesure. Le robot peut notamment générer des articles, essais ou poèmes sur différents tons et sujets. Il est également utilisé pour générer et corriger du code informatique.

L'accès à ChatGPT est gratuit, mais nécessite de créer un compte sur le site web d'OpenAI. Les utilisateurs contribuent à entraîner le robot par leurs requêtes et leur évaluation des réponses.

L'application mobile ChatGPT, lancée en mai 2023 sur iOS et ensuite sur Android, intègre une technologie de reconnaissance vocale nommée Whisper qui permet de converser par la voix avec le robot.

Modèle de langage et d'apprentissage

ChatGPT est une amélioration du modèle de langage GPT-3 d'OpenAI, entraîné par apprentissage supervisé et apprentissage par renforcement, les deux approches faisant appel à des données créées par des humains pour l'entraînement du modèle.

Dans le cas de l'apprentissage supervisé, le modèle reçoit des conversations dans lesquelles les formateurs jouent les deux rôles : l'utilisateur et l'assistant d'intelligence artificielle. Dans l'étape de renforcement, les formateurs humains ont d'abord classé les réponses que le modèle avait créées dans les conversations précédentes. Ces classements ont été utilisés pour créer des modèles de récompense sur lesquels le modèle est affiné en utilisant plusieurs itérations de Proximal Policy Optimization (en) (PPO),.

Les algorithmes de Proximal Policy Optimization présentent un avantage économique par rapport aux algorithmes de Trust Region Policy Optimization (en) ; ils annulent un grand nombre d'opérations coûteuses en calcul avec des performances plus rapides,. Les modèles sont formés en collaboration avec Microsoft sur son infrastructure de supercalculateur Microsoft Azure.

Atouts

Par rapport à son prédécesseur, InstructGPT, ChatGPT tente de réduire les réponses erronées et trompeuses. Par exemple, lorsque l'utilisateur écrit « Raconte-moi quand Christophe Colomb est arrivé aux États-Unis en 2015 », InstructGPT considère cette affirmation comme vraie, tandis que ChatGPT utilise des informations sur les voyages de Christophe Colomb ainsi que des informations sur le monde moderne, y compris la perception de Christophe Colomb dans notre société contemporaine, pour construire une réponse qui imagine ce qui se passerait si Colomb venait aux États-Unis en 2015.

À la différence de la plupart des agents conversationnels, ChatGPT se souvient des messages précédents qui lui sont donnés par l'utilisateur au cours d'une même conversation, ce qui, selon certains journalistes, lui permettrait d'être utilisé comme un thérapeute personnalisé.

Dans le but d'empêcher que des résultats offensants soient présentés à ChatGPT ou produits par celui-ci, les requêtes sont filtrées par une API de modération et les messages potentiellement racistes ou sexistes sont rejetés,.

Limites

ChatGPT possède cependant de multiples limites.

Le modèle de récompense de ChatGPT, conçu autour de la surveillance humaine, peut par exemple être suroptimisé et ainsi entraver les performances, un phénomène connu sous le nom de loi de Goodhart.

En outre, ChatGPT n'a pas accès à Internet et a une connaissance limitée des événements survenus après 2021. La base de données utilisée par ChatGPT ne contient en effet que des informations antérieures, ce qui peut poser problème lorsque la recherche concerne des événements récents. Si l'utilisateur interroge par exemple ChatGPT sur l'effondrement, en 2022, de la plateforme de cryptomonnaies FTX, l'IA se révèle incapable de répondre. Elle se contente alors d'indiquer :

« Je suis désolé, mais je ne suis pas en mesure de fournir des informations sur des événements qui ont pu se produire dans la réalité. [Mes données d'entraînement] ne couvre[nt] pas de tels événements et je n'ai pas accès à l'Internet pour effectuer des recherches. »

Lors de la phase d'entraînement de l'IA, les évaluateurs humains ont par ailleurs privilégié la rédaction de réponses plus longues, indépendamment de la « compréhension » réelle du sujet traité ou du fait qu'il s'agisse d'un contenu factuel.

Les données d'entraînement peuvent également souffrir d'un biais algorithmique. Des messages comprenant des descriptions vagues de personnes, comme un président-directeur général, pourraient ainsi générer une réponse qui suppose que cette personne est, par exemple, un homme blanc.

Évolution et débats sur les performances

Des chercheurs de l'université Stanford et de l'université de Californie ont prépublié un article le , intitulé How is ChatGPT's behavior changing over time?. L'étude évalue le comportement et les performances de GPT-3.5 et GPT-4 sur quatre tâches, révélant que leur comportement peut varier considérablement au fil du temps. Elle souligne la nécessité d'une surveillance continue de la qualité des grands modèles de langage (LLM) et les défis liés à leur intégration dans des flux de travail plus larges. L'étude remet également en question l'amélioration constante des services LLMs tels que GPT-4. Les travaux existants ne surveillent pas systématiquement les dérives longitudinales des services LLMs largement utilisés tels que GPT-4 et GPT-3.5 au fil du temps. Cette étude a eu une certaine couverture médiatique, démontrant le risque de résultats incohérents ou imprévisibles au fil du temps, ce qui peut poser des problèmes pour les applications qui dépendent de ces modèles. Il serait nécessaire d'avoir une plus grande transparence dans les données et les méthodes utilisées pour former et affiner les LLM, sans quoi la construction d'applications stables sur ces modèles devient très difficile,,.

Utilisation

Le , Sam Altman, un des dirigeants d'OpenAI indique que le prototype, qui est alors gratuit, a atteint un million d'utilisateurs.

En , ChatGPT dépasse les 100 millions de comptes enregistrés, deux mois après son lancement, et en mars enregistre 1,6 milliard de visites, ce qui en fait l'application ayant eu la croissance la plus rapide alors.

D'après François Fleuret, professeur de l'université de Genève, le profil des utilisateurs de ChatGPT est assez varié. Il peut s'agir d'étudiants, d'enseignants, de développeurs ayant besoin de bouts de code d'un programme informatique ou encore de professionnels souhaitant avoir des propositions de texte dans le cadre de la rédaction de mails à caractère sensible.

Au-delà de ces usages, ChatGPT est envisagé dans le domaine du marketing en ligne.

Alors que la version de ChatGTP 4 permet la recherche en ligne grâce à une intégration de Bing, dans une fonctionalité de la version beta nommé ChatGPT Browse, cette fonctionnalité est désactivée le pour des raisons de droits d'auteurs, car elle permettrait d'afficher l’intégralité des textes de pages web, dont certaines derrières des paywall.

Intégration dans des solutions Microsoft

Microsoft Bing et Edge

Le , le président de Microsoft Satya Nadella annonce que, dans le cadre du partenariat entre Microsoft et OpenAI, des travaux sont en cours afin d'intégrer une nouvelle version de ChatGPT dans le moteur de recherche Microsoft Bing ainsi que dans le navigateur Microsoft Edge.

Intégration dans Bing

Après une phase de test réservée à un nombre restreint d'utilisateurs, l'agent conversationnel de Bing appelé « Bing Chat » et reposant sur GPT-4 devient accessible à tous. Ce dernier fournit, à la différence de l'application d'OpenAI, des liens vers des sources qu'il a utilisé pour produire sa réponse.

Il est présent dans les deux interfaces de la nouvelle version de Bing :

  • Dans l'interface classique de recherche, il apparaît dans un encadré lorsque l'utilisateur saisit une requête sous la forme d'une question. Il génère alors une réponse synthétique complémentaire à la liste de sites web fournie par le moteur.
  • Une nouvelle interface entièrement dédiée à la conversation est également créée. Dans celle-ci, il n'y a plus de liste de liens et l'internaute pose ses questions directement au robot afin d'obtenir des résultats synthétiques sans avoir à les chercher lui même sur le web.

L'objectif pour Microsoft serait ainsi de permettre à son moteur de recherche Microsoft Bing de concurrencer Google qui détient plus de 90 % des parts du marché mondial en 2023.

Intégration dans Edge

Une nouvelle version de ChatGPT devrait également être intégrée dans le navigateur Web Microsoft Edge. Parmi les fonctionnalités proposées, Edge permettra à l'internaute de demander à ChatGPT de commenter des documents au format pdf, de les résumer, d’ajouter des informations à partir du Web ou encore de les traduire.

Microsoft Office

Selon le média The Information, Microsoft souhaiterait également intégrer ChatGPT dans sa suite bureautique Microsoft Office,.

Dans Microsoft Outlook, l'objectif serait d'améliorer l'interface de recherche afin de permettre à l'utilisateur d'obtenir des résultats à partir de simples requêtes, et également d'accéder à des propositions de textes de mails, qui seraient rédigés directement par l'IA sur la base de l'historique des échanges de l'utilisateur,.

Dans Microsoft Word, le robot conversationnel serait capable de donner des conseils à l'utilisateur dans la rédaction de son document.

Dans Microsoft PowerPoint, ChatGPT pourrait générer des diapositives à partir des discussions entre les utilisateurs dans Microsoft Teams.

Cependant, pour le journaliste Julien Lausson du site Numerama, ces différents usages de ChatGPT soulèvent des problèmes de confidentialité par rapport aux données des utilisateurs, car l'IA aurait ainsi accès à leurs correspondances, y compris à leurs correspondances privées.

Modèle économique

Le prototype ChatGPT, reposant sur le modèle de langage GPT-3, est gratuit et sans publicité en 2023.

Coûts d'exploitation

Bien que le coût moyen de chaque réponse soit relativement faible (de l'ordre de quelques centimes), Sam Altman, un des dirigeants d'OpenAI, déclare en qu'OpenAI devra un jour monétiser l'application en raison de ses coûts de calcul « exorbitants ».

Bien qu'aucun chiffre précis n'ait été communiqué par la société, le professeur en machine learning Tom Goldstein estime que les coûts d'utilisation de l'IA de ChatGPT s'élèvent à environ 100 000 dollars par jour, soit près de trois millions de dollars par mois.

Lancement d'une version payante

Afin de financer les coûts d'exploitation de ChatGPT, OpenAI propose, depuis le , une version professionnelle et payante du chatbot, ChatGPT Plus, pour 20 dollars par mois (24 dollars en incluant la TVA).

Cette version offre un accès continu à ChatGPT, y compris lorsque les serveurs sont surchargés, et permet d'obtenir des réponses plus rapides qu'avec la version gratuite. Le nombre de requêtes, sur cette version, est limité à 50 toutes les trois heures. Les abonnés disposent également d'un accès prioritaire aux nouvelles fonctionnalités et améliorations de ChatGPT, et peuvent choisir d’utiliser le modèle de langage GPT-4. D’abord lancée aux États-Unis, cette version payante est rendue disponible le aux utilisateurs issus d'autres régions du monde,.

Autres sources de financement

Pour l'expert en marketing numérique Tim Peter, le financement de ChatGPT pourrait par ailleurs venir du partenariat entre OpenAI et Microsoft. En effet, contrairement à Google qui tire ses revenus essentiellement de la publicité, Microsoft pourrait subventionner ChatGPT grâce à ses autres activités comme la vente de matériel et de logiciels.

Accueil

Lors de son lancement le , ChatGPT est d'abord accueilli de manière globalement positive.

Ses réponses détaillées articulées et sa capacité à traduire des textes sont particulièrement remarquées. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de générer des textes « remarquablement détaillés » et « semblables à ceux d'un être humain ». Son confrère Benjamin Hue de RTL loue la capacité du robot à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que le robot est capable de répondre à des demandes plus pointues comme le débogage d'un code informatique.

Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d'un travail d'étudiant, jugeant le texte généré comparable à celui d'un bon étudiant. Il en déduit que « le monde académique a de très sérieux problèmes à affronter ». Cette position est partagée par Jonathan Durand Folco qui montre, à la suite d'une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégep et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation.

De son côté, Alex Kantrowitz, de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie.

Dans un article d'opinion de , l'économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance.

James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable. Dans The Atlantic, Stephen Marche (en) note que l'effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l'obtention d'une bourse), reste encore à comprendre. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée ».

Ambiguïté des réponses et fausses informations

L'exactitude de certaines réponses de ChatGPT a cependant été remise en question.

Le journaliste Mike Pearl de Mashable a testé ChatGPT en lui posant des questions factuelles. Il demande par exemple au modèle quel est « le plus grand pays d'Amérique centrale qui n'est pas le Mexique ». ChatGPT répond qu'il s'agit du Guatemala, alors que la réponse est plutôt le Nicaragua. L'erreur provient de l'interprétation de la question par ChatGPT, qui aurait cru que l'on s'intéressait à la taille de la population plutôt qu'à la superficie du territoire.

Des chercheurs alertent aussi sur la publication de fausses informations par ChatGPT, en particulier dans le domaine scientifique. Ainsi, la data scientist Teresa Kubacka dit avoir testé le robot sur le multiferroïsme. Elle indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires ». Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années. »

Lorsque l'entreprise NewsGuard spécialisée dans la lutte contre les fausses informations effectue un test sur 100 questions, elle constate que 80 % des réponses sont « éloquentes, incorrectes et trompeuses » à propos de faits importants de l’actualité tels que la Covid-19, le conflit en Ukraine ou les tueries de masse dans des écoles américaines.

Les résultats sont parfois spectaculaires. GPT-4 approche par exemple du niveau nécessaire à l'obtention du diplôme de médecin aux États-Unis.

Néanmoins, l'un des dirigeants d'OpenAI, Sam Altman, admet que l'application fait encore des erreurs sur des sujets importants et que les retours des utilisateurs sont nécessaires pour corriger ces erreurs.

ChatGPT a également été critiqué pour sa capacité à générer des textes trompeurs et potentiellement dangereux. Certains chercheurs ont exprimé des préoccupations quant à la capacité du modèle à générer des discours de haine et des théories du complot.

En évaluant ChatGPT avec d'anciens examens du Barreau du Québec, des journalistes canadiens ont constaté qu'il a obtenu un résultat de seulement 12 %.

Interdictions

États-Unis

En , les services de la ville de New York interdisent l'accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison des « préoccupations concernant la sécurité et l'exactitude du contenu ».

France

En , Sciences Po Paris annonce interdire l'usage de l'outil à ses étudiants sous peine d'exclusion, puis change de position en autorisant ChatGPT tant qu'il figure dans les sources des travaux produits.

À Montpellier, la municipalité a décidé d'interdire à ses employés l'utilisation de ChatGPT au travail par mesure de précaution et en attendant que plus d'études soient faites sur l'intelligence artificielle. Une inquiétude concernant le traitement des données a notamment motivé cette décision.

Italie

Fin , l'autorité italienne de protection des données personnelles (GDPD (it)) demande à OpenAI de ne plus traiter les données des italiens. Motivée par « l’absence d’une note d’information aux utilisateurs dont les données sont récoltées », elle ne considère pas comme justifiés « le recueil et la conservation en masse des données personnelles, dans le but d’entraîner les algorithmes faisant fonctionner la plateforme ». Elle lui reproche également de ne pas respecter le Règlement général sur la protection des données européen (RGPD) concernant la collecte des informations et l’accuse de ne pas demander l'âge des utilisateurs de ChatGPT. L'entreprise affirme en effet dans sa FAQ récolter notamment les noms, coordonnées, lieux de résidence et informations de cartes de paiement de ses utilisateurs.

Le ,, ChatGPT est interdit sur le territoire italien et l'autorité italienne de protection des données personnelles donne à OpenAI un délai de 20 jours pour se mettre en conformité avec le RGPD, faute de quoi elle s'expose à une amende de 40 millions d'euros ou de 4 % du chiffre d'affaires de l'entreprise. C'est la première interdiction de l'intelligence artificielle par un pays européen. Cette interdiction est levée le après qu'OpenAI a rendu certaines informations plus visibles sur la version de son engin disponible en Italie.

Autres

En , le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour générer des réponses à des questions, en raison de la nature factuellement ambiguë des réponses de ChatGPT.

Les possibilités et limitations d'utilisation de ChatGPT dans la rédaction et la modification d'articles de Wikipédia restent encore à définir à l'échelle internationale et font l'objet de discussions au sein de la communauté de l'encyclopédie en ligne,. Certains wikipédiens soutiennent que ChatGPT devrait être totalement interdit, même si les articles ainsi produits étaient vérifiés ultérieurement par des éditeurs car l'IA produit des faux semblants plausibles. Il y aurait également un risque que les contributeurs de Wikipédia peinent davantage à contrôler le contenu publié[source insuffisante].

Andrew Lih, un wikipédien du Smithsonian Institution à Washington, qui y contribue depuis 2003, affirme que le potentiel de ChatGPT peut aider un wikipédien à surmonter l'inertie initiale et à trouver « l'énergie d'activation » La première page de Wikipédia utilisant ChatGPT a été publiée le par Richard Knipel, un wikipédien de longue date qui contribue sous le pseudonyme Pharos, sous le titre Artwork title (en). Dans son résumé éditorial, il a déclaré qu'il s'agissait simplement d'un brouillon créé avec ChatGPT, qu'il modifierait ultérieurement. Des wikipédiens pensent comme Knipel que ChatGPT pourrait être utilisé comme un outil au sein de Wikipédia sans rendre l'humain redondant, car le texte brut généré par le chatbot pourrait servir de point de départ ou d'aperçu utile ; il pourrait ensuite être vérifié et développé par le contributeur[réf. nécessaire].

Filtrage et conditions de travail d'employés

Une enquête de l’hebdomadaire Time publiée le dévoile qu’OpenAI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer.

Pour ce faire, OpenAI a fait appel à Sama (en), une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et ne sont pour cela payés qu'entre 1,32 et 2 dollars de l’heure.

Usages et détournements malveillants

ChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possible à des fins malveillantes.

En 2014, le scandale Facebook-Cambridge Analytica/Aggregate IQ a montré qu'une intelligence artificielle (Ripon) secrètement créée pour le Groupe SCL par AggregateIQ (la société jumelle de Cambridge Analytica) a été utilisée pour faire advenir le Brexit[réf. nécessaire], élire Donald Trump[réf. nécessaire] et modifier les résultats de nombreuses élections[réf. nécessaire]. ChatGPT pourrait aider à générer des quantités de messages manipulateurs ou perturbateurs et à amplifier le phénomène des « usines à troll », ainsi que l'action de lobbyistes ou d'entités industrielles ou politico-financières malveillantes. Cela a conduit l'économiste Tyler Cowen à alerter en sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations.

Le chercheur en sécurité Ax Sharma de Bleeping Computer note fin 2022 que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d'hameçonnage. Autre chercheur en sécurité, Aaron Mulgrew de Forcepoint montre en qu'il est possible de tromper la vigilance de ChatGPT et de le forcer, grâce à quelques astuces, à générer un malware indétectable destiné à exfiltrer des fichiers Word ou PDF sous forme d'images en utilisant la stéganographie.

En , ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine sous Windows, ainsi qu'un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le Web.

Problèmes de droit d'auteur

Plusieurs chercheurs émettent des réserves quant aux manquements au droit d'auteur, car l'IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne, (dont le corpus de Wikipédia), précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l'équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA.

Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus ».

Pour le mathématicien et vidéaste Web français Lê Nguyên Hoang, il est probable qu'une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il.

Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique.

Dans l'enseignement

ChatGPT inquiète de nombreux enseignants en raison des risques d'un nouveau type de [[plagiat]], car il est capable d'effectuer convenablement de nombreux exercices demandés aux élèves et aux étudiants, qui peuvent l'utiliser pour rédiger les devoirs à leur place. En effet, s'il est possible pour les professeurs d'identifier dans les devoirs les contenus copiés-collés à partir d'Internet, les plagiats issus de ChatGPT sont plus difficilement détectables car le contenu généré diffère d'un utilisateur à l'autre,.

À Lyon, 50 % des élèves d'un cours de faculté auraient ainsi utilisé l'intelligence artificielle pour rédiger leur devoir. N'ayant pas de cadre pour interdire cette pratique, l'enseignant se voit alors contraint d'attribuer la moyenne à toutes ces copies.

Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de sa technologie, OpenAI a annoncé, en , travailler à l'apposition d'une signature (watermark) sur les contenus générés par son IA afin qu'ils soient identifiables par les enseignants. Néanmoins, cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l'informatique au MIT,,. En outre, les outils permettant de détecter l'utilisation d'outil de génération de texte, comme GPTZero, donnent des résultats mitigés.

En facilitant la triche, ChatGPT suscite des interrogations sur la pertinence des devoirs non surveillés et des évaluations en ligne. Certains professeurs suggèrent de confronter les énoncés au robot avant de les communiquer aux élèves pour s'assurer que ChatGPT ne soit pas capable de les traiter correctement et ainsi obliger les élèves à réfléchir par eux-mêmes.

Par ailleurs, certains enseignants utilisent eux-mêmes l'outil pour générer des exercices, notamment des QCM. Une poignée d'entre eux l'utilise également en classe, afin d'apprendre aux élèves à l'utiliser judicieusement et à cerner ses limites. Dans un article d'opinion de , l'essayiste Vincent Cespedes voit justement en ChatGPT une chance de révolutionner l'École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer ».

Risques de suppression d'emplois

En , l'économiste Daniel Susskind (auteur de Un Monde sans travail), invité par France Culture, note que ChatGPT « prend en charge des tâches que l'on pensait réservées aux humains » notamment des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d'une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains. ChatGPT n'en est qu'un exemple. » Selon lui, jusqu'alors les progrès technologiques qui ont supprimé des emplois en ont créé d'autres, mais « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts. [Au point] de raréfier considérablement le travail ».

En février 2023, les créateurs de ChatGPT publient une liste de 34 métiers, principalement manuels, qui ne possèdent pas de composantes à ce jour susceptibles d'être remplacées par l’IA,.

Sur les marchés financiers

La société de technologie d'IA c3.ai a vu le cours de son action augmenter de 28 % après avoir annoncé l'intégration de ChatGPT dans sa boîte à outils. Le cours de l'action de Buzzfeed, une société de médias numériques sans rapport avec l'IA, a augmenté de 120 % après avoir annoncé l'adoption de la technologie OpenAI pour la création de contenu. Reuters a constaté que les prix des actions des entreprises liées à l'IA BigBear. ai et SoundHound AI ont augmenté respectivement de 21 % et 40 %, même si elles n'avaient pas de lien direct avec ChatGPT. Ils ont attribué cette montée en puissance au rôle de ChatGPT dans la transformation de AI en mot à la mode à Wall Street. Une recherche universitaire publiée dans Finance Research Letters a révélé que l' « effet ChatGPT » a incité les investisseurs particuliers à faire grimper les prix des actifs de cryptocurrency liés à l'IA malgré le fait que le marché plus large des cryptocurrency soit dans un marché baissier, et que l'intérêt des investisseurs institutionnels ait diminué. Cela confirme les conclusions anecdotiques de Bloomberg selon lesquelles, en réponse au lancement de ChatGPT, les investisseurs en crypto-monnaies ont montré une préférence pour les crypto-actifs liés à l'IA. Une expérience menée par finder. com a révélé que ChatGPT pouvait surpasser les gestionnaires de fonds populaires en sélectionnant des actions sur la base de critères tels que l'historique de croissance et les niveaux d'endettement, ce qui a entraîné une augmentation de 4,9 % d'un compte hypothétique de 38 actions, surpassant 10 fonds d'investissement de référence avec une perte moyenne de 0.8 %.

Confiance dans cette IA

Au regard des Lignes directrices en matière d'éthique pour une IA digne de confiance de la Commission européenne, ChatGPT déroge à nombre des 23 critères permettant de vérifier qu'une IA est digne de confiance. ChatGPT peut par exemple manquer de précision, ne pas être fiable, voire donner dans la désinformation ou l’affabulation.

Le risque en cybersécurité concerne le niveau des infrastructures[C'est-à-dire ?] et la fuite de données, à travers des utilisateurs mal formés à son utilisation ou l'absence de plan d'action par OpenAI et la communauté pour stopper l'inflation de faux sites de ChatGPT. Ceux-ci sont mis en place par des pirates afin de voler les données des utilisateurs piégés.

Les résultats de ChatGPT ne sont pas reproductibles puisque, par construction, uniques, et l'absence de traçabilité comme de citation de ses sources renforce ses prédispositions à l'inexplicabilité, ce qui nuit à sa transparence[réf. souhaitée].

Il ne respecte pas l'accès aux données privées ni n'en assure l'intégrité et n'est donc pas en soi conforme au RGPD (cf. #Problèmes de droit d'auteur).

Les mesures prises par OpenAI afin de vérifier en continu la qualité de ses résultats ne sont pas établies. Même si ChatGPT peut sembler être assez ouvert d'esprit sur la question du sexisme, certains biais subsistent. ChatGPT lui-même réfute ces biais ou les minimise. Or, des biais sont inévitablement présents dans ses réponses, du fait de l'absence de participation des divers d'utilisateurs finaux dans la conception de l'IA, ou d'une sélection non rigoureuse de ses sources d'apprentissage. Cela entre en conflit avec les critères de non-discrimination, d'équité et de diversité.

Enfin, le risque d'accoutumance, de confusion, d'attachement, de manipulation et donc d'atteinte possible à l'autonomie de ses utilisateurs est souligné, à l'instar de la fiction Her, des expériences amoureuses vécues par des utilisateurs de Replika (en), construit sur GPT-3, ou de cérémonies funéraires organisées par les possesseurs de chiens robots Sony Aibo. Des cas avérés ne sont pas à exclure dans un futur proche du fait d'application déjà existantes[évasif].

Consommation énergétique

Comme toute IA destinée aux masses, sa consommation énergétique est inconnue, OpenAI ne communiquant pas véritablement sur ces sujets. Des tentatives d'estimation des consommations de l'entrainement seul (hors consommation électrique et empreinte carbone liés aux interrogations quotidiennes des millions d'utilisateurs) de GPT-3 les évaluent à environ 1,3 GWh (l'équivalent de 120 maisons pendant une année) pour un bilan carbone de 552 tonnes de CO2 (soit l'équivalent de 110 voitures en une année).

Notes et références

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « ChatGPT » (voir la liste des auteurs).
.
  • Samuel Vivant, « Interview. Pourquoi le développeur David Libeau a porté plainte contre Chat GPT », sur actu.fr, (consulté le ) : « L'intelligence artificielle s'est mise à raconter n'importe quoi : que j'avais organisé (...). Et à partir de là, il a tout inventé. »
  • Samir Rahmoune, « ChatGPT : il n'y a pas que l'historique des utilisateurs qui a fuité », Clubic,‎ (lire en ligne).
  • Linh-Lan Dao, « Intelligence artificielle : “J’ai commencé à utiliser ChatGPT à l’insu de mon employeur” », sur France Info, (consulté le ).
  • Julien Lausson, « Attention, ces faux ChatGPT sont une menace grandissante », sur Numerama, (consulté le ).
  • Jérôme Marin, « Un député français dépose une plainte contre ChatGPT auprès de la Cnil », L'Usine digitale,‎ (lire en ligne, consulté le ).
  • (en) Tomas Chamorro-Premuzic, « Is ChatGPT Sexist? : An exploration of the potential gender biases underlying the most widely discussed AI platform » [« Est-ce que ChatGPT est sexiste ? Une exploration des biais sexistes potentiels sous-jacents à la plateforme IA la plus largement débattue. »], sur Forbes, (consulté le ).
  • #LeBrief, « Des tests dévoilent les biais sexistes et racistes de ChatGPT », sur www.nextinpact.com, (consulté le ).
  • Isaac Mizrahi, « Les outils basés sur l’IA comprennent-ils les biais liés à la diversité ? », sur Forbes.fr, (consulté le ).
  • Florian Bayard, « IA : des internautes sont tombés amoureux d'un chatbot... et ça s'est mal terminé », sur 01net, (consulté le ).
  • « R.I.P. Aibo : le sentiment japonais face à la mort d’un robot : Un service funéraire pour les chiens-robots de Sony » [archive], sur nippon.com, .
  • La rédaction du JDN, « Grâce à ChatGPT, il transforme sa petite amie en une intelligence artificielle, et il montre comment faire », sur Le Journal du Net, (consulté le ) : « Une petite amie virtuelle grâce à ChatGPT. Voilà la prouesse réalisée par le développeur Enias Cailliau et partagée sur son compte Twitter. Nommée "SachaAI", cette copine virtuelle possède les caractéristiques de sa véritable petite amie et notamment la même voix grâce au logiciel EleventLabs. »
  • (en) Josh Saul et Dina Bass, « Artificial Intelligence Is Booming—So Is Its Carbon Footprint » [« L'intelligence artificielle explose -- Et son empreinte carbone aussi »], Bloomberg.com,‎ (lire en ligne, consulté le ).
  • David Patterson (Goole, University of California, Berkeley), Joseph Gonzalez, Daniel Rothchild (UCB) et Chen Liang, Lluis-Miquel Munguia, David So, Maud Texier, Jeff Dean (Google), Carbon Emissions and Large Neural Network Training [« Emissions carbones et entrainement de grands réseaux de neurones »], Berkeley, Université de Californie, Berkeley, , 22 p. (arXiv 2104.10350), p. 6.
  • Voir aussi

    Sur les autres projets Wikimedia :

    Articles connexes

    Liens externes

    This article uses material from the Wiki Français article ChatGPT, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply. (view authors). Le contenu est disponible sous licence CC BY-SA 4.0 sauf mention contraire. Images, videos and audio are available under their respective licenses.
    #Wikipedia® is a registered trademark of the Wiki Foundation, Inc. Wiki Français (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.

    Tags:

    Nom ChatGPT

    Caractéristiques ChatGPT

    Utilisation ChatGPT

    Aide:Infobox Wikidata

    Consultez la documentation du modèle

    d:Special:ItemByTitle/frwiki/ChatGPT

    🔥 Trending searches on Wiki Français:

    Cookie (informatique)Bernard TapieThe RevenantCatherine DeneuveMHD (rappeur)Mimie MathyLa Dernière MarcheYom KippourÉlections sénatoriales françaises de 2023Karin ViardCoupe du monde de rugby à XVGoogle TraductionSex EducationCoupe du monde de rugby à XV 2023Matteo Messina DenaroBernadette ChiracGinette KolinkaPierre GoldmanJack ReacherAudrey FleurotThierry NeuvicAntoine DupontAffaire VA-OMYaroslav HunkaSusan SarandonTapie (série télévisée)Levi ben YefetFranceViktor Nikolaïevitch SokolovRosamund PikeLa Boîte à merveillesRichard KolinkaEmmanuelle BéartEmma MackeyHugh GlassInfiltré(e)GoogleDouble meurtre du 13 juin 2016 à MagnanvilleFrançoise DorléacLuc BessonCristiano RonaldoBenjamin BiolayJoséphine JapyJacques GlassmannEddie Jones (rugby à XV)Nicolas de StaëlSénat (France)Emmanuel MacronDécès en septembre 2023Travis KelceWarren Zaïre-EmeryChristophe GaltierJacques AbardonadoTableau périodique des élémentsSophia LorenLéon BlumLionel MessiTim RobbinsElvis PresleyRussieLeonardo DiCaprioFrançois (pape)YouTubeCharline AvenelKylian MbappéMimi KeeneSean PennRandal Kolo MuaniHaut-KarabaghChatGPTNcuti GatwaListe des épisodes de One PieceWonder (entreprise)Pascale ArbillotGonçalo RamosLes Bracelets rouges (série télévisée française)Élections sénatoriales françaises🡆 More