Depuis un an, on en parle beaucoup, il fait peur, il fascine. Il va révolutionner le monde du travail, le monde de la science, le monde tout court. C’est quoi? C’est ChatGPT ! Il peut nous apprendre beaucoup de choses, il peut nous « faire la conversation » comme un humain ou presque. Pourtant, Chat GPT n’est qu’un logiciel d’intelligence artificielle.
Chat quoi?
ChatGPT signifie en anglais Generative Pre-trained Transformer, « transformeur génératif pré-entrainé » en français. Expliquons les mots. Génératif veut dire que ChatGPT peut générer, produire du contenu. Dans le cas de ChatGPT, c’est du texte. Quand vous posez une question à ChatGPT, il vous répond par des phrases qui sont correctes et qui vous donnent des réponses. « Pré-entrainé » veut dire simplement que ChatGPT a été entrainé à assembler des mots et des phrases logiques pour répondre aux questions. Le mot « transformeur » est plus compliqué à expliquer.
Un texte à trous
Ce qui est appelé ici « transformeur », c’est un modèle de langue. Qu’est-ce qu’un modèle de langue? C’est ce qui permet de trouver un mot qui vient après d’autres mots. Un exemple simple, c’est le SMS. On écrit : Bonjour, Comment… Et notre téléphone nous propose automatiquement les mots suivants : …ça va ? ChatGPT est beaucoup plus puissant. Il peut donc proposer des textes beaucoup plus complets et beaucoup plus compliqués que les mots d’un SMS. C’est comme de gigantesques textes à trous. A partir d’un contexteLes circonstances, les conditions, les explications d'un événement, d'un fait, d'une action, il prédit un mot. Il peut aussi faire le contraire : prédire le contexte à partir d’un mot. Pour faire ça, on fait des opérations mathématiques sur les mots. On pourrait dire que l’on transforme des mots et des phrases existantes par des opérations mathématiques très compliquées, on arrive alors à produire des mots et construire des phrases pour répondre aux questions.
Pas d’actualité
Et ChatGPT ne fait pas que répondre aux premières questions posées, vous pouvez lui « faire la conversation ». Vous pouvez réagir à sa réponse et lui reposer une question plus précise ou lui faire une remarque. ChatGPT écrit comme un être humain, mais un être humain qui a un langage très standardisé. Seule limite : ChatGPT n’est pas relié en direct aux informations d’internet puisqu’on a dû l’entrainer sur des données déjà publiées. ChatGPT signale d’ailleurs qu’il n’a pas de données actualisées.
Des milliards et des milliards de mots
Pour que ChatGPT puisse répondre aux questions parfois très difficiles et « converser avec nous, il faut au départ beaucoup de données. ChatGPT utilise une grosse quantité de textes en tous genres écrits par des humains. Les textes qui existent sur le web : Wikipédia, tous les livres qui sont sur internet, les journaux et des millions de sites. Le 1er modèle de ChatGPT sorti fin 2022 était basé sur 300 000 milliards de mots utilisés! Il faut ensuite des milliards d’opérations pour trier et traiter tous les textes. Et il faut ensuite entrainer ChatGPT à répondre. Cela coute très cher et très cher aussi à l’environnement. Par exemple, l’entrainement pendant quelques semaines d’une version de ChatGPT a consommé autant d’électricité que 275 ménages français moyens pendant un an. Ce n’est pas le seul problème posé par ChatGPT.
Des milliards et des milliards de bénéfices?
ChatGPT a été créé par l’entreprise OpenAI financée par des milliardaires, Elon Musk entre autres. Elon Musk a quitté OpenAI, c’est Microsoft de Bill Gates qui est aujourd’hui partenaire d’OpenAI. ChatGPT intéresse donc les grandes entreprises. ChatGPT est gratuit comme Google, Youtube, etc. Mais Google et Youtube font des bénéfices grâce à la publicité. Dans peu de temps, il est très possible que ce soit le cas pour ChatGPT.
ChatGPT n’est pas intelligent
La puissance de ChatGPT est aussi une menace. ChatGPT peut aider des étudiants, des professeurs, des médecins, etc. ChatGPT peut aussi aider des… criminels. ChatGPT pourrait créer des codes informatiques pour pirater des sites ou des comptes en banque. Il faut se méfier de ChatGPT. C’est un outil formidable, mais qui peut parfois se tromper. Il faut surtout se dire que ChatGPT est une nouveauté de ce que l’on appelle l’intelligence artificielle. Et l’intelligence artificielle n’est pas l’intelligence humaine.
Et l’homme dans tout ça?
Dans les années 1960, un informaticien américain avait créé Eliza, un des premiers programmes de traitement du langage. Le programme informatique Eliza répondait aux questions des humains comme si c’était un psychothérapeute. Parfois, les réponses d’Eliza étaient une imitation ironique de réponses classiques d’un psychothérapeute. Beaucoup de personnes n’ont pas repéré qu’Eliza n’était pas un vrai psychothérapeute et étaient devenus « accros » à Eliza et à ses réponses. Cet informaticien américain, Joseph Weizenbaum en a tiré une leçon toute simple : « Il y a certaines fonctions humaines que les ordinateurs ne devraient pas remplacer. »