L'intelligence artificielle générative a le vent en poupe et se retrouve désormais non seulement dans le format bien connu du chat, mais aussi sous de nombreuses formes en tant qu'assistant IA, par exemple dans les applications de productivité. Nous nous demandons: quelles sont les IA textuelles génératives et comment fonctionnent-elles? Sur cette page, nous fournissons des informations intéressantes sur l'IA textuelle générative, des aides au prompt et des exemples d'application classiques ou créatifs.
Aller directement au sujet
Partager la page
Comment fonctionnent les IA textuelles?
Pour répondre à cette question, le mieux est de regarder de plus près le nom du modèle de transformation le plus connu d'OpenAI, ChatGPT.
Car c'est dans ce dernier que se cache la recette du succès du modèle linguistique le plus répandu:
En somme, cela signifie que les IA textuelles génératives sont toujours une combinaison du modèle et des données collectées lors de l'entraînement, dont la combinaison permet à l'IA de répondre correctement aux questions en prédisant uniquement le mot ou le jeton suivant.
Les fournisseurs d'IA textuelle générative se multiplient de manière explosive depuis quelques mois. Parmi les plus connus, on trouve ChatGPT, Google Gemini, Meta Llama ou Claude.
Bien que les modèles linguistiques soient conçus et très performants pour comprendre le langage naturel et réagir en conséquence, une structure et un langage clairs permettent d'anticiper et d'obtenir des réponses pertinentes de la part de l'IA.
Chaque IA générative fonctionne un peu différemment, mais ce schéma de prompt aide comme principe pour toutes:
Un exemple d'invite:
"Tu es un professeur d'astrophysique. Explique-moi, comme à un petit enfant, comment se forme un trou noir. Rédige ta réponse sous la forme d'un article avec des intertitres. Utilise le texte ci-dessous comme exemple de style d'écriture".
Lors de l'utilisation de l'intelligence artificielle générative, il est important de garder à l'esprit qu'il ne faut pas fournir de données personnelles inutiles. A cet égard, gardez à l'esprit ce qui suit:
Les nombreux guides et astuces disponibles sur le web, qui promettent des réponses encore plus pertinentes de l'IA générative, prouvent à quel point il est essentiel de savoir anticiper pour atteindre ses objectifs lors de l'utilisation de l'IA générative.
CO-STAR et TIDD-EC sont deux de ces schémas d'invite qui peuvent vous aider à créer une invite efficace. Les noms de ces schémas sont composés des premières lettres anglaises de leurs composants:
Le champ d'application de l'IA textuelle générative est immense. Depuis que l'intelligence artificielle générative (également sous la forme d'assistants IA) est à la disposition du grand public, ce champ d'application s'est encore élargi.
Vous trouverez ici deux exemples d'application de ce type - du plus classique au plus créatif :
Utilisez le contexte de votre CV et de l'offre d'emploi sélectionnée pour générer une première ébauche de votre candidature, que vous pourrez ensuite modifier manuellement. Vous pouvez utiliser l'exemple d'invite suivant:
Attention: pour des raisons de protection des données, essayez de ne pas fournir de données personnelles à l'IA, même si elles se rapportent à votre CV personnel.
C'est justement lorsqu'il s'agit d'écrire de la fiction que les IA textuels génératifs sont très bons. Voici une idée de la manière dont vous pouvez utiliser cette créativité pour un jeu d'aventure textuel comme dans les années 80, pour jouer à un jeu sans limites dans la programmation.
L'intelligence artificielle générative a également ses faiblesses. La force des modèles linguistiques réside - comme leur nom l'indique - dans le traitement du langage. Mais comme les mécanismes du monde des nombres ne fonctionnent pas de manière analogue à ceux du langage, la plupart des modèles linguistiques ont du mal à générer de manière cohérente des réponses correctes à des tâches mathématiques.
ChatGPT-4, par exemple, est souvent très proche du résultat, mais ne l'atteint jamais exactement. Avec ChatGPT-4o, OpenAI a trouvé une solution à ce problème: Le modèle de langage reformule le problème mathématique en code, l'exécute dans un environnement de programmation et affiche le résultat ainsi généré comme réponse à la question.
L'intelligence artificielle générative offre un grand potentiel pour l'humanité, par exemple dans le domaine de l'automatisation, mais elle est également liée à certains risques.
Dans quelle direction l'intelligence artificielle générative va-t-elle évoluer à l'avenir? Une grande partie du monde de la technologie voit dans ce que l'on appelle les "Large Action Models" ou "agents IA" l'avenir des modèles linguistiques. Mais qu'est-ce que cela signifie?
Les Large Action Models (LAM) devraient à l'avenir constituer l'interface entre l'intelligence artificielle et l'homme. L'objectif est fixé à l'IA par le biais d'une saisie textuelle, vocale ou autre. Pour atteindre cet objectif, le LAM divise le processus nécessaire en tâches partielles et les fait exécuter par des agents autonomes - les assistants IA. Ces derniers renvoient ensuite les résultats au LAM central.
Voici un exemple de ce à quoi cela pourrait ressembler:
L'utilisateur* est invité :
"Prévois-moi un dîner avec mon meilleur ami Daniel ce soir".
LAM divise la tâche en sous-tâches :
1. Vérifier dans le calendrier de l'utilisateur* (et de Daniel) quand les deux sont disponibles (à partir de).
2. Où se trouvent actuellement l'utilisateur/l'utilisatrice et Daniel?
3. Quel est le temps sur place?
4. Quels sont les restaurants à proximité?
5. Quel est le menu?
6. Est-il possible de réserver via un formulaire sur le site web du restaurant?
Des assistants IA répondent à toutes ces tâches partielles. Dès que toutes les tâches partielles ont été effectuées, le LAM reçoit un feed-back correspondant et en informe l'utilisateur ou l'utilisatrice.
LAM répond:
"Avec plaisir! Comme il pleut aujourd'hui, je t'ai choisi le restaurant L'interno à Olten, qui propose une cuisine italienne avec des options végétariennes et végétaliennes. Voulez-vous que je vous le réserve pour 19 heures"?
Comme vous pouvez le constater, les capacités des modèles vocaux dépasseront très probablement à l'avenir la simple génération de texte. En conséquence, le format "chat sur le web" disparaîtra probablement à nouveau et sera remplacé par un assistant IA qui accompagnera et soutiendra les utilisateurs au quotidien sur tous les appareils.
Marcel est formateur chez Swisscom. Il est à votre disposition pour toutes les questions autour de l’IA.
Formateur chez Swisscom
Thème
Comment fonctionne une IA générative?
Nous, les êtres humains, ne pensons pas tout à nouveau à chaque instant, mais nous apprenons et construisons de nouvelles connaissances sur ce que nous avons appris précédemment. Nos pensées et nos souvenirs restent dans notre mémoire et forment ainsi la base de nouvelles connexions.
Nous, les êtres humains, ne pensons pas tout à nouveau à chaque instant, mais nous apprenons et construisons de nouvelles connaissances sur ce que nous avons appris précédemment. Nos pensées et nos souvenirs restent dans notre mémoire et forment ainsi la base de nouvelles connexions.
1995: Méthode LSTM
La méthode LSTM (Long Short-Term Memory) est un logiciel qui existe depuis 1995 et qui sert à reconnaître certains modèles dans les données. Le logiciel est ainsi capable de se souvenir d'informations antérieures et de les réutiliser en cas de besoin.
Pour que cette technique fonctionne, le LSTM utilise un réseau neuronal spécial, appelé Recurrent Neural Network (RNN), qui fonctionne avec des processus répétitifs. Cela signifie qu'il est capable de traiter les informations étape par étape.
Toutefois, le LSTM a aussi ses limites. Comme il traite les informations les unes après les autres, il ne gère pas bien les grandes quantités de données et a tendance à négliger des informations plus éloignées.
2017: Transformer
En 2017, Google a présenté le document scientifique "Attention is All You Need"(ouvre une nouvelle fenêtre). Dans ce document, les auteurs suggèrent que de nouveaux mécanismes d'attention peuvent améliorer considérablement la qualité et l'efficacité des modèles actuels de réseaux neuronaux:
L'équipe de recherche propose une "architecture de réseau simple, le Transformer, basée exclusivement sur des mécanismes attentionnels [...]"(ouvre une nouvelle fenêtre). Ce transformateur utilise des mécanismes inédits pour mieux comprendre le contexte et le traiter plus efficacement. L'expérimentation a porté sur des tâches de traduction automatique de la langue.
Le Transformer a largement contribué au développement de l'IA textuelle générative. Comme il gère mieux les longues dépendances dans les textes et qu'il peut être entraîné plus efficacement, il convient parfaitement aux tâches telles que la génération de texte, les chatbots et autres applications qui doivent générer ou comprendre le langage naturel. Il n'est donc pas étonnant que toutes les IA textuelles connues soient aujourd'hui construites sur l'architecture Transformer.