Home SEO La chaîne d’indices de pensée de Google peut alimenter les meilleurs algorithmes d’aujourd’hui

La chaîne d’indices de pensée de Google peut alimenter les meilleurs algorithmes d’aujourd’hui

by Roger Montti
La chaîne d'indices de pensée de Google peut alimenter les meilleurs algorithmes d'aujourd'hui


Google a annoncé une recherche révolutionnaire dans le traitement du langage naturel appelée Chain of Thought Prompting qui élève l’état de l’art des technologies avancées comme PaLM et LaMDA à ce que les chercheurs appellent un niveau remarquable.

Le fait que Chain of Thought Prompting puisse améliorer PaLM et LaMDA à ces taux significatifs est un gros problème.

LaMDA et PaLM

La recherche a mené des expériences en utilisant deux modèles de langage, le modèle de langage pour les applications de dialogue (LaMDA) et le modèle de langage Pathways (PaLM).

LaMDA est un modèle axé sur la conversation, comme un chatbot, mais il peut aussi être utilisé pour de nombreuses autres applications qui nécessitent de parler, de dialoguer.

PaLM est un modèle qui suit ce que Google appelle l’architecture Pathways AI, où un modèle de langage est formé pour apprendre à résoudre des problèmes.

Auparavant, les modèles d’apprentissage automatique étaient formés pour résoudre un type de problème et essentiellement assoupli pour faire très bien cette chose. Mais pour faire autre chose, Google devrait former un nouveau modèle.

L’architecture Pathways AI est un moyen de créer un modèle capable de résoudre des problèmes que vous n’avez pas nécessairement rencontrés auparavant.

Comme cité dans l’explicateur Google PaLM :

“… nous aimerions former un modèle capable non seulement de gérer de nombreuses tâches distinctes, mais également d’exploiter et de combiner ses compétences existantes pour apprendre de nouvelles tâches plus rapidement et plus efficacement.”

Que fais-tu

Le document de recherche énumère trois avancées importantes pour le raisonnement en chaîne de pensée :

  1. Il permet aux modèles de langage de décomposer des problèmes complexes à plusieurs étapes en une séquence d’étapes.
  2. Le processus de chaîne de pensée permet aux ingénieurs de jeter un coup d’œil sur le processus et lorsque les choses tournent mal, cela leur permet d’identifier où cela s’est mal passé et de le réparer.
  3. Il peut résoudre des problèmes de mots mathématiques, il peut parvenir à un raisonnement de bon sens et, selon le document de recherche, il peut (en principe) résoudre n’importe quel problème basé sur des mots qu’un être humain peut résoudre.

Tâches de raisonnement en plusieurs étapes

La recherche donne un exemple de tâche de raisonnement en plusieurs étapes dans laquelle des modèles de langage sont testés :

« Q : La cafétéria avait 23 pommes. S’ils en ont utilisé 20 pour préparer le déjeuner et en ont acheté 6 de plus, combien de pommes ont-ils ?

R : La cafétéria avait à l’origine 23 pommes. Ils en ont utilisé 20 pour préparer le déjeuner. Ils avaient donc 23 – 20 = 3. Ils ont acheté 6 pommes de plus, donc ils ont 3 + 6 = 9. La réponse est 9. »

PaLM est un modèle de langage de pointe qui fait partie de l’architecture Pathways AI. Il est si avancé qu’il peut expliquer pourquoi une blague est drôle.

Cependant, aussi avancé que soit PaLM, les chercheurs affirment que Chain of Thought Prompting améliore considérablement ces modèles, et c’est ce qui rend cette nouvelle recherche si remarquable.
Google l’explique ainsi :

« Le raisonnement en chaîne de pensée permet aux modèles de décomposer des problèmes complexes en étapes intermédiaires qui sont résolues individuellement.

De plus, la nature de la chaîne de pensée basée sur le langage la rend applicable à toute tâche qu’une personne peut résoudre par le langage.

La recherche poursuit ensuite en soulignant que les indications standard ne s’améliorent pas vraiment lorsque le modèle est mis à l’échelle.

Cependant, avec cette nouvelle approche, la mise à l’échelle a un impact positif significatif et notable sur les performances du modèle.

Résultats

Chain of Thought Prompting a été testé à la fois dans LaMDA et PaLM, en utilisant deux ensembles de données de problèmes de mots mathématiques.

Les chercheurs utilisent ces ensembles de données comme un moyen de comparer les résultats sur des problèmes similaires pour différents modèles de langage.

Vous trouverez ci-dessous des images graphiques montrant les résultats de l’utilisation de Chain of Thought Prompting dans LaMDA.

Les résultats de la mise à l’échelle de LaMDA sur l’ensemble de données MultiArith montrent qu’elle a entraîné une amélioration modeste. Mais LaMDA obtient des scores nettement plus élevés lorsqu’il est mis à l’échelle avec Chain of Thought Prompting.

Les résultats sur le jeu de données GSM8K montrent une amélioration modeste.

C’est une autre histoire avec le modèle de langage PaLM.

Comme vous pouvez le voir sur le graphique ci-dessus, les gains de la mise à l’échelle de PaLM avec Chain of Thought Prompting sont énormes, et ils sont énormes pour les deux ensembles de données (MultiArith et GSM8K).

Les chercheurs qualifient ces résultats de remarquables et de nouvel état de l’art :

“Sur l’ensemble de données GSM8K de problèmes mathématiques, PaLM affiche des performances remarquables lorsqu’il est mis à l’échelle avec des paramètres 540B.

… la combinaison de la chaîne d’invites de pensée avec le modèle PaLM à paramètres 540B conduit à une nouvelle performance révolutionnaire de 58 %, dépassant l’état de l’art précédent de 55 % obtenu en affinant le GPT-3 175B dans un grand ensemble d’entraînement, puis en triant à travers les solutions possibles grâce à un vérificateur spécialement formé.

De plus, des travaux de suivi sur l’auto-cohérence montrent que les performances de la chaîne de messages de pensée peuvent être encore améliorées en obtenant un vote majoritaire à partir d’un large ensemble de processus de raisonnement générés, ce qui se traduit par une précision de 74 % dans GSM8K ».

conclusion

La conclusion d’un document de recherche est l’une des parties les plus importantes pour vérifier si la recherche progresse dans l’état de l’art ou est une impasse ou nécessite plus de recherche.

La section de conclusion du document de recherche de Google reçoit une note très positive.

Noter:

“Nous avons exploré les indices de la chaîne de pensée comme une méthode simple et largement applicable pour améliorer le raisonnement dans les modèles de langage.

Grâce à des expériences de raisonnement arithmétique, symbolique et de bon sens, nous constatons que la chaîne de traitement de la pensée est une propriété émergente de l’échelle du modèle qui permet à des modèles de langage suffisamment grands d’effectuer des tâches de raisonnement qui autrement ne seraient pas possibles. , ils auraient des courbes d’échelle plates .

On espère que l’élargissement de la gamme de tâches de raisonnement que les modèles de langage peuvent effectuer inspirera davantage de travail sur les approches de raisonnement basées sur le langage.”

Cela signifie que Chain of Thought Prompting peut avoir le potentiel de fournir à Google la capacité d’améliorer considérablement ses différents modèles de langage, ce qui à son tour peut conduire à des améliorations significatives dans le genre de choses que Google peut faire.

Devis

Lire l’article de Google sur l’IA

Les modèles de langage effectuent un raisonnement à travers la chaîne de pensée

Télécharger et lire l’article de recherche

La chaîne d’impulsions de pensée déclenche le raisonnement dans les grands modèles de langage (PDF)





Cet article a été traduit par searchenginejournal

Related Posts

Leave a Comment