Obtenez l'ultime pack de sécurité NordVPN à -63% !

Chatbots et GPT-3: utiliser les connaissances humaines et un contexte pertinent pour de meilleures expériences de chatbot

Chatbots et GPT-3: utiliser les connaissances humaines et un contexte pertinent pour de meilleures expériences de chatbot

GPT, ou Generative Pre-Training Transformer, est un modèle de langage autorégressif qui utilise l’apprentissage en profondeur pour produire des textes de type humain. GPT-3 est la troisième génération de la série GPT lancée par OpenAI, une société innovante cofondée par le célèbre prodige technologique Elon Musk. OpenAI a commencé à donner un accès sélectif à la technologie à partir de juillet 2020 pour stimuler l’utilisation de GPT-3 pour créer des solutions basées sur le langage.

Une telle compréhension du langage dans l’IA intervient à un moment très nécessaire, beaucoup d’entre nous évoluant désormais dans un paysage numérique disparate. D’ici la fin de 2021, 80% des entreprises devraient disposer d’une sorte d’automatisation des chatbots, mais l’expérience utilisateur avec les chatbots à ce jour a été difficile.

Le contexte conversationnel fourni par GPT-3 permet au bot de mieux comprendre l’intention de l’utilisateur, de répondre de manière beaucoup plus humaine et de s’engager avec la personnalité de la marque. Pour comprendre comment GPT-3 réinventera l’expérience client via les chatbots, décomposons ce qu’est GPT-3 (sans le battage médiatique) et comment il s’applique aux chatbots.

Nitesh Dudhia est co-fondateur et CBO chez Aikon Labs

L’ABC de GPT-3

(G) Génératif: Les modèles génératifs appliquent une approche statistique pour comprendre la véritable distribution des données d’un ensemble de données d’entraînement. Il vise simplement à estimer, prédire ou générer une sortie en fonction d’une entrée. Sur le même sujet : Dell lance une nouvelle gamme d’ordinateurs portables Inspiron, fabriqués à partir de matériaux recyclés. Les modèles génératifs ont montré des progrès remarquables ces dernières années pour l’apprentissage profond non supervisé. GPT-3 applique cette méthodologie générative aux 175 milliards de paramètres de contenu en langage de contenu open source qu’il a traité.

(P) Pré-formé: Avec cette grande quantité de connaissances, peu d’intrants sont nécessaires, ce qui rend le GPT-3 «pré-formé» et prêt à l’emploi. Avec un minimum d’incitation, il peut discerner les liens et le contexte des conversations. GPT-3 peut ressembler à Shakespeare ou à Richard Feynman si vous le souhaitez, mais le problème est qu’il ne comprend pas vraiment l’émotion ou le contenu. Il comprend simplement les moindres détails de la façon dont les mots sont enchaînés pour un contexte prédéfini. Cependant, il le fait mieux que toute autre IA, ce qui nous permet de générer de manière cohérente une prose de type humain avec un minimum d’incitation.

(T) Transformateur: les transformateurs peuvent extraire des mots d’une phrase, puis calculer leur proximité en fonction de la fréquence à laquelle des mots particuliers se produisent ensemble. Pour ce faire, ils projettent des mots dans un espace multidimensionnel ou une représentation mathématique, ce qui les aide à prédire quels mots peuvent être enchaînés comme une réponse pertinente basée sur une invite particulière. GPT-3 va plus loin dans cette capacité car il ne nécessite pas une tonne de données d’entraînement pour effectuer plusieurs tâches linguistiques, ce qui le rend opérationnel dès la sortie de la boîte.

A lire également

Pourquoi GPT-3 est-il important pour les chatbots ou les interactions homme-machine basées sur du texte en général?

Pourquoi GPT-3 est-il important pour les chatbots ou les interactions homme-machine basées sur du texte en général?

Il n’y a pas si longtemps, les chatbots avaient du mal à se défendre dans une conversation avec un humain. Par exemple, lorsqu’une personne appelle un centre d’appels ou une ligne d’assistance, elle n’obtient généralement pas l’aide dont elle a besoin car elle est jetée dans une boucle de discours de robot. C’est parce que les chatbots sont le plus souvent scriptés de manière serrée. Lire aussi : Comment faire pour charger son iPhone sans chargeur ? À ce jour, la plupart des chatbots ont eu des scripts codés en dur avec peu de marge de manœuvre en ce qui concerne les mots et les phrases qui sont compris. Cela s’est considérablement amélioré au fil du temps et les chatbots sont de plus en plus capables de gérer les cas extrêmes grâce à l’apprentissage automatique (ML) et au traitement du langage naturel (NLP), mais GPT-3 va plus loin.

Les chatbots ont besoin de deux fonctionnalités clés pour être utiles et offrir une meilleure expérience. Premièrement, ils doivent mieux comprendre l’intention de l’utilisateur. C’est là qu’une combinaison de GPT-3 et de compréhension du langage naturel (NLU) entre en jeu pour aider à mieux comprendre l’intention des interactions conversationnelles. Deuxièmement, les chatbots doivent pouvoir répondre de manière plus significative. À ce jour, les chatbots étaient limités aux scripts et aux modèles, ce qui les rendait authentiques, robotiques et, surtout, souvent inutiles. GPT-3 peut donner plus de liberté, dans les limites de la personnalité, de la politesse et même du domaine pour élaborer une réponse – diable, il peut même faire des calculs à la volée pendant une conversation si vous le souhaitez!

Il existe également une possibilité supplémentaire d’affiner la structure, le style et le maniérisme du chatbot en utilisant la capacité illimitée de GPT-3 pour personnaliser la réponse générée. Infuser votre chatbot avec GPT-3 lui donne des super pouvoirs de contexte de langage. Cela peut sentir quand il y a un changement de contexte et que ces informations peuvent aider un bot à charger le script correspondant au contexte et à gérer une conversation comme le ferait un humain. Il peut utiliser des analogies et des exemples pertinents basés sur le profil de l’utilisateur, et même refléter ou imiter son style ou sa voix. Le modèle de super langage peut utiliser vos entrées comme invite et générer une réponse appropriée tout en suivant un script. Une expérience de libre-service améliorée peut être obtenue avec un chatbot même s’il est alimenté par un script, car il peut être surchargé avec les connaissances et le contexte découverts par GPT-3.

GPT-3 peut glaner le contexte et les connaissances à partir de conversations structurées et non structurées sous forme d’intention, d’entités, de corrélation, etc., contribuant ainsi à créer des graphiques de connaissances riches. Des graphes de connaissances plus riches peuvent aider à créer de meilleurs modèles avec un contexte intégré, ce qui contribue à son tour à enrichir davantage le graphe de connaissances. Il s’agit d’un cycle vertueux qui améliorera de façon exponentielle la collecte, l’organisation et la réutilisation des connaissances au sein de l’organisation. GPT-3 fonctionnant en tandem avec d’autres modèles et un graphe de connaissances d’entreprise alimentera la prochaine génération d’agents cognitifs.

Fonctionnalités du chatbot GPT-3

Fonctionnalités du chatbot GPT-3

Le moment «aha» réalisable avec GPT-3 dans les chatbots est qu’il devient beaucoup plus facile d’avoir une conversation civile et significative avec la personnalité pseudo-humaine interactive (bot). Ainsi, le chatbot aspire à ramener le social et à créer l’engagement des utilisateurs. Voir l'article : Réapprovisionnement PS5: Sony Direct a vendu sa PS5 en 32 minutes & ndash; quand l’obtenir ensuite.

Pour ce faire, GPT-3 utilise trois fonctionnalités principales: les Hangouts d’engagement, les actions personnalisées et la compréhension de la lecture automatique.

Engagement Hangouts permet au bot de disparaître après un nombre prédéterminé de messages d’un utilisateur pour éviter un «air mort» gênant. GPT-3 dispose d’un modèle d’apprentissage automatique pour évaluer le meilleur temps pour éviter la situation «d’air mort».

Les actions personnalisées permettent un engagement plus dynamique avec le chatbot. Le chatbot peut stocker vos réponses et les utiliser, en contexte, dans de futures conversations.

La compréhension de la lecture automatique est la capacité de GPT-3 à prédire ce que l’utilisateur va taper ensuite. Par exemple, si l’utilisateur dit qu’il y a du trafic sur « 6th Street », le chatbot peut suggérer une solution à court ou à long terme pour éviter le trafic.

Les chatbots sont devenus de plus en plus populaires. Bien que le contexte conversationnel utilisé par la plupart des chatbots ne soit pas très humain, GPT-3 peut aider à augmenter la probabilité qu’il le soit grâce à son engagement utilisateur, ses actions personnalisées et sa compréhension de la lecture automatique.

Plus grand ne signifie pas nécessairement mieux

Cependant, quel que soit le progrès réalisé par l’homme, il y aura des coûts mesurables. Sur le même sujet : La dernière vente de Microsoft réduit le prix de la Surface Pro 7 à seulement 599 $.

Le problème avec GPT-3 est qu’il ne sait pas et ne comprend pas vraiment ce qu’il a dit – il régurgite simplement à partir des informations et du contexte qu’il a construits via l’algorithme. Cela signifie qu’il peut refléter des préjugés inhérents et ne pas comprendre qu’il le fait. Il ne peut enchaîner que des mots dans un style particulier et n’apprécie pas vraiment l’émotion qu’un verset poétique peut susciter. En fin de compte, ce n’est qu’un modèle de langage qui gère tout ce qu’il a vu dans un espace vectoriel multidimensionnel – ni plus, ni moins.

GPT-3 est pré-formé sur 175 milliards de paramètres de contenu disponible, ce qui lui donne une vision du monde du contexte, mais à moins qu’il n’ait été récemment mis à jour, sa vue est limitée à tout ce qui s’est passé jusqu’à sa dernière actualisation. Par exemple, si sa dernière mise à jour concernait le monde jusqu’en octobre 2019, il se peut qu’il pense toujours que Donald Trump est le président américain. Faisant des inférences basées sur les informations qu’il a vues, GPT-3 est prescrit dans l’orientation de la façon dont il a été programmé. Les règles ont cependant besoin de contexte, car une chose peut avoir plusieurs significations.

De nombreux préjugés et opinions humains, peu importe l’extrême gauche ou la droite, peuvent déjà être présents dans GPT-3, car il a vu et traité pratiquement tout le contenu disponible au moment de sa création. Ce n’est pas forcément la faute de l’algorithme, c’est de quoi il a été nourri. GPT-3 a également vu du contenu méprisable, et si vous ne le restreignez pas pour être poli, il peut facilement vous rendre la pareille avec un contenu offensant. C’est comme un bébé utilisant des jurons – le bébé capte ce qui se passe autour d’eux, ce que la mère et le père disent, ce que font les gens autour d’eux – et l’imite.

Shane Legg, scientifique en chef et co-fondateur de DeepMind, a expliqué que l’IA fonctionne sur «un algorithme», par opposition à la généralité «un cerveau» que les humains ont. La généralité à un seul algorithme est très utile mais pas aussi intéressante que celle à un seul cerveau. «Vous et moi n’avons pas besoin de changer de cerveau lorsque nous changeons de tâches; nous ne mettons pas nos cerveaux d’échecs pour jouer à une partie d’échecs », a-t-il déclaré.

Même avec sa progression, cet «algorithme unique» sur lequel l’IA travaille signifie qu’il sépare les informations, ce qui limite sa capacité à connecter des points de données incongruents. En d’autres termes, il ne peut pas penser de manière critique – ce qui, souvent, lorsqu’un problème se pose, est la plus forte capacité d’un être humain à résoudre des problèmes. Cela pourrait très bien être vu dans les chatbots, car même s’il semble que nous parlions à un autre humain en ligne, comme « Judy B. du Kansas », en réalité nous ne le sommes pas – et cette vérité pourrait surgir dans une multitude de façons.

Un avenir avec GPT-3

Une machine peut avoir une mémoire infinie et un rappel rapide comme l’éclair. Imaginez combiner cela avec des modèles de langage universels qui dérivent l’intention et le contexte. A voir aussi : Quel chargeur pour iPhone 5 ? Et nous avons les chatbots de nouvelle génération, alimentés par GPT-3 et des graphiques de connaissances, qui peuvent répliquer des réponses de type humain et générer de nouveaux niveaux d’expérience utilisateur.

Cela crée un puissant mélange d’intelligence qui perturbera la façon dont les expériences de chat pour les clients et les employés sont construites. Comprendre les rouages ​​derrière la machine, les engrenages potentiels qui pourraient se coincer et les façons dont vous pouvez appliquer la machine au langage dans votre entreprise quotidienne sont les premières étapes pour intégrer cette nouvelle évolution de l’IA dans le monde de l’intelligence que nous vivent maintenant.

P.S. L’un de ces paragraphes a été rédigé par l’IA de GPT-3. Pouvez-vous repérer lequel?

Confidentialite - Conditions generales - Contact - Publicites - Plan du site - Sitemap