
Les développeurs de Google enseignent à l'intelligence artificielle pour expliquer les blagues, ce qui, loin de la banalité, peut améliorer une avancée technologique profonde dans la façon dont ces systèmes parviennent à apprendre automatiquement à analyser et à répondre au langage humain.
L'objectif est de repousser les limites de la technologie de traitement du langage naturel (NLP), qui est utilisée pour les grands modèles de langage (LLM) tels que le GPT-30 qui permettent, par exemple, aux chatbots de reproduire une communication humaine de plus en plus précise, ce qui, dans les cas les plus avancés, rend difficile de distinguer si le l'interlocuteur est un être humain ou une machine.
Aujourd'hui, dans un article récemment publié, l'équipe de recherche de Google affirme avoir formé un modèle linguistique appelé PalM capable non seulement de générer du texte réaliste, mais aussi d'interpréter et d'expliquer des blagues racontées par des humains.
Dans les exemples qui accompagnent le document, l'équipe d'intelligence artificielle de Google démontre la capacité du modèle à effectuer un raisonnement logique et d'autres tâches linguistiques complexes qui dépendent fortement du contexte, par exemple en utilisant une technique appelée indication de la chaîne de pensée, qui améliore la capacité du système à analyser des problèmes logiques en plusieurs étapes en simulant le processus de pensée d'un être humain.
En « expliquant les blagues », le système montre qu'il comprend la blague, et vous pouvez trouver l'intrigue, le jeu de mots ou la sortie sarcastique dans la punchline de la blague, comme on peut le voir dans cet exemple.
Blague : Quelle est la différence entre un zèbre et un parapluie ? L'un est un animal rayé lié aux chevaux, un autre est un appareil que vous utilisez pour empêcher la pluie de tomber sur vous.
Explication de l'IA : Cette blague est une anti-blague. La blague est que la réponse est évidente, et la blague est que vous vous attendiez à une réponse amusante.
Derrière la capacité de PalM à analyser ces indications se trouve l'un des plus grands modèles linguistiques jamais construits, avec 540 milliards de paramètres. Les paramètres sont les éléments du modèle qui sont entraînés au cours du processus d'apprentissage chaque fois que le système reçoit des données d'échantillon. Le prédécesseur de PalM, GPT-3, possède 175 milliards de paramètres.
Le nombre croissant de paramètres a permis aux chercheurs de produire un large éventail de résultats de haute qualité sans avoir à consacrer du temps à former le modèle pour des scénarios individuels. En d'autres termes, la performance d'un modèle linguistique est souvent mesurée par le nombre de paramètres qu'il prend en charge, avec des modèles plus importants capables de ce que l'on appelle « apprendre à partir de quelques tentatives », ou de la capacité d'un système à apprendre une grande variété de tâches complexes avec relativement peu d'exemples de formation.
CONTINUEZ À LIRE
Más Noticias
El cumpleaños más agridulce de Rodolfo Sancho: su nuevo proyecto laboral y la situación judicial de su hijo, Daniel Sancho
El hijo de Sancho Gracia celebra este 14 de enero su 51 cumpleaños, una edad a la que llega en un momento vital marcado por las luces y las sombras

Bonos sin depósito
Bonos sin depósito en casinos online explicados por una firma europea: conoce cuáles resultan más convenientes para nuevos jugadores

Camión de carga volteado en carriles de la autopista México-Querétaro ocasiona caos vial rumbo a la CDMX
Hay cierre de carriles centrales y severas afectaciones viales

Galán alerta que el alza del salario mínimo desajusta las finanzas de Bogotá y encarece la operación del sistema de salud: “Nos toca priorizar”
El alcalde advirtió sobre un impacto no previsto de $100.000 millones en las subredes hospitalarias y un aumento inevitable en la tarifa de Transmilenio por mayores costos laborales

Pensión Mujeres Bienestar 2026: ¿Qué beneficiarias reciben su pago hoy miércoles 14 de enero?
La dispersión del primer pago bimestral del programa para mujeres de 60 a 64 años continúa conforme al calendario oficial de la Secretaría del Bienestar
