
Google-Entwickler bringen künstlicher Intelligenz bei, Witze zu erklären, was weit davon entfernt ist, wie banal es klingt, einen tiefgreifenden technologischen Fortschritt in der Art und Weise fördern kann, wie diese Systeme automatisch lernen, die menschliche Sprache zu analysieren und darauf zu reagieren.
Ziel ist es, die Grenzen der Natural Language Processing (NLP) -Technologie zu erweitern, die für große Sprachmodelle (LLMs) wie GPT-30 verwendet wird, mit denen beispielsweise Chatbots eine immer genauere menschliche Kommunikation reproduzieren können, was in den fortgeschrittensten Fällen die Unterscheidung erschwert, ob die Gesprächspartner ist ein Mensch oder eine Maschine.
In einem kürzlich veröffentlichten Artikel behauptet das Forschungsteam von Google, ein Sprachmodell namens PalM trainiert zu haben, das nicht nur realistischen Text erzeugen, sondern auch Witze von Menschen interpretieren und erklären kann.
In den dem Dokument beigefügten Beispielen demonstriert das Team für künstliche Intelligenz von Google die Fähigkeit des Modells, logisches Denken und andere komplexe Sprachaufgaben, die stark kontextabhängig sind, auszuführen, indem es beispielsweise eine Technik verwendet, die als Gedankenkettenanzeige bezeichnet wird verbessert die Fähigkeit des Systems, logische Probleme in mehreren Schritten zu analysieren, indem es den Denkprozess eines Menschen simuliert.
Durch das „Erklären der Witze“ zeigt das System, dass es den Witz versteht, und Sie können den Plot-Trick, das Wortspiel oder den sarkastischen Ausgang in der Pointe des Witzes finden, wie in diesem Beispiel zu sehen ist.
Witz: Was ist der Unterschied zwischen einem Zebra und einem Regenschirm? Eines ist ein gestreiftes Tier, das mit Pferden verwandt ist, ein anderes ist ein Gerät, mit dem Sie verhindern, dass Regen auf Sie fällt.
Erklärung der KI: Dieser Witz ist ein Anti-Witz. Der Witz ist, dass die Antwort offensichtlich ist und der Witz ist, dass Sie eine lustige Antwort erwartet haben.
Hinter der Fähigkeit von PalM, diese Indikationen zu analysieren, steht eines der größten Sprachmodelle, die jemals gebaut wurden, mit 540 Milliarden Parametern. Parameter sind die Elemente des Modells, die während des Lernprozesses jedes Mal trainiert werden, wenn das System Probendaten empfängt. Der Vorgänger von PalM, GPT-3, hat 175 Milliarden Parameter.
Die zunehmende Anzahl von Parametern hat es Forschern ermöglicht, eine Vielzahl von qualitativ hochwertigen Ergebnissen zu erzielen, ohne Zeit für das Training des Modells für einzelne Szenarien aufwenden zu müssen. Mit anderen Worten, die Leistung eines Sprachmodells wird häufig an der Anzahl der unterstützten Parameter gemessen, wobei größere Modelle in der Lage sind, aus wenigen Versuchen zu lernen, oder die Fähigkeit eines Systems, eine Vielzahl komplexer Aufgaben mit relativ wenigen Trainingsbeispielen zu erlernen.
LESEN SIE WEITER
Más Noticias
Un hombre de 50 años se entera en una consulta rutinaria de que lleva cuatro décadas viviendo con una bala en la cabeza: no se la extraerán
Los neurólogos han descartado la necesidad de operar mientras no genere complicaciones

Cómo se encuentra la calidad del aire en la CDMX y Edomex
El reporte de la calidad del aire se publica cada hora y diariamente por la Dirección de Monitoreo Atmosférico de la capital del país

Hallaron cuerpo desmembrado en el centro de Bogotá: las partes estaban en varias bolsas negras, distribuidas en dos puntos
Los restos del cuerpo fueron encontrados sobre la tradicional carrera Décima por un reciclador de la zona, que alertó a las autoridades del hallazgo

Detectan dos jabalíes con peste porcina africana en España: son los primeros casos en el país desde 1994
Los animales silvestres muertos han sido hallados en Bellaterra (Barcelona), según ha confirmado el Ministerio de Agricultura

Metro CDMX y Metrobús hoy 28 de noviembre
Información y actualización del servicio de transporte público en la capital este viernes
