
Gli sviluppatori di Google stanno insegnando all'intelligenza artificiale per spiegare le barzellette, qualcosa che lungi da quanto possa sembrare banale può migliorare un profondo progresso tecnologico nel modo in cui questi sistemi riescono a imparare automaticamente ad analizzare e rispondere al linguaggio umano.
L'obiettivo è quello di spingere le frontiere della tecnologia Natural Language Processing (NLP), che viene utilizzata per modelli linguistici di grandi dimensioni (LLM) come GPT-30 che consentono, ad esempio, ai chatbot di riprodurre una comunicazione umana sempre più accurata, che, nei casi più avanzati, rende difficile distinguere se il interlocutor è un essere umano o una macchina.
Ora, in un articolo pubblicato di recente, il team di ricerca di Google afferma di aver addestrato un modello linguistico chiamato PALM in grado non solo di generare testo realistico, ma anche di interpretare e spiegare barzellette raccontate dagli umani.
Negli esempi che accompagnano il documento, il team di intelligenza artificiale di Google dimostra la capacità del modello di eseguire ragionamenti logici e altre attività linguistiche complesse che dipendono fortemente dal contesto, ad esempio utilizzando una tecnica chiamata indicazione della catena di pensiero, che notevolmente migliora la capacità del sistema di analizzare i problemi logici in più passaggi simulando il processo di pensiero di un essere umano.
«Spiegando le barzellette» il sistema mostra di capire la battuta, e puoi trovare il trucco della trama, il gioco di parole o l'uscita sarcastica nella battuta finale dello scherzo, come si può vedere in questo esempio.
Joke: Qual è la differenza tra una zebra e un ombrello? Uno è un animale a strisce legato ai cavalli, un altro è un dispositivo che usi per evitare che la pioggia cada su di te.
Spiegazione AI: Questa battuta è anti-scherzo. La battuta è che la risposta è ovvia e la battuta è che ti aspettavi una risposta divertente.
Dietro la capacità di PalM di analizzare queste indicazioni c'è uno dei più grandi modelli linguistici mai costruiti, con 540 miliardi di parametri. I parametri sono gli elementi del modello che vengono addestrati durante il processo di apprendimento ogni volta che il sistema riceve dati di esempio. Il predecessore di PalM, GPT-3, ha 175 miliardi di parametri.
Il numero crescente di parametri ha permesso ai ricercatori di produrre un'ampia gamma di risultati di alta qualità senza la necessità di dedicare tempo alla formazione del modello per scenari individuali. In altre parole, le prestazioni di un modello linguistico sono spesso misurate dal numero di parametri che supporta, con modelli più grandi capaci di ciò che è noto come «imparare da pochi tentativi», o la capacità di un sistema di apprendere un'ampia varietà di compiti complessi con relativamente pochi esempi di formazione.
CONTINUA A LEGGERE
Más Noticias
Así es como debes comer para no perder músculo, según un especialista: “No todas las grasas son malas”
Un entrenamiento de fuerza sin una dieta correcta no nos ayuda a conservar el músculo

Línea 2 del Metro de Lima: tuneladora Delia llega a la estación Óscar R. Benavides y se acerca al tramo final en el Callao
Más de 25 kilómetros de túnel ya están listos en la Línea 2 del Metro gracias al avance de la tuneladora Delia, que ahora se prepara para llegar a Carmen de la Legua

Predije la crisis financiera de 2008, lo que se avecina podría ser peor
Hemos regresado a un período de riesgo, plagado de presiones similares a las de aquel entonces

Cómo preparar un delicioso licuado de plátano y yogur que aporta energía al cuerpo
Esta mezcla sencilla y nutritiva ayuda a reponer fuerzas, favorece la digestión y ofrece una alternativa saludable para cualquier momento del día

Estado de los vuelos en vivo: demoras y cancelaciones en la CDMX
Con miles de pasajeros cada hora, el Aeropuerto Internacional de la Ciudad de México llega a sufrir alteraciones en su operación
