Passa al contenuto principale

GPT

Generative Pre-trained Transformer

È un modello linguistico autoregressivo (la variabile in uscita dipende linearmente dai valori delle uscite precedenti) che utilizza l’apprendimento profondo, cioè il campo di ricerca del machine learning (apprendimento automatico) e dell’AI (Intelligenza Artificiale) per produrre un linguaggio computazionale (testo) simile al NLP (Natural Language Processing).

L’architettura si basa su una rete neurale artificiale (artificial neural network) che sviluppa un metodo di apprendimento automatico (pre-addestramento generativo), chiamato GenAI (Generative AI), con lo scopo di prevedere la prossima parola (nell’ambito di una frase o di un insieme di frasi) per comprendere e creare testi con una fluidità equivalente a quella di un essere umano.

Una evoluzione del GPT a portato alla creazione dell’algoritmo DALL E che consente allo stesso modello di convertire le immagini in testo ma anche di creare le immagini dal testo tramite vari benchmark.