Passa al contenuto principale

CLIP

Contrastive Language-Image Pre-training

È un modello separato di GPT (Chat Generative Pre-trained Transformer) basato sull'apprendimento ZSL (Zero-shot learning) prendendo, come fonte, i dati del WWW (World Wide Web).

Il suo scopo è quello di comprendere e classificare il set di dati (immagine e testo) raccolti per generare con DALL E l'immagine più adatta.