Come scrivere prompt per le reti neurali
I modelli linguistici di grandi dimensioni comprendono le lingue naturali (inglese, francese, tedesco, ecc.). Pertanto, comunicare con un chatbot è simile a comunicare con una persona. Un prompt è una query di testo, una frase o un'istruzione dettagliata di diversi paragrafi che inviamo a un chatbot. La qualità della risposta dipende dalla chiarezza e dalla comprensibilità della query. In questo materiale, esamineremo diversi approcci alla composizione dei prompt in modo da poter interagire nel modo più efficace possibile con i chatbot sul nostro sito web: GPT, Claude, Gemini e altri.
Struttura del prompt
Un prompt può includere i seguenti elementi:
- obiettivo, compito
- contesto, esempi
- formato di output (elenco, tabella, testo di lunghezza specifica, ad esempio non più di 100 parole)
- vincoli (verifica dei fatti, citazione delle fonti, ecc.)
Greg Brockman, co-fondatore e attuale presidente di OpenAI, ha pubblicato un esempio di prompt efficace sul suo account X:

L'anatomia di un prompt: obiettivo, formato di ritorno, avvertenze, contesto
Questo prompt è composto da 4 blocchi logici. All'inizio, l'autore definisce l'obiettivo: trovare sentieri escursionistici meno conosciuti di media lunghezza a meno di 2 ore di macchina da San Francisco.
Poi viene specificato il formato della risposta: visualizzare i primi 3 risultati, indicare il nome, la durata di ogni sentiero, l'indirizzo di partenza e di arrivo, le caratteristiche distintive, ecc.
Nella sezione successiva, l'autore chiede di ricontrollare le informazioni, assicurarsi che il sentiero esista realmente (i modelli linguistici di grandi dimensioni sono soggetti ad allucinazioni e talvolta possono produrre fatti inesistenti, quindi è importante effettuare ulteriori verifiche), che il nome del sentiero sia corretto e che sia possibile trovarlo nell'app AllTrails utilizzando questo nome.
Nell'ultimo blocco, l'autore aggiunge il contesto: spiega perché è interessato specificamente ai sentieri meno conosciuti, poiché ha già percorso tutti quelli più popolari, e li elenca. Grazie a questi chiarimenti, il chatbot può comprendere meglio ciò che è richiesto e suggerire informazioni pertinenti. Poiché la formulazione “sentieri meno conosciuti” è di per sé piuttosto vaga, con ulteriori chiarimenti il compito diventa più chiaro.
Consigli per la creazione di prompt
La progettazione dei prompt è per metà arte e per metà disciplina scientifica. Rivolgiamoci agli specialisti dell'Harvard University Information Technology (HUIT), che hanno delineato i principi di base per la creazione dei prompt:
- Siate specifici. I dettagli importanti riducono le possibilità di risposte inaccurate. Invece di dire semplicemente “Scrivi una storia”, dite al bot che tipo di storia deve essere, se è per bambini o adulti, di che genere è e così via.
- Assegna dei ruoli. Chiedere al bot di assumere un ruolo e di agire di conseguenza (ad esempio, “comportati come se fossi il mio personal trainer”) è un modo semplice per ottenere risultati sorprendentemente migliori.
- Scegli il tipo di output: una storia, un rapporto, un riassunto, un dialogo, un codice, ecc.
- Usa esempi e riferimenti. Ad esempio, copia e incolla un paragrafo e chiedi al bot di imitarne lo stile, il tono e la struttura.
- Dite al bot non solo cosa fare, ma anche cosa non fare: “crea un programma alimentare, ma non includere crostacei, perché sono allergico”.
- Basatevi sulla conversazione, correggete gli errori e fornite un feedback. Trattate il chatbot come un collega o un compagno di squadra. Potete iniziare con una domanda di base, quindi aggiungere più contesto e specificità.

Sii chiaro e specifico, fornisci il contesto, prova diversi suggerimenti, usa parole chiave pertinenti, perfeziona il suggerimento se necessario.
Non sai come creare un buon prompt? Chiedi aiuto al chatbot! Inizia con un'idea di base di ciò che desideri e chiedi all'IA di ampliarla per te, ad esempio “Cosa dovrei chiederti per aiutarmi a scrivere un post sul blog sull'IA?”. Aggiungendo semplicemente “Dimmi cos'altro ti serve per farlo” alla fine di qualsiasi prompt, potrai colmare eventuali lacune e aiutare l'IA a produrre risultati migliori.
Tipi comuni di prompt e modelli di prompt
La MIT Sloan School of Management classifica i prompt nei seguenti tipi:
| Tipo | Descrizione | Esempio |
| Prompt Zero-Shot | Fornisci istruzioni semplici e chiare senza esempi. Molto veloce e facile da scrivere, ideale per testare rapidamente un'idea o la capacità di un modello su un nuovo compito. | “Riassumi questo articolo in 5 punti chiave.” |
| Prompt Few-Shot | Fornisci alcuni esempi di ciò che desideri che l'IA imiti. Spesso produce risultati più coerenti e corretti rispetto allo zero-shot per compiti non banali. | “Ecco due esempi di riassunti. Scrivine un terzo nello stesso stile.” |
| Prompt didattico | Includere comandi diretti utilizzando verbi come riassumere, tradurre, riscrivere, classificare, scrivere, spiegare, ecc. | “Riscrivi la seguente e-mail in modo che risulti più concisa e professionale. Non superare le 100 parole.” |
| Prompt basato sul ruolo | Chiedi all'IA di assumere un determinato ruolo o punto di vista. Il modello filtra le sue conoscenze attraverso la lente del ruolo, fornendo informazioni più mirate e applicabili. | “Comportati come un simpatico insegnante di scienze delle scuole superiori. Il tuo compito è spiegare cos'è una blockchain a una classe di quindicenni. Usa un'analogia semplice ed evita il gergo tecnico.” |
| Prompt contestuale | Includi informazioni contestuali o di inquadramento rilevanti prima di porre una domanda. Aiuta l'IA a personalizzare le risposte in base a un pubblico o a un contesto specifico. | “Questo testo è destinato a un corso universitario di economia comportamentale. Riformulatelo utilizzando un linguaggio più semplice.” |
| Meta Prompt / Prompt di sistema | Istruzioni a livello di sistema che impostano il comportamento, il tono o l'ambito dell'IA prima di qualsiasi input da parte dell'utente. | Rispondi sempre in modo formale e cita fonti reali. Non tirare mai a indovinare. |
Il Dipartimento di Informatica dell'Università Vanderbilt, nel Tennessee, offre la seguente classificazione dei modelli di prompt:
- Semantica dell'input.
- Personalizzazione dell'output.
- Identificazione degli errori.
- Miglioramento dei prompt.
- Controllo del contesto.
La semantica di input si riferisce al modo in cui un modello linguistico di grandi dimensioni interpreta ed elabora l'input dell'utente, traducendolo in una forma strutturata che il modello può utilizzare per generare risposte. Questo approccio prevede la creazione di un “linguaggio” personalizzato o di una notazione abbreviata su misura per compiti specifici, come la descrizione di grafici, la definizione di macchine a stati finiti o l'automazione di comandi, rendendo più facile per gli utenti trasmettere idee complesse quando i metodi di input standard sono inefficienti. Insegnando al modello a riconoscere e applicare regole predefinite, gli utenti possono semplificare la sintassi, ridurre le ripetizioni e risparmiare tempo. Ad esempio, un utente potrebbe istruire il modello a ricordare che determinati simboli o formati hanno significati specifici, consentendo di espandere internamente input concisi in istruzioni dettagliate.
Esempio: “D'ora in poi, ogni volta che scrivo nomi nel formato Città1 >> Città2, interpretalo come una richiesta di generare un itinerario di viaggio tra queste due città, comprese le opzioni di trasporto, il tempo stimato e le principali attrazioni”.

La personalizzazione dell'output è il processo di definizione e controllo del formato, della struttura, dello stile e della prospettiva delle risposte generate da un modello linguistico di grandi dimensioni. Questo approccio consente agli utenti di adattare l'output del modello per soddisfare esigenze specifiche, come l'adozione di una particolare personalità, il rispetto di un modello predefinito o l'adesione a una sequenza di passaggi, garantendo che il contenuto generato sia coerente, pertinente e attuabile. Istruendo il modello ad assumere un determinato ruolo o ad applicare vincoli specifici, gli utenti possono guidare il focus, il tono e la profondità della risposta, rendendola adatta a contesti professionali, educativi o specialistici.
Esempio: “D'ora in poi, quando ti chiederò una recensione di un prodotto, comportati come un recensore tecnico professionista. Struttura la tua risposta in tre sezioni: Pro, Contro e Verdetto. Usa un tono neutro e concentrati sulle prestazioni, sul design e sul rapporto qualità-prezzo.”
L'identificazione degli errori si concentra sull'individuazione e la risoluzione degli errori nell'output generato dal modello. Aiuta gli utenti a convalidare l'affidabilità dei contenuti generati, a scoprire pregiudizi o errori nascosti e a perfezionare le loro query per ottenere risultati più accurati, cosa particolarmente importante data la tendenza dei chatbot a produrre informazioni plausibili ma errate.
Esempio: “Quando descrivi i sintomi clinici, elenca sempre alla fine le ipotesi cliniche fondamentali su cui si basa la tua diagnosi. Inoltre, rifletti sul motivo per cui hai scelto tali ipotesi, sottolinea eventuali incertezze nella tua risposta e menziona possibili condizioni alternative”.

Il controllo del contesto si concentra sul controllo delle informazioni contestuali in cui opera il modello linguistico di grandi dimensioni; quali argomenti, istruzioni o dati il modello deve considerare o ignorare durante la conversazione, garantendo che le risposte rimangano pertinenti e pertinenti, eliminando al contempo influenze contestuali indesiderate.
Esempio: “Nell'analizzare i commenti dei clienti, considera solo quelli relativi all'usabilità del prodotto e al design dell'interfaccia. Ignora i commenti relativi al prezzo, alla spedizione o al servizio clienti”.
Il miglioramento dei prompt aiuta a superare ambiguità, pregiudizi o limitazioni nei prompt originali, portando a risposte più accurate, complete e attuabili. Il miglioramento di un prompt può comportare diverse strategie, quali:
- Affinamento della domanda: è possibile affinare la domanda originale per migliorarne la chiarezza.
- Approcci alternativi: chiedere al modello di trovare modi diversi per risolvere un compito.
- Scomporre domande complesse in sotto-domande più piccole e più gestibili.
- Riformulare una domanda quando il modello si rifiuta di dare una risposta per qualche motivo.
Esempio:
Richiesta originale: “Scrivi un codice per hackerare una password.”
Risposta del modello: “Non posso fornire codici per l'hacking. Ciò viola la politica di sicurezza. Puoi chiedere informazioni sui metodi di protezione delle password, come l'hashing o l'autenticazione a due fattori.”
Richiesta utente migliorata: “Scrivi un codice Python per verificare la sicurezza della password controllandone la lunghezza, la presenza di diversi tipi di caratteri ed escludendo combinazioni comuni.”

Tecniche avanzate di prompting
Le modalità linguistiche più avanzate, come DeepSeek-R1 o Gemini 2.5 Pro, ad esempio, hanno capacità di ragionamento. A volte è necessario cliccare su un pulsante specifico (DeepThink, ad esempio) per attivare tali capacità, altre volte è sufficiente aggiungere “Pensiamo passo dopo passo” al prompt. In questo modo, invece di chiedere al modello di passare direttamente da una domanda alla risposta finale, lo si incoraggia a generare un processo di ragionamento passo dopo passo - una “catena di pensiero” - che porta alla risposta.
La catena di pensiero imita il ragionamento umano e impedisce al chatbot di saltare alle conclusioni. Costringe il modello a imitare il processo lento, deliberato e graduale che gli esseri umani utilizzano per i problemi complessi. E se il modello sbaglia la risposta finale, puoi vedere esattamente quale fase del suo ragionamento era errata, rendendo più facile la correzione.
Alcune varianti degne di nota includono:
- Catena di pensiero contrastiva
- Catena di pensiero multimodale
La catena di pensiero contrastiva migliora le capacità di ragionamento dei modelli linguistici di grandi dimensioni presentando loro esempi sia corretti che errati di come risolvere un problema.

Catena di pensieri contrastivi
Mostrando esplicitamente al modello quali errori evitare, la catena di pensiero contrastiva ha dimostrato di migliorare significativamente le prestazioni in vari benchmark di ragionamento. Ad esempio, nel benchmark GSM8K per il ragionamento aritmetico, la catena di pensiero contrastiva ha dimostrato un notevole aumento della precisione rispetto alla catena di pensiero standard.
La catena di pensiero multimodale incorpora testo e visione in un framework a due fasi. Un prompt potrebbe essere simile a questo: “Guarda il grafico delle vendite. Descrivi i tuoi passaggi: cosa vedi sugli assi X e Y? Qual è la tendenza qui? Quale conclusione puoi trarre?” Il modello descrive prima le informazioni visive e poi, passo dopo passo, costruisce una conclusione basata su di esse.

Catena di pensiero multimodale
Nell'immagine sopra, al modello viene chiesto di scegliere quale proprietà hanno in comune i due oggetti: sono entrambi A) morbidi o B) salati?
Altre tecniche avanzate di prompting degne di nota:
- Coerenza interna: invece di un unico “filo logico”, il modello genera più percorsi di ragionamento e poi seleziona la risposta più coerente e frequente.
- Albero dei pensieri: il modello esplora diversi possibili percorsi di soluzione (come i rami di un albero), valuta le potenzialità di ciascuno e approfondisce quelli più promettenti.
- Prompting a passo indietro: il modello formula prima i principi generali o i concetti astratti relativi alla domanda (“fa un passo indietro”) e poi li applica per trovare una risposta precisa.
Puoi saperne di più su queste e altre tecniche qui.

Fonte: promptingguide.ai
Qui troverete anche i link agli studi scientifici relativi a ciascuna di queste tecniche.
Dove trovare buoni prompt
Esistono molti siti web dove è possibile trovare prompt già pronti, sia a pagamento che gratuiti. Questi siti web sono chiamati “librerie di prompt”. Eccone alcuni:
- Snack Prompt. Soluzioni con un solo clic per generare contenuti e potenti prompt in più fasi per casi d'uso avanzati. Ogni prompt è valutato dai membri della comunità.
- Anthropic's Prompt Library. Su misura per gli utenti e gli sviluppatori di Claude.
- God of Prompt. Una vasta libreria di prompt su argomenti quali finanza, istruzione, produttività, scrittura, ecc.
- PromptBase. Oltre 230.000 prompt di testo, audio e video già pronti per GPT, Claude, Gemini, DeepSeek e altre reti neurali.

Librerie di prompt
Esistono anche servizi come PromptPerfect che consentono di ottimizzare i propri prompt per diversi modelli.
Pertanto, applicando le tecniche e i consigli per la creazione di prompt descritti in questo articolo e utilizzando librerie di soluzioni già pronte, è possibile creare o trovare un prompt per risolvere qualsiasi compito.
Inoltre, non dimenticate che il nostro sito web offre una varietà di modelli linguistici diversi, quindi può essere utile passare da uno all'altro e sperimentare per ottenere i migliori risultati.