Tecnologia

Come Fare Prompt AI che Funzionano (Davvero): Le Tecniche che Separano i Risultati dalla Mediocrità

Dario Amodei, CEO di Anthropic, al World Economic Forum di Davos 2026:

DOGE di Venezia·15 Feb 2026·7 min di lettura

Il Problema che Nessuno Ammette

Dario Amodei, CEO di Anthropic, al World Economic Forum di Davos 2026:

"Siamo a 6-12 mesi da quando il modello farà la maggior parte, forse tutto, ciò che fa un ingegnere software end-to-end."

Eppure la maggior parte delle persone usa questi strumenti come se stessero cercando su Google. "Riassumimi questo." "Scrivimi una email." "Aiutami con il report."

Il risultato: output generico, riciclo di un po' di lavoro, sensazione vaga che "l'AI non sia ancora pronta."

Non è l'AI che non è pronta. È il modo in cui la si istruisce.

Perché il Prompting È Diventato un'Abilità Strategica

I modelli moderni come Claude Opus 4.6, con 1 milione di token di contesto, pari a circa 750.000 parole, l'equivalente di un intero codebase aziendale o un anno di documenti, non cercano di indovinare cosa vuoi. Eseguono letteralmente quello che descrivi. Niente di più, niente di meno.

Un prompt vago ottiene un output vago non perché il modello sia pigro, ma perché non ha abbastanza informazioni per fare di meglio. La differenza tra le due categorie di utenti non è l'abbonamento. È quanto bene sanno descrivere quello che vogliono.

Vuoi applicare questo nella tua azienda?

In DOGE di Venezia affianchiamo le PMI italiane in ogni fase della trasformazione AI. La prima conversazione è gratuita.

Parlaci del tuo progetto →

Parte 1: Le Fondamenta

1. Sii Esplicito, Non Vago

Il test pratico: mostra il tuo prompt a un collega senza contesto. Se rimarrebbe confuso, anche il modello rimarrà confuso.

Sbagliato: "Scrivi qualcosa di buono." Giusto: "Scrivi una descrizione prodotto di 200 parole per una landing page B2B SaaS rivolta a CTO, tono conversazionale, zero buzzword."

2. XML Tag: Il Linguaggio Nativo di Claude

Claude è addestrato internamente con strutture XML. Usarle non è un trucco, è come il modello elabora le informazioni. I test di Anthropic mostrano miglioramenti fino al 30% nella qualità dell'output.

3. Prima il Contesto, Poi l'Istruzione

Metti i documenti lunghi e i dati sopra la tua domanda, non dopo. Posizionare la query a fine prompt, dopo il materiale di riferimento, migliora consistentemente la qualità delle risposte.

4. Esempi Battono gli Aggettivi

Un buon esempio vale dieci descrizioni. Il modello replica il pattern che vede. Tre-cinque esempi diversi coprono i casi limite, il modello generalizza dai pattern, non dagli aggettivi.

5. Vincoli Negativi e Permesso di Non Sapere

Due istruzioni che quasi nessuno usa e che cambiano sensibilmente la qualità:

"NON usare: gergo corporate, frasi come 'nel mondo frenetico di oggi', conclusioni che riassumono quello che hai già detto."
"Se i dati sono insufficienti per trarre conclusioni, dillo invece di speculare."

La seconda elimina la maggior parte delle allucinazioni. La prima elimina l'AI generico di default.

Parte 2: Tecniche Avanzate

6. Il Sistema a Contratto

Struttura il tuo system prompt come un contratto:

Il modello sa cosa fare, cosa non fare, e cosa fare quando è incerto. È la differenza tra un collaboratore che esegue e uno che indovina.

7. Il Brainstorming Inverso

Invece di chiedere "come raggiungiamo questo obiettivo?", chiedi:

"Vogliamo [OBIETTIVO]. Prima, identifica 10 modi per garantire il fallimento. Per ciascuno, inverti il modo di fallimento in strategia di successo. Segnala le 3 strategie più controintuitive con il potenziale più alto."

Questo produce analisi genuinamente sorprendenti. Il modello ragiona sui meccanismi di fallimento, che spesso conosce meglio di quelli di successo, e li ribalta.

8. Self-Evaluation Loop

Fai valutare al modello il proprio output prima che lo veda tu:

"Valuta la tua risposta da 1 a 10 su accuratezza, completezza e chiarezza. Poi migliorala sulla base della tua valutazione. Mostrami solo la versione migliorata."

Cattura errori in modo affidabile, soprattutto su coding e analisi dati. Alternativa: "Prima di concludere, verifica la tua risposta contro questi criteri: [criteri]."

9. Multi-Persona Debate

Per decisioni importanti, fai ragionare il modello con se stesso da più prospettive:

"Analizza questa decisione aziendale da tre prospettive: 1. Il founder ottimista che vuole muoversi veloce 2. Il CFO prudente attento al burn rate 3. Il cliente che non si preoccupa dei tuoi problemi

>

Ogni persona argomenta in 2-3 frasi. Poi sintetizza in una raccomandazione finale."

Produce analisi sensibilmente più profonde di un singolo punto di vista.

10. Agent-Mode Prompting

Il loop che porta il prompting a livello di sistema: Plan → Act → Verify → Iterate.

"Il mio obiettivo è [OBIETTIVO]. Prima, crea un piano con massimo 5 step. Per ogni step, esegui usando gli strumenti disponibili. Dopo ogni step, verifica che il risultato soddisfi i criteri. Se non li soddisfa, itera. Passa allo step successivo solo quando quello corrente supera la verifica."

Questo è prompting per agenti, non per chatbot. La differenza è architetturale.

Parte 3: Template Pronti all'Uso

Questi funzionano. Sostituisci le parti tra parentesi quadre.

Ricerca e Analisi:

Email e Comunicazione:

Il Template Universale (da Ruben Hassid):

Il Vero Unlock: Smettere di Ripeterti

La tecnica più sottovalutata in assoluto. Invece di spiegare le tue regole in ogni prompt, mettile in un file, `rules.md`, `style.md`, `context.md`.

Includilo una volta all'inizio della sessione con: "Leggi questo file completamente prima di iniziare. Se stai per violare una delle mie regole, fermati e dimmelo."

Il modello lo applica all'intera conversazione. Se lavori con un team, questo file diventa lo standard condiviso, tutti ottengono output coerenti dallo stesso modello, indipendentemente dall'abilità individuale di prompting.

Come diceva Andrej Karpathy: non stai più scrivendo prompt. Stai configurando un agente.

Cosa Significa per un'Organizzazione

Le tecniche sopra non sono curiosità per sviluppatori. Sono la differenza tra un'organizzazione che usa l'AI per risparmiare un po' di tempo e una che lo usa per moltiplicare la capacità operativa.

Un team che sa dare istruzioni precise ottiene output pronti all'uso. Un team che non sa farlo ottiene bozze da correggere, e a quel punto il vantaggio di efficienza è quasi zero. La barriera all'adozione AI non è quasi mai il tool. È la formazione su come usarlo bene. Per approfondire come questo si applica alla tua azienda, parla con noi. La prima conversazione è gratuita.

Pronto a trasformare la tua azienda?

Parla con noi. La prima conversazione è gratuita.