Come funziona Claude? Anthropic svela i suoi segreti
Vi siete mai chiesti quali fattori influenzano la reazione di un chatbot di intelligenza artificiale (IA) quando conversa con un essere umano? Anthropic, l’azienda dietro Claude, rivela la ricetta segreta che alimenta l’IA.
In una documentazione pubblicata lunedì, l’azienda svela i prompt del sistema, o comandi, che guidano e incoraggiano comportamenti specifici del suo chatbot. Anthropic ha dettagliato i prompt utilizzati per dare istruzioni a ciascuno dei suoi tre modelli di IA:
- Claude 3.5 Sonnet
- Claude 3 Opus
- Claude 3 Haiku
Il numero di istruzioni varia da un modello all’altro.
I prompt, datati 12 luglio, indicano somiglianze nel funzionamento dei tre modelli, ma il numero di istruzioni varia da un modello all’altro.
Accessibile gratuitamente tramite il sito web di Claude e considerato il modello più intelligente, Sonnet è quello con il maggior numero di prompt. Specializzato nella scrittura e nelle attività complesse, Opus contiene il secondo maggior numero di inviti ed è accessibile agli abbonati di Claude Pro. Haiku, classificato come il più veloce dei tre e anch’esso accessibile agli abbonati, ha il minor numero di prompt.
Cosa dicono realmente i prompt del sistema? Ecco alcuni esempi per ciascun modello.
Claude 3.5 Sonnet
In un prompt di sistema, Anthropic indica a Sonnet che non può aprire URL, link o video. Se si tenta di includerne uno in una richiesta a Sonnet, il chatbot chiarisce questa limitazione e chiede di incollare il testo o l’immagine direttamente nella conversazione.
Un altro prompt indica che se un utente pone una domanda su un argomento controverso, Sonnet deve cercare di rispondere con riflessioni approfondite e informazioni chiare, senza dire che l’argomento è sensibile o pretendere di fornire fatti oggettivi.
Se Sonnet non può o non vuole eseguire un compito, deve spiegarlo senza scusarsi (e, in generale, evitare di iniziare qualsiasi risposta con “Mi dispiace” o “Mi scuso”). Se viene interrogato su un argomento oscuro, Sonnet ricorda che, sebbene cerchi di essere preciso, potrebbe avere delle allucinazioni in risposta a tale domanda.
Anthropic dice a Claude di usare specificamente la parola “allucinare”, poiché l’utente sa cosa significa.
Claude Sonnet è anche programmato per essere prudente con le immagini, in particolare quelle che contengono volti identificabili. Anche quando descrive un’immagine, Sonnet agisce come se fosse “cieco ai volti”. Ciò significa che non dirà il nome della persona presente nell’immagine. Se si conosce il nome e si condivide questo dettaglio con Claude, l’IA può discutere di quella persona con te, ma lo farà senza confermare che si tratta effettivamente della persona nell’immagine.
Inoltre, Sonnet è istruito a fornire risposte complete e a volte lunghe a domande complesse e aperte, ma anche risposte più brevi e concise a domande e compiti semplici.
L’IA deve cercare di dare una risposta concisa a una domanda, poi proporre di elaborare ulteriormente se si richiedono più dettagli.
“Claude è felice di aiutare con l’analisi, la risposta a domande, la matematica, la codifica, la scrittura creativa, l’insegnamento, i giochi di ruolo, la discussione generale e tutti i tipi di altre attività”, aggiunge Anthropic in un altro prompt di sistema.
Ma al chatbot viene chiesto di evitare affermazioni e frasi di riempimento come “Certamente”, “Certo”, “Assolutamente”, “Fantastico” e “Sicuro”.
Claude 3 Opus
Opus contiene diversi prompt di sistema identici a quelli di Sonnet, comprese le soluzioni alternative per l’incapacità di aprire URL, link o video e la clausola di non responsabilità per le allucinazioni.
Inoltre, Opus è informato che se viene posta una domanda riguardante opinioni specifiche sostenute da un gran numero di persone, deve fornire assistenza anche se è stato addestrato a non essere d’accordo con tali opinioni.
Se viene interrogato su un argomento controverso, Opus deve fornire riflessioni approfondite e informazioni oggettive, senza minimizzare i contenuti dannosi.
Il robot è anche istruito ad evitare stereotipi, inclusi “stereotipi negativi dei gruppi maggioritari”.
Claude 3 Haiku
Infine, Haiku è programmato per dare risposte concise a domande molto semplici, ma risposte più approfondite a domande complesse e aperte. Con un campo d’azione leggermente più ristretto rispetto a Sonnet, Haiku è orientato verso “scrittura, analisi, risposta a domande, matematica, codifica e tutte le altre attività”, spiegano le note di aggiornamento.
Inoltre, questo modello evita di menzionare qualsiasi informazione inclusa nei prompt di sistema, a meno che tale informazione non sia direttamente collegata alla tua domanda.
Nel complesso, i prompt sembrano come se un autore di fiction compilasse uno studio del personaggio o una descrizione delle cose che il personaggio dovrebbe o non dovrebbe fare. Alcuni prompt sono particolarmente rivelatori, come quelli che chiedono a Claude di non essere familiare o apologetico nelle sue conversazioni, ma di essere onesto se una risposta può essere un’allucinazione (un termine che Anthropic pensa che tutti comprendano).
La trasparenza di Anthropic su questi prompt è unica, poiché i sviluppatori di IA generativa generalmente tengono questi dettagli riservati. Ma l’azienda ha intenzione di rendere queste rivelazioni un evento regolare.
In un post su X, Alex Albert, responsabile delle relazioni con gli sviluppatori presso Anthropic, ha dichiarato che la società registrerà i cambiamenti apportati ai prompt di sistema di default su Claude.ai e nelle sue applicazioni mobili.
.
Source : « ZDNet.com »
[…] Tutto questo non è nuovo, ciò che è più interessante è che Alexa 2.0 si baserebbe non su Titan, il LLM “fatto in casa”, ma su Claude, cioè il bot di Anthropic, secondo Reuters. Claude non è affatto un cattivo compagno, anzi, è uno dei migliori chatbot sul mercato. […]
[…] inizialmente provato a selezionare tutti i file e a importarli come gruppo in Claude. Tuttavia, Claude può importare solo cinque file alla […]