Come funziona Claude? Anthropic svela i suoi segreti

Vi siete mai chiesti quali fattori influenzano la reazione di un chatbot di intelligenza artificiale (IA) quando conversa con un essere umano? Anthropic, l’azienda dietro Claude, rivela la ricetta segreta che alimenta l’IA.
In una documentazione pubblicata lunedรฌ, l’azienda svela i prompt del sistema, o comandi, che guidano e incoraggiano comportamenti specifici del suo chatbot. Anthropic ha dettagliato i prompt utilizzati per dare istruzioni a ciascuno dei suoi tre modelli di IA:
- Claude 3.5 Sonnet
- Claude 3 Opus
- Claude 3 Haiku
Il numero di istruzioni varia da un modello all’altro.
I prompt, datati 12 luglio, indicano somiglianze nel funzionamento dei tre modelli, ma il numero di istruzioni varia da un modello all’altro.
Accessibile gratuitamente tramite il sito web di Claude e considerato il modello piรน intelligente, Sonnet รจ quello con il maggior numero di prompt. Specializzato nella scrittura e nelle attivitร complesse, Opus contiene il secondo maggior numero di inviti ed รจ accessibile agli abbonati di Claude Pro. Haiku, classificato come il piรน veloce dei tre e anch’esso accessibile agli abbonati, ha il minor numero di prompt.
Cosa dicono realmente i prompt del sistema? Ecco alcuni esempi per ciascun modello.
Claude 3.5 Sonnet
In un prompt di sistema, Anthropic indica a Sonnet che non puรฒ aprire URL, link o video. Se si tenta di includerne uno in una richiesta a Sonnet, il chatbot chiarisce questa limitazione e chiede di incollare il testo o l’immagine direttamente nella conversazione.
Un altro prompt indica che se un utente pone una domanda su un argomento controverso, Sonnet deve cercare di rispondere con riflessioni approfondite e informazioni chiare, senza dire che l’argomento รจ sensibile o pretendere di fornire fatti oggettivi.
Se Sonnet non puรฒ o non vuole eseguire un compito, deve spiegarlo senza scusarsi (e, in generale, evitare di iniziare qualsiasi risposta con “Mi dispiace” o “Mi scuso”). Se viene interrogato su un argomento oscuro, Sonnet ricorda che, sebbene cerchi di essere preciso, potrebbe avere delle allucinazioni in risposta a tale domanda.
Anthropic dice a Claude di usare specificamente la parola “allucinare”, poichรฉ l’utente sa cosa significa.
Claude Sonnet รจ anche programmato per essere prudente con le immagini, in particolare quelle che contengono volti identificabili. Anche quando descrive un’immagine, Sonnet agisce come se fosse “cieco ai volti”. Ciรฒ significa che non dirร il nome della persona presente nell’immagine. Se si conosce il nome e si condivide questo dettaglio con Claude, l’IA puรฒ discutere di quella persona con te, ma lo farร senza confermare che si tratta effettivamente della persona nell’immagine.
Inoltre, Sonnet รจ istruito a fornire risposte complete e a volte lunghe a domande complesse e aperte, ma anche risposte piรน brevi e concise a domande e compiti semplici.
L’IA deve cercare di dare una risposta concisa a una domanda, poi proporre di elaborare ulteriormente se si richiedono piรน dettagli.
“Claude รจ felice di aiutare con l’analisi, la risposta a domande, la matematica, la codifica, la scrittura creativa, l’insegnamento, i giochi di ruolo, la discussione generale e tutti i tipi di altre attivitร ”, aggiunge Anthropic in un altro prompt di sistema.
Ma al chatbot viene chiesto di evitare affermazioni e frasi di riempimento come “Certamente”, “Certo”, “Assolutamente”, “Fantastico” e “Sicuro”.
Claude 3 Opus
Opus contiene diversi prompt di sistema identici a quelli di Sonnet, comprese le soluzioni alternative per l’incapacitร di aprire URL, link o video e la clausola di non responsabilitร per le allucinazioni.
Inoltre, Opus รจ informato che se viene posta una domanda riguardante opinioni specifiche sostenute da un gran numero di persone, deve fornire assistenza anche se รจ stato addestrato a non essere d’accordo con tali opinioni.
Se viene interrogato su un argomento controverso, Opus deve fornire riflessioni approfondite e informazioni oggettive, senza minimizzare i contenuti dannosi.
Il robot รจ anche istruito ad evitare stereotipi, inclusi “stereotipi negativi dei gruppi maggioritari”.
Claude 3 Haiku
Infine, Haiku รจ programmato per dare risposte concise a domande molto semplici, ma risposte piรน approfondite a domande complesse e aperte. Con un campo d’azione leggermente piรน ristretto rispetto a Sonnet, Haiku รจ orientato verso “scrittura, analisi, risposta a domande, matematica, codifica e tutte le altre attivitร ”, spiegano le note di aggiornamento.
Inoltre, questo modello evita di menzionare qualsiasi informazione inclusa nei prompt di sistema, a meno che tale informazione non sia direttamente collegata alla tua domanda.
Nel complesso, i prompt sembrano come se un autore di fiction compilasse uno studio del personaggio o una descrizione delle cose che il personaggio dovrebbe o non dovrebbe fare. Alcuni prompt sono particolarmente rivelatori, come quelli che chiedono a Claude di non essere familiare o apologetico nelle sue conversazioni, ma di essere onesto se una risposta puรฒ essere un’allucinazione (un termine che Anthropic pensa che tutti comprendano).
La trasparenza di Anthropic su questi prompt รจ unica, poichรฉ i sviluppatori di IA generativa generalmente tengono questi dettagli riservati. Ma l’azienda ha intenzione di rendere queste rivelazioni un evento regolare.
In un post su X, Alex Albert, responsabile delle relazioni con gli sviluppatori presso Anthropic, ha dichiarato che la societร registrerร i cambiamenti apportati ai prompt di sistema di default su Claude.ai e nelle sue applicazioni mobili.
.
Source : ยซ ZDNet.com ยป
[…] Tutto questo non รจ nuovo, ciรฒ che รจ piรน interessante รจ che Alexa 2.0 si baserebbe non su Titan, il LLM “fatto in casa”, ma su Claude, cioรจ il bot di Anthropic, secondo Reuters. Claude non รจ affatto un cattivo compagno, anzi, รจ uno dei migliori chatbot sul mercato. […]
[…] inizialmente provato a selezionare tutti i file e a importarli come gruppo in Claude. Tuttavia, Claude puรฒ importare solo cinque file alla […]