5 Strategie per un Uso Sicuro e Sostenibile dell’IA

In qualità di utilizzatore dell’intelligenza artificiale in ambito aziendale, come utilizzare l’IA generativa (Gen AI) in modo sicuro?

Ecco 5 cose che puoi fare per ottimizzare il tuo utilizzo dell’IA, secondo alcuni esperti.

1. Fornisci istruzioni migliori all’IA

A causa delle capacità conversazionali dell’IA generativa, le persone spesso utilizzano comandi brevi e poco precisi, come quando discutono con un amico. Il problema è che, quando ricevono istruzioni, i sistemi di intelligenza artificiale possono dedurre in modo errato il significato del tuo messaggio testuale. Perché? Perché non possiedono le competenze umane che permettono di leggere tra le righe.

Per illustrare questo problema, un professore associato alla Carnegie Mellon School of Computer Science, Maarten Sap, spiega che ha detto a un chatbot che stava leggendo un milione di libri. E il chatbot ha preso questa espressione alla lettera… Maarten Sap afferma che questa ricerca gli ha permesso di constatare che i modelli di linguaggio hanno difficoltà a comprendere riferimenti non letterali in oltre il 50% dei casi.

Il modo migliore per aggirare questo problema è chiarire i tuoi comandi. Sii esplicito. I chatbot sono come assistenti, quindi devi dire loro cosa vuoi fare. Anche se questo approccio potrebbe richiedere più lavoro nell’elaborazione di un’istruzione, il risultato dovrebbe essere maggiormente in linea con le tue esigenze.

2. Controlla le tue risposte

Se hai mai utilizzato un chatbot di IA, sai che può avere delle allucinazioni. Cioè, produce informazioni errate. Le allucinazioni possono manifestarsi in vari modi, ovvero:

  • Produzione di risposte fattualmente errate
  • Riassunto errato di informazioni fornite
  • Accettazione di fatti errati condivisi da un utente

Secondo Martin Sap, le allucinazioni si verificano soprattutto in ambiti specializzati, come il diritto e la medicina, superando il 50%. Queste allucinazioni sono difficili da identificare perché sono presentate in modo plausibile, anche se sono assurde.

Spesso, i modelli riaffermano le loro risposte, utilizzando marcatori come “Sono sicuro”, anche quando propongono informazioni errate. Un documento di ricerca indica che i modelli di IA sono certi di quanto affermano, ma sbagliati nelle loro risposte nel 47% dei casi.

Di conseguenza, il modo migliore per proteggerti dalle allucinazioni è ricontrollare le risposte. Alcune tattiche consistono nel controllare le risposte con fonti esterne o porre di nuovo la domanda al modello utilizzando una formulazione differente. L’idea è vedere se l’IA produce la stessa risposta.

Anche se può essere allettante chiedere aiuto a ChatGPT su argomenti che non conosci bene, è più facile identificare gli errori se le tue domande rimangono nel tuo campo di competenza!

3. Mantieni riservate le informazioni che ti riguardano

Gli strumenti di IA generativa sono formati su grandi quantità di dati. Hanno anche bisogno di nuovi dati per continuare a imparare e diventare più efficaci. Pertanto, i modelli utilizzano spesso i loro risultati per continuare ad apprendere.

Il problema è che i modelli rigurgitano spesso i loro dati di addestramento nelle loro risposte. Questo significa che le tue informazioni private potrebbero essere utilizzate nelle risposte destinate a qualcun altro. Il modo migliore per mantenere una buona igiene in materia di IA è evitare di condividere dati sensibili o personali.

Molti strumenti di IA, incluso ChatGPT, offrono opzioni che consentono agli utenti di rifiutare la raccolta di dati. Rifiutare è sempre una buona opzione, anche se non prevedi di utilizzare dati sensibili.

4. Fai attenzione a come parli ai LLM

Le capacità dei sistemi di IA e la possibilità di interagire con questi strumenti usando linguaggio naturale hanno portato alcune persone a sopravvalutare il potere di questi robot.

L’antropomorfismo, o attribuzione di caratteristiche umane, è un terreno scivoloso. Se le persone considerano questi sistemi di IA come vicino all’umanità, rischiano di affidare loro più responsabilità e dati.

Secondo gli esperti, uno dei modi per mitigare questo problema è smettere di attribuire caratteristiche umane ai modelli di IA quando ne parli. Invece di dire “il modello pensa che tu voglia una risposta equilibrata”, Martin Sap suggerisce una migliore alternativa: “Il modello è progettato per generare risposte equilibrate sulla base dei suoi dati di addestramento”.

5. Sii vigile nei casi in cui utilizzi i LLM

Sebbene sembri che questi modelli possano aiutare in quasi tutte le attività, ci sono molti casi in cui non possono fornire la migliore assistenza. Anche se sono disponibili benchmark, questi coprono solo una piccola parte di come gli utenti interagiscono con i LLM.

È possibile che i LLM non funzionino in modo ottimale per tutti. Sono stati registrati casi in cui i LLM riproducono risposte razziste. Questi pregiudizi dimostrano che i modelli potrebbero non essere idonei a fornire assistenza in molti casi d’uso.

Di conseguenza, la soluzione consiste nel fare riflessioni e adottare un atteggiamento prudente durante l’utilizzo dei LLM.

Fonte: www.agendadigitale.eu

Effettua il login per commentare.