AI generativa: crea nuovi contenuti

Mentre l'AI predittiva estrae insight dai dati esistenti, l'AI generativa fa un passo avanti e crea qualcosa di nuovo. Può scrivere testi, generare immagini, produrre codice o persino progettare interfacce utente complete. Ecco alcuni esempi comuni di casi d'uso dell'IA generativa:

  • Creazione di contenuti: gli assistenti AI alla scrittura possono creare bozze e perfezionare testi esistenti.
  • Riassunto: strumenti come Google AI Overview condensano documenti lunghi, riunioni o pagine web in riassunti concisi e pratici.
  • Generazione di codice: gli strumenti per sviluppatori utilizzano l'AI generativa per scrivere e refactoring del codice, aumentando la produttività degli sviluppatori.
  • Creazione di immagini e asset: utilizzando modelli di visione, gli utenti possono produrre asset visivi, come banner e miniature.

Il ciclo dell'AI generativa

La maggior parte dei modelli di AI generativa viene addestrata utilizzando reti neurali e architetture Transformer. I modelli imparano a suggerire l'elemento successivo in una sequenza, ad esempio la parola, il pixel o la nota successivi, in base a quelli precedenti.

Dal punto di vista matematico, non è molto diverso dall'AI predittiva. Entrambi apprendono i pattern dai dati. La differenza sta nella scala.

Nell'IA predittiva, le opzioni di output sono limitate a un paio di etichette, come "abbandono" o "nessun abbandono". Nell'AI generativa, lo spazio di output può includere centinaia di migliaia di opzioni. Addestrato su miliardi di esempi, il meccanismo di previsione si trasforma in un potente motore in grado di generare risultati nuovi e mai visti.

Lo sviluppo di un sistema di AI generativa segue un approccio iterativo.

Ogni passaggio punta al successivo,
in un cerchio continuo.
Figura 1. Come nel ciclo dell'AI predittiva, devi iniziare definendo il tuo caso d'uso. Il ciclo scorre ogni passaggio e ricomincia.

Vediamo come funziona con la nostra applicazione di esempio, BlogBuddy, un assistente del sistema di gestione dei contenuti che aiuta gli utenti a generare descrizioni accattivanti e titoli di articoli ottimizzati per la SEO.

Definisci il tuo caso d'uso

Progetto di sistema di AI BlogBuddy.
Figura 2. Il progetto del tuo sistema per l'applicazione Blogbuddy. Apri il diagramma a dimensione intera.

La descrizione del problema deve includere:

  • Modalità di input e output. Può trattarsi di testo (prosa o codice), immagini o audio.
  • Metodo di immissione. I contenuti provengono da un campo di caricamento, da un testo libero o da altri input strutturati?
  • Pubblico. Chi esegue questa attività? Hanno conoscenze generali o hanno bisogno di conoscenze specialistiche?

Le funzionalità di BlogBuddy ruotano attorno alla generazione di testo. L'input è semistrutturato: gli utenti forniscono un argomento o una bozza breve e il modello restituisce variazioni. Il pubblico è il marketing, con conoscenze specializzate nel settore editoriale.

È importante impostare uno standard di qualità per gli output. Nel nostro caso, vogliamo generare un testo breve, scansionabile e ricco di parole chiave che si adatti al tono della pubblicazione.

Metriche di successo chiare ti aiutano a guidare il resto della procedura. Scoprirai di più sulla raccolta delle metriche più efficaci in Sviluppo basato sulla valutazione.

Seleziona il modello di base

Esiste un'ampia gamma di modelli disponibili preaddestrati su set di dati universali di grandi dimensioni. Il loro comportamento può essere adattato a esigenze specifiche. I modelli di AI generativa sono in genere molto più grandi e complessi dei modelli predittivi, quindi è meglio basarsi su un modello esistente, anziché crearne e addestrarne uno personalizzato.

La tua scelta determina le funzionalità, il costo, la personalizzazione e i limiti di privacy del prodotto. La scelta del modello è strettamente interdipendente dalla piattaforma su cui esegui il deployment del sistema di AI.

Più avanti in questo corso, imparerai a scegliere la tua piattaforma.

Ingegneria dei prompt e del contesto

Una volta scelto il modello, devi fornirgli le istruzioni giuste con un prompt. Per BlogBuddy, possiamo chiedere al modello quanto segue:

Generate three short, engaging title suggestions for this article

Esistono diversi tipi di informazioni che puoi aggiungere a un prompt. Ad esempio:

  • Un prompt di sistema che imposta il comportamento generale.
  • Contesto specifico per l'input per l'attività corrente.
  • Istruzioni per l'utente in applicazioni conversazionali, come chatbot o agenti.

Inferenza e post-elaborazione

Una volta assemblato, il prompt viene inviato al modello per l'inferenza. Puoi modificare i parametri del modello, inclusi la temperatura (per la creatività) e la quantità massima di token (per la lunghezza e la verbosità), per regolare il modo in cui il modello risponde. Dopo la generazione, l'output viene spesso elaborato con regole e misure di protezione aggiuntive.

Ad esempio, puoi riformulare il testo con connotazioni di genere, moderare il tono o filtrare i termini vietati.

Per supportare la trasparenza e la calibrazione dell'affidabilità, puoi aggiungere un modello secondario più piccolo per classificare o riassumere il risultato. Ad esempio: "Introduzione generata da 12 articoli correlati. Affidabilità: alta."

Ciclo di valutazione e feedback

Poiché lo spazio di output per l'AI generativa è praticamente infinito, la maggior parte dei prompt non ha un'unica risposta corretta. I benchmark standardizzati, come MMLU o SQuAD, possono misurare la capacità generale del modello, ma raramente soddisfano le esigenze specifiche degli utenti umani. In un contesto di prodotto, devi definire il tuo mix di metriche qualitative e quantitative:

  • Accuratezza: l'output è corretto dal punto di vista dei fatti?
  • Utilità: l'output soddisfa le aspettative stabilite dal prompt o dall'intento dell'utente?
  • Leggibilità e tono: l'output è chiaro e in linea con gli standard del brand?
  • Intervento umano: quanto editing o cura manuale è richiesto?
  • Comprensione del dominio: l'output riflette conoscenze specifiche del dominio?

Per valutare queste metriche, puoi combinare la revisione umana e l'assegnazione automatica del punteggio. Ad esempio, puoi chiedere agli utenti di valutare gli output reali, utilizzare un secondo modello per la valutazione automatica (chiamata anche LLM-as-a-judge) ed eseguire revisioni interne periodiche per verificare la presenza di bias o allucinazioni.

I dati di utilizzo reali sono una delle tue risorse più importanti quando crei con l'IA generativa. Se possibile, registra queste interazioni per modificare i prompt e i contesti, testare modelli diversi o regolare i parametri nel tempo. Ogni interazione, correzione o valutazione dell'utente diventa un feedback che può aiutarti a determinare i passaggi di ottimizzazione successivi:

  • Gli input utente imprevisti possono aiutarti a determinare se stai risolvendo il problema giusto.
  • Le richieste ricorrenti specifiche del dominio possono informare la scelta del modello. Puoi passare da un LLM generale di grandi dimensioni a un modello piccolo e ottimizzato.
  • Le allucinazioni frequenti possono indicare una mancanza di contesto specifico nei prompt.
  • Modifiche sostanziali possono indicare un contesto condiviso insufficiente. Il modello non è a conoscenza di informazioni che l'utente dà per scontate.

Nel tempo, questi cicli di feedback trasformano la funzionalità di AI generativa da una chiamata di modello statica in un sistema vivo che si adatta continuamente alle esigenze e alle preferenze dei tuoi utenti.

Errori comuni e mitigazioni

Poiché l'AI generativa opera in uno spazio aperto di input e output, la sua superficie di rischio è molto più ampia rispetto ai sistemi predittivi. Oltre a produrre output errati, può generare contenuti tossici, distorti o fuorvianti o persino manipolare gli utenti involontariamente. Questi errori possono minare la fiducia ed esporre la tua azienda a conseguenze finanziarie o legali.

Per questo motivo, l'AI generativa richiede un approccio proattivo e continuo alla gestione dei rischi. Di seguito sono riportati alcuni dei rischi più comuni:

  • Allucinazione: il modello inventa fatti o riporta dettagli in modo errato. Per mitigare, utilizza la RAG per il grounding oggettivo.
  • Eccessiva fiducia: gli utenti presumono che gli output siano sempre corretti. Per ridurre il rischio, incoraggia un flusso di revisione e modifica, anziché la pubblicazione automatica. In Governance dell'AI: creare in modo responsabile, imparerai come aiutare gli utenti a calibrare la loro fiducia.
  • Incoerenza: gli output variano notevolmente tra le esecuzioni. Per risolvere il problema, utilizza modelli di prompt, controllo della temperatura o esempi few-shot per stabilizzare il tono e la struttura.
  • Contenuti dannosi o tossici: il modello produce testo tendenzioso, offensivo o manipolativo. Per ridurre il rischio, applica filtri di moderazione e classificatori di tossicità prima della visualizzazione. Testa continuamente gli output con prompt reali e mantieni un ciclo di feedback per segnalare e riqualificare i casi limite.
  • Latenza e costi: i modelli di grandi dimensioni possono essere lenti e costosi. Soprattutto se mirate a un'adozione su larga scala, può essere difficile stimare in anticipo il costo e l'utilizzo delle risorse dei modelli. Per risolvere il problema, utilizza la memorizzazione nella cache, il batching e modelli più piccoli per attività brevi.

I tuoi concetti principali

In breve, l'AI generativa trasforma le idee grezze in contenuti tangibili come testi, immagini, codice o conversazioni. Prospera dove la creatività e l'adattabilità contano più della precisione.

In qualità di sviluppatore web, il tuo successo dipende dalla progettazione dei prompt giusti, dalla base del modello sui dati corretti e dal continuo allineamento del sistema alle preferenze degli utenti.

Risorse

Scopri di più su come scegliere modelli più piccoli e sostenibili. Per un apprendimento più avanzato:

Verifica la tua comprensione

Qual è la differenza principale tra l'output dell'AI generativa e dell'AI predittiva?

Gli output dell'AI generativa sono limitati a poche etichette come "abbandono" o "nessun abbandono".
Risposta errata.
L'AI generativa crea nuovi contenuti da uno spazio di output di opzioni (testo, pixel, codice).
Ottimo lavoro, la risposta è esatta.
L'AI generativa viene utilizzata solo per le previsioni numeriche.
Risposta errata.
L'AI generativa non utilizza i dati per apprendere i pattern.
Risposta errata.

Qual è il ruolo della temperatura del modello?

Controlla la casualità della risposta del modello.
Risposta errata.
Regola la creatività della risposta del modello.
Ottimo lavoro, la risposta è esatta.
Vengono filtrati i termini vietati.
Risposta errata.
Aumenta la velocità del modello.
Risposta errata.

Perché i benchmark standardizzati spesso non sono sufficienti per valutare l'AI generativa?

Sono troppo costosi da gestire.
Risposta errata.
Raramente acquisiscono le esigenze specifiche degli utenti umani e l'intenzione del prodotto.
Ottimo lavoro, la risposta è esatta.
Funzionano solo per la generazione di immagini, non di testo.
Risposta errata.
Sono troppo facili da superare per i modelli moderni.
Risposta errata.

Quale dei seguenti è un modo comune per mitigare le allucinazioni?

Utilizza tecniche come la RAG (Retrieval-Augmented Generation) per la fondatezza oggettiva.
Ottimo lavoro, la risposta è esatta.
Aumenta la temperatura del modello per renderlo più creativo.
Risposta errata.
Interrompi l'utilizzo dell'AI e passa alla creazione manuale dei contenuti.
Questo può accadere, ma non è un modo per aiutare il modello a creare output più accurati.
Nascondi l'output all'utente se sembra sospetto.
Anche se puoi provare a impedire che informazioni false raggiungano l'utente, non risolvi il problema delle continue allucinazioni.

Cosa devi fare con il feedback degli utenti, secondo il ciclo dell'AI generativa?

Eliminalo immediatamente per proteggere la privacy.
Risposta errata.
Utilizzalo per perfezionare la definizione del problema, la scelta del modello o i prompt.
Ottimo lavoro, la risposta è esatta.
Archiviarlo in un database separato e non consultarlo mai.
Risposta errata.
Utilizzalo solo per punire il modello per comportamenti dannosi.
Risposta errata.