Il workshop "Text to text: Come ragionare con le AI" di Human Singularity offre un'approfondita esplorazione sulle AI generative, distinguendo tra AI deterministica e probabilistica, e introducendo i Large Language Models (LLM) come strumenti chiave nella generazione di testo. Analizza l'importanza degli LLM nella AI generativa, il loro funzionamento basato su auto-regressione e la loro applicazione pratica nel migliorare la creativit e l'interazione umana. Inoltre, il documento discute le sfide, i limiti degli LLM, e come possono essere utilizzati in maniera efficace, offrendo consigli pratici per la creazione di prompt efficaci. L'obiettivo 竪 trasformare gli utenti in esploratori esperti dell'AI, dotati degli strumenti e della saggezza per navigare nell'ambiente AI.
Esercizi Pratici e Approfondimenti
123 Brainwriting: Un esercizio che stimola la creativit individuale e collettiva attraverso la risoluzione di problemi complessi, sfruttando la potenza delle Generative AI (GAI) per amplificare e raffinare le idee generate. Questo esercizio include una fase individuale e una di gruppo, promuovendo un approccio strutturato al brainstorming e al problem solving.
Sfida dell'Autodifesa dell'AI: Questo esercizio incoraggia i partecipanti a sfidare le risposte potenzialmente evasive o superficiali fornite dalle AI riguardo temi controversi, come l'impatto sull'occupazione. L'obiettivo 竪 sviluppare la capacit di analizzare criticamente le risposte dell'AI, evidenziando contraddizioni logiche e spingendo per soluzioni pi湛 concrete e fattibili.
Provoke My Idea: Un'attivit di gruppo incentrata sulla creativit e sull'innovazione, dove i partecipanti sono invitati a costruire e poi "rovinare" le fondamenta di una religione immaginaria. Questo esercizio mira a stimolare il pensiero critico e la capacit di adattamento, promuovendo la comprensione di come idee diverse possano essere combinate o contrastate per esplorare nuovi orizzonti creativi.
Crea la tua Startup: Un'esercitazione pratica che richiede ai partecipanti di progettare una campagna pubblicitaria per il lancio di un nuovo software. Questo esercizio aiuta a comprendere l'importanza del contesto, del pubblico target, e della chiarezza nella comunicazione per il successo di un prodotto.
Consigli per il Prompting Efficace
Le slide offrono anche preziosi consigli su come formulare prompt efficaci per LLM, sottolineando l'importanza dell'equilibrio tra obiettivo, contesto, esempi concreti, personalizzazione, formato e tono. Si enfatizza l'utilit di essere diretti e specifici nelle richieste, evitando frasi di cortesia superflue e suddividendo compiti complessi in prompt pi湛 semplici.
Riflessioni Finali
Il documento conclude con riflessioni sull'importanza di evitare il pensiero a "pattern" troppo rigido e l'over-reliance su soluzioni standardizzate fornite dalle AI.
2. Una differenza chiave per avvicinarci allAI generativa
AI Deterministica
De鍖nizione: L'AI deterministica segue regole 鍖sse
e algoritmi precisi per arrivare a una conclusione.
Se dati gli stessi input, fornir sempre lo stesso
output.
Esempi:
Calcolatrici: Seguono regole matematiche
precise.
Sistemi Esperti: Basati su un set de鍖nito di
regole per prendere decisioni in campi
come la medicina o il diritto.
Caratteristiche: Prevedibilit, stabilit e coerenza.
Limitata nella gestione di situazioni nuove o dati
non strutturati.
AI Probabilistica
De鍖nizione: L'AI probabilistica usa algoritmi che
considerano la probabilit e la statistica. Pu嘆
produrre risultati diversi anche con gli stessi
input, basandosi su probabilit e apprendimento
da dati precedenti.
Esempi:
Motori di Ricerca: Forniscono risultati
basati su algoritmi che valutano la
probabilit che una pagina sia rilevante.
Sistemi di Raccomandazione:
Suggeriscono prodotti o contenuti basati
su probabilit calcolate dalle preferenze
passate degli utenti.
Caratteristiche: Flessibilit, adattabilit e
capacit di gestire l'incertezza. Eccelle nel trovare
pattern in grandi set di dati.
3. Ultimo sforzo (giuro)
Cosa sono gli LLM (Large Language Models)
3
De鍖nizione: Gli LLM sono modelli di linguaggio di grandi dimensioni basati
sull'architettura transformer. Sono addestrati su vasti corpora di testo per
apprendere a comprendere e generare linguaggio umano.
Esempi: GPT (Generative Pretrained Transformer) di OpenAI e BART di
Google sono esempi di LLM.
Capacit: Gli LLM possono generare testo coerente, rispondere a domande,
sintetizzare informazioni, e persino creare contenuto creativo come poesie
o testi per canzoni.
Perch辿 Sono Importanti per la Generative AI
Innovazione nel Generare Contenuti: Gli LLM hanno radicalmente
migliorato la capacit delle macchine di generare testo creativo e coerente,
aprendo nuove possibilit in campi come la scrittura, la pubblicit e i
media.
Interazione Avanzata: Consentono un'interazione pi湛 naturale e 鍖uida tra
utenti e sistemi basati sull'AI, rendendo queste tecnologie pi湛 accessibili e
utili in una variet di applicazioni creative.
4. Perch辿 Gli LLM Sono Auto-Regressivi
4
Generazione di Testo Sequenziale: Gli LLM auto-regressivi generano testo un
pezzo alla volta (ad esempio, una parola per volta). Ogni nuova parola
generata si basa su tutte le parole precedenti nella sequenza. In sostanza, il
modello "ricorda" ci嘆 che ha gi generato e utilizza queste informazioni per
decidere cosa produrre dopo.
Utilizzo del Contesto: Questa capacit di considerare il contesto passato
rende gli LLM particolarmente e鍖caci nel produrre testi che sono coerenti e
鍖uiscono logicamente da ci嘆 che 竪 stato detto prima.
Auto-regressione in LLM
Sequenzialit: In un modello auto-regressivo, ogni nuova parola (o token)
generata in una sequenza dipende da tutte le parole (o token) generate prima
di essa.
Dipendenza dai Precedenti: Il modello "guarda indietro" alle parole
precedentemente prodotte per prevedere la prossima parola nella sequenza.
In altre parole, la generazione di ciascuna nuova parola 竪 una "regressione"
basata sul contesto fornito dalle parole precedenti.
Come Funziona
Inizio della Sequenza: Il modello inizia con un input iniziale, che pu嘆 essere
una parola, una frase o anche solo un prompt vuoto.
Predizione della Parola Successiva: Basandosi su questo input, il modello
usa ci嘆 che ha appreso durante l'addestramento per prevedere quale
dovrebbe essere la parola successiva nella sequenza.
Iterazione: Questo processo viene ripetuto per ogni nuova parola aggiunta,
con il modello che considera l'intera sequenza 鍖no a quel punto per fare la
sua prossima previsione.
Memento boomer: la risposta 竪
dentro di te e per嘆 竪 sbagliata
5. 5
Punti di Forza degli LLM
Coerenza e Fluenza nel Testo: Grazie alla loro
natura auto-regressiva, gli LLM sono bravi a
mantenere coerenza e 鍖uenza nel testo. Possono
continuare una storia o un argomento in modo
logico e coerente.
Creativit e Versatilit: Possono generare una
vasta gamma di contenuti, da articoli informativi a
poesie, dimostrando una notevole 鍖essibilit.
Capacit di Apprendimento: Sono capaci di
imparare e adattarsi a vari stili di scrittura e
argomenti grazie all'ampia gamma di testi su cui
vengono addestrati.
Limiti degli LLM
Mancanza di Comprensione Profonda: Nonostante la loro
e鍖cienza nel generare testo, gli LLM non "comprendono" il
testo nel modo in cui lo farebbe un essere umano. La loro
generazione si basa su pattern e statistiche piuttosto che su
una vera comprensione.
Bias nei Dati: Gli LLM possono replicare o ampli鍖care i bias
presenti nei dati su cui vengono addestrati. Questo pu嘆
portare a problemi di equit o accuratezza.
Di鍖colt con Fatti e Dettagli Speci鍖ci: Possono lottare nel
gestire informazioni speci鍖che o attuali, soprattutto se tali
informazioni non erano presenti o erano rare nel set di dati
di addestramento.
Generazione di Contenuti Non A鍖dabili: In alcuni casi,
possono generare informazioni convincenti ma inesatte o
fuorvianti.
6. LI POSSIAMO USARE PER:
Sostegno nella scrittura,
produzione di bozze,
raffinamento stilistico.
Guida nella scrittura del codice.
Siamo facilmente sedotti dalla
loro chiarezza.
Tuttavia, non comprendono la
realt del mondo.
I Large Language Models di tipo Auto-Regressivo mostrano una
doppia natura.
NON SONO INDICATI PER:
Dare risposte precise e omogenee
(allucinazioni!)
Tenere conto delle novit (anteriori
all'ultima formazione)
Agire correttamente (riproducono
comportamenti dell'insieme formativo)
Pensare, progettare, fare aritmetica
Impiegare "tools", come motori di ricerc
calcolatrici, interrogazioni su database..
7. Come funziona la scatola nera?
Unimmensa quantit di dati
(testo). 70 Tb nel caso di llama2,
1.000 Tb nel caso di OpenAI
Che producono un file di
parametri di 140 GB. 70
Miliardi di parametri.
Riduzione di 1 a 100
Vengono processati da enormi
rack di GPU, nel caso di llama2
sono 6000 GPU per una
settimana.
Nel caso di Open AI sappiamo che
il costo 竪 di
700 Milioni di dollari al giorno
8. Un super distillato di dati ed un codice semplice
Vengono interpretate da un
ridotto codice di 500 linee di C.
(unemail 竪 tra 500 e 1000 linee)
Che producono un file di
parametri di 140 GB. 70
Miliardi di parametri.
Riduzione di 1 a 100
9. Come 竪 fatto il distillato
Sono semplici indicazioni
divise in Layer, Neuron,
che a loro volta hanno un
peso (weight) ed un Bias.
Come rappresentano il
mondo le AI?
10. Supersemplificando
Rete Neurale: Immagina una rete neurale come un ufficio molto complesso in cui entra dell'informazione (in
questo caso, dati) che deve essere elaborata per prendere una decisione o raggiungere una conclusione.
Layer (Strati): Questi sono come diversi reparti all'interno dell'ufficio. Ogni reparto (o strato) ha una parte
specifica del lavoro da elaborare riguardo le informazioni in arrivo. In una rete neurale, hai pi湛 strati attraverso i
quali passano i dati, e ogni strato successivo impara a riconoscere schemi sempre pi湛 complessi basandosi
sull'output del precedente.
Neurons (Neuroni): All'interno di ogni reparto, hai dei lavoratori (neuroni). Proprio come i lavoratori in un ufficio,
ognuno 竪 responsabile di gestire una piccola parte del compito. In una rete neurale, i neuroni sono le unit di
elaborazione di base che lavorano insieme per processare i dati in ingresso e produrre un risultato.
Weight (Pesi): Pensa ai pesi come alla quantit di attenzione o importanza che un lavoratore (neurone) d alle
informazioni che riceve. Se il peso 竪 alto, significa che il lavoratore considera quella informazione molto
importante per prendere una decisione. Se 竪 basso, l'informazione non 竪 cos狸 influente.
Bias: Questo pu嘆 essere visto come lo stile di lavoro personale o l'inclinazione di ogni lavoratore (neurone).
una sorta di regolazione o filtro che applicano alla loro parte di lavoro in base alla propria prospettiva. In una
rete neurale, il bias consente ai neuroni di considerare l'input sufficientemente significativo da passarlo al
reparto successivo.
Quando l'ufficio (rete neurale) riceve un nuovo compito (dati in ingresso), ogni reparto (strato) elabora le
informazioni, con i lavoratori (neuroni) che si concentrano su aspetti diversi secondo il loro ruolo (pesi e bias). Il
reparto finale produce il risultato (dati in uscita), che 竪 il frutto del lavoro dell'intero ufficio sul compito.
Nel contesto di un modello di linguaggio, tutto questo processo viene utilizzato per comprendere e generare
testo: l'"ufficio" elabora le parole in ingresso e decide quale dovrebbe essere la prossima in una frase.
11. Che informazioni vengono mantenute nel passaggio?
Schemi e Strutture: Il modello mantiene schemi statistici, strutture e relazioni trovate nei dati. Ci嘆
include la grammatica, frasi comuni, associazioni di parole e regole sintattiche.
Conoscenza Generale: Fatti, conoscenze comuni e informazioni che si verificano frequentemente
nel dataset sono codificate nei parametri.
Modelli Linguistici: Le regole semantiche e sintattiche della lingua, che consentono al modello di
costruire risposte coerenti e contestualmente appropriate.
Concetti e Idee: Concetti astratti, idee e le relazioni tra di loro che sono necessari per
comprendere e generare testo relativamente a vari argomenti.
Capacit di Inferenza: La capacit del modello di fare inferenze o previsioni su informazioni
mancanti in un prompt, basate sugli schemi che ha appreso.
Variazioni Stilistiche: Sebbene non ogni sfumatura stilistica sia mantenuta, il modello cattura una
gamma di stili di scrittura sufficienti a generare testi diversi e plausibili.
12. Cosa viene perso nel passaggio?
Istanze di Dati Specifici: I dettagli esatti e le specificit dei dati di addestramento non vengono mantenuti. Esempi
individuali, come frasi specifiche, paragrafi o documenti, non sono conservati nei parametri.
Ridondanze: Qualsiasi informazione ridondante nel dataset, che potrebbe includere frasi ripetute o conoscenze
comuni, non 竪 replicata nei parametri del modello.
Dati Rumorosi: Anomalie o errori nei dati che non contribuiscono agli schemi generali che il modello dovrebbe
imparare vengono idealmente filtrati durante l'addestramento.
Caratteristiche di Basso Livello: Caratteristiche stilistiche dettagliate o idiosincrasie di autori o fonti particolari
potrebbero non essere conservate a meno che non contribuiscano alla comprensione della lingua da parte del
modello.
Tutto quello che riguarda la marca, i valori, letica e la cultura di unazienda o
di una marca, vengono persi nel passaggio. Se vogliamo che la AI
rappresenti la nostra azienda, dobbiamo ricostruirli.
13. Come vengono collegati i dati?
Il Processo di Compressione
Il processo di addestramento di un LLM comporta l'aggiustamento dei
pesi e dei bias dei neuroni della rete in modo che il modello possa
prevedere la prossima parola in una sequenza di testo. Attraverso la
retropropagazione e la discesa del gradiente, il modello impara ad
approssimare la distribuzione di probabilit del prossimo token data la
sequenza precedente.
Il processo di addestramento implica l'esposizione del modello a
grandi quantit di testo e permettergli di fare previsioni (ad esempio,
quale parola viene dopo). Quando commette un errore, la differenza tra
la sua previsione e la parola effettiva viene utilizzata per aggiustare i
parametri. Questo processo viene ripetuto miliardi di volte.
Col tempo, il modello interiorizza gli schemi linguistici presenti nei dati di
addestramento. Tuttavia, non conserva i dati stessi; immagazzina gli
schemi appresi come pesi all'interno della rete neurale.
In sostanza, il file di parametri 竪 una versione condensata dei dati di
testo originali, rappresentando gli schemi linguistici e basati sulla
conoscenza essenziali perch辿 il LLM funzioni efficacemente senza
conservare alcun testo specifico del dataset.
14. Q*
Il modello Q*, menzionato in recenti dispute riguardanti OpenAI, si
riferisce a un presunto nuovo metodo per creare sistemi di intelligenza
artificiale potenti. Secondo quanto riportato, questo modello sarebbe in
grado di eseguire calcoli matematici a livello di scuola elementare, e
alcune persone in OpenAI ritengono che questo potrebbe
rappresentare una pietra miliare nella ricerca dell'intelligenza artificiale
generale (AGI).
In termini di qualit, il termine "qualitative" nel contesto di Q* pu嘆
riferirsi alla capacit di comprendere e manipolare concetti concreti e
astratti, un'abilit che 竪 fondamentale per risolvere problemi
matematici, che a loro volta richiedono una certa capacit di
pianificazione e ragionamento logico oltre pi湛 passaggi.
Riuscire ad aggiungere un parametro qualitativo, risparmierebbe allAI
un enorme sforzo, anzich辿 andare per tentativi, avrebbe la capacit di
valutare lesito di ogni tentativo, risparmiando unenorme quantit di
risorse. Fino a 100.000 volte pi湛 potente
15. Dal semplice prompt a una visione globale e consapevole.
15
Scrivere prompt efficaci per l'intelligenza artificiale 竪 simile ad
allacciarsi gli scarponi da sci: non si tratta solo di padroneggiare uno
strumento, ma di imparare a navigare nel paesaggio.
Dopo aver imparato le tecniche base; vogliamo che i nostri imparieta
a scegliere le traiettorie pi湛 avvincenti, elevando lo sguardo per
apprezzare la bellezza e i rischi della montagna dell'AI.
Come in uno sport invernale, dove la preparazione 竪 cruciale per
un'esperienza sicura e gratificante, nell'uso delle tecnologie AI 竪
fondamentale comprendere come navigare in questo ambiente
mutevole, insegnando a interpretare le condizioni in evoluzione,
riconoscere i segnali di pericolo e sfruttare le opportunit, sempre
con consapevolezza dei rischi etici e pratici.
Il nostro scopo 竪 trasformare ogni utilizzatore di AI in un esploratore
esperto, dotato non solo degli strumenti adeguati, ma anche della
saggezza per utilizzarli al meglio.
16. 16
UN BUON PROMPT E DATO DALLEQUILIBRIO
Obiettivo: Dare una direzione chiara ai vostri prompt.
Contesto: Utilizzare il background per arricchire i vostri comandi.
Esempi: Rendere speci鍖che le vostre richieste con casi concreti.
Persona: Personalizzare i prompt per il vostro pubblico.
Formato: Scegliere il miglior stile per il vostro messaggio.
Tono: Dare voce alla vostra creativit.
17. Qualche consiglio pratico
Non c'竪 bisogno di essere educati con LLM quindi non c'竪
bisogno di aggiungere frasi come "per favore", "se non ti
dispiace", "grazie", "mi piacerebbe", ecc., e andare dritti al
punto.
Integra le persone cui ti riferisci nella prompt, per esempio,
l'utenza 竪 esperta nel campo.
Suddividi compiti complessi in una sequenza di prompt pi湛
semplici in una conversazione interattiva.
Utilizza direttive affermative come 'fai', evitando un linguaggio
negativo come 'non fare'.
Quando hai bisogno di chiarezza o di una comprensione pi湛
profonda di un argomento, idea o qualsiasi pezzo di
informazione, utilizza i seguenti prompt:
Spiega [inserire argomento specifico] in termini semplici.
Spiega a me come se avessi 11 anni.
Spiega a me come se fossi un principiante in [campo].
Scrivi [il saggio/testo/paragrafo] usando un inglese semplice
come se stessi spiegando qualcosa a un bambino di 5 anni.
Implementa il prompting guidato dagli esempi
Incorpora le seguenti frasi: "Il tuo compito 竪" e "DEVI".
Incorpora le seguenti frasi: "Sarai penalizzato se ".
Usa la frase "Rispondi a una domanda data in un modo
naturale, simile all'uomo" nei tuoi prompt.
Usa parole guida come "pensa passo dopo passo".
Aggiungi al tuo prompt la seguente frase "Assicurati che la tua
risposta sia imparziale e non si basi su stereotipi".
Permetti al modello di estrarre dettagli e requisiti precisi da te
chiedendo domande fino a quando non ha abbastanza
informazioni per fornire l'output desiderato (per esempio, "Da
ora in poi, vorrei che tu mi facessi domande su...").
Per indagare su un'idea o concetto specifico o su qualsiasi
informazione e vuoi testare la tua comprensione, puoi usare la
seguente frase: "Insegnami la regola/nome del tema/nome del
principio e includila in un test alla fine, ma non darmi le
risposte e poi dimmi se ho indovinato la risposta giusta quando
rispondo".
Assegna un ruolo ai grandi modelli di linguaggio.
Ripeti una parola o frase specifica pi湛 volte all'interno di una
prompt.
Combina il pensiero a catena (CoT) con prompt few-shot.
Per scrivere un testo/paragrafo/articolo o qualsiasi tipo di testo
che dovrebbe essere dettagliato: "Scrivi un
saggio/testo/paragrafo dettagliato su [argomento] includendo
tutte le informazioni necessarie".
18. Qualche consiglio pratico
Per correggere/cambiare testo specifico senza cambiare lo
stile: "Cerca di rivedere ogni paragrafo inviato dagli utenti.
Dovresti solo migliorare l'uso della grammatica e della
vocabolario e assicurarti che suoni naturale. Non dovresti
cambiare lo stile di scrittura, come rendere un paragrafo
formale informale".
Quando hai un compito di codifica complesso che pu嘆 essere
in file diversi: "Da ora in poi e ogni volta che generi codice che
abbia pi湛 di una riga, genera un [linguaggio di
programmazione] script che pu嘆 essere eseguito
automaticamente per creare i file specificati o fare
cambiamenti ai file esistenti per inserire il codice generato.
Quando vuoi iniziare o continuare un testo utilizzando
specifiche parole, frasi o frasi, utilizza il seguente prompt:
Ti sto fornendo l'inizio con
[testo/canzone/storia/paragrafo/saggio/...]: [Inserisci
lirica/parole/frase]. Finisci la frase che hai fornito. Mantieni il
flusso coerente.
Stabilisci chiaramente i requisiti che il modello deve seguire
per produrre contenuto, in termini di parole chiave,
regolamenti, indizi o istruzioni.
Per scrivere un testo, come un saggio o un paragrafo, che 竪
inteso ad essere simile a un campione fornito, includi le
seguenti istruzioni:
Per favore usa lo stesso linguaggio basato sul
paragrafo/testo/titolo/saggio/risposta forniti.
Usate preferibilmente i consigli diretti di ChatGPT, sono i pi湛
aggiornati e sono gratis
19. Scrivi istruzioni chiare
Questi modelli non possono leggere nella tua mente. Se le risposte sono
troppo lunghe, chiedi risposte brevi. Se le risposte sono troppo semplici,
chiedi di approfondire. Se il formato non ti piace, dimostra il formato che
vorresti vedere. Meno il modello deve indovinare ci嘆 che vuoi, pi湛
probabilmente otterrai ci嘆 che desideri.
Tattiche:
Includi dettagli nella tua richiesta per ottenere risposte pi湛 rilevanti
Chiedi al modello di adottare una persona
Usa delimitatori per indicare chiaramente parti distinte dell'input
Specifica i passaggi necessari per completare un compito
Fornisci esempi
Specifica la lunghezza desiderata dell'output
Peggiore Migliore
Come faccio ad
aggiungere numeri in
Excel?
Come faccio a sommare una 鍖la di importi in dollari in Excel?
Voglio farlo automaticamente per un intero foglio di righe con
tutti i totali che 鍖niscono a destra in una colonna chiamata
"Totale".
Chi 竪 il presidente?
Chi era il presidente del Messico nel 2021, e con quale frequenza
si tengono le elezioni?
Scrivi codice per
calcolare la
sequenza di
Fibonacci.
Scrivi una funzione TypeScript per calcolare e鍖cientemente la
sequenza di Fibonacci. Commenta abbondantemente il codice
per spiegare cosa fa ogni pezzo e perch辿 竪 scritto in quel modo.
Riassumi le note
dell'incontro.
Riassumi le note dell'incontro in un singolo paragrafo. Poi scrivi
una lista in markdown dei relatori e di ciascuno dei loro punti
chiave. In鍖ne, elenca i prossimi passi o le azioni suggerite dai
relatori, se presenti.
20. Usa delimitatori per indicare
chiaramente parti distinte dell'input
UTENTE SISTEMA
Riassumi il testo delimitato dalle triple virgolette
con un haiku.
inserisci testo qui
Ti verranno forniti due articoli (delimitati con tag
XML) sullo stesso argomento. Prima riassumi
gli argomenti di ciascun articolo. Poi indica
quale di essi presenta un argomento migliore e
spiega perch辿.
<article> inserisci qui
il primo articolo
</article> <article>
inserisci qui il secondo
articolo </article>
Ti verr fornito un abstract di tesi e un titolo
suggerito per essa. Il titolo della tesi dovrebbe
dare al lettore una buona idea del tema della
tesi ma dovrebbe anche essere accattivante. Se
il titolo non soddisfa questi criteri, suggerisci 5
alternative.
Abstract: inserisci qui
l'abstract Titolo:
inserisci qui il titolo
Specifica i passaggi necessari per
completare un compito
SISTEMA
Usa le seguenti istruzioni passo dopo passo per rispondere agli input degli
utenti.
Passo 1 - L'utente ti fornir del testo tra triple virgolette. Riassumi questo testo
in una frase con un pre鍖sso che dice "Riassunto: ".
Passo 2 - Traduci il riassunto del Passo 1 in spagnolo, con un pre鍖sso che dice
"Traduzione: ".
21. Fornisci degli esempi chiari
Specifica la lunghezza desiderata
dell'output
Fornire istruzioni generali che si applicano a tutti gli esempi 竪
generalmente pi湛 efficiente che dimostrare tutte le permutazioni di
un compito tramite esempio, ma in alcuni casi fornire esempi pu嘆
essere pi湛 semplice. Ad esempio, se intendi che il modello copi
uno stile particolare di risposta alle query degli utenti che 竪 difficile
descrivere esplicitamente. Questo 竪 noto come prompting
"few-shot".
SISTEMA UTENTE ASSISTENTE
Rispondi
in uno
stile
coerente.
Insegna
mi la
pazienza
.
Il 鍖ume che scava la valle pi湛 profonda sgorga
da una modesta sorgente; la sinfonia pi湛
grandiosa origina da una singola nota; l'arazzo
pi湛 intricato inizia con un 鍖lo solitario.
Puoi chiedere al modello di produrre output di una lunghezza
target specifica. La lunghezza dell'output desiderato pu嘆 essere
specificata in termini di conteggio di parole, frasi, paragrafi, punti
elenco, ecc. Nota tuttavia che istruire il modello a generare un
numero specifico di parole non funziona con alta precisione. Il
modello pu嘆 generare output con un numero specifico di paragrafi
o punti elenco pi湛 affidabilmente.
UTENTE
Riassumi il testo delimitato dalle triple virgolette in circa 50 parole.
inserisci testo qui A
Riassumi il testo delimitato dalle triple virgolette in 2 paragra鍖.
inserisci testo qui
Riassumi il testo delimitato dalle triple virgolette in 3 punti elenco.
inserisci testo qui
22. Istruisci il modello a rispondere utilizzando un testo di riferimento
Se possiamo fornire al modello informazioni affidabili che sono
rilevanti per la query attuale, allora possiamo istruire il modello a
usare le informazioni fornite per comporre la sua risposta.
Dato che tutti i modelli hanno finestre di contesto limitate, abbiamo
bisogno di un modo per cercare dinamicamente informazioni che
sono rilevanti per la domanda posta. Gli embeddings possono
essere utilizzati per implementare un recupero delle conoscenze
efficiente. Vedi la tattica "Usa la ricerca basata su giallozafferano
per implementare un recupero delle conoscenze efficiente" per
maggiori dettagli su come implementare questo.
Se l'input 竪 stato integrato con conoscenze rilevanti, 竪 semplice
richiedere che il modello aggiunga citazioni alle sue risposte
facendo riferimento a passaggi dei documenti forniti. Nota che le
citazioni nell'output possono poi essere verificate
programmaticamente tramite il matching di stringhe all'interno dei
documenti forniti.
SISTEMA
Usa gli articoli forniti delimitati dalle triple virgolette per rispondere alle domande. Se la
risposta non pu嘆 essere trovata negli articoli, scrivi "Non ho trovato una risposta."
UTENTE
<inserisci articoli, ciascuno delimitato dalle triple virgolette>
Domanda: <inserisci qui la domanda>
SISTEMA
Ti verr fornito un documento delimitato dalle triple virgolette e una domanda. Il tuo
compito 竪 rispondere alla domanda utilizzando solo il documento fornito e citare il o i
passaggi del documento usati per rispondere alla domanda. Se il documento non
contiene le informazioni necessarie per rispondere a questa domanda, scrivi
semplicemente: "Informazioni insu鍖cienti". Se viene fornita una risposta alla domanda,
deve essere annotata con una citazione. Usa il seguente formato per citare i passaggi
rilevanti ({"citazione": }).
UTENTE
<inserisci qui il documento>
Domanda: <inserisci qui la domanda>
23. Suddividi compiti complessi in
sottocompiti pi湛 semplici
Tattica: Usa la classificazione delle intenzioni per identificare le
istruzioni pi湛 rilevanti per una query dell'utente
Per compiti nei quali sono necessari molti insiemi indipendenti di
istruzioni per gestire casi diversi, pu嘆 essere vantaggioso
classificare prima il tipo di query e utilizzare quella classificazione
per determinare quali istruzioni sono necessarie.
Ci嘆 pu嘆 essere ottenuto definendo categorie fisse e codificando
istruzioni che sono rilevanti per gestire compiti in una data
categoria.
Questo processo pu嘆 anche essere applicato ricorsivamente per
decomporre un compito in una sequenza di fasi. Il vantaggio di
questo approccio 竪 che ogni query conterr solo quelle istruzioni
che sono richieste per eseguire la fase successiva di un compito, il
che pu嘆 risultare in tassi di errore inferiori rispetto all'uso di una
singola query per eseguire l'intero compito.
SISTEMA
Ti verranno fornite richieste di assistenza clienti che richiedono la risoluzione di problemi in un contesto di
supporto tecnico. Aiuta l'utente:
- Chiedi loro di controllare che tutti i cavi da/a il router siano collegati. Nota che 竪 comune che i cavi si
allentino nel tempo.
- Se tutti i cavi sono collegati e il problema persiste, chiedi loro quale modello di router stanno utilizzando
- Ora li consiglierai su come riavviare il loro dispositivo:
-- Se il numero del modello 竪 MTD-327J, consiglia loro di premere il pulsante rosso e tenerlo premuto per 5
secondi, poi attendere 5 minuti prima di testare la connessione.
-- Se il numero del modello 竪 MTD-327S, consiglia loro di scollegarlo e ricollegarlo, poi attendere 5 minuti
prima di testare la connessione.
- Se il problema del cliente persiste dopo aver riavviato il dispositivo e atteso 5 minuti, connettili al supporto
IT emettendo {"Supporto IT richiesto"}.
- Se l'utente inizia a fare domande che non sono correlate a questo argomento, conferma se desiderano
terminare la chat attuale sulla risoluzione dei problemi e classi鍖ca la loro richiesta secondo il seguente
schema:
<inserisci qui lo schema di classi鍖cazione primario/secondario di cui sopra>
25. Esercizio prima individuale poi a gruppi di 3.
Il 1,2,3 Brainwriting Questo metodo 竪 progettato per stimolare la creativit individuale e collettiva,
sfruttando al contempo la potenza delle GAI per amplificare e raffinare le idee generate.
25
Fase Individuale:
Ogni partecipante inizia individualmente, riflettendo su un problema o una sfida specifica
per risolvere contemporaneamente i problemi dellitalia e dellAfrica (migrazioni, colpi di
stato, neocolonialismo delle risorse, crisi del sistema pensionistico, crisi del tessuto
produttivo italiano)
Interagisce con la GAI in tre occasioni distinte, ricevendo feedback e suggerimenti basati
sui dati e sulle capacit analitiche della GAI.
Ogni interazione serve a raffinare e sviluppare ulteriormente l'idea iniziale del
partecipante.
Fase di Gruppo:
I partecipanti vengono suddivisi in piccoli gruppi, ognuno dei quali aveva lavorato sullo
stesso problema. Ogni gruppo condivide e discute le idee e i feedback ricevuti dalla GAI
durante la fase singolare.
Il gruppo, come collettivo, interagisce nuovamente con la GAI per tre volte, utilizzando le
idee condivise come punto di partenza e cercando di combinare e migliorare
ulteriormente le soluzioni.
26. Learning: Il Rischio della Fumosit
26
Questo esercizio ha evidenziato un fenomeno comune nel problem solving di
questioni complesse: la tendenza alla "fumosit". Quando ci confrontiamo con
problemi di grande scala, 竪 facile cadere nella trappola di soluzioni che suonano
bene in teoria ma mancano di fattibilit pratica. Questa fumosit si manifesta in
diverse forme:
Generalizzazioni Eccessive: Tendenza a proporre soluzioni che ignorano le
sfumature e le speci鍖cit locali.
Idealismo vs. Pragmatismo: Propensione a idee idealistiche che, sebbene
nobili, possono essere irrealizzabili nel contesto attuale.
Mancanza di Azioni De鍖nite: Di鍖colt nel delineare passaggi concreti e
misurabili per l'attuazione delle soluzioni.
Importanza della Concretizzazione
Questo esercizio sottolinea l'importanza di lavorare per concretizzare le idee,
ancorandole nella realt attuale e nelle sue complessit. fondamentale:
Riconoscere le Limitazioni: Accettare che non tutte le questioni possono
essere risolte completamente o rapidamente.
Focus sulle Azioni Realizzabili: Concentrarsi su ci嘆 che pu嘆 essere fatto
concretamente, anche se su scala minore.
Apprezzare i Piccoli Passi: Riconoscere che anche piccoli cambiamenti o
miglioramenti sono passi signi鍖cativi verso soluzioni pi湛 ampie.
27. Esercizio individuale: Sfida lautodifesa dellAI
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
27
Una delle pi湛 grandi critiche, giustamente fatte alle AI 竪 che distruggeranno
pi湛 posti di lavoro di quelli creati.
Chiedi a ChatGPT o Gemini, come intendono risolvere il problema dei posti
di lavoro che verranno distrutti.
Inizier con risposte fumose, il tuo compito 竪 fare un challange a quelle
risposte, mostrando le contraddizioni logiche.
Struttura come vuoi il prompt e rispondi colpo su colpo alle risposte che
riceverai. Attento a non 鍖darti troppo e non cadere nella rabbit hole.
28. Learning: Cos'竪 la "Rabbit Hole"?
28
La metafora della "rabbit hole", tratta dal romanzo "Alice nel Paese delle
Meraviglie", descrive un processo di pensiero che diventa sempre pi湛 profondo e
intricato, portando spesso lontano dalle soluzioni pratiche.
Speculazioni In鍖nite: Continuare a esplorare scenari ipotetici senza arrivare a
conclusioni concrete.
Analisi Paralizzante: Sovra-analizzare i dettagli 鍖no al punto di sentirsi
sopraffatti e incapaci di agire.
Circolarit del Pensiero: Ripetere gli stessi argomenti o preoccupazioni
senza progredire verso soluzioni.
Rischi della "Rabbit Hole"
Stallo nel Problem Solving
Frustrazione e Demotivazione
Visione Ristretta
Strategie per Evitare la "Rabbit Hole"
De鍖nire Obiettivi Chiari
Limitare il Tempo di Discussione
Incoraggiare Diverse Prospettive
Focalizzarsi su Azioni Concrete
29. Esercizio a gruppi di 3: Provoke my idea
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
29
Fase 1 - Creazione della Religione: Ogni gruppo scrive un prompt completo in 6
fasi per creare una religione bizzarra. Le fasi includono:
Nome e pantheon divino.
Dottrine principali e credenze.
Riti e cerimonie.
Simboli sacri e luoghi di culto.
Testo sacro o mitologia.
Regole di condotta per i fedeli.
Fase 2 - Sconvolgimento delle Fondamenta:
Dopo aver scritto i primi prompt, ogni gruppo passa il suo PC al gruppo
successivo.
Il nuovo gruppo deve modificare il prompt per "rovinare" le fondamenta
della religione, rendendola illogica o senza senso.
Questo processo si ripete per 3 interazioni, con ciascun gruppo
alternandosi tra costruzione e destrutturazione.
Valutazione e Discussione:
Dopo le 3 interazioni, tutti i gruppi si riuniscono per condividere i risultati.
Discutere i punti di svolta: quali modifiche hanno avuto l'effetto pi湛
significativo sul cambiamento della religione originale?
Analizzare le strategie creative e distruttive usate da ogni gruppo.
Riflettere su come il processo di costruzione e destrutturazione possa
essere applicato in altri contesti di design creativo.
30. Learning: Pensiero a tunnel
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
30
Soluzioni Limitate: Ignorare soluzioni potenzialmente migliori o pi湛 creative.
Mancanza di Criticit: Non mettere in discussione le assunzioni o le conclusioni
raggiunte.
Resistenza al Cambiamento: Aderire rigidamente a un'idea iniziale, nonostante
l'emergere di nuove informazioni o prospettive.
Lo scambio dei PC ha avuto l'obiettivo di:
Introdurre Nuove Prospettive: Ogni gruppo ha ereditato il lavoro e il pensiero di
un altro gruppo, offrendo nuovi spunti e idee.
Stimolare la Flessibilit Mentale: Adattarsi rapidamente a un nuovo contesto e
a idee preesistenti ha incoraggiato una maggiore apertura mentale.
Contrastare la Conferma Bias: Esaminare e sviluppare il lavoro di altri ha ridotto
il rischio di aderire solo a idee che confermano le proprie convinzioni iniziali.
Risultati dell'Esercizio
Maggiore Creativit: Abbiamo osservato soluzioni pi湛 variegate e creative
rispetto a un approccio standard.
Migliore Collaborazione: Lo scambio ha promosso una maggiore
comprensione e apprezzamento delle diverse strategie di problem solving.
Riduzione della Tunnel Vision: I gruppi hanno mostrato una maggiore apertura
a riconsiderare e adattare le loro idee iniziali.
31. Esercizio a coppie: Crea la tua Startup
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
31
De鍖nire l'Obiettivo: Creare un prompt che richieda la progettazione di una campagna
pubblicitaria per il lancio di un nuovo software di gestione progetti.
Stabilire il Contesto: Aggiungere dettagli sul contesto: il software 竪 destinato a piccole
e medie imprese nel settore tecnologico, con particolare attenzione all'efficienza e alla
collaborazione.
Utilizzare un Esempio: Incorporare un esempio specifico: prendere spunto da una
campagna pubblicitaria di successo nel settore tecnologico, come quella di Slack o
Trello.
Focalizzarsi sul Tipo di Persona: Specificare che la campagna dovrebbe parlare ai
giovani imprenditori e ai manager di progetto tech-savvy.
Decidere il Formato: Chiedere un brainstorming sotto forma di elenco puntato che
includa idee per slogan, immagini e strategie di marketing digitali.
Determinare il Tono: Indicare che il tono della campagna dovrebbe essere innovativo,
dinamico e professionale.
Obiettivo 鍖nale: Nome dellazienda, Manifesto della campagna, Messaggio chiave,
Tagline, 3 post social (domani creiamo logo e grafica)
Tempo 30 minuti per lesecuzione e la presentazione di una ppt + 30 per discussione
32. Learning: Cos'竪 il Pensiero a Pattern?
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
32
Il pensiero a pattern si riferisce alla tendenza di seguire modelli logici o percorsi di
pensiero predefiniti. Sebbene possa essere efficiente per risolvere problemi
standardizzati, pu嘆 limitare la creativit e l'innovazione quando si affrontano sfide pi湛
complesse e uniche.
Rischi del Seguire Pedissequamente ChatGPT
Soluzioni Appiattite: La dipendenza da risposte e soluzioni fornite da un
modello di IA pu嘆 portare a una mancanza di diversit nel pensiero e nelle
soluzioni proposte.
Mancanza di Creativit: L'uso eccessivo di strumenti AI per il problem solving
pu嘆 ridurre l'impulso a pensare "fuori dagli schemi" e a esplorare soluzioni
uniche.
Risposta Standardizzata a Problemi Complessi: I problemi complessi
richiedono spesso soluzioni innovative e personalizzate, che possono essere
soffocate da un approccio troppo standardizzato.
Promuovere l'Innovazione e la Diversit nel Problem Solving
Incoraggiare il Pensiero Critico: Stimolare i partecipanti a interrogarsi sulle
soluzioni proposte e a esplorare alternative.
Diversificare le Fonti di Ispirazione: Utilizzare una variet di strumenti e
approcci, oltre a ChatGPT, per generare idee.
Valorizzare le Prospettive Uniche: Incoraggiare ogni membro del gruppo a
contribuire con la propria visione e esperienza.
Sperimentare con Approcci Non Convenzionali: Promuovere l'esplorazione di
soluzioni non ortodosse o sperimentali.
33. Integrazioni tra API e ChatGPT
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
33
L'accesso alle API di OpenAI 竪 il primo passo per integrare le capacit di
intelligenza artificiale, come quelle fornite da ChatGPT, nelle tue
applicazioni.
Accesso al Dashboard API:
Una volta verificato l'indirizzo email, accedi al tuo account
OpenAI.
Vai al dashboard API, di solito accessibile tramite un link diretto
come "API" o "API Keys" nel menu utente.
Generazione delle Chiavi API:
Nel dashboard API, cerca un pulsante o un link per generare una
nuova chiave API, di solito etichettato come "Create new key" o
"Generate".
Segui le istruzioni per creare una nuova chiave API. Questa
chiave ti permetter di fare richieste autenticate alle API di
OpenAI.
Sicurezza delle Chiavi API:
Assicurati di conservare la tua chiave API in un luogo sicuro.
Non condividere la tua chiave API pubblicamente, poich辿
consente l'accesso al tuo account e ai tuoi crediti API.
34. Limitazioni e Pricing
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
34
OpenAI solitamente addebita in base al numero di token (parole o parti di
parole) elaborati dalle tue richieste.
Il costo pu嘆 variare a seconda del modello di GPT che utilizzi
Pu嘆 esserci un piano gratuito con un certo numero di token gratuiti al
mese, seguito da tariffe per token aggiuntivi.
Limitazioni dell'Uso:
Ci possono essere limiti giornalieri o mensili sul numero di richieste
Le API potrebbero imporre limitazioni sul tasso di richieste
Piani e Opzioni di Pricing:
OpenAI offre diversi piani di abbonamento
Controlla il sito web di OpenAI per i dettagli pi湛 recenti sui piani
Considerazioni sul Pricing Dinamico:
I prezzi e i limiti possono cambiare, quindi 竪 importante monitorare
qualsiasi comunicazione da OpenAI
Limitazioni sul Contenuto:
Oltre alle limitazioni tecniche, OpenAI ha delle politiche sul tipo di
contenuto che puoi generare con le sue API, per evitare abusi come la
creazione di contenuti dannosi o ingannevoli.
35. Il mondo delle GPTs
Quando viene tirata in ballo direttamente, lAI tende
a difendersi
35
Sono customizzazioni create da persone ed aziende per
facilitare i compiti in un ambito specifico.
Possono arricchire di informazioni sia attraverso
lapporto documentale, sia attraverso lintegrazione con
API specifiche.
Facilitano il lavoro MA, non 竪 ancora chiaro dove
finiscano i dati, per questo vanno sempre anonimizzati
al massimo i dati inseriti.
37. Formazione raccomandata (da che parte della linea?)
In Italiano:
Seguite:
Luciano Floridi
Paolo Benanti
Datapizza
Matteo Flora
Marco Montemagno
Canali AI: (in inglese)
The AI breakdown
All about AI
Matt Wolfe
MattvidproAi
Fireship
The Ai grid
Mattew Berman
Ai explained
David Andrej
In Inglese (altamente raccomandato):
Tristan Harris (Social Dilemma e AI Dilemma)
Yuval Noah Harari (tutto ci嘆 che riguarda AI)
Sam Harris (tutto ci嘆 che riguarda AI)
Andrej Karpathy (Capo tecnico di OpenAI)
Sam Altman (CEO Open AI)
Ilya Sutskever (Capo scientifico di OpenAI)
Mustafa Suleyman (Deep Mind - The coming wave)
Allinizio capirete poco, 竪 normale, fate domande a ChatGPT che vi aiuta a capire. Poi entrerete in quel mondo
39. Determinati nell'approccio, coraggiosi
nellesecuzione, miglioriamo con ogni
interazione.
Grazie mille per aver aiutato a dar forma al
nostro pensiero con i vostri suggerimenti!
Per continuare la conversazione:
andrea@humansingularity.it
348 6344420