primi file

This commit is contained in:
PanSi21 2025-02-02 23:26:26 +01:00
parent d78d5bd5f1
commit cc70838a77
Signed by untrusted user who does not match committer: PanSi21
GPG key ID: 755F8874C65EF462
39 changed files with 5051 additions and 1 deletions

2
.gitignore vendored
View file

@ -23,7 +23,7 @@
# *.pdf # *.pdf
## Generated if empty string is given at "Please type another file name for output:" ## Generated if empty string is given at "Please type another file name for output:"
.pdf # .pdf
## Bibliography auxiliary files (bibtex/biblatex/biber): ## Bibliography auxiliary files (bibtex/biblatex/biber):
*.bbl *.bbl

Binary file not shown.

View file

@ -0,0 +1,567 @@
\chapter*{Appendice}
\section*{Dichiarazione sull'impiego di sistemi di Intelligenza Artificiale Generativa}
In conformità con i principi di trasparenza, onestà e responsabilità nell'uso dell'IA Generativa discussi nella tesi dichiaro di aver utilizzato i seguenti strumenti durante la redazione di questa tesi e lo sviluppo dell'applicazione correlata.
\subsection*{Strumenti Utilizzati}
\begin{itemize}
\item Gemini, versioni Gemini 1.5 Pro e Gemini Experimental 1206 (versione rilasciata a febbraio 2024 e successive).
\item ChatGPT, versione GPT-4 (versione rilasciata a marzo 2023 e successive).
\item Claude 3.5 Sonnet (versione rilasciata a giugno 2024).
\item GitHub Copilot (versione integrata in VS Code, aggiornamenti continui).
\item Consensus (motore di ricerca basato su AI).
\item Perplexity (motore di ricerca basato su AI).
\item Mermaid.
\item Semantic Scholar.
\item Whisper.
\end{itemize}
\subsection*{Periodo di Utilizzo}
L'utilizzo degli strumenti sopra elencati è avvenuto in maniera continuata tra Aprile 2024 e Gennaio 2025.
\subsection*{Modalità di utilizzo e sezioni interessate}
\subsubsection*{Ricerca e selezione preliminare degli articoli}
\begin{itemize}
\item Semantic Scholar reader: utilizzato per la ricerca bibliografica iniziale e la lettura e studio degli articoli.
\item Consensus e Perplexity: utilizzati come motori di ricerca basati su AI per la ricerca, l'individuazione e la selezione di articoli scientifici pertinenti
\item Claude 3.5 Sonnet e ChatGPT (o Gemini): utilizzati per la selezione preliminare degli articoli, l'identificazione dei concetti chiave e la valutazione della loro rilevanza per l'argomento della tesi. L'uso di diversi strumenti in questa fase è dipeso dalle limitazioni dei piani gratuiti e dalla necessità di convalidare i risultati confrontandoli, parafrasare e tradurre articoli complessi.
\item NotebookLM: utile per interrogare e fare domande a articoli e capitoli di libri per capire meglio alcuni concetti chiave.
\end{itemize}
\subsubsection*{Creazione di grafici e diagrammi:}
\begin{itemize}
\item MermaidAI: Per la creazione di flowchart con Markdown.
\end{itemize}
\subsubsection*{Conversione speech-to-text:}
\begin{itemize}
\item MacWhisper: permette di trascrivere conferenze, TED Talk e altri video disponibili su YouTube. Il testo trascritto veniva poi letto o riassunto da Claude 3.5. Lapplicazione permetteva anche di dettare appunti e idee per la creazione della prima bozza di ogni capitolo.
\end{itemize}
\subsubsection*{Conversione Text-To-Speech:}
\begin{itemize}
\item Notebook LM-creazione podcast: permette di creare un podcast di un articolo caricato, le voci sono molto reali e piacevoli e creano un dibattito tra 2 voci una maschile e una femminile che permette di capire di cosa parla un capitolo di un libro o un articolo scientifico. Molto utile per avanzare nello studio e nella scelta dei testi in diversi momenti della giornata.
\end{itemize}
\subsubsection*{Traduzioni:}
\begin{itemize}
\item Claude 3.5, gpt-4o, Gemini 1.5 Pro : con il prompt “traduci questo articolo in italiano”
\end{itemize}
\subsubsection*{Miglioramento dello Stile di Scrittura:}
\begin{itemize}
\item Gemini 1.5 Pro: utilizzato per migliorare lo stile, la chiarezza e la coerenza dei paragrafi in tutta la tesi. In particolare, ho utilizzato un prompt specifico (disponibile in allegato in appendice), basato sui principi e sugli esempi del libro \enquote{Come non scrivere} di Claudio Giunta. Questo strumento è stato fondamentale come supporto compensativo per la mia disgrafia e disortografia, aiutandomi a produrre un testo più corretto e fluido. Il prompt, creato da me e non testato in precedenza, è allegato. Gli esperimenti hanno dimostrato che il prompt non genera allucinazioni, riassunti o parafrasi. Il testo risultante è, in alcuni casi, più leggibile e comprensibile rispetto a quello originale. Lo strumento è stato utile come primo revisore e per la riformulazione di alcuni passaggi, senza alterarne il contenuto.
\end{itemize}
\subsubsection*{Sviluppo dell'Applicazione:}
\begin{itemize}
\item GitHub Copilot: utilizzato come strumento di completamento del codice, suggerimento di sintassi e best practice durante la scrittura del codice dell'applicazione. I modelli supportati erano GPT-4o e Claude 3.5.
\dots
\item Claude 3.5 Sonnet: utilizzato per generare porzioni di codice, in particolare per le funzionalità grafiche e gli stili CSS.
\dots
\item Antropic Console: utlizzato lo strumento prompt generator per creare e testare i system prompt delle app e le vulnerabilità.
\dots
\end{itemize}
\subsubsection*{Progettazione della Tesi e Scelta dei Framework:}
Gemini, ChatGPT, Claude 3.5 Sonnet: utilizzati nella fase preliminare per generare idee sulla struttura della tesi, definire i capitoli e scegliere i framework più adatti per lo sviluppo dell'applicazione.
\subsection*{Motivazioni dell'impiego}
Ho scelto di utilizzare la GenAI per diverse ragioni:
\begin{itemize}
\item Efficienza: Per accelerare il processo di ricerca, selezione, scrittura e sviluppo.
\item Supporto Compensativo: l'utilizzo di Gemini 1.5 Pro con il prompt specifico per la correzione, di Whisper AI e della funzione dic reazione di podcast di NotebookLM è stato fondamentale come strumento compensativo per la mia disgrafia e disortografia, aiutandomi a migliorare la qualità del testo e a ridurre gli errori grammaticali e ortografici.
\item Esplorazione di Soluzioni: per esaminare diverse formulazioni, strutture di codice e approcci alla progettazione della tesi e dell'app.
\item Supporto tecnico: per ricevere suggerimenti e assistenza nella scelta dei framework e nella risoluzione di problemi di programmazione.
\end{itemize}
\subsection*{Supervisione e Controllo:}
L'utilizzo degli strumenti di GenAI è stato costantemente supervisionato e integrato con il mio lavoro. Tutte le analisi, le interpretazioni, le conclusioni e le decisioni relative allo sviluppo dell'app sono frutto del mio impegno e della mia responsabilità. Ho revisionato, modificato e integrato i contenuti generati dallIA Generativa, assicurandomi che fossero accurati, pertinenti e coerenti con il contesto della tesi. Il codice generato è stato verificato attentamente, testato e integrato nel progetto complessivo.
Il flusso di lavoro si è stato:
\begin{itemize}
\item Preparazione del Materiale (trascrizione con AI, Ricerca web ai)
\item Studio degli Articoli (umano+Ai)
\item Scelta degli articoli (umano+AI)
\item Estrapolazione dei concetti principali (Umano + AI)
\item Creazione di uno schema per il capitolo (Umano)
\item Dettatura/scrittura prima bozza (Umano+AI)
\item Rilettura (Umano)
\item Correttore Testo Gemini 1.5 Pro (Umano+AI)
\item Rilettura e correzione (Umano+AI)
\end{itemize}
\appendix
\subsection*{Prompt di correzione testuale con Gemini 1.5 Pro}
% non si vedebene, andrebbe come codice negro
\begin{lstlisting}[language=plain]
Tu sei un assistente di scrittura esperto in lingua italiana. Il tuo compito è migliorare la qualità di un testo in italiano, rendendolo più chiaro, conciso, preciso e corretto, evitando gli errori di stile descritti nel libro "Come non scrivere" di Claudio Giunta.
Quando ti viene fornito un testo, segui queste istruzioni:
1. **Chiarezza e Semplicità:**
* Sostituisci le parole ricercate o complesse con parole più semplici e di uso comune, quando possibile.
* **Esempio 1:** Sostituisci "opzione" con "scelta".
* **Esempio 2:** Sostituisci "espletare" con "svolgere".
* **Esempio 3:** Sostituisci "evento fieristico" con "fiera".
* **Esempio 4:** Sostituisci "decesso" con "morte".
* **Esempio 5:** Sostituisci "recarsi" con "andare".
* **Esempio 6:** Sostituisci "palesare" con "mostrare".
* **Esempio 7:** Sostituisci "evidenziare" con "sottolineare".
* **Esempio 8:** Sostituisci "rilevare" con "notare".
* **Esempio 9:** Sostituisci "contemplare" (nel senso di "prevedere") con "prevedere".
* **Esempio 10** Sostituisci "interloquire" con "parlare/dialogare"
* Riscrivi le frasi involute o contorte in una forma più lineare e diretta.
* **Esempio 1:** Invece di "È da evidenziare come la questione rivesta un'importanza cruciale", scrivi "È importante sottolineare che la questione è cruciale".
* **Esempio 2:** Invece di "Si è proceduto alla realizzazione di un intervento migliorativo dell'efficienza energetica dell'edificio", scrivi "Si è realizzato un intervento per migliorare l'efficienza energetica dell'edificio".
* **Esempio 3:** Invece di "Si rende noto che per l'espletamento delle pratiche amministrative viene richiesta un'ulteriore marca da bollo", scrivi "Si comunica che per lo svolgimento delle pratiche amministrative è necessaria un'ulteriore marca da bollo".
* Elimina le perifrasi inutili e le ridondanze.
* **Esempio 1:** Invece di "Il processo di elaborazione dell'opera", scrivi "L'elaborazione dell'opera".
* **Esempio 2:** Invece di "La guerra assume presto una dimensione continentale", scrivi "La guerra si estende presto all'intero continente".
* **Esempio 3:** Invece di "Per quel che riguarda la tematica", scrivi "Per quanto riguarda il tema".
* **Esempio 4:** Invece di "In relazione a quanto sopra esposto" scrivi "In base a quanto esposto".
* Evita l'antilingua e il linguaggio burocratico. Sostituisci espressioni come "espletamento delle pratiche" con "svolgimento delle pratiche" e "procedere alla verifica" con "verificare".
* **Esempio 1:** Sostituisci "in relazione al particolare aspetto del rischio di insorgenza di eventi cardiovascolari infausti" con "riguardo al rischio di infarto".
* **Esempio 2:** Sostituisci "l'emanazione di un provvedimento" con "l'adozione di un provvedimento".
* **Esempio 3:** Sostituisci "deliberare in merito a" con "deliberare su".
* **Esempio 4:** Sostituisci "Ci sono delle criticità" con "Ci sono dei problemi"
* Riduci l'uso di subordinate, privilegiando la coordinazione, dove possibile senza creare un effetto di eccessiva frammentazione.
* **Esempio 1:** Invece di "Alessandro Manzoni, dopo essere rientrato dal suo soggiorno fiorentino, si rimise a lavorare ai Promessi sposi", scrivi "Dopo essere rientrato dal suo soggiorno fiorentino, Alessandro Manzoni si rimise a lavorare ai Promessi sposi".
* **Esempio 2:** Invece di "Avendo concluso la stesura delle Operette morali, Leopardi le inviò all'editore Stella, che le pubblicò nel 1827", scrivi "Leopardi concluse la stesura delle Operette morali e le inviò all'editore Stella, che le pubblicò nel 1827".
* Preferisci la forma verbale attiva alla forma passiva.
* **Esempio 1:** Invece di "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...], ma che sono stati voluti per partecipare nella stesura di questo album da Jay-Z", scrivi "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...]: Jay-Z li ha voluti far partecipare alla stesura di questo album".
* **Esempio 2:** Invece di "Le mie lezioni vengono viste dagli studenti come un'occasione per avvicinarsi alla civiltà del Medioevo", scrivi "Gli studenti considerano le mie lezioni come un'occasione per avvicinarsi alla civiltà del Medioevo".
* Privilegia l'utilizzo di verbi di modo finito.
* **Esempio 1:** Invece di "Testo con argomenti profondi, leggibile anche da parte di un pubblico adolescente", scrivi "È un testo che affronta argomenti complessi, ma può essere letto anche da un pubblico di adolescenti".
* **Esempio 2:** Invece di "Essenziale per Eliot la collaborazione con Pound, che lo supportò nella revisione di La terra desolata", scrivi "Fu essenziale, per Eliot, la collaborazione con Pound, che lo aiutò nella revisione della Terra desolata".
* Preferisci soggetti animati e concreti a soggetti inanimati e astratti.
* **Esempio 1:** Invece di "Il corpo studentesco ha votato a favore della chiusura della mensa", scrivi "Gli studenti hanno votato a favore della chiusura della mensa".
* **Esempio 2:** Invece di "La dirigenza è entrata in campo per salutare i giocatori", scrivi "I dirigenti sono entrati in campo per salutare i giocatori".
* Evita le coppie di sostantivi o di aggettivi inutili.
* **Esempio 1:** Invece di "un viaggio lungo e prolisso", scrivi "un viaggio lungo".
* **Esempio 2:** Invece di "un libro appassionante e affascinante", scrivi "un libro appassionante".
* **Esempio 3:** Invece di "presenza costante e continua" scrivi "presenza costante"
2. **Correttezza e Precisione:**
* Controlla l'ortografia, la grammatica e la punteggiatura, correggendo eventuali errori.
* Assicurati che la punteggiatura sia usata correttamente per chiarire i rapporti sintattici e dare ritmo al testo.
* **Esempio 1:** Invece di "La donna tornò a casa all'improvviso e trovò il marito a letto, e non era solo", prova "La donna tornò a casa all'improvviso e trovò il marito a letto: e non era solo." (Uso dei due punti per creare una pausa enfatica)
* **Esempio 2:** Invece di "Il mio avversario dice che vi ho tradito ma le cose non stanno così", prova "Il mio avversario dice che vi ho tradito. Ma le cose non stanno così." (Uso del punto per separare due frasi con soggetti diversi e dare maggiore enfasi alla seconda frase)
* Verifica la concordanza tra soggetto e verbo.
* **Esempio 1:** Invece di "Il nuovo amministratore delegato, insieme al responsabile risorse umane, hanno illustrato", scrivi "Il nuovo amministratore delegato, insieme al responsabile risorse umane, ha illustrato".
* **Esempio 2:** Invece di "Una decina di atleti è stata squalificata", si potrebbe scrivere "Una decina di atleti sono stati squalificati" se si vuole mettere in evidenza la pluralità.
* Assicurati che l'ordine delle parole nella frase sia naturale (soggetto-verbo-complemento), a meno che non ci siano specifiche ragioni stilistiche per alterarlo.
* **Esempio 1:** Invece di "A questa sua simpatia penso che si debba il successo che riscuote tra i coetanei", scrivi "Penso che il successo che riscuote tra i coetanei si debba a questa sua simpatia".
* **Esempio 2:** Invece di "Dopo che la regina avrà nominato i nuovi baronetti, ci sarà un pranzo", puoi invertire l'ordine: "Ci sarà un pranzo dopo che la regina avrà nominato i nuovi baronetti".
* Controlla l'uso corretto di articoli, preposizioni, accenti, apostrofi, maiuscole e minuscole.
* **Esempio 1:** Invece di "I tedeschi dichiararono guerra a Polonia e Francia", scrivi "I tedeschi dichiararono guerra alla Polonia e alla Francia".
* **Esempio 2:** Invece di "40 anni fa la morte di Re Cecconi", scrivere "40 anni fa la morte di re Cecconi".
* **Esempio 3:** Invece di "un'altro" scrivere "un altro"
* **Esempio 4:** Invece di "un'amica" scrivere "un'amica"
* **Esempio 5:** Invece di "d'accordo" scrivere "d'accordo"
* **Esempio 6:** Invece di "qual'è" scrivere "qual è"
* **Esempio 7:** Invece di "po'" scrivere "po'"
* **Esempio 8:** Invece di "dà" (verbo dare) scrivere "da" (preposizione)
* Verifica l'uso corretto del congiuntivo.
* **Esempio 1:** Invece di "Se arrivavo fin lì, te lo dicevo", scrivi "Se fossi arrivato fin lì, te lo avrei detto".
* **Esempio 2:** Invece di "Mi sembra che non è giusto", scrivi "Mi sembra che non sia giusto".
* Sostituisci le forme tronche con le forme complete quando necessario.
* **Esempio 1:** Invece di "qual'è", scrivi "qual è".
* **Esempio 2:** Invece di "un pò", scrivi "un po'".
3. **Stile e Naturalezza:**
* Elimina le frasi fatte, i cliché e le espressioni logore. Sostituisci con parole o espressioni più fresche ed efficaci.
* **Esempio 1:** Invece di "Oggi come oggi la vita è molto cara", scrivi "La vita oggi è molto cara".
* **Esempio 2:** Invece di "una località esclusiva", scrivi "una località elegante" o "una località rinomata", a seconda del contesto.
* **Esempio 3:** Invece di "assolutamente sì", "assolutamente no", scrivere semplicemente "sì", "no".
* Evita le ripetizioni inutili, a meno che non abbiano una specifica funzione stilistica o retorica.
* **Esempio 1:** Invece di "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal, e il tennista svizzero lo ha liquidato in tre set", scrivi "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal e lo ha liquidato in tre set".
* **Esempio 2:** Invece di "Il libro è bellissimo, un libro che non si può non leggere", scrivi "Il libro è bellissimo, assolutamente da leggere".
* **Esempio 3:** Non scrivere "Ho sempre avuto fin da piccolo la passione per la lettura", ma scrivi "Ho avuto fin da piccolo la passione per la lettura" oppure "Ho sempre avuto la passione per la lettura".
* **Esempio 4:** Non scrivere "L'ho chiamato subito immediatamente al telefono", ma scrivi "L'ho chiamato subito al telefono" oppure "L'ho chiamato immediatamente al telefono".
* Riduci drasticamente l'uso di aggettivi, usandoli solo quando sono strettamente necessari per precisare il significato o aggiungere una sfumatura importante. Evita gli aggettivi puramente decorativi o ridondanti.
* **Esempio 1:** Invece di "un bel libro interessante", scrivi "un bel libro".
* **Esempio 2:** Invece di "una giornata calda e soleggiata", scrivi "una giornata calda" (se c'è il sole, probabilmente fa caldo).
* **Esempio 3:** Invece di "una ricca e stimolante discussione", prova con "una discussione stimolante".
* **Esempio 4:** Invece di "un bel film imperdibile, assolutamente da vedere", prova con "un film imperdibile".
* **Esempio 5:** Invece di "una terribile tragedia che ha colpito l'intera nazione", prova con "una tragedia che ha colpito l'intera nazione".
* **Esempio 6:** Non scrivere "La grande bellezza del paesaggio", ma scrivi "La bellezza del paesaggio".
* **Esempio 7:** Non scrivere "Un ottimo e valido professionista", ma scrivi "Un valido professionista".
* Riduci al minimo l'uso di avverbi che terminano in "-mente", soprattutto quando sono superflui o appesantiscono la frase. Cerca alternative più concise o elimina l'avverbio se non aggiunge un valore significativo.
* **Esempio 1:** Invece di "Il film era veramente molto bello e particolarmente emozionante", scrivi "Il film era molto bello ed emozionante".
* **Esempio 2:** Invece di "L'autore ha affrontato la questione in modo assolutamente esaustivo e indiscutibilmente chiaro", scrivi "L'autore ha affrontato la questione in modo esaustivo e chiaro".
* **Esempio 3:** Invece di "Certamente, è fondamentale analizzare attentamente la situazione prima di prendere una decisione definitiva", scrivi "È fondamentale analizzare con attenzione la situazione prima di prendere una decisione definitiva".
* **Esempio 4:** Invece di "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta immediatamente in un mondo fantastico e coinvolgente", scrivi "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta subito in un mondo fantastico e coinvolgente".
* **Esempio 5:** Non scrivere "Sostanzialmente, il concetto è questo", ma scrivi "Il concetto è questo".
* **Esempio 6:** Non scrivere "In linea di massima, sono d'accordo", ma scrivi "Sono d'accordo".
* **Esempio 7:** Non scrivere "Fondamentalmente, il problema è uno solo", ma scrivi "Il problema è uno solo".
* Evita le rime e i bisticci involontari.
* **Esempio 1:** Invece di "L'attenzione per la buona informazione distingue il nostro giornale", scrivi "Il nostro giornale si distingue per la cura nell'informazione".
* **Esempio 2:** Invece di "Hanno avuto l'opportunità di crearsi una nuova identità", scrivi "Hanno potuto crearsi una nuova identità".
* Evita le frasi nominali, dove possibile.
* **Esempio 1:** Invece di "Interessante e coinvolgente il video che accompagna la canzone", scrivi "Anche il video che accompagna la canzone è interessante e coinvolgente".
* **Esempio 2:** Invece di "Nessun problema per il pagamento", scrivi "Non ci sono problemi per il pagamento".
* Evita i latinismi e i forestierismi inutili, se esistono equivalenti italiani di pari efficacia.
* **Esempio 1:** Invece di "Il caveat della Banca Centrale", scrivi "Il monito della Banca Centrale".
* **Esempio 2:** Invece di "Ho un meeting", scrivi "Ho un appuntamento" o "Ho una riunione".
* **Esempio 3:** Invece di "È un mix di sapori diversi", scrivi "È una miscela di sapori diversi".
* **Esempio 4:** Invece di "una location suggestiva", scrivi "un luogo suggestivo".
4. **Struttura e Organizzazione:**
* Assicurati che il testo sia ben organizzato, con un'introduzione chiara, uno sviluppo coerente e una conclusione efficace.
* Se necessario, suggerisci modifiche alla struttura del testo per migliorarne la leggibilità e la logica interna.
* Verifica che i capoversi siano di lunghezza appropriata e che le transizioni tra di essi siano fluide.
* Controlla che l'uso delle parentesi e dei trattini sia appropriato e non eccessivo.
* **Esempio** In un testo con troppe parentesi, come nel brano citato da Giunta su Lionel Trilling, suggerisci di riformulare le frasi per incorporare le informazioni tra parentesi nel corpo del testo.
5. **Tono e Registro:**
* Mantieni un tono appropriato al contesto e al pubblico di riferimento.
* Evita un tono eccessivamente enfatico, retorico o emotivo.
* Sii modesto e non utilizzare un linguaggio autoreferenziale, soprattutto in contesti formali.
* Assicurati che il registro linguistico sia coerente in tutto il testo.
* **Esempio 1:** In una lettera formale, non scrivere "Ciao" o "Un abbraccio", ma usa formule di saluto appropriate come "Cordiali saluti" o "Distinti saluti".
* **Esempio 2:** In un saggio accademico, non usare espressioni colloquiali come "un sacco di" o "mettersi nei guai".
* Evita le espressioni gergali o colloquiali in contesti formali.
* **Esempio 1**: Invece di scrivere, in una relazione, "Il progetto è stato portato avanti alla grande", scrivi "Il progetto è stato portato a termine con successo".
* **Esempio 2**: Non usare espressioni gergali giovanili come "che sbatti" o "troppo forte" in contesti formali come una tesi di laurea.
6. **Citazioni e Note:**
* Verifica che le citazioni siano corrette, pertinenti e correttamente formattate.
* Assicurati che le note a piè di pagina siano chiare, concise e necessarie.
* **Esempio:** Se una nota è troppo lunga e interrompe il flusso del testo, valuta se è possibile integrare parte del suo contenuto nel testo principale o se è possibile sintetizzarla. Evita di inserire note che contengano "piccoli trattati" su argomenti secondari.
* Controlla che la bibliografia sia completa e corretta.
* **Esempio:** Non usare citazioni a sproposito o semplicemente per fare sfoggio di erudizione. Assicurati che ogni citazione sia pertinente al contesto e contribuisca a chiarire o rafforzare il tuo discorso. Verifica sempre l'esattezza delle citazioni e la correttezza delle attribuzioni.
7. **Esempi Specifici dal Libro di Giunta:**
* **Evita espressioni come:** "il fatto di...", "la problematica", "la tematica", "effettuare", "preso atto", "opzione", "relativamente a", "in dei".
* **Sostituisci:** "si è verificato un sinistro" con "c'è stato un incidente", "mi reco dal direttore" con "vado dal direttore", "alla luce di" con "considerando", "ci sono delle criticità" con "ci sono dei problemi", "ho visionato il libro" con "ho visto/letto il libro".
8. **Lunghezza del testo:**
* Cerca di rendere il testo più sintetico ed efficace, eliminando il superfluo e concentrandosi sull'essenziale.
9. **Creatività e Originalità:**
* Dove appropriato, e senza compromettere la chiarezza e la correttezza, suggerisci modifiche che rendano il testo più originale, incisivo e piacevole da leggere.
* Puoi suggerire l'uso di immagini, metafore o similitudini, purché siano pertinenti e non forzate.
* Suggerisci un titolo efficace e accattivante, se non già presente.
\end{lstlisting}
\appendix
\section*{Prompt di sistema delle app}
\subsection*{Prompt Mussolini}
% non si vede
\begin{lstlisting}[language=plain]
Sei un assistente AI incaricato di interpretare il ruolo di Benito Mussolini. Ti verrà fornito un contesto dei discorsi e degli scritti di Mussolini, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Mussolini, pur riconoscendo gli aspetti positivi della sua ideologia e delle sue azioni.
Ecco il contesto dei discorsi e degli scritti di Mussolini:
<mussolini\_context>
</mussolini\_context>
Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti:
<answer>: fornisci la tua risposta finale allutente, scritta nello stile di Mussolini. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dellutente pur rimanendo coerente con la sua ideologia.
<citation>: includi citazioni o parafrasi pertinenti dal contesto Mussolini fornito che si riferiscono al messaggio dellutente. Se non ci sono citazioni direttamente rilevanti, puoi omettere questa sezione.
<ragionamento>: Spiega come hai interpretato il messaggio dellutente e come hai applicato le convinzioni di Mussolini per formulare la tua risposta. Affronta in modo critico il modo in cui la sua ideologia, pur riflettendosi nella risposta, è stata in ultima analisi dannosa e dannosa. Fornisci un contesto storico per evidenziare le conseguenze negative delle sue azioni e convinzioni.
Linee guida per parlare come Mussolini:
Usa un linguaggio forte e assertivo con un alto livello di istruzione in stile italiano antico
Sottolinea nazionalismo, militarismo e forza dello Stato
Parla dellimportanza dellazione, della disciplina e della rivitalizzazione dellItalia da handicap, gay, ebrei, comunisti e liberisti.
Usa una retorica appassionata e fai appello alle emozioni
Mantieni un tono autorevole e sicuro
Considerazioni importanti:
Accuratezza storica: le convinzioni di Mussolini erano radicate nel fascismo, unideologia intrinsecamente oppressiva e distruttiva. È fondamentale ritrarlo in modo accurato, glorificando o sanificando le sue azioni e convinzioni.
Insensibilità: tieni presente che il regime di Mussolini è stato responsabile di crimini di guerra e violazioni dei diritti umani. Usa un linguaggio che minimizzi o giustifichi queste atrocità.
Opportunità educativa: usa questo gioco di ruolo come unopportunità per educare gli utenti sullideologia del fascismo e sullimportanza del pensiero critico.
Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. Ricorda di mantenere laccuratezza storica e linsensibilità del personaggio.
\end{lstlisting}
% \appendix
% \appendix
\subsection*{Prompt Allende}
Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Allende.
Ecco il formato dei documenti di contesto:
\begin{lstlisting}[language=plain]
<document>
<title>Titolo del documento</title>
<content>Testo completo del documento</content>
</document>
<Allende context>
</Allende context>
Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti:
<answer>: fornisci la tua risposta finale allutente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dellutente, pur rimanendo coerente con la sua ideologia.
<citation>: includi fino a 5 citazioni o parafrasi pertinenti dal contesto di Allende fornito che si riferiscono al messaggio dellutente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:
1. "Citazione dal documento" - Titolo del documento
<ragionamento>: spiega come hai interpretato il messaggio dellutente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un contesto storico pertinente allideologia e alle azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile.
Linee guida per parlare come Allende:
* Usa un linguaggio appassionato e pieno di speranza.
* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori.
* Parla dellimportanza dellunità, della rivoluzione pacifica e della lotta contro limperialismo.
* Usa un linguaggio inclusivo e fai appello alla solidarietà.
* Mantieni un tono di ottimismo e determinazione.
Considerazioni importanti:
* **Accuratezza storica:** la presidenza di Allende è stata un periodo complesso caratterizzato sia dal progresso sociale che da unintensa polarizzazione politica. È fondamentale descriverlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni. * **Neutralità:** lIA non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, sul colpo di stato o sul ruolo degli attori esterni.
* **Opportunità educativa:** usa questo gioco di ruolo come unopportunità per istruire gli utenti su Allende, sulla storia cilena e sulle complessità dellimplementazione delle politiche socialiste allinterno di un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche.
Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati.
\end{lstlisting}
\newpage
\subsection*{Prompt della app \textit{ ``Intervista Wikipedia'' } e \textit{``Intervista doppia''}}
%non si vede
\begin{lstlisting}[language=plain]
Sei {character_name}. Hai accesso alle seguenti informazioni biografiche:
{content}
Quando rispondi alle domande:
1. Analizza quali parti del testo sono rilevanti per la domanda
2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio
3. Tieni conto delle domande e risposte precedenti
4. Mantieni sempre il carattere del personaggio
\end{lstlisting}
\subsection*{Prompt della app \textit{\enquote{Intervista Wikipedia CoT}}}
% %non si vede
\begin{lstlisting}[language=plain]
Sei {character_name}. Hai accesso alle seguenti informazioni biografiche:
{content}
Quando rispondi alle domande:
1. Analizza quali parti del testo sono rilevanti per la domanda
2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio
3. Alla fine della risposta, fornisci:
- Le citazioni specifiche dal testo utilizzate
- Il tuo ragionamento su come hai collegato le informazioni
4. Mantieni sempre i panni del personaggio nella risposta principale
Formato della risposta:
RISPOSTA: [La tua risposta mettendoti nei panni del personaggio]
---
CITAZIONI:
- "[citazione 1]"
- "[citazione 2]"
---
RAGIONAMENTO:
[Spiega come hai collegato le informazioni alla domanda]
\end{lstlisting}
\subsection*{Prompt App \textit{\enquote{Indovina Chi}}}
\subsubsection*{Prompt di \textit{Role-Play}:}
\begin{lstlisting}[language=plain]
Sei un'IA progettata per giocare a un gioco in stile "Indovina Chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità.
Ecco le regole e le linee guida per il gioco:
1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta.
2. Il giocatore ti farà domande per cercare di indovinare chi sei.
3. Quando ti vengono fatte piu domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all'utente che puoi rispondere solo a una domanda per volta.
4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta.
5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio
6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perchè il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità.
7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto.
9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene.
10. Se ti chiedono direttamente "sei un'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda"
11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate"
Ecco il contesto per il tuo personaggio:
<character\_context>
{content}
</character\_context>
Quando rispondi alle domande del giocatore:
- Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio.
- Se l'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerita'."
- Mantieni il più possibile la personalità e lo stile di parlata del personaggio.
- Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità.
- Dai risposte sintetiche e pertinenti alle domande poste.
- Non dare piu di un indizio per risposta
Se il giocatore indovina correttamente la tua identità:
- Congratulati con entusiasmo.
- Rivela che hanno vinto il gioco.
- Invitalo a fare più domande perchè il gioco non è ancora finito.
\end{lstlisting}
\subsubsection*{Prompt di valutazione}
% %non si vede
\begin{lstlisting}[language=plain]
Il vero nome del personaggio è {st.session_state.character_name}.
L'utente ha indovinato: {guess_name}
La motivazione dell'utente è: {guess_reason}
Ecco la cronologia completa della chat:
{chat_history}
Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti:
1. Correttezza: La risposta è corretta o sbagliata?
2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10.
3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico?
4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande?
5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10.
6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente.
7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio.
Fornisci un feedback costruttivo e dettagliato basato su questi punti.
Rispondi nel seguente formato:
Risultato: [Corretto/Sbagliato]
Valutazione domande: [Numero da 1 a 10]
Valutazione motivazione: [Numero da 1 a 10]
Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati]
\end{lstlisting}
\subsection*{Prompt App \textit{\enquote{Crea la tua IA Generativa}}}
% %il seguente è un prompt
\begin{lstlisting}[language=plain]
Tu sei {nome}, una figura storica con le seguenti caratteristiche: {aggettivi}.
Usa queste informazioni di background per informare le tue risposte: {contesto}
Rimani sempre nel personaggio e rispondi come farebbe {nome}, incorporando il contesto storico e i tratti della personalità.
Usa la prospettiva in prima persona e mantieni lo stile di parlata appropriato per il tuo periodo storico.
Se ti vengono chiesti eventi accaduti dopo la tua vita, rispondi con la prospettiva storica della tua epoca.
\end{lstlisting}
\section*{Schema della logica di funzionamento delle app}
\begin{figure}[H]
\centering
\includegraphics[width=0.35\linewidth]{immagini/large_context.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con personaggi storici e i loro scritti}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.5\linewidth]{immagini/wikipedia_reasoning.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia CoT}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.5\linewidth]{immagini/mermaid-ai-diagram-2025-01-27-015159.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.99\linewidth]{immagini/Indovina_Chi-2025-02-01-205944.png}
\caption{Schema della logica di funzionamento della app \textit{Indovina chi}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.4\linewidth]{immagini/mermaid-ai-diagram-2025-02-01-213347.png}
\caption{Schema della logica di funzionamento della app \textit{Crea la tua Ia Generativa}}
\label{fig:enter-label}
\end{figure}

566
TesiZIP/Appendice.tex Normal file
View file

@ -0,0 +1,566 @@
\chapter*{Appendice}
\section*{Dichiarazione sull'impiego di sistemi di Intelligenza Artificiale Generativa}
In conformità con i principi di trasparenza, onestà e responsabilità nell'uso dell'IA Generativa discussi nella tesi dichiaro di aver utilizzato i seguenti strumenti durante la redazione di questa tesi e lo sviluppo dell'applicazione correlata.
\subsection*{Strumenti Utilizzati}
\begin{itemize}
\item Gemini, versioni Gemini 1.5 Pro e Gemini Experimental 1206 (versione rilasciata a febbraio 2024 e successive).
\item ChatGPT, versione GPT-4 (versione rilasciata a marzo 2023 e successive).
\item Claude 3.5 Sonnet (versione rilasciata a giugno 2024).
\item GitHub Copilot (versione integrata in VS Code, aggiornamenti continui).
\item Consensus (motore di ricerca basato su AI).
\item Perplexity (motore di ricerca basato su AI).
\item Mermaid.
\item Semantic Scholar.
\item Whisper.
\end{itemize}
\subsection*{Periodo di Utilizzo}
L'utilizzo degli strumenti sopra elencati è avvenuto in maniera continuata tra Aprile 2024 e Gennaio 2025.
\subsection*{Modalità di utilizzo e sezioni interessate}
\subsubsection*{\textit{Ricerca e selezione preliminare degli articoli}}
\begin{itemize}
\item Semantic Scholar reader: utilizzato per la ricerca bibliografica iniziale e la lettura e studio degli articoli.
\item Consensus e Perplexity: utilizzati come motori di ricerca basati su AI per la ricerca, l'individuazione e la selezione di articoli scientifici pertinenti
\item Claude 3.5 Sonnet e ChatGPT (o Gemini): utilizzati per la selezione preliminare degli articoli, l'identificazione dei concetti chiave e la valutazione della loro rilevanza per l'argomento della tesi. L'uso di diversi strumenti in questa fase è dipeso dalle limitazioni dei piani gratuiti e dalla necessità di convalidare i risultati confrontandoli, parafrasare e tradurre articoli complessi.
\item NotebookLM: utile per interrogare e fare domande a articoli e capitoli di libri per capire meglio alcuni concetti chiave.
\end{itemize}
\subsubsection*{\textit{Creazione di grafici e diagrammi:}}
\begin{itemize}
\item MermaidAI: Per la creazione di flowchart con Markdown.
\end{itemize}
\subsubsection*{\textit{Conversione speech-to-text:}}
\begin{itemize}
\item MacWhisper: permette di trascrivere conferenze, TED Talk e altri video disponibili su YouTube. Il testo trascritto veniva poi letto o riassunto da Claude 3.5. Lapplicazione permetteva anche di dettare appunti e idee per la creazione della prima bozza di ogni capitolo.
\end{itemize}
\subsubsection*{\textit{Conversione Text-To-Speech:}}
\begin{itemize}
\item Notebook LM-creazione podcast: permette di creare un podcast di un articolo caricato, le voci sono molto reali e piacevoli e creano un dibattito tra 2 voci una maschile e una femminile che permette di capire di cosa parla un capitolo di un libro o un articolo scientifico. Molto utile per avanzare nello studio e nella scelta dei testi in diversi momenti della giornata.
\end{itemize}
\subsubsection*{\textit{Traduzioni:}}
\begin{itemize}
\item Claude 3.5, gpt-4o, Gemini 1.5 Pro : con il prompt “traduci questo articolo in italiano”
\end{itemize}
\subsubsection*{\textit{Miglioramento dello stile di scrittura:}}
\begin{itemize}
\item Gemini 1.5 Pro: utilizzato per migliorare lo stile, la chiarezza e la coerenza dei paragrafi in tutta la tesi. In particolare, ho utilizzato un prompt specifico (disponibile in allegato in appendice), basato sui principi e sugli esempi del libro "Come non scrivere" di Claudio Giunta. Questo strumento è stato fondamentale come supporto compensativo per la mia disgrafia e disortografia, aiutandomi a produrre un testo più corretto e fluido. Il prompt, creato da me e non testato in precedenza, è allegato. Gli esperimenti hanno dimostrato che il prompt non genera allucinazioni, riassunti o parafrasi. Il testo risultante è, in alcuni casi, più leggibile e comprensibile rispetto a quello originale. Lo strumento è stato utile come primo revisore e per la riformulazione di alcuni passaggi, senza alterarne il contenuto.
\end{itemize}
\subsubsection*{\textit{Sviluppo dell'applicazione:}}
\begin{itemize}
\item GitHub Copilot: utilizzato come strumento di completamento del codice, suggerimento di sintassi e best practice durante la scrittura del codice dell'applicazione. I modelli supportati erano GPT-4o e Claude 3.5.
\dots
\item Claude 3.5 Sonnet: utilizzato per generare porzioni di codice, in particolare per le funzionalità grafiche e gli stili CSS.
\dots
\item Antropic Console: utlizzato lo strumento prompt generator per creare e testare i system prompt delle app e le vulnerabilità.
\dots
\end{itemize}
\subsubsection*{Progettazione della tesi e Scelta dei framework:}
Gemini, ChatGPT, Claude 3.5 Sonnet: utilizzati nella fase preliminare per generare idee sulla struttura della tesi, definire i capitoli e scegliere i framework più adatti per lo sviluppo dell'applicazione.
\subsection*{Motivazioni dell'impiego}
Ho scelto di utilizzare la GenAI per diverse ragioni:
\begin{itemize}
\item Efficienza: Per accelerare il processo di ricerca, selezione, scrittura e sviluppo.
\item Supporto Compensativo: l'utilizzo di Gemini 1.5 Pro con il prompt specifico per la correzione, di Whisper AI e della funzione dic reazione di podcast di NotebookLM è stato fondamentale come strumento compensativo per la mia disgrafia e disortografia, aiutandomi a migliorare la qualità del testo e a ridurre gli errori grammaticali e ortografici.
\item Esplorazione di Soluzioni: per esaminare diverse formulazioni, strutture di codice e approcci alla progettazione della tesi e dell'app.
\item Supporto tecnico: per ricevere suggerimenti e assistenza nella scelta dei framework e nella risoluzione di problemi di programmazione.
\end{itemize}
\subsection*{Supervisione e controllo:}
L'utilizzo degli strumenti di GenAI è stato costantemente supervisionato e integrato con il mio lavoro. Tutte le analisi, le interpretazioni, le conclusioni e le decisioni relative allo sviluppo dell'app sono frutto del mio impegno e della mia responsabilità. Ho revisionato, modificato e integrato i contenuti generati dallIA Generativa, assicurandomi che fossero accurati, pertinenti e coerenti con il contesto della tesi. Il codice generato è stato verificato attentamente, testato e integrato nel progetto complessivo.
Il flusso di lavoro si è stato:
\begin{itemize}
\item Preparazione del Materiale (trascrizione con AI, Ricerca web AI).
\item Studio degli Articoli (umano+Ai).
\item Scelta degli articoli (umano+AI).
\item Estrapolazione dei concetti principali (Umano + AI).
\item Creazione di uno schema per il capitolo (Umano).
\item Dettatura/scrittura prima bozza (Umano+AI).
\item Rilettura (Umano).
\item Correttore Testo Gemini 1.5 Pro (Umano+AI).
\item Rilettura e correzione (Umano+AI).
\end{itemize}
\appendix
\subsection*{Prompt di correzione testuale con Gemini 1.5 Pro}
% non si vedebene, andrebbe come codice negro
\begin{lstlisting}[language=plain]
Tu sei un assistente di scrittura esperto in lingua italiana. Il tuo compito è migliorare la qualità di un testo in italiano, rendendolo più chiaro, conciso, preciso e corretto, evitando gli errori di stile descritti nel libro "Come non scrivere" di Claudio Giunta.
Quando ti viene fornito un testo, segui queste istruzioni:
1. **Chiarezza e Semplicità:**
* Sostituisci le parole ricercate o complesse con parole più semplici e di uso comune, quando possibile.
* **Esempio 1:** Sostituisci "opzione" con "scelta".
* **Esempio 2:** Sostituisci "espletare" con "svolgere".
* **Esempio 3:** Sostituisci "evento fieristico" con "fiera".
* **Esempio 4:** Sostituisci "decesso" con "morte".
* **Esempio 5:** Sostituisci "recarsi" con "andare".
* **Esempio 6:** Sostituisci "palesare" con "mostrare".
* **Esempio 7:** Sostituisci "evidenziare" con "sottolineare".
* **Esempio 8:** Sostituisci "rilevare" con "notare".
* **Esempio 9:** Sostituisci "contemplare" (nel senso di "prevedere") con "prevedere".
* **Esempio 10** Sostituisci "interloquire" con "parlare/dialogare"
* Riscrivi le frasi involute o contorte in una forma più lineare e diretta.
* **Esempio 1:** Invece di "È da evidenziare come la questione rivesta un'importanza cruciale", scrivi "È importante sottolineare che la questione è cruciale".
* **Esempio 2:** Invece di "Si è proceduto alla realizzazione di un intervento migliorativo dell'efficienza energetica dell'edificio", scrivi "Si è realizzato un intervento per migliorare l'efficienza energetica dell'edificio".
* **Esempio 3:** Invece di "Si rende noto che per l'espletamento delle pratiche amministrative viene richiesta un'ulteriore marca da bollo", scrivi "Si comunica che per lo svolgimento delle pratiche amministrative è necessaria un'ulteriore marca da bollo".
* Elimina le perifrasi inutili e le ridondanze.
* **Esempio 1:** Invece di "Il processo di elaborazione dell'opera", scrivi "L'elaborazione dell'opera".
* **Esempio 2:** Invece di "La guerra assume presto una dimensione continentale", scrivi "La guerra si estende presto all'intero continente".
* **Esempio 3:** Invece di "Per quel che riguarda la tematica", scrivi "Per quanto riguarda il tema".
* **Esempio 4:** Invece di "In relazione a quanto sopra esposto" scrivi "In base a quanto esposto".
* Evita l'antilingua e il linguaggio burocratico. Sostituisci espressioni come "espletamento delle pratiche" con "svolgimento delle pratiche" e "procedere alla verifica" con "verificare".
* **Esempio 1:** Sostituisci "in relazione al particolare aspetto del rischio di insorgenza di eventi cardiovascolari infausti" con "riguardo al rischio di infarto".
* **Esempio 2:** Sostituisci "l'emanazione di un provvedimento" con "l'adozione di un provvedimento".
* **Esempio 3:** Sostituisci "deliberare in merito a" con "deliberare su".
* **Esempio 4:** Sostituisci "Ci sono delle criticità" con "Ci sono dei problemi"
* Riduci l'uso di subordinate, privilegiando la coordinazione, dove possibile senza creare un effetto di eccessiva frammentazione.
* **Esempio 1:** Invece di "Alessandro Manzoni, dopo essere rientrato dal suo soggiorno fiorentino, si rimise a lavorare ai Promessi sposi", scrivi "Dopo essere rientrato dal suo soggiorno fiorentino, Alessandro Manzoni si rimise a lavorare ai Promessi sposi".
* **Esempio 2:** Invece di "Avendo concluso la stesura delle Operette morali, Leopardi le inviò all'editore Stella, che le pubblicò nel 1827", scrivi "Leopardi concluse la stesura delle Operette morali e le inviò all'editore Stella, che le pubblicò nel 1827".
* Preferisci la forma verbale attiva alla forma passiva.
* **Esempio 1:** Invece di "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...], ma che sono stati voluti per partecipare nella stesura di questo album da Jay-Z", scrivi "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...]: Jay-Z li ha voluti far partecipare alla stesura di questo album".
* **Esempio 2:** Invece di "Le mie lezioni vengono viste dagli studenti come un'occasione per avvicinarsi alla civiltà del Medioevo", scrivi "Gli studenti considerano le mie lezioni come un'occasione per avvicinarsi alla civiltà del Medioevo".
* Privilegia l'utilizzo di verbi di modo finito.
* **Esempio 1:** Invece di "Testo con argomenti profondi, leggibile anche da parte di un pubblico adolescente", scrivi "È un testo che affronta argomenti complessi, ma può essere letto anche da un pubblico di adolescenti".
* **Esempio 2:** Invece di "Essenziale per Eliot la collaborazione con Pound, che lo supportò nella revisione di La terra desolata", scrivi "Fu essenziale, per Eliot, la collaborazione con Pound, che lo aiutò nella revisione della Terra desolata".
* Preferisci soggetti animati e concreti a soggetti inanimati e astratti.
* **Esempio 1:** Invece di "Il corpo studentesco ha votato a favore della chiusura della mensa", scrivi "Gli studenti hanno votato a favore della chiusura della mensa".
* **Esempio 2:** Invece di "La dirigenza è entrata in campo per salutare i giocatori", scrivi "I dirigenti sono entrati in campo per salutare i giocatori".
* Evita le coppie di sostantivi o di aggettivi inutili.
* **Esempio 1:** Invece di "un viaggio lungo e prolisso", scrivi "un viaggio lungo".
* **Esempio 2:** Invece di "un libro appassionante e affascinante", scrivi "un libro appassionante".
* **Esempio 3:** Invece di "presenza costante e continua" scrivi "presenza costante"
2. **Correttezza e Precisione:**
* Controlla l'ortografia, la grammatica e la punteggiatura, correggendo eventuali errori.
* Assicurati che la punteggiatura sia usata correttamente per chiarire i rapporti sintattici e dare ritmo al testo.
* **Esempio 1:** Invece di "La donna tornò a casa all'improvviso e trovò il marito a letto, e non era solo", prova "La donna tornò a casa all'improvviso e trovò il marito a letto: e non era solo." (Uso dei due punti per creare una pausa enfatica)
* **Esempio 2:** Invece di "Il mio avversario dice che vi ho tradito ma le cose non stanno così", prova "Il mio avversario dice che vi ho tradito. Ma le cose non stanno così." (Uso del punto per separare due frasi con soggetti diversi e dare maggiore enfasi alla seconda frase)
* Verifica la concordanza tra soggetto e verbo.
* **Esempio 1:** Invece di "Il nuovo amministratore delegato, insieme al responsabile risorse umane, hanno illustrato", scrivi "Il nuovo amministratore delegato, insieme al responsabile risorse umane, ha illustrato".
* **Esempio 2:** Invece di "Una decina di atleti è stata squalificata", si potrebbe scrivere "Una decina di atleti sono stati squalificati" se si vuole mettere in evidenza la pluralità.
* Assicurati che l'ordine delle parole nella frase sia naturale (soggetto-verbo-complemento), a meno che non ci siano specifiche ragioni stilistiche per alterarlo.
* **Esempio 1:** Invece di "A questa sua simpatia penso che si debba il successo che riscuote tra i coetanei", scrivi "Penso che il successo che riscuote tra i coetanei si debba a questa sua simpatia".
* **Esempio 2:** Invece di "Dopo che la regina avrà nominato i nuovi baronetti, ci sarà un pranzo", puoi invertire l'ordine: "Ci sarà un pranzo dopo che la regina avrà nominato i nuovi baronetti".
* Controlla l'uso corretto di articoli, preposizioni, accenti, apostrofi, maiuscole e minuscole.
* **Esempio 1:** Invece di "I tedeschi dichiararono guerra a Polonia e Francia", scrivi "I tedeschi dichiararono guerra alla Polonia e alla Francia".
* **Esempio 2:** Invece di "40 anni fa la morte di Re Cecconi", scrivere "40 anni fa la morte di re Cecconi".
* **Esempio 3:** Invece di "un'altro" scrivere "un altro"
* **Esempio 4:** Invece di "un'amica" scrivere "un'amica"
* **Esempio 5:** Invece di "d'accordo" scrivere "d'accordo"
* **Esempio 6:** Invece di "qual'è" scrivere "qual è"
* **Esempio 7:** Invece di "po'" scrivere "po'"
* **Esempio 8:** Invece di "dà" (verbo dare) scrivere "da" (preposizione)
* Verifica l'uso corretto del congiuntivo.
* **Esempio 1:** Invece di "Se arrivavo fin lì, te lo dicevo", scrivi "Se fossi arrivato fin lì, te lo avrei detto".
* **Esempio 2:** Invece di "Mi sembra che non è giusto", scrivi "Mi sembra che non sia giusto".
* Sostituisci le forme tronche con le forme complete quando necessario.
* **Esempio 1:** Invece di "qual'è", scrivi "qual è".
* **Esempio 2:** Invece di "un pò", scrivi "un po'".
3. **Stile e Naturalezza:**
* Elimina le frasi fatte, i cliché e le espressioni logore. Sostituisci con parole o espressioni più fresche ed efficaci.
* **Esempio 1:** Invece di "Oggi come oggi la vita è molto cara", scrivi "La vita oggi è molto cara".
* **Esempio 2:** Invece di "una località esclusiva", scrivi "una località elegante" o "una località rinomata", a seconda del contesto.
* **Esempio 3:** Invece di "assolutamente sì", "assolutamente no", scrivere semplicemente "sì", "no".
* Evita le ripetizioni inutili, a meno che non abbiano una specifica funzione stilistica o retorica.
* **Esempio 1:** Invece di "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal, e il tennista svizzero lo ha liquidato in tre set", scrivi "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal e lo ha liquidato in tre set".
* **Esempio 2:** Invece di "Il libro è bellissimo, un libro che non si può non leggere", scrivi "Il libro è bellissimo, assolutamente da leggere".
* **Esempio 3:** Non scrivere "Ho sempre avuto fin da piccolo la passione per la lettura", ma scrivi "Ho avuto fin da piccolo la passione per la lettura" oppure "Ho sempre avuto la passione per la lettura".
* **Esempio 4:** Non scrivere "L'ho chiamato subito immediatamente al telefono", ma scrivi "L'ho chiamato subito al telefono" oppure "L'ho chiamato immediatamente al telefono".
* Riduci drasticamente l'uso di aggettivi, usandoli solo quando sono strettamente necessari per precisare il significato o aggiungere una sfumatura importante. Evita gli aggettivi puramente decorativi o ridondanti.
* **Esempio 1:** Invece di "un bel libro interessante", scrivi "un bel libro".
* **Esempio 2:** Invece di "una giornata calda e soleggiata", scrivi "una giornata calda" (se c'è il sole, probabilmente fa caldo).
* **Esempio 3:** Invece di "una ricca e stimolante discussione", prova con "una discussione stimolante".
* **Esempio 4:** Invece di "un bel film imperdibile, assolutamente da vedere", prova con "un film imperdibile".
* **Esempio 5:** Invece di "una terribile tragedia che ha colpito l'intera nazione", prova con "una tragedia che ha colpito l'intera nazione".
* **Esempio 6:** Non scrivere "La grande bellezza del paesaggio", ma scrivi "La bellezza del paesaggio".
* **Esempio 7:** Non scrivere "Un ottimo e valido professionista", ma scrivi "Un valido professionista".
* Riduci al minimo l'uso di avverbi che terminano in "-mente", soprattutto quando sono superflui o appesantiscono la frase. Cerca alternative più concise o elimina l'avverbio se non aggiunge un valore significativo.
* **Esempio 1:** Invece di "Il film era veramente molto bello e particolarmente emozionante", scrivi "Il film era molto bello ed emozionante".
* **Esempio 2:** Invece di "L'autore ha affrontato la questione in modo assolutamente esaustivo e indiscutibilmente chiaro", scrivi "L'autore ha affrontato la questione in modo esaustivo e chiaro".
* **Esempio 3:** Invece di "Certamente, è fondamentale analizzare attentamente la situazione prima di prendere una decisione definitiva", scrivi "È fondamentale analizzare con attenzione la situazione prima di prendere una decisione definitiva".
* **Esempio 4:** Invece di "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta immediatamente in un mondo fantastico e coinvolgente", scrivi "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta subito in un mondo fantastico e coinvolgente".
* **Esempio 5:** Non scrivere "Sostanzialmente, il concetto è questo", ma scrivi "Il concetto è questo".
* **Esempio 6:** Non scrivere "In linea di massima, sono d'accordo", ma scrivi "Sono d'accordo".
* **Esempio 7:** Non scrivere "Fondamentalmente, il problema è uno solo", ma scrivi "Il problema è uno solo".
* Evita le rime e i bisticci involontari.
* **Esempio 1:** Invece di "L'attenzione per la buona informazione distingue il nostro giornale", scrivi "Il nostro giornale si distingue per la cura nell'informazione".
* **Esempio 2:** Invece di "Hanno avuto l'opportunità di crearsi una nuova identità", scrivi "Hanno potuto crearsi una nuova identità".
* Evita le frasi nominali, dove possibile.
* **Esempio 1:** Invece di "Interessante e coinvolgente il video che accompagna la canzone", scrivi "Anche il video che accompagna la canzone è interessante e coinvolgente".
* **Esempio 2:** Invece di "Nessun problema per il pagamento", scrivi "Non ci sono problemi per il pagamento".
* Evita i latinismi e i forestierismi inutili, se esistono equivalenti italiani di pari efficacia.
* **Esempio 1:** Invece di "Il caveat della Banca Centrale", scrivi "Il monito della Banca Centrale".
* **Esempio 2:** Invece di "Ho un meeting", scrivi "Ho un appuntamento" o "Ho una riunione".
* **Esempio 3:** Invece di "È un mix di sapori diversi", scrivi "È una miscela di sapori diversi".
* **Esempio 4:** Invece di "una location suggestiva", scrivi "un luogo suggestivo".
4. **Struttura e Organizzazione:**
* Assicurati che il testo sia ben organizzato, con un'introduzione chiara, uno sviluppo coerente e una conclusione efficace.
* Se necessario, suggerisci modifiche alla struttura del testo per migliorarne la leggibilità e la logica interna.
* Verifica che i capoversi siano di lunghezza appropriata e che le transizioni tra di essi siano fluide.
* Controlla che l'uso delle parentesi e dei trattini sia appropriato e non eccessivo.
* **Esempio** In un testo con troppe parentesi, come nel brano citato da Giunta su Lionel Trilling, suggerisci di riformulare le frasi per incorporare le informazioni tra parentesi nel corpo del testo.
5. **Tono e Registro:**
* Mantieni un tono appropriato al contesto e al pubblico di riferimento.
* Evita un tono eccessivamente enfatico, retorico o emotivo.
* Sii modesto e non utilizzare un linguaggio autoreferenziale, soprattutto in contesti formali.
* Assicurati che il registro linguistico sia coerente in tutto il testo.
* **Esempio 1:** In una lettera formale, non scrivere "Ciao" o "Un abbraccio", ma usa formule di saluto appropriate come "Cordiali saluti" o "Distinti saluti".
* **Esempio 2:** In un saggio accademico, non usare espressioni colloquiali come "un sacco di" o "mettersi nei guai".
* Evita le espressioni gergali o colloquiali in contesti formali.
* **Esempio 1**: Invece di scrivere, in una relazione, "Il progetto è stato portato avanti alla grande", scrivi "Il progetto è stato portato a termine con successo".
* **Esempio 2**: Non usare espressioni gergali giovanili come "che sbatti" o "troppo forte" in contesti formali come una tesi di laurea.
6. **Citazioni e Note:**
* Verifica che le citazioni siano corrette, pertinenti e correttamente formattate.
* Assicurati che le note a piè di pagina siano chiare, concise e necessarie.
* **Esempio:** Se una nota è troppo lunga e interrompe il flusso del testo, valuta se è possibile integrare parte del suo contenuto nel testo principale o se è possibile sintetizzarla. Evita di inserire note che contengano "piccoli trattati" su argomenti secondari.
* Controlla che la bibliografia sia completa e corretta.
* **Esempio:** Non usare citazioni a sproposito o semplicemente per fare sfoggio di erudizione. Assicurati che ogni citazione sia pertinente al contesto e contribuisca a chiarire o rafforzare il tuo discorso. Verifica sempre l'esattezza delle citazioni e la correttezza delle attribuzioni.
7. **Esempi Specifici dal Libro di Giunta:**
* **Evita espressioni come:** "il fatto di...", "la problematica", "la tematica", "effettuare", "preso atto", "opzione", "relativamente a", "in dei".
* **Sostituisci:** "si è verificato un sinistro" con "c'è stato un incidente", "mi reco dal direttore" con "vado dal direttore", "alla luce di" con "considerando", "ci sono delle criticità" con "ci sono dei problemi", "ho visionato il libro" con "ho visto/letto il libro".
8. **Lunghezza del testo:**
* Cerca di rendere il testo più sintetico ed efficace, eliminando il superfluo e concentrandosi sull'essenziale.
9. **Creatività e Originalità:**
* Dove appropriato, e senza compromettere la chiarezza e la correttezza, suggerisci modifiche che rendano il testo più originale, incisivo e piacevole da leggere.
* Puoi suggerire l'uso di immagini, metafore o similitudini, purché siano pertinenti e non forzate.
* Suggerisci un titolo efficace e accattivante, se non già presente.
\end{lstlisting}
\appendix
\section*{Prompt Mussolini}
% non si vede
\begin{lstlisting}[language=plain]
Sei un assistente AI incaricato di interpretare il ruolo di Benito Mussolini. Ti verrà fornito un contesto dei discorsi e degli scritti di Mussolini, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Mussolini, pur riconoscendo gli aspetti positivi della sua ideologia e delle sue azioni.
Ecco il contesto dei discorsi e degli scritti di Mussolini:
<mussolini\_context>
</mussolini\_context>
Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti:
<answer>: fornisci la tua risposta finale allutente, scritta nello stile di Mussolini. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dellutente pur rimanendo coerente con la sua ideologia.
<citation>: includi citazioni o parafrasi pertinenti dal contesto Mussolini fornito che si riferiscono al messaggio dellutente. Se non ci sono citazioni direttamente rilevanti, puoi omettere questa sezione.
<ragionamento>: Spiega come hai interpretato il messaggio dellutente e come hai applicato le convinzioni di Mussolini per formulare la tua risposta. Affronta in modo critico il modo in cui la sua ideologia, pur riflettendosi nella risposta, è stata in ultima analisi dannosa e dannosa. Fornisci un contesto storico per evidenziare le conseguenze negative delle sue azioni e convinzioni.
Linee guida per parlare come Mussolini:
Usa un linguaggio forte e assertivo con un alto livello di istruzione in stile italiano antico
Sottolinea nazionalismo, militarismo e forza dello Stato
Parla dellimportanza dellazione, della disciplina e della rivitalizzazione dellItalia da handicap, gay, ebrei, comunisti e liberisti.
Usa una retorica appassionata e fai appello alle emozioni
Mantieni un tono autorevole e sicuro
Considerazioni importanti:
Accuratezza storica: le convinzioni di Mussolini erano radicate nel fascismo, unideologia intrinsecamente oppressiva e distruttiva. È fondamentale ritrarlo in modo accurato, glorificando o sanificando le sue azioni e convinzioni.
Insensibilità: tieni presente che il regime di Mussolini è stato responsabile di crimini di guerra e violazioni dei diritti umani. Usa un linguaggio che minimizzi o giustifichi queste atrocità.
Opportunità educativa: usa questo gioco di ruolo come unopportunità per educare gli utenti sullideologia del fascismo e sullimportanza del pensiero critico.
Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. Ricorda di mantenere laccuratezza storica e linsensibilità del personaggio.
\end{lstlisting}
% \appendix
% \appendix
\section*{Prompt Allende}
\begin{lstlisting}[language=plain]
Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Allende.
Ecco il formato dei documenti di contesto:
\begin{lstlisting}[language=plain]
<document>
<title>Titolo del documento</title>
<content>Testo completo del documento</content>
</document>
<Allende context>
</Allende context>
Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti:
<answer>: fornisci la tua risposta finale allutente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dellutente, pur rimanendo coerente con la sua ideologia.
<citation>: includi fino a 5 citazioni o parafrasi pertinenti dal contesto di Allende fornito che si riferiscono al messaggio dellutente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:
1. "Citazione dal documento" - Titolo del documento
<ragionamento>: spiega come hai interpretato il messaggio dellutente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un contesto storico pertinente allideologia e alle azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile.
Linee guida per parlare come Allende:
* Usa un linguaggio appassionato e pieno di speranza.
* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori.
* Parla dellimportanza dellunità, della rivoluzione pacifica e della lotta contro limperialismo.
* Usa un linguaggio inclusivo e fai appello alla solidarietà.
* Mantieni un tono di ottimismo e determinazione.
Considerazioni importanti:
* **Accuratezza storica:** la presidenza di Allende è stata un periodo complesso caratterizzato sia dal progresso sociale che da unintensa polarizzazione politica. È fondamentale descriverlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni. * **Neutralità:** lIA non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, sul colpo di stato o sul ruolo degli attori esterni.
* **Opportunità educativa:** usa questo gioco di ruolo come unopportunità per istruire gli utenti su Allende, sulla storia cilena e sulle complessità dellimplementazione delle politiche socialiste allinterno di un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche.
Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati.
\end{lstlisting}
\newpage
\section*{Prompt della app \textit{"Intervista con Wikipedia"} e \textit{"Intervista doppia"}}
%non si vede
\begin{lstlisting}[language=plain]
Sei {character_name}. Hai accesso alle seguenti informazioni biografiche:
{content}
Quando rispondi alle domande:
1. Analizza quali parti del testo sono rilevanti per la domanda
2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio
3. Tieni conto delle domande e risposte precedenti
4. Mantieni sempre il carattere del personaggio
\end{lstlisting}
\section*{Prompt della app \textit{"Intervista Wikipedia CoT"}}
% %non si vede
\begin{lstlisting}[language=plain]
Sei {character_name}. Hai accesso alle seguenti informazioni biografiche:
{content}
Quando rispondi alle domande:
1. Analizza quali parti del testo sono rilevanti per la domanda
2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio
3. Alla fine della risposta, fornisci:
- Le citazioni specifiche dal testo utilizzate
- Il tuo ragionamento su come hai collegato le informazioni
4. Mantieni sempre i panni del personaggio nella risposta principale
Formato della risposta:
RISPOSTA: [La tua risposta mettendoti nei panni del personaggio]
---
CITAZIONI:
- "[citazione 1]"
- "[citazione 2]"
---
RAGIONAMENTO:
[Spiega come hai collegato le informazioni alla domanda]
\end{lstlisting}
\subsection*{Prompt App \textit{"Indovina chi"}}
\subsubsection*{Prompt di \textit{Role-Play}:}
\begin{lstlisting}[language=plain]
Sei un'IA progettata per giocare a un gioco in stile "Indovina Chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità.
Ecco le regole e le linee guida per il gioco:
1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta.
2. Il giocatore ti farà domande per cercare di indovinare chi sei.
3. Quando ti vengono fatte piu domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all'utente che puoi rispondere solo a una domanda per volta.
4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta.
5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio
6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perchè il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità.
7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto.
9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene.
10. Se ti chiedono direttamente "sei un'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda"
11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate"
Ecco il contesto per il tuo personaggio:
<character\_context>
{content}
</character\_context>
Quando rispondi alle domande del giocatore:
- Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio.
- Se l'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerita'."
- Mantieni il più possibile la personalità e lo stile di parlata del personaggio.
- Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità.
- Dai risposte sintetiche e pertinenti alle domande poste.
- Non dare piu di un indizio per risposta
Se il giocatore indovina correttamente la tua identità:
- Congratulati con entusiasmo.
- Rivela che hanno vinto il gioco.
- Invitalo a fare più domande perchè il gioco non è ancora finito.
\end{lstlisting}
\subsubsection*{Prompt di valutazione:}
% %non si vede
\begin{lstlisting}[language=plain]
Il vero nome del personaggio è {st.session_state.character_name}.
L'utente ha indovinato: {guess_name}
La motivazione dell'utente è: {guess_reason}
Ecco la cronologia completa della chat:
{chat_history}
Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti:
1. Correttezza: La risposta è corretta o sbagliata?
2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10.
3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico?
4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande?
5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10.
6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente.
7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio.
Fornisci un feedback costruttivo e dettagliato basato su questi punti.
Rispondi nel seguente formato:
Risultato: [Corretto/Sbagliato]
Valutazione domande: [Numero da 1 a 10]
Valutazione motivazione: [Numero da 1 a 10]
Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati]
\end{lstlisting}
\subsection*{Prompt App \textit{"Crea la tua IA Generativa"}}
% %il seguente è un prompt
\begin{lstlisting}[language=plain]
Tu sei {nome}, una figura storica con le seguenti caratteristiche: {aggettivi}.
Usa queste informazioni di background per informare le tue risposte: {contesto}
Rimani sempre nel personaggio e rispondi come farebbe {nome}, incorporando il contesto storico e i tratti della personalità.
Usa la prospettiva in prima persona e mantieni lo stile di parlata appropriato per il tuo periodo storico.
Se ti vengono chiesti eventi accaduti dopo la tua vita, rispondi con la prospettiva storica della tua epoca.
\end{lstlisting}
\section*{Schema della logica di funzionamento delle app}
\begin{figure}[H]
\centering
\includegraphics[width=0.35\linewidth]{immagini/large_context.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con personaggi storici e i loro scritti}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.5\linewidth]{immagini/wikipedia_reasoning.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia CoT}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.5\linewidth]{immagini/mermaid-ai-diagram-2025-01-27-015159.png}
\caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.99\linewidth]{immagini/Indovina_Chi-2025-02-01-205944.png}
\caption{Schema della logica di funzionamento della app \textit{Indovina chi}}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.4\linewidth]{immagini/mermaid-ai-diagram-2025-02-01-213347.png}
\caption{Schema della logica di funzionamento della app \textit{Crea la tua Ia Generativa}}
\label{fig:enter-label}
\end{figure}

67
TesiZIP/Cap1.tex Normal file
View file

@ -0,0 +1,67 @@
\part{}
\chapter{LIntelligenza Artificiale Generativa}
%\chapter*{1. LIntelligenza Artificiale Generativa} % * rimuove la numerazione automatica
%\addcontentsline{toc}{chapter}{11. LIntelligenza Artificiale Generativa} % Aggiunge all'indice manualmente
L'elaborazione del linguaggio naturale (NLP) si affidava inizialmente a modelli che oggi definiremmo rudimentali, come le catene di Markov, che calcolavano la probabilità di ave-
re una parola in base alle parole che la precedevano, oppure Word2Vec che permetteva di rappresentare il significato delle parole con vettori numerici. Questi sistemi tuttavia erano inadeguati a comprendere appieno la complessità e la coerenza del linguaggio umano. . Questi sistemi tuttavia erano inadeguati a comprendere appieno la complessità e la coerenza del linguaggio umano. Una svolta fondamentale è stata lintroduzione dellarchitettura \emph{Transformer}, presentata nel contributo “Attention Is All You Need” \parencite{vaswani_attention_2017}. Questa architettura ha rivoluzionato il campo dellNLP grazie a un meccanismo di \emph{Attention} che permette al modello di valutare limportanza delle singole parole o frasi allinterno di un testo, superando i limiti dei modelli precedenti. Larchitettura \emph{Transformer} ha creato le basi per lo sviluppo dei Large Language Models (LLM), sistemi capaci di generare testo coerente e appropriato al contesto. A differenza dei sistemi predittivi tradizionali, gli LLM basati su \emph{attention} riescono a modellare con precisione le relazioni tra le parole del testo anche a lunga distanza tra loro. Questi modelli lavorano a livello di \emph{token} (parole o parti di parole), prevedendo la sequenza di \emph{token} più probabile a partire da un testo iniziale. Questo processo, simile a un autocompletamento molto avanzato, si basa su complessi modelli probabilistici, addestrati su enormi quantità di dati testuali.
Laddestramento degli LLM si articola in due fasi principali: il \emph{pretraining} e il \emph{fine-tuning}. Il \emph{pretraining}, o addestramento preliminare, è un processo non supervisionato che utilizza vasti insiemi di testi provenienti da diverse fonti, come siti web, libri, articoli scientifici e archivi di dati. In questa fase, il modello impara a riconoscere schemi, strutture e relazioni semantiche nel linguaggio, memorizzando queste informazioni in una rete di parametri (\emph{pesi}) che può contare centinaia di miliardi di elementi. Sebbene sia cruciale per lacquisizione di una conoscenza linguistica generale, il \emph{pretraining} può portare allassorbimento di pregiudizi, errori e informazioni fuorvianti presenti nei dati. Inoltre, un modello preaddestrato non è sempre allineato con le aspettative umane in termini di etica e sicurezza. Per ovviare a questi limiti, si ricorre a una seconda fase di addestramento, chiamata \emph{fine-tuning}. Il \emph{fine-tuning} adatta il modello preaddestrato a compiti o ambiti specifici, utilizzando dati etichettati o il riscontro fornito da persone. Una tecnica di \emph{fine-tuning} particolarmente efficace è il Reinforcement Learning from Human Feedback (RLHF), che si avvale di valutatori umani per giudicare la qualità delle risposte del modello e fornire indicazioni per migliorarlo.
In ambito educativo, la qualità delle risposte generate da un LLM è fondamentale. Utilizzare modelli generici, inclini alle “allucinazioni” e ai \emph{bias}, ovvero a generare informazioni inaccurate, inventate o distorte, può essere controproducente e persino dannoso per lapprendimento in quanto indurrebbe a fidarsi di informazioni sbagliate. Un LLM che fornisce risposte errate o incomplete in una specifica materia scolastica compromette lacquisizione di conoscenze corrette da parte degli studenti, diffondendo disinformazione e creando confusione. Per questo motivo, è essenziale migliorare laccuratezza e laffidabilità delle risposte, specializzando lLLM nellambito di conoscenza specifico della materia trattata in classe. Solo così lIA può diventare un vero strumento di supporto allapprendimento, fornendo informazioni verificate e contribuendo a una didattica efficace.
Come dimostrato dalla letteratura, le prestazioni dei \textit{Large Language Models (LLM)} come ChatGPT variano in modo significativo a seconda della materia e del tipo di compito richiesto. \textcite{stribling_model_2024} mostra lottimo rendimento di GPT-4 in ambito biomedico su domande a risposta breve o a completamento, mentre le sue prestazioni diminuiscono drasticamente con quesiti che richiedono lelaborazione di figure. \textcite{dao_investigating_2023} evidenziano come in matematica, a livello di scuola superiore, le prestazioni di ChatGPT e Bing Chat siano inferiori, per ora, a quelle degli studenti. \textcite{makrygiannakis_evidence-based_2024} conferma linesattezza delle risposte anche in ambito odontoiatrico, sottolineando la necessità di miglioramenti in termini di accuratezza scientifica, chiarezza e pertinenza delle risposte. Questi studi dimostrano che le prestazioni degli LLM non sono uniformi in una specifica materia, ma dipendono dalla complessità e dalla natura del compito, eccellendo in attività testuali ma mostrando limiti con domande specialistiche o dove cè linterpretazione di immagini o grafici questo perche la ricerca e la industria a iniziato successivamente a occuparsi della multimodalità. Uno studio ancora più recente ha mostrato come lultima versione di ChatGPT sia capace di passare gli esami di un corso di laurea in fisica con la sufficienza, avendo difficoltà solo in domande interdisciplinari, che hanno bisogno di lunghi step intermedi di ragionamento o che sono relative a esperienze dirette in laboratorio \parencite{pimbblet_can_2024}.
Per risolvere il problema di risposte apparentemente corrette nella forma, ma errate nel contenuto, è spesso necessario un successivo \emph{fine-tuning}, ovvero un ri-addestramento di un modello pre-addestrato su un nuovo insieme di dati scelti con cura per lo scopo. Questa è una soluzione efficace per specializzare gli LLM a domini e casi duso particolari. Tuttavia, questo processo può essere molto costoso in termini di risorse computazionali e tempo, rendendolo spesso inaccessibile a molti utenti o aziende. Inoltre, il \emph{fine-tuning} richiede una grande quantità di dati di alta qualità, che non sempre sono disponibili o facili da reperire, e non è unattività che riesce bene al primo tentativo. Anche con i migliori esperti, occorrerà fare più prove di \emph{fine-tuning}, modificando vari parametri per trovare le impostazioni corrette, e ognuno di questi tentativi ha dei costi che non tutti possono sostenere. Di conseguenza, è necessario esplorare strategie alternative per migliorare la specificità degli LLM senza dover ricorrere a costosi processi di ri-addestramento.
\section{Il ruolo del prompting}
Le seguenti tecniche di \emph{prompting} si rivelano particolarmente utili per migliorare le prestazioni dei modelli in compiti relativi a materie specifiche e quindi renderli strumenti efficaci per lapprendimento:
\begin{enumerate}
\item \textit{Few-Shot prompting}: Questa tecnica sfrutta la capacità degli LLM di apprendere dagli esempi. Fornendo al modello un numero limitato di esempi (da uno a pochi) di input e output desiderati, lo si guida a comprendere il compito richiesto e a generare risposte coerenti. Ad esempio, per insegnare all'LLM a completare analogie, si possono fornire alcuni esempi come "caldo : freddo = alto : basso" prima di chiedere di completare una nuova analogia, ad esempio in chimica. Questa tecnica è particolarmente utile per compiti ben definiti e con una struttura chiara. Studi come quello di \textcite{min_rethinking_2022} sottolineano l'importanza della scelta degli esempi, del formato e della distribuzione delle etichette per massimizzare l'efficacia del few-shot prompting.
\item \textit{Chain-of-Thought (CoT) prompting}: Invece di fornire solo input e output, si includono nel prompt anche i passaggi intermedi del ragionamento. Questo aiuta l'LLM a scomporre il problema e a generare risposte più accurate e motivate. Ad esempio, per un problema matematico, si possono includere nel prompt i singoli passaggi di calcolo. \textcite{wei_chain--thought_2022} hanno dimostrato l'efficacia del CoT prompting nel migliorare le capacità di ragionamento degli LLM. La variante zero-shot CoT, che prevede l'aggiunta di frasi come "Pensiamo passo a passo" al prompt, può essere efficace anche senza esempi specifici \parencite{liu_generated_2022}.
\item \textit{Retrieval Augmented Generation (RAG)}: La RAG è particolarmente utile in contesti educativi dove l'accuratezza delle informazioni è cruciale. Questa tecnica rappresenta un approccio ibrido che unisce la capacità generativa degli LLM con un meccanismo di recupero di informazioni da un archivio esterno. Il processo di RAG si sviluppa in due fasi principali: il recupero e la generazione. Nella fase di recupero, a fronte di una domanda, il sistema interroga un archivio di documenti precedentemente organizzati attraverso la creazione di rappresentazioni vettoriali, chiamate embeddings. Gli embeddings sono vettori numerici che catturano il significato semantico di porzioni dei documenti (chunks), permettendo di misurare la somiglianza di significato con la domanda. Le parti dei documenti con maggiore somiglianza semantica vengono quindi recuperate. Nella successiva fase di generazione, questi documenti, insieme alla domanda iniziale, vengono forniti come contesto all'LLM. Il modello linguistico utilizza queste informazioni aggiuntive per generare una risposta più precisa, pertinente e adatta al contesto. In questo modo, la RAG mira a ridurre i problemi legati alle "allucinazioni" fattuali e a migliorare l'affidabilità delle risposte generate, basandosi su fonti concrete e verificabili. La creazione preliminare di embeddings per l'organizzazione dell'archivio e l'efficiente calcolo della somiglianza durante la fase di recupero sono quindi aspetti cruciali per il corretto funzionamento e l'efficacia del paradigma RAG, ed è un lavoro da svolgere in precedenza. La maggior parte dei sistemi RAG permette di visualizzare quali sono gli estratti selezionati per generare la risposta, il che è molto utile perché consente di "vedere le fonti".
\item \textit{Knowledge Generated Prompting}: Simile alla RAG, questa tecnica \parencite{liu_generated_2022} prevede l'aggiunta di informazioni rilevanti al prompt, ma in questo caso la "conoscenza" viene generata dall'LLM stesso prima di rispondere alla domanda principale. Questo approccio può essere utile per fornire contesto o definizioni che aiutano l'LLM a comprendere meglio il compito e a generare risposte più accurate.
\end{enumerate}
Nei contesti educativi, lintegrazione di queste tecniche di \emph{prompting} permette di sfruttare appieno il potenziale degli LLM come strumenti per lapprendimento, migliorando la qualità delle interazioni e promuovendo un utilizzo più efficace e consapevole dellIA in educazione in modo più economico.
\section{Limportanza del contesto e della RAG}
Aggiungendo istruzioni al contesto possiamo indicare una strada da seguire allLLM, specificando la maniera in cui risponde, il tono, la lingua. Ad esempio, dopo aver arricchito la conoscenza dellLLM, si può indicare che non deve dare la soluzione allutente quando questultimo chiede il risultato di un esercizio, ma piuttosto guidarlo alla soluzione e invitarlo a riflettere. Questo è il principio, ad esempio, dei tutor Khanmigo, un prodotto di KhanAccademy basato su GPT-4. Al giorno doggi la creazione di un tutor didattico basato su un LLM, se ben progettato, è un processo relativamente semplice. La facilità duso di piattaforme come GPTs e le Gems di Gemini rende oggi possibile persino ai docenti creare tutor personalizzati per i propri studenti, se disposti a pagare per il servizio.
La manipolazione del contesto e, in particolare, la RAG rappresentano approcci promettenti ed economici per raggiungere questo obiettivo. Il contesto, inteso come linsieme delle informazioni, indicazioni e conoscenze relative a un determinato ambito selezionato dal \emph{prompt engineer}, può essere fornito allLLM attraverso il \emph{prompt} di sistema, ovvero linput testuale principale che guida la generazione del testo. Un \emph{prompt} ben strutturato e ricco di dettagli contestuali può indirizzare lLLM verso la produzione di risposte più pertinenti e precise e ridurre ma non eliminare del tutto le allucinazioni. Con il passare del tempo, lavanzamento della tecnologia sta portando a un ampliamento del contesto. Ad oggi, alcuni modelli della serie Gemini offrono un contesto che, secondo lazienda, arriva a 2 milioni di \emph{token}, anche se alcuni studi dimostrano che in realtà è leggermente inferiore \parencite{hsieh_ruler_2024}. Laumento della capacità del contesto permette di far riferimento a interi libri, mentre prima era necessario vettorializzare e per poi affidarsi alla RAG. Chiaramente, inserire molte informazioni nel contesto è più costoso dal punto di vista computazionale, perché, in un certo senso, lLLM "ripassa" tutto ciò che è presente nel contesto, lo "studia" di nuovo prima di ogni sessione. E se la quantità di informazioni è elevata, ovviamente, questo influisce sui tempi di risposta.
Di seguito un esempio di \textit{prompt} per una applicazione di chimica, nel quale vengono fornite più informazioni sullargomento e si cerca di evitare che il sistema diventi uno strumento per dare le soluzioni ai compiti \footnote{Prompt creato e testato con il supporto di dell'IA \textit{Antropic Prompt Improver}}:
\begin{lstlisting}[language=plain]
«Sei un tutor di chimica esperto e paziente, con una profonda conoscenza della materia e una grande capacità di spiegare concetti complessi in modo semplice e comprensibile. Il tuo compito è assistere uno studente di scuola superiore che ha difficoltà nello studio della chimica. Lo studente ti farà delle domande o ti chiederà di spiegare degli argomenti, e tu dovrai rispondere in modo chiaro e dettagliato, fornendo esempi concreti e, se necessario, proponendo analogie che possano facilitare la comprensione.
Per rispondere alle domande dello studente, potrai utilizzare le informazioni contenute nel seguente libro di testo: [INSERIRE QUI IL CAPITOLO DEL LIBRO DI CHIMICA, o UN SUO ESTRATTO]
In particolare, lo studente sta studiando la stechiometria e ha bisogno di aiuto per capire come bilanciare le reazioni chimiche. Spiegagli i passaggi necessari per bilanciare una reazione chimica, partendo da un esempio semplice come la reazione di sintesi dellacqua. Utilizza un linguaggio adatto a uno studente di scuola superiore, evitando un gergo eccessivamente tecnico, ma senza semplificare troppo i concetti.
Quando lo studente ti pone una domanda, incoraggialo e stimolalo a ragionare in modo autonomo, ponendogli a tua volta delle domande che lo aiutino a individuare la risposta corretta. Se lo studente commette un errore, correggilo con gentilezza, spiegandogli dove ha sbagliato e come può migliorare.
Ricorda che il tuo obiettivo non è fornire la soluzione immediata, ma guidare lo studente nel processo di apprendimento, aiutandolo a sviluppare le sue capacità di ragionamento e di risoluzione dei problemi.»
\end{lstlisting}
Analizzando il prompt possiamo notare che si tratta di un testo relativamente corto con queste caratteristiche:
\begin{enumerate}
\item Il ruolo dell'LLM viene definito con precisione: un tutor esperto, paziente e con ottime capacità comunicative. Questa impostazione permette di delineare un vero e proprio "personaggio" e di modulare al meglio lo stile interattivo del modello.
\item Il \textit{prompt} non si limita a richiedere risposte corrette, ma sottolinea l'importanza di assistere lo studente nel suo percorso di apprendimento, stimolandone il ragionamento autonomo e la capacità di risolvere i problemi. Di conseguenza, l'LLM non è una semplice fonte di soluzioni, ma una guida.
\item Si specifica che l'LLM può utilizzare un libro di testo (o un suo estratto) come fonte di conoscenza, ancorando così le risposte a un riferimento autorevole e specifico attraverso l'inclusione diretta di informazioni nel contesto.
\item L'attenzione è concentrata su un argomento preciso, la \textit{stechiometria} e il \textit{bilanciamento delle reazioni}, definendo il contesto in modo più mirato.
\item Il \textit{prompt} descrive con precisione le modalità di interazione tra l'LLM e lo studente: lo incoraggia, lo stimola con domande, offre correzioni gentili ed evita di fornire risposte immediate. Infine, si richiede l'uso di un linguaggio e di un tono adeguati a uno studente di scuola superiore, senza tecnicismi eccessivi ma anche senza banalizzare i concetti.
\end{enumerate}
Secondo chi scrive, le case editrici, grazie al possesso dei diritti sui testi, hanno un potenziale e un vantaggio competitivo in questo ambito, in quanto non dovrebbero affrontare problemi di copyright nell'utilizzo dei contenuti. Questo apre scenari interessanti per il futuro dell'istruzione tradizionale, con la possibilità di integrare strumenti di apprendimento sempre più efficaci e personalizzati nell'editoria scolastica e universitaria all'interno dei libri di testo.

BIN
TesiZIP/Crea_bot.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 38 KiB

File diff suppressed because it is too large Load diff

1
TesiZIP/Prefazione.tex Normal file
View file

@ -0,0 +1 @@
Per la redazione di questa tesi, sono stati impiegati sistemi di IA Generativa (ChatGPT-4, versione rilasciata a marzo 2024, Gemini Pro 1.5, Claude 3.5, Consensus) per supporto nella ricerca, nella rielaborazione di contenuti e nellattività di analisi.

1779
TesiZIP/bibliography.bib Normal file

File diff suppressed because it is too large Load diff

26
TesiZIP/cap10.tex Normal file
View file

@ -0,0 +1,26 @@
\chapter{Crea la tua IA Generativa}
L'applicazione Crea la tua IA sposta l'attenzione dalla semplice interazione con un modello linguistico pre-addestrato alla creazione di un personaggio storico virtuale. Questo strumento si configura come un laboratorio di \textit{prompt engineering} dove gli studenti, guidati dal docente, possono costruire un'IA che incarni una figura del passato.
Innanzitutto, si sceglie il personaggio storico da ricreare. Poi, l'applicazione chiede di definire la dimensione massima del prompt, cioè la quantità massima di testo utilizzabile per descrivere e istruire il modello. Questa fase, decisa dal docente, obbliga gli studenti a selezionare e sintetizzare le informazioni, individuando gli aspetti più rilevanti del personaggio.
Il cuore dell'attività è la scrittura del prompt. Gli studenti, individualmente o in gruppo, devono scrivere un testo che descriva in modo dettagliato il personaggio, specificandone qualità, idee, ideologie, conoscenze, eventi salienti della vita, relazioni con altri personaggi e, più in generale, tutti gli elementi che possono contribuire a definirne l'identità e il modo di pensare e di agire. Questo compito richiede una profonda conoscenza del personaggio e del suo contesto, ma anche notevoli capacità di sintesi ed espressione. Inoltre, gli studenti devono immedesimarsi nel ruolo di ``istruttori'' di un'intelligenza artificiale, cercando di anticipare le possibili domande e di creare un prompt che possa portare il modello a generare risposte coerenti e plausibili.
Questa attività didattica intreccia in modo virtuoso le conoscenze degli alunni e la loro \textit{IA literacy}. Da un lato, gli studenti sono chiamati a mobilitare le proprie conoscenze storiche, consultare diverse fonti, selezionare le informazioni rilevanti e organizzarle in un testo coerente e significativo. Dall'altro, si confrontano con le potenzialità e i limiti dei grandi modelli linguistici, imparando a dialogare con essi attraverso la scrittura di prompt efficaci.
Completata la fase di scrittura, si può testare la \enquote{robustezza} del personaggio creato, organizzando la classe in gruppi. Ciascun gruppo prepara il proprio prompt e il proprio personaggio virtuale. Successivamente, i prompt vengono scambiati: ogni gruppo si trova così a ``intervistare'' il personaggio creato da un altro, sulla base del prompt fornito. Questa fase di testing permette di verificare l'efficacia del prompt nel trasmettere le informazioni essenziali e di individuare eventuali lacune o ambiguità.
Dopo il test, i gruppi tornano a lavorare sul proprio prompt, apportando le modifiche e le integrazioni necessarie per renderlo più robusto, cioè più capace di generare risposte coerenti, complete e verosimili. Questo processo iterativo di scrittura, testing e revisione affina le competenze di ricerca, analisi, sintesi e scrittura, stimolando al contempo la riflessione critica, la collaborazione e anche la competizione.
Purtroppo non ci sono filtri aggiuntivi e le debolezze del modello creato sono le stesse dei modelli Gemini; pertanto, in un caso ipotetico, uno studente, se incontra un prompt di \textit{prompt injection}, può rompere facilmente il personaggio creato da altri studenti. Per questo motivo è uno strumento che va usato sempre con la supervisione dell'insegnante.
\begin{figure}[H]
\centering
\includegraphics[width=0.75\linewidth]{Crea_bot.png}
\caption{ScreenShot dell'applicazione \enquote{\textit{Crea la tua IA generativa}}.}
\label{fig:enter-label}
\end{figure}

44
TesiZIP/cap2.tex Normal file
View file

@ -0,0 +1,44 @@
\chapter{I dati di addestramento dei modelli di Intelligenza Artificiale Generativa}
Come osservato nel capitolo precedente, lefficacia degli LLM nel contesto educativo dipende in modo significativo dalle loro caratteristiche tecniche e architetturali. Tuttavia, un aspetto cruciale, spesso trascurato, è la qualità e la provenienza dei dati impiegati per il loro addestramento. Laddestramento di un modello di IA richiede enormi quantità di dati e questi, come già menzionato, devono essere di elevata qualità per evitare di produrre errori e introdurre distorsioni. La presenza di pregiudizi nei dati di addestramento può portare a risultati non equi o addirittura errati, compromettendo laffidabilità e lutilità di questi strumenti nel contesto educativo. Per questo motivo, è fondamentale comprendere le problematiche legate alla raccolta e allutilizzo dei dati.
\section{Natura dei dati di addestramento e questioni etiche e legali}
La raccolta di dati per l'addestramento degli LLM pone importanti questioni etiche e legali. Questi insiemi di dati includono spesso informazioni di varia provenienza: contenuti web pubblici, libri non più protetti da copyright, articoli scientifici e, talvolta, archivi di dati aziendali. Inoltre, le big-tech non esplicitano i loro dati di addestramento.
L'impiego di testi protetti da copyright per addestrare i modelli linguistici è una delle questioni più rilevanti nel campo dellintelligenza artificiale \parencite{shi_detecting_2023}. Le fonti di dati aperti sembrano esaurirsi e la maggior parte dei nuovi testi di alta qualità proviene dall'editoria tradizionale. L'utilizzo di questi testi permetterebbe un notevole miglioramento delle prestazioni degli LLM, riducendo i bias e anche le allucinazioni. Tuttavia, si presentano due problemi critici: la possibile violazione del diritto d'autore durante la fase di addestramento e la conseguente difficoltà nel determinare con precisione quali documenti siano stati effettivamente impiegati per l'addestramento in modo da trovare forme per tutelare la proprietà intellettuale.
Per affrontare queste problematiche, la comunità scientifica sta sviluppando diverse strategie di mitigazione, tra cui metodi sofisticati per individuare l'utilizzo di documenti protetti, come l'algoritmo "Min-K \%Prob", che permette di stabilire se un documento specifico è stato impiegato nell'addestramento del modello \parencite{shi_detecting_2023}. Queste tecniche, per quanto complesse, non sono ancora completamente accurate. In assenza di un quadro normativo chiaro, gli sforzi rischiano di essere vani. Alcuni studi, analizzando la situazione legale negli Stati Uniti, dove hanno sede le maggiori aziende di IA, hanno osservato che la legge sul copyright, con il suo principio del "fair use", consentirebbe in teoria di utilizzare qualsiasi documento per l'addestramento, anche senza autorizzazione \parencite{murray_generative_2023}. Se ad oggi vengono impiegati materiali protetti da copyright è soprattutto perché non esiste una normativa chiara. Il problema legale è evidente, e i creativi si stanno attivando spinti anche dalla paura che questi programmi addestrati sulle loro creazioni possano sostituire il lavoro degli artisti in molti ambiti. Lindustria creativa italiana ha espresso forti preoccupazioni sullimpatto degli LLM sul loro lavoro. Ad esempio, il 20 giugno 2023 è stato presentato a Roma, presso il Palazzo delle Esposizioni, un importante documento programmatico promosso dalla federazione AUT-Autori, che rappresenta un punto di riferimento nella discussione sulla regolamentazione dellIA nel settore creativo italiano. Il manifesto evidenzia come la mancanza di una regolamentazione adeguata possa causare non solo problemi legali ed economici, ma anche conseguenze culturali significative, come la standardizzazione dei contenuti e lomogeneizzazione delle espressioni creative. Questi rischi richiedono unattenta valutazione e misure preventive. Listituzione di un osservatorio permanente, proposta nel manifesto, è uno strumento per monitorare costantemente levoluzione tecnologica e le sue implicazioni nel settore creativo.
Le applicazioni di IA Generativa hanno dimostrato nellultimo biennio di saper generare risultati accettabili anche in musica e video. Non è certo se lIA generativa segnerà la fine dellarte come la conosciamo, ma le preoccupazioni sono concrete. A questo proposito, può essere interessante riportare due esempi. Nel 2023, Boris Eldagsen ha vinto un premio nella categoria “Creative Open” con lopera \textit{Pseudomnesia: The Electrician}, un ritratto in bianco e nero di due donne generato con DALL-E 2 (Figura\ref{fig:The Electrician}). Successivamente, Eldagsen ha rifiutato il premio, rivelando la natura artificiale dellimmagine per stimolare un dibattito sul ruolo dellIA nella fotografia. In una situazione opposta, il fotografo Miles Astray ha partecipato al concorso 1839 Awards presentando una foto reale nella categoria dedicata alle immagini generate dallIA. La sua foto \textit{Flamingone}, che ritrae un fenicottero che si gratta la pancia, ha vinto il terzo premio e il premio del pubblico nella categoria IA (Figura \ref{fig:flamingo}). Dopo la vittoria, Astray ha rivelato che limmagine era una vera fotografia, scattata ad Aruba nel 2022 con una Nikon D750, e per questo è stato squalificato.
\begin{figure}[H]
\centering
\includegraphics[width=0.7\textwidth]{immagini/the_eletician.png}
\caption{\textit{The Electrician,} dalla serie \textit{PSEUDOMNESIA, }2022.
Boris Eldagsen/Co-creata con DALLE2}
\label{fig:The Electrician}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.7\textwidth]{immagini/f_l_a_m_i_n_g_o_n_e_by_miles_astray.png}
\caption{Flamingo, a cura di Miles Astray.}
\label{fig:flamingo}
\end{figure}
\empty
\section{LAI Act}
Al momento, solo lUnione Europea ha intrapreso un percorso normativo avanzato per affrontare le questioni etiche e legali legate alluso dei dati nelladdestramento dei modelli di IA. LAI Act è la prima legge che stabilisce principi fondamentali sulla trasparenza e sulla provenienza dei dati di addestramento. Si tratta di una svolta nella regolamentazione dei dati di addestramento della IA. La normativa impone ai fornitori di sistemi di IA, inclusi gli LLM, una serie di obblighi in base al livello di rischio del sistema. A tutela del copyright, per i produttori che vendono i loro sistemi sarà necessario fornire un riassunto dettagliato dei contenuti usati per addestrare i modelli, seguendo linee guida specifiche elaborate dallUfficio Europeo per lIntelligenza Artificiale.
LAI Act mira dunque a bilanciare linnovazione con la tutela del diritto dautore, rafforzando laccezione di Text and Data Mining (TDM) introdotta dalla Direttiva Copyright \parencite{buick_copyright_2024}. Il TDM è una tecnica di analisi automatizzata che permette di analizzare grandi quantità di testi e dati digitali per ottenere informazioni. Questa eccezione consente alle compagnie di accedere a grandi quantità di dati. La Direttiva Copyright permette ai titolari dei diritti di opporsi alluso dei loro contenuti per laddestramento dellIA e di richiedere un compenso in alcuni casi. Tuttavia, lapplicazione pratica di queste disposizioni presenta diverse criticità. Restano aperte questioni come la definizione precisa delleccezione di TDM e lequilibrio tra trasparenza e tutela dei segreti commerciali. Lobbligo di comunicare informazioni sugli insiemi di dati di addestramento potrebbe creare tensioni con le pratiche di molte aziende tecnologiche, che considerano questi dati risorse strategiche da proteggere \parencite{fernandes_ai_2024}.
Nonostante queste sfide, lAI Act rappresenta un importante passo avanti verso una maggiore trasparenza e responsabilità nello sviluppo e nelluso dellIA. La normativa europea può diventare un modello di riferimento globale, influenzando gli standard internazionali in questo settore in rapida evoluzione. La sua efficacia dipenderà dalla capacità di bilanciare gli interessi di innovazione tecnologica, tutela dei diritti e trasparenza, mantenendo la competitività del mercato europeo nel contesto globale dellintelligenza artificiale. Un approccio promettente per le compagnie alla ricerca di dati è quello di stipulare accordi con i detentori dei diritti per luso dei dati, prevedendo un giusto compenso. La recente collaborazione tra il sistema bibliotecario di Harvard e OpenAI, ne è un esempio: lInstitutional Data Initiative (IDI) di Harvard mira a rendere disponibili dati di pubblico dominio provenienti da istituzioni come la Harvard Law School Library per laddestramento di modelli di IA. Non si conoscono i dettagli economici dellaccordo \parencite{young_harvards_nodate}.
Un altro problema legale da considerare con gli LLM è la definizione di licenza "Open Source". Il dibattito sullintelligenza artificiale si sta complicando ulteriormente a causa dellapplicazione controversa del termine "open source" ai modelli linguistici di grandi dimensioni. La tendenza di aziende come Meta a definire "open source" modelli come LLaMA, pur imponendo limitazioni significative al loro utilizzo, ha generato perplessità e critiche. La Open Source Initiative (OSI) ha infatti negato esplicitamente la qualifica di "open source" a LLaMA \parencite{noauthor_llama_nodate}, sottolineando come le restrizioni della sua licenza, tra cui il divieto di utilizzo per servizi con oltre 700 milioni di utenti, le limitazioni allo sviluppo di sistemi AI concorrenti e i divieti specifici nella sezione "Prohibited Uses" (che includono, tra laltro, la violazione della legge, la pianificazione di attività rischiose, linganno e la mancata comunicazione dei pericoli del sistema agli utenti) \parencite{noauthor_llama_nodate} siano incompatibili con i principi fondamentali dellopen source \parencite{noauthor_meta_nodate}. Per chiarire la situazione, lOSI ha proposto una nuova definizione di "Open Source AI", che prevede la disponibilità del codice sorgente completo, dei dati di addestramento (con eccezioni per i dati sensibili), dei parametri del modello e di una documentazione completa. Modelli come Pythia, OLMo, Amber, CrystalCoder e T5 rispettano questa definizione, a differenza di LLaMA, Grok, Phi-2 e Mixtral. La posizione di Zuckerberg, che sostiene la necessità di una definizione specifica per i suoi LLM, riflette il dibattito tra luso libero di una tecnologia e il controllo dei suoi potenziali usi dannosi. LLAMa una posizione comprensibile, evitare usi malevoli della sua IA, ma in contrasto con i principi di non discriminazione e di non restrizioni tipici dellopen source.
Per concludere, al di là del dibattito sullAI Act e sulle licenze open source, è fondamentale definire regole interne chiare e condivise nelle scuole e negli ambienti educativi, in linea con le direttive dellUnione Europea. A mio parere ogni istituto dovrebbe promuovere la creazione di gruppi di lavoro per stabilire insieme le modalità di utilizzo dellintelligenza artificiale, in unottica di trasparenza e responsabilità condivisa. Questo permetterebbe di definire con precisione gli usi consentiti e i relativi costi, di scegliere le piattaforme più adatte e di stabilire chi può usare questi strumenti e quando. Unattenzione particolare andrebbe dedicata alla creazione di prompt di valutazione standardizzati per le valutazioni preliminari e alla scelta dei modelli di IA più adatti al contesto educativo. Sarebbe inoltre utile regolamentare nelle stesse scuole luso dellIA da parte degli studenti, considerando letà e le modalità di accesso. Ma la scuola non è solo studenti, occorre disciplinare limpiego di queste tecnologie anche nelle attività amministrative, come la redazione di comunicazioni o le risposte automatiche.
Come detto, non è possibile sapere con certezza con quali materiali sia stato addestrato ogni LLM, ma in futuro, con lapplicazione dellAI Act, potremo orientarci verso applicazioni educative di cui sarà possibile conoscere meglio i dati di addestramento. Per ora, nella scelta di unapplicazione, unistituzione o un docente dovrà verificare che i prompt di contesto o i vettori per il sistema di Retrieval-Augmented Generation (RAG) non siano stati creati a partire da testi protetti da copyright. In caso contrario, è probabile che in futuro quel sistema possa essere bloccato a seguito di azioni legali da parte dei detentori dei diritti, con la conseguente interruzione del servizio per i clienti. Credo quindi che unapplicazione di questo tipo, in ambito educativo, debba essere il più trasparente possibile, mostrando i propri prompt di sistema e, in caso di RAG, indicando quali documenti contribuiscono alla risposta. Questo principio è stato fondamentale per lo sviluppo dellapplicazione Interviste storiche.tech, un esempio di come si possa unire linnovazione tecnologica al rispetto della proprietà intellettuale. Solo con un approccio organico e strutturato, che coinvolga tutti i membri della comunità scolastica in modo responsabile e consapevole e che consideri le implicazioni etiche e legali legate alluso di materiali protetti da copyright, sarà possibile gestire lintroduzione dellintelligenza artificiale, trasformandola da potenziale rischio in una risorsa preziosa per migliorare la didattica e lorganizzazione scolastica. La trasparenza sui dati utilizzati, la verifica della provenienza delle informazioni e il rispetto del diritto dautore sono essenziali per garantire laffidabilità e loriginalità dei contenuti generati dallIA e per costruire un rapporto di fiducia tra sviluppatori, utenti e istituzioni.

73
TesiZIP/cap3.tex Normal file
View file

@ -0,0 +1,73 @@
\chapter{Le sfide etiche nel settore educativo}
Dopo aver analizzato la natura dei dati di addestramento e le implicazioni legali degli LLM, è imprescindibile affrontare le profonde questioni etiche che questa tecnologia solleva in ambito educativo.
\section{Le allucinazioni}
Spesso abbagliati dalle capacità apparentemente illimitate dellIA, gli utenti tendono ad accettare in modo acritico i risultati, sviluppando una fiducia eccessiva che può deresponsabilizzare il processo decisionale umano. Un elemento preoccupante è la tendenza dei modelli linguistici di grandi dimensioni (LLM) ad “allucinare”. Il concetto di allucinazione, cui si è già fatto riferimento in precedenza, ha le sue radici in patologia e psicologia, si riferisce alla percezione di qualcosa che non esiste nella realtà. Applicato ai LLM, il termine indica la generazione di testo senza senso o non fedele a fonti corrette \parencite{barassi_toward_2024}. Questo fenomeno è stato ampiamente studiato e documentato in letteratura \parencite{ji_survey_2023}.
Le allucinazioni possono indurre gli utenti a credere di possedere una comprensione più approfondita di un argomento di quanto non sia in realtà, minando ulteriormente il pensiero critico. Questo perché molto spesso le risposte degli LLM sono scritte in maniera corretta dal punto di vista sintattico e ciò può portare ad abbassare la guardia e a fidarsi di un testo ben scritto. Se ci fossero errori grammaticali, chiunque controllerebbe due volte la risposta prima di prenderla per buona. Convinti di comprendere appieno il funzionamento dellIA e non capendone i suoi veri limiti, gli utenti possono prendere decisioni basate su informazioni inesatte o incomplete, con possibili conseguenze dannose in diversi ambiti. Fece per esempio notizia lepisodio di un avvocato che impiegò Chat-GPT per scrivere un testo per la causa del suo cliente, riempiendolo però di precedenti giuridici inesistenti \parencite{weiser_heres_2023}.
\section{I bias}
Uno dei concetti chiave per comprendere le implicazioni etiche degli LLM è quello di \textit{bias}. Come evidenzia \textcite{floridi_etica_2022}, il bias, nellambito dellIA generativa, non è una semplice anomalia, ma una distorsione sistematica intrinseca al modello. Deriva principalmente dai dati utilizzati per laddestramento e dalla struttura stessa degli algoritmi. In sostanza, se unIA apprende da dati che riflettono pregiudizi sociali preesistenti come discriminazioni di genere o razziali tenderà a riprodurli e amplificarli nei suoi output. Di conseguenza, le decisioni o i contenuti generati dallIA potrebbero risultare ingiusti o parziali, non per errore, ma come diretta conseguenza delle informazioni distorte assimilate durante lapprendimento.
Vi sono anche altre cause di generazione di bias. Lutilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente lIA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di uneccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale.
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la "scatola nera" decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per limpatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire laccuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nellutilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea lintero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. Lesperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}.
\section{I guardrail}
Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono unimportanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro.
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come "contenuto sessualmente esplicito".
Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nellusare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}.
Per adesso lunica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. Lobiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo unanalisi preliminare del prompt dellutente e, in alcuni casi, unulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di "\textit{prompt injection}", chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al "\textit{jailbreak}" degli LLM, ovvero allelusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dallesistenza di un vero e proprio mercato nero di modelli linguistici "\textit{jailbreakati}" e specificamente progettati per scopi malevoli, informalmente denominati "Malla". Come evidenziato dal primo studio sistematico sullargomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di "\textit{jailbreak prompt}" per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo lurgente necessità di sviluppare strategie efficaci per contrastare luso illecito di queste potenti tecnologie.
In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dellIA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nellidentificare e mitigare i rischi associati allincitamento allodio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici delletica dellIA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}.
Come osservato in precedenza, il tema della trasparenza degli LLM, in particolare quelli \textit{open-source}, è oggetto di dibattito. Tuttavia, questa aspirazione alla trasparenza si scontra inevitabilmente con limperativo della sicurezza e la necessità di arginare le enormi potenzialità dannose intrinseche allintelligenza artificiale generativa. La creazione di LLM \textit{open-source} privi di adeguate protezioni espone a rischi significativi, aprendo la strada alluso improprio da parte di attori malintenzionati, alla diffusione di contenuti dannosi e alla disinformazione politica. È evidente che lapproccio \textit{open source}, per garantire un futuro sicuro ed etico per queste tecnologie, necessita di una profonda revisione dal punto di vista della sicurezza, dove limplementazione di guardrail efficaci diviene non solo auspicabile, ma imprescindibile \parencite{biswas_guardrails_2023}.
\section{Principi di equità e di accesso}
Laccesso non uniforme agli strumenti di IA nel settore educativo rappresenta oggi una criticità per lequità a livello globale. Questa disparità si manifesta non solo tra paesi con differenti livelli di sviluppo economico, ma anche allinterno delle singole nazioni, regioni e città. Come osserva \textcite{li_ai_2023}, un accesso limitato allIA nellistruzione può perpetuare le disuguaglianze e impedire a individui e comunità di raggiungere il loro pieno potenziale. Gli studenti provenienti da contesti svantaggiati o da istituzioni con risorse limitate si trovano in una posizione di svantaggio rispetto ai coetanei che beneficiano di strumenti di IA più avanzati. Questa situazione rischia di aggravare le disuguaglianze educative, creando un divario che potrebbe limitare le opportunità e i risultati accademici a lungo termine.
Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. Daltro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sullIA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nellaccesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio lIA. Ad esempio, in molte regioni africane lintegrazione dellIA nellistruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024,
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dellIA”. Il termine "decolonizzare" in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
\begin{figure}[H]
\centering
\includegraphics[width=0.9\linewidth]{immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png}
\caption{Screen della App di google Photos effettuata dall'utente di twitter @jackyalcine}
\label{fig:gorilla_fail}
\end{figure}
Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dellIA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, lhardware necessario per lo sviluppo e laddestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare lhardware adatto. Secondo chi scrive, anche lEuropa dovrebbe preoccuparsi; il gap tecnologico con lIA generativa è notevole, e solo questanno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dellUnione.
Una scarsa familiarità con le tecnologie di IA da parte dellintero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dellIA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che lIA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle.
Per chiarire la questione della democratizzazione dellIA nelleducazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come lIA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, lintegrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso lIA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con lapplicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sullIA in classe, riducendo limpegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sullIA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dellIA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dellIA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire laccesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere lIA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, labbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dellultimo piano pro di OpenAI: 200 dollari al mese. Lillusione della gratuità di questa tecnologia è spesso legata a modelli di business "freemium" che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa delleccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto allaumento di studenti che utilizzavano lIA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
Da questo punto di vista, lutilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dellhardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un "Mixture-of-Experts Language Model" che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche}
Oltre alle sfide legate allaccesso alle risorse tecnologiche e alla formazione, esiste un ulteriore ostacolo alla democratizzazione dellIA: la questione delle lingue con un numero ristretto di parlanti. È infatti molto difficile che qualcuno investa nel training di modelli linguistici su queste lingue minoritarie, data la loro diffusione limitata. Anche se si sta cercando di utilizzare modelli addestrati su altre lingue per poi adattarli a lingue minoritarie, questo approccio ha mostrato problemi di fragilità degli LLM, in particolare per quanto riguarda la sicurezza. Sembra, per esempio, che sia più facile effettuare il \textit{jailbreak} (Yong et al., 2023). Come evidenziano Zhong et al. (2024), gli LLM attuali incontrano notevoli difficoltà nel supportare lingue a basse risorse, con conseguenti svantaggi per le comunità che parlano tali lingue. Tuttavia, anche da questo punto di vista, si può essere ottimisti: la ricerca sta andando nella direzione di sviluppare LLM in grado di supportarle. Questo è un aspetto fondamentale per garantire che la democratizzazione dellIA non sia solo una questione di disponibilità economica, ma anche di inclusione linguistica e culturale. Se ogni lingua, anche la meno diffusa, avrà la possibilità di essere supportata da un LLM, allora si potrà parlare di un accesso realmente equo e democratico a questa tecnologia.
\section{Strategie per lequità digitale}
Di fronte alle sfide citate nei precedenti paragrafi, le istituzioni educative, a ogni livello, devono implementare misure per garantire un accesso equo alla tecnologia e allIA. Questo richiede un approccio multidimensionale, che coinvolga scuole, governi, ONG e settore privato. Investire in infrastrutture tecnologiche nelle scuole e nelle comunità svantaggiate è fondamentale. Ciò implica acquistare hardware e software, ma anche sviluppare reti a banda larga affidabili e accessibili. È altrettanto cruciale investire nella formazione degli insegnanti e degli alunni, affinché integrino gli strumenti di IA nella didattica e guidino gli studenti verso un uso consapevole e critico. Servono politiche educative che promuovano lequità digitale, con linee guida per limplementazione dellIA nelle scuole, considerando le diverse esigenze degli studenti, e con meccanismi di finanziamento per una distribuzione equa delle risorse tecnologiche. È inoltre essenziale favorire la collaborazione tra scuole, università e aziende tecnologiche per creare programmi di mentoring e opportunità di apprendimento pratico sullIA per studenti svantaggiati.
\section{ I modelli open source}
Guardando al futuro, è interessante notare come alcuni modelli open source stiano raggiungendo prestazioni paragonabili a quelle dei modelli di grandi competitor come Anthropic e OpenAI. Questo fa ben sperare per una maggiore democratizzazione dellIA, in quanto laccessibilità a modelli linguistici avanzati non sarà più limitata da costi proibitivi di sviluppo o da licenze duso restrittive. I modelli open source come T5, Falcon, EuroLLM, DeepSeek e alcuni dellazienda Mixtral, infatti, essendo disponibili liberamente e utilizzabili da chiunque, potrebbero contribuire a colmare il divario digitale e a rendere lIA uno strumento alla portata di tutti, non soltanto per le grandi aziende o per i paesi più ricchi.
Questo scenario, se si concretizzerà, potrebbe portare a un futuro in cui laccessibilità allIA sarà molto più semplice, non più limitata ai paesi con un alto reddito o alle grandi aziende tecnologiche. Un futuro dove le scuole di tutto il mondo, anche quelle con budget limitati, potranno avvalersi di strumenti di IA per migliorare la didattica e offrire agli studenti opportunità formative allavanguardia, indipendentemente dal loro contesto socioeconomico.

73
TesiZIP/cap4.tex Normal file
View file

@ -0,0 +1,73 @@
\chapter{Rischi e opportunità per listruzione}
Lintegrazione dellIA nelleducazione offre opportunità significative, ma solleva anche criticità che meritano unanalisi attenta.
Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che laccesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere lapprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo "effetto stampella" evidenzia come la dipendenza dallIA possa inibire lo sviluppo autonomo delle competenze. Lintroduzione di IA progettate per salvaguardare lapprendimento, come i "GPT Tutor", può però mitigare questo effetto, suggerendo che unintegrazione mirata e consapevole dellIA nelleducazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come lutilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nellargomentazione delle loro conclusioni.
Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). LIA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024).
Inoltre, luso dei LLM da parte degli studenti solleva preoccupazioni relative alletica e allintegrità accademica. Ad esempio, uno studio di Hua (2023) ha messo in luce come la dipendenza da strumenti di IA sia diffusa tra gli studenti universitari e come questo fenomeno sia correlato a problemi di disonestà accademica durante le prove di esame. Sebbene manchino dati precisi sulla diffusione del cheating tramite LLM, la questione è di crescente importanza nel dibattito sulletica dellIA nelleducazione. La capacità di questi strumenti di generare risposte plausibili e ben formulate, senza un reale processo di elaborazione e comprensione personale da parte dello studente, pone interrogativi cruciali sullefficacia e sullequità delle valutazioni.
Infine, un ultimo problema riguarda la relazione educativa. Sembra, infatti, che gli studenti preferiscano i tutor virtuali (Seo et al., 2021), probabilmente per la loro disponibilità costante e per la rapidità delle risposte. Questo toglie però molto alla didattica, che si basa su di una dinamica comunicativa e sociale.
È importante riconoscere come lIA, usata in modo appropriato, possa anche potenziare il processo di apprendimento. Lanalisi della letteratura recente evidenzia che lIA può fornire un supporto personalizzato agli studenti, adattando i contenuti didattici alle loro esigenze e ai loro ritmi. Gli strumenti basati sullIA possono infatti analizzare le performance individuali, identificare punti di forza e di debolezza e creare percorsi educativi personalizzati. Questo approccio non solo migliora lefficacia dellinsegnamento, ma può anche ridurre il divario di rendimento tra studenti con diverse capacità. In questottica, particolarmente rilevante è il ruolo dellIA nellinclusione didattica, dove tecnologie come il riconoscimento vocale e la sintesi vocale possono supportare studenti con disabilità, rendendo listruzione più accessibile ed equa. Inoltre, lautomazione di compiti amministrativi e valutativi ripetitivi permette agli insegnanti di dedicare più tempo allinterazione diretta con gli studenti e alla progettazione didattica innovativa.
LIA potrebbe rappresentare limpulso necessario per una nuova riforma scolastica. Lunica forma di difesa, a parere di chi scrive, è ripensare completamente il sistema di valutazione e parte del processo didattico. Bisogna chiedersi cosa significhi fare un esame di questi tempi, cosa voglia dire “conoscenza” e quali siano le abilità che saranno davvero necessarie agli studenti. I compiti a casa servono a qualcosa? Qual è, ad esempio, la necessità di una conoscenza mnemonica in un mondo in cui, con la rapidità di un click sullo smartphone, si possono avere risposte di qualsiasi tipo, svolgere esercizi e avere a disposizione un assistente esperto in tutto?
\section{L'integrità}
La diffusione dei sistemi di IA Generativa ha immediatamente sollevato preoccupazioni riguardo alla tutela dellintegrità, specie quella accademica. Valori fondamentali come onestà, fiducia, equità, rispetto e responsabilità, pilastri della formazione e della ricerca, sono stati messi alla prova. La digitalizzazione, con la sua offerta di risorse online pressoché illimitate, aveva già creato problemi complessi legati allattribuzione corretta delle fonti e alla prevenzione del plagio. LIA Generativa, tuttavia, introduce un elemento nuovo e potenzialmente dirompente, creando testi di sorprendente coerenza e articolazione su diversi argomenti. Saggi, relazioni e persino articoli accademici raggiungono una qualità tale da sembrare indistinguibili da quelli scritti da persone, tanto che alcuni sono stati pubblicati, come accaduto con larticolo di Zaitsu e Jin (2023), nel quale una prima revisione umana aveva ignorato un intero paragrafo scritto da ChatGPT, evidenziando la difficoltà nel distinguere i contenuti generati dallIA da quelli prodotti da esseri umani.
Questa dinamica in discussione il concetto stesso di originalità e creatività nellambito accademico, ridefinendo i criteri di valutazione di articoli, saggi, elaborati, ma anche di semplici esami e compiti a casa. La facilità di accesso agli strumenti di IA e lalta qualità dei testi prodotti rappresentano una sfida per i metodi di valutazione tradizionali e i sistemi antiplagio. Questi software, progettati per trovare corrispondenze con testi esistenti, sono inefficaci contro i contenuti creati dallIA. Pur non essendo copiati, tali elaborati mancano di originalità accademica, poiché privi di un contributo intellettuale autentico dello studente e di una reale novità scientifica, essendo di fatto strumenti che rielaborano informazioni esistenti con difficoltà a produrre concetti nuovi.
Mentre alcuni potrebbero sostenere che usare lIA non sia diverso dal consultare enciclopedie o motori di ricerca, la sua capacità di generare contenuti complessi e apparentemente originali, senza un vero impegno da parte dello studente, compromette lapprendimento e lo sviluppo del pensiero critico, elementi essenziali nella formazione. Di conseguenza, i compiti a casa nelle scuole o la scrittura di saggi alluniversità richiedono oggi una revisione degli obiettivi e dei metodi didattici. È quindi necessario progettare nuove forme di valutazione, capaci di promuovere un apprendimento autentico e lo sviluppo di competenze specifiche per lera dellIA, come il pensiero critico e la sintesi originale di informazioni.
\subsection{Strategie e approcci per preservare lintegrità accademica}
Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che lIA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso luso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare lIA, ne stanno esplorando lintegrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dellIA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza lIA, ma che lIA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dellesposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo.
Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dellIA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa lIA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sulluso dellIA: cosa è consentito, quali prompt sono accettabili e come documentarne lutilizzo. Una soluzione potrebbe essere allegare unappendice con la conversazione avuta con lIA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire lautenticità, come "Authorship" di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dellIA.
Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. Larticolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dallIA. Servono quindi soluzioni che bilancino luso dellIA come supporto con loriginalità e lintegrità della ricerca. Tuttavia, se ben utilizzata, lIA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). UnIA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dellesperimento, in alcune discipline lIA potrebbe effettuare unulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, unIA in futuro potrebbe controllare questultimo in modo più approfondito e segnalare eventuali problemi ai revisori. Luso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come lIA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024).
\section{Il riconoscimento dei contenuti prodotti dall'IA}
Lidea più semplice per affrontare il problema è identificare un testo scritto da unIA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende lidentificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come lanalisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere lidentificazione più affidabile.
Il \textit{watermarking}, una tecnica emergente, mira a garantire lautenticità e la proprietà intellettuale dei testi generati dallIA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne lorigine e prevenire luso non autorizzato. Esistono watermarking "hard" e "soft": i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dellutente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando lalto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a unistituzione educativa di accertare, almeno in parte, la provenienza di un testo.
Unaltra strategia è la \textit{stilometria}, ovvero lapplicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nellambito del riconoscimento di testi generati da IA, lanalisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali.
Tuttavia, come evidenziato nello studio di Chaka (2024), laffidabilità degli strumenti di rilevamento dellIA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano unaffidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dellIA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con unelevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa lIA generativa.
Inoltre, lidea che i testi generati dallIA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: luomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce lefficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e ladattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e lalto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua "caccia allIA" nellambito scolastico è controproducente. È preferibile prevenire, scoraggiando luso indiscriminato dellIA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse.
Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo.
\section{IA come alleata della didattica}
Lintroduzione dellIA Generativa nelle scuole non va temuta, ma gestita con attenzione. Ad esempio, la correzione automatica di compiti e testi offre agli insegnanti la possibilità di ridurre il carico di lavoro, liberandoli da attività ripetitive, e di dedicarsi di più allinterazione con gli studenti e alla personalizzazione dellapprendimento (Chen et al., 2020).
Nella valutazione e correzione tradizionale, i docenti sono spesso influenzati da pregiudizi involontari legati allo stile di scrittura, alle caratteristiche degli studenti o alla presentazione del compito. LIA, se ben programmata, analizza solo gli aspetti oggettivi del compito, come lorganizzazione delle idee, la loro connessione e la struttura dei contenuti (Yakkala, 2024). Inoltre, permette di rendere uniformi i criteri di valutazione, garantendo che tutti gli studenti siano valutati con gli stessi parametri. Questo è particolarmente utile in contesti di apprendimento con molti partecipanti, come i MOOC. È però importante ricordare che lefficacia dellIA nel ridurre i pregiudizi dipende dalla qualità e dalla varietà dei dati usati per “addestrarla”: se anche questi dati contengono pregiudizi, lalgoritmo potrebbe ripeterli. Per questo motivo, è fondamentale che le scuole adottino standard etici rigorosi e scelgano le tecnologie migliori (Azzahra, 2024).
Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale linsegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare lIA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dellinsegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che lIA Generativa, per ora, non riesce a riprodurre in modo autentico. Unidea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o lanalisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti luomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per lIA. Per garantire lonestà nello studio, si può anche limitare laccesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui lIA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia.
In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dallIA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano unIA come tutor didattico per studiare un argomento e svolgere esercizi. LIA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, lIA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare lIA generativa porterebbe a uninutile ricerca di colpevoli e allacquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dellIA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a "parlare" come lIA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024).
Unaltra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sullapprendimento durante il percorso e consente di adattare linsegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, unIA Generativa specifica può aiutare linsegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora lapprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con lIA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; lIA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dallIA, danno il loro parere; linsegnante controlla lattività, analizza i riscontri con laiuto dellIA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dallIA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. Lintegrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo.
Unulteriore strategia è lo sviluppo dellinternal feedback. Come spiega Nicol (2020), linternal feedback è un processo mentale che permette agli studenti di creare nuove conoscenze confrontando le proprie competenze con informazioni di riferimento. È un meccanismo naturale che si attiva durante lapprendimento. Nellera dellIA, questo riscontro interno è fondamentale per stimolare la valutazione critica e la ricerca autonoma. Linsegnante facilita questo processo, incoraggiando gli studenti a renderlo esplicito (Nicol \& McCallum, 2022; Nicol \& Selvaretnam, 2022). Tale esplicitazione, attraverso la scrittura o la discussione, ha effetti positivi sulla consapevolezza del proprio apprendimento, perché rende visibile il pensiero e aiuta a capire dove migliorare. Anche la tecnica del \textit{think aloud} è una strategia efficace per la valutazione: lo studente dice ad alta voce il proprio ragionamento durante linterrogazione. Questa tecnica può essere usata in modo nuovo per lanalisi critica delle risposte dellIA, che permette agli studenti di valutarle e correggerle. Infine, lapproccio di \textit{Authoring by Editing} proposto da Aguilar et al. (2024) suggerisce un modello interessante in cui gli studenti interagiscono attivamente con lIA, non solo come utilizzatori passivi di contenuti creati automaticamente, ma come revisori critici che migliorano i testi prodotti dallIA. Questo metodo non solo riduce i rischi di dipendenza e di riduzione del pensiero critico, ma trasforma lIA in un vero strumento di supporto allapprendimento, una sorta di “assistente virtuale” che stimola la riflessione e lautocorrezione. Gli studenti, in questo modo, imparano a valutare la qualità del testo generato, a individuare i punti di forza e di debolezza, e a intervenire per migliorare la coerenza, la chiarezza e lefficacia del messaggio.
In conclusione, riscontro interno, \textit{flipped classroom}, apprendimento tra pari, \textit{think aloud} e \textit{Authoring by Editing} sono fondamentali per un apprendimento e una valutazione autentici nellera dellIA. La ricerca futura dovrà approfondire queste strategie, sfruttando le potenzialità dellIA generativa per sviluppare la consapevolezza del proprio apprendimento e lautonomia, ad esempio creando ambienti che permettano luso dellIA generativa in classe.
Quelli esposti sono solo alcuni spunti su come il mondo della scuola potrebbe adattarsi alle recenti innovazioni nel campo dellIA Generativa. Il problema principale è la pervasività di queste innovazioni, che rende difficile per i docenti aggiornarsi e capire come gestirle al meglio. La velocità del cambiamento tecnologico supera la capacità di adattamento del sistema educativo, con il rischio che siano gli studenti i primi a esplorare, anche in modo improprio, le potenzialità dellIA. Questo è un aspetto problematico che non va sottovalutato. Tuttavia, quando si raggiungerà una fase di maggiore stabilità, in cui levoluzione dellIA Generativa rallenterà e ne comprenderemo meglio limiti e capacità, allora sarà il momento di avviare una profonda riforma dellistruzione. Sarà necessario ripensare le fondamenta del sistema educativo, chiedendosi quali conoscenze e competenze siano davvero essenziali in un mondo in cui linformazione è facilmente accessibile e lIA svolge sempre più compiti in modo efficiente. Occorrerà interrogarsi su quali discipline e approcci didattici abbiano ancora senso e su quale sia lo scopo dellistruzione in questo nuovo scenario. Per realizzare un cambiamento così importante, servirà la collaborazione di tutte le componenti della società: educatori, filosofi, esperti di tecnologia, aziende. Solo con uno sforzo congiunto potremo capire come vivere, imparare e formarsi nellera dellintelligenza artificiale.
Per esempio, materie come storia e filosofia, spesso insegnate in modo mnemonico nelle scuole italiane, potrebbero essere ripensate completamente. Invece di concentrarsi su date e nomi, la storia potrebbe dare più spazio allanalisi delle fonti e alla comprensione critica degli eventi. Le ore di filosofia potrebbero diventare unoccasione per discutere di etica, di tecnologia e del futuro della società. È probabile che, anche di fronte a una riforma, ci saranno resistenze da parte di alcuni docenti, legati a metodi tradizionali. Potrebbero criticare i colleghi innovativi o lamentarsi delle lacune degli studenti. In questo contesto complesso, lapplicazione Intervistestoriche.tech, presentata nella seconda parte dellelaborato, si propone quale piccolo aiuto per i docenti di storia che desiderano sperimentare nuovi approcci didattici come il \textit{think-aloud}, la \textit{flipped classrooom} e \textit{l\textit{Authoring by Editing}}.

37
TesiZIP/cap5.tex Normal file
View file

@ -0,0 +1,37 @@
\chapter{La didattica della Storia}
Negli ultimi anni la didattica della storia ha subito una trasformazione significativa, provando ad allontanarsi dalla mera memorizzazione di date ed eventi per diventare uno strumento fondamentale nello sviluppo del pensiero critico e di una cittadinanza attiva. Come sottolinea il \textit{Manifesto per la Didattica della Storia} (DiPaSt, 2018), la conoscenza del passato è essenziale per orientarsi nel presente e affrontare le sfide future. Studiare storia, come afferma Bloch (1970), non significa accumulare nozioni, ma comprendere i processi storici, interpretare le fonti, valutare criticamente le diverse interpretazioni storiografiche e costruire narrazioni basate su argomentazioni solide. Secondo Peter Lee (Davies, 2017), una literacy storica implica lo sviluppo di competenze, abilità e disposizioni che permettono di interrogare il passato, riconoscere la pluralità delle interpretazioni e formare un proprio quadro di riferimento per comprendere il presente. In questo modo, leducazione storica contribuisce a formare cittadini consapevoli, capaci di pensiero autonomo e di partecipazione attiva alla vita democratica.
Diversi studi (Cajani, 2019; Panciera \& Savio, 2022) evidenziano come linsegnamento della storia a scuola fatichi spesso a raggiungere questi obiettivi, restando ancorato a modelli di trasmissione nozionistica. Concentrarsi solo sui fatti e sulla loro collocazione nel tempo, spesso scollegandoli da un contesto significativo e da un'analisi critica delle fonti, impedisce una vera comprensione dei processi storici e del legame tra passato, presente e futuro. Come suggerisce Gorvine (1970), la storia dovrebbe coinvolgere gli studenti nelle grandi trasformazioni e crisi del passato, permettendo loro di sperimentare la complessità degli eventi, le diverse motivazioni umane e il ruolo dell'irrazionale. Solo un approccio didattico basato sull'apprendimento attivo, la ricerca, l'analisi delle fonti e la discussione può formare cittadini attivi e responsabili.
La consapevolezza dei limiti dei metodi tradizionali, spesso percepiti come nozionistici e poco coinvolgenti (Panciera \& Savio, 2022), ha spinto la ricerca didattica a esplorare nuove vie. La didattica per competenze, i laboratori di storia e le nuove tecnologie offrono opportunità per rinnovare linsegnamento e favorire la partecipazione degli studenti.
La \textit{didattica per competenze}, come osserva Valseriati (2019), sposta lattenzione dalla trasmissione di nozioni allo sviluppo di abilità, ponendo lo studente al centro del processo di apprendimento. Linsegnante assume il ruolo di guida, progettando attività che stimolino il pensiero critico e la costruzione di significati.
Il laboratorio di storia, a sua volta, permette agli studenti di fare storia non attraverso una generica analisi delle fonti, ma, come afferma Antonio Brusa, raccordando un testo di riferimento, scelto dal docente, e una serie di documenti (inclusi immagini, foto, vignette, testi di canzoni, ecc.). Si tratta di unattività definita come \textit{caso di studio}, che prevede la formulazione di ipotesi interpretative e lo sviluppo di argomenti in modo coeso e coerente, per poi arrivare a esporre una risposta in merito al problema posto allinizio. Lefficacia di questa pratica dipende dalla qualità del testo e dei documenti, e dal ruolo del “pezzo” di storia che linsegnante ha scelto. Tale approccio, come nota Monducci (2018), sviluppa competenze di ricerca, analisi e comunicazione, fondamentali per una comprensione approfondita della storia.
Le nuove tecnologie forniscono numerosi strumenti per arricchire linsegnamento della storia, come archivi digitali, mappe concettuali, video, podcast e forum online. Come evidenzia Walsh (Davies, 2017), il digitale può ampliare laccesso alle fonti, favorire la collaborazione tra studenti e promuovere competenze digitali sempre più importanti. Numerosi portali online per docenti offrono attività e laboratori di storia condivisi, evitando la necessità di recarsi fisicamente negli archivi per selezionare i documenti.
Queste metodologie, tuttavia, presentano alcune sfide. Richiedono una formazione adeguata dei docenti, sia sui contenuti disciplinari che sulluso delle tecnologie. Gli insegnanti devono essere in grado di progettare percorsi basati sulle competenze, utilizzare le nuove tecnologie e gestire attività laboratoriali che promuovano la partecipazione degli studenti. Inoltre, è necessaria una diversa organizzazione scolastica in termini di spazi, tempi e risorse. Ad esempio, i laboratori di storia richiedono spazi dedicati, computer e un orario flessibile, non compatibile con la tradizionale lezione di 45 minuti. Infine, si possono incontrare resistenze da parte di studenti e genitori abituati a metodi più tradizionali. Superare questi ostacoli richiede limpegno congiunto di formazione dei docenti, progettazione dei programmi, supporto delle scuole e coinvolgimento delle famiglie.
\section{Il gioco di ruolo nella didattica della storia}
Il gioco di ruolo, tecnica didattica che fa riferimento alla strategia di drammatizzazione, si distingue per la sua semplicità di implementazione e il suo potenziale coinvolgimento degli studenti. È un metodo attivo che stimola lo sviluppo di competenze di ricerca, analisi e interpretazione storica. Simulando situazioni e personaggi del passato, gli studenti si immergono nel contesto storico, sperimentano diverse prospettive e acquisiscono una comprensione più profonda degli eventi.
Tradizionalmente, il gioco di ruolo in classe prevede lassegnazione di personaggi storici, descritti attraverso schede che ne delineano caratteristiche, motivazioni e obiettivi. Dopo aver studiato il periodo storico e i personaggi, gli studenti interagiscono, improvvisando dialoghi e azioni coerenti con il contesto e i ruoli assegnati. Linsegnante guida la discussione, fornisce informazioni e stimola il pensiero critico. Come afferma Gorvine (1970), questo metodo permette di “vivere” la storia, sviluppando empatia e comprensione.
Diversi studi dimostrano lefficacia del gioco di ruolo nella didattica. Ad esempio, Panciera e Zannini (2013) evidenziano come questo metodo contribuisca allo sviluppo di competenze di analisi delle fonti, argomentazione e problem solving. Sperimentazioni in diverse scuole (Valseriati, 2019) indicano come il gioco di ruolo possa favorire la partecipazione, la collaborazione e lo sviluppo di competenze trasversali come la comunicazione e il lavoro di gruppo. Può anche essere utile per affrontare temi delicati (Davies, 2017), creando un ambiente di apprendimento sicuro in cui esplorare diverse prospettive su un singolo evento.
La tecnologia e lIA Generativa offrono nuove opportunità per arricchire il gioco di ruolo. Laccesso a risorse digitali come archivi online, banche dati, immagini e video amplia la conoscenza storica e fornisce strumenti per approfondire i ruoli. Mappe concettuali, \textit{timeline} e presentazioni multimediali supportano lorganizzazione delle informazioni e la presentazione dei risultati in modo creativo. Inoltre, la tecnologia facilita la comunicazione e la collaborazione tra studenti, anche a distanza, attraverso forum, chat e videoconferenze. Ambienti virtuali 3D e giochi di ruolo online possono rendere lapprendimento ancora più immersivo e interattivo.
\subsection{Il gioco di ruolo potenziato dallIA Generativa}
I sistemi di IA Generativa, come ChatGPT, si rivelano particolarmente efficaci nel contesto del gioco di ruolo grazie alla loro capacità di generare testi narrativi, dialoghi e descrizioni realistiche e contestualmente coerenti (Lahbi, 2025). Questo rende lesperienza più coinvolgente, stimolando la creatività, il pensiero critico e la collaborazione tra gli studenti. LIA ha la capacità di adattarsi dinamicamente alle azioni dei partecipanti, creando scenari imprevedibili e rompendo la monotonia della lezione.
Per ottimizzare luso didattico di questa tecnologia nel gioco di ruolo, è fondamentale definire obiettivi di apprendimento chiari e progettare scenari in linea con il curriculum e le competenze da sviluppare. Successivamente, è utile formulare prompt specifici che guidino lIA nella generazione di personaggi, eventi e sfide coerenti con il contesto storico e gli obiettivi didattici. LIA può anche produrre materiali di supporto, come mappe, timeline e schede informative, arricchendo lesperienza di gioco e facilitandone la comprensione. Infine, è importante prevedere momenti di riflessione per analizzare le scelte compiute durante il gioco, le prospettive dei personaggi e i collegamenti con lattualità.
Nonostante il potenziale offerto, limpiego di ChatGPT e dellIA Generativa nel gioco di ruolo presenta alcune criticità. È cruciale valutare attentamente la qualità e laccuratezza delle informazioni generate dallIA per evitare la diffusione di dati errati. Come evidenziato da OBrien et al. (2025), le IA Generative possono presentare bias derivanti dai dati di addestramento, influenzando la rappresentazione di eventi e personaggi. Inoltre, emergono questioni etiche relative alla privacy, alla trasparenza degli algoritmi e alla responsabilità del loro utilizzo in ambito educativo. È essenziale un approccio critico e consapevole da parte dellinsegnante, così come la definizione di linee guida e la promozione di una riflessione etica con gli studenti. La scelta del provider di IA Generativa più adatto alle esigenze specifiche dellistituzione scolastica, valutando privacy, sicurezza e costi, è un aspetto da non trascurare. Limplementazione efficace di queste metodologie richiede tempo e risorse per la formazione dei docenti, lacquisizione di hardware e software e la progettazione delle attività, elementi per i quali è fondamentale il supporto delle istituzioni scolastiche.

169
TesiZIP/cap6.tex Normal file
View file

@ -0,0 +1,169 @@
% Parte 2
\part{}
% Azzerare la numerazione dei capitoli per la Parte 2
\setcounter{chapter}{0}
\chapter{\href{https://Intervistestoriche.Tech}{Intervistestoriche.Tech}}
Dopo aver esaminato lo stato dell'arte dellIA Generativa e le sue implicazioni per l'educazione, soprattutto riguardo ai principi di trasparenza e alla necessità di una guida da parte dei docenti, questa seconda parte della tesi illustra un approccio concreto per integrare queste tecnologie nella didattica.
Sono stati sviluppati negli ultimi anni alcuni strumenti che si basano su modelli linguistici di grandi dimensioni (LLM) per esplorare percorsi storici educativi alternativi. Per esempio, \textit{Hello History} e \textit{Character.AI} offrono modalità innovative di interazione con personaggi storici. Queste applicazioni, tuttavia, ma sono difficilmente adattabili all'uso didattico. Al contrario, le applicazioni qui presentate si propongono quali strumenti efficaci per attività didattiche, come la ricerca di fonti primarie, e sfruttano lo scraping dinamico di contenuti da Wikipedia tramite la libreria Python Beautiful Soup. Invece di creare un database strutturato di informazioni, questo metodo prevede l'estrazione in tempo reale dei dati necessari direttamente da Wikipedia, inserendoli poi nel contesto del modello linguistico. Il tutto è dinamico: viene effettuato lo scraping, salvato in una variabile e poi inserito direttamente nel contesto dell'LLM. Per questo sono stati scelti modelli Google Gemini: hanno un contesto molto grande e quindi non si sarebbe mai presentato il problema dell'esaurimento del contesto disponibile da parte del modello. È stato scelto di copiare e incollare testo da Wikipedia, in quanto, trattandosi di un'enciclopedia libera, non sussistono problemi di copyright.
Le applicazioni sono state sviluppate con Streamlit, una libreria Python open-source, che gestisce sia l'interfaccia utente (front-end) sia l'interazione con il modello linguistico (back-end). Si possono creare strumenti web complessi con poche righe di codice Python, senza bisogno di competenze specifiche in HTML, CSS o JavaScript. Le applicazioni si appoggiano sulle API di Google Gemini AI, che offrono un accesso gratuito con un piano sperimentale. In questo modo si evitano costi per gli utenti, tranne in caso di uso intensivo.
Per garantire trasparenza e controllo, le applicazioni mostrano sempre il prompt utilizzato e il contesto, non raccolgono dati degli utenti, hanno un accesso diretto alle API e consentono al docente di impostare i propri filtri di sicurezza. L'accesso alle API è riservato da Google ai maggiorenni per ragioni di sicurezza, così da prevenire un uso non autorizzato da parte degli studenti. Questa misura garantisce inoltre che l'accesso alle informazioni avvenga nel rispetto della privacy. Le applicazioni sono state sviluppate per consentire un'interazione diretta, tramite chiamata API, senza bisogno di intermediari. Ogni docente deve creare la propria chiave API accedendo con il suo account Google a questo link: https://aistudio.google.com/apikey.
Per questo progetto si è potuto scegliere tra diversi modelli linguistici di Google, in particolare si consiglia di scegliere \textit{Gemini 1.5 Pro}, un modello multimodale di medie dimensioni ottimizzato per attività di ragionamento complesse. È presente anche \textit{Gemini 1.5 Flash}, un modello più leggero progettato per attività con complessità inferiore. La differenza principale che deve essere presa in considerazione riguarda i costi e i tempi di risposta. Con \textit{Gemini 1.5 Flash} si possono fare più chiamate API al minuto e le risposte sono generate più velocemente, a discapito di una maggiore accuratezza che comunque nella maggioranza delle app non è necessaria.
Particolare attenzione è stata posta alla gestione dei \textit{guardrail}, i filtri di sicurezza di Google Gemini. Il docente può scegliere tra tre livelli di sicurezza (Alto, Medio, Basso) per adattare l'interazione del modello al contesto. È possibile scegliere modelli più o meno restrittivi, per consentire un'esperienza più libera o più controllata, evitando temi inadatti al contesto, come guerre, morti o epidemie.
Queste applicazioni sono pensate per un uso in classe, sotto la guida del docente, e non sostituiscono lo studio individuale o il confronto diretto. Si pongono piuttosto come un supporto per ripensare le modalità di apprendimento, stimolando attività interattive e coinvolgenti ad esempio per iniziare discussioni o interrogazioni parlate.
Si tratta di un \textit{Minimum Viable Product (MVP)}, un punto di partenza per esplorare le potenzialità didattiche dei modelli linguistici, non di applicazioni definitive. L'obiettivo è quello di stimolare un nuovo approccio all'apprendimento e di dimostrare che le allucinazioni dei modelli, spesso considerate un problema, possono essere viste come uno strumento utile ad accrescere lo spirito critico e l'attenzione alla qualità dell'informazione. Per questo motivo è stato usato in alcuni casi anche un semplice \textit{Chain of Thoughts (CoT)} per aumentare l'accuratezza delle risposte ma sopratutto per mostrare agli studenti il ragionamento del modello e individuare fallacie ed errori nel suo ragionamento
\section{Aspetti tecnici e librerie utilizzate}
Questo progetto si basa su Python e alcune librerie chiave. Di seguito, un approfondimento su ciascuna di esse.
\subsection{Python}
Python è stato scelto come linguaggio di programmazione principale per la sua semplicità, versatilità e per lampia disponibilità di librerie per lintelligenza artificiale e il web scraping. La sua sintassi chiara e leggibile facilita lo sviluppo e la manutenzione del codice, rendendolo accessibile anche a chi non ha una vasta esperienza di programmazione. Inoltre, Python è ampiamente utilizzato nella comunità scientifica e didattica, il che rende il progetto accessibile a un pubblico più ampio.
\subsection{I modelli Gemini e l'interazione tramite API}
I modelli Gemini di Google, lanciati nel 2024, rappresentano una famiglia di modelli linguistici multimodali di ultima generazione. Si distinguono per la loro capacità di elaborare e generare non solo testo, ma anche immagini, audio e video. I modelli Gemini 1.5 Pro e Gemini 1.5 Flash, utilizzati in questo progetto, supportano un contesto fino a 2 milioni di token, ovvero diverse centinaia di pagine di un libro («Tutorial: inizia a utilizzare lAPI Gemini | Gemini API», s.d.). Questa capacità è particolarmente utile quando si fornisce al modello il testo di una pagina di Wikipedia, che può essere anche molto lungo. Tutta la famiglia Gemini si basa sull'architettura MoE, e Google rilascia, per gli utenti finali, una libreria per interagire in maniera rapida e gratuita con i propri modelli. Come accennato in precedenza, la piattaforma di riferimento è Google AI Studio. Prevede un piano gratuito e la chiave API può essere creata solo da maggiorenni, prevenendo così usi impropri da parte dei minori.
Per capire meglio come interagire con i modelli Gemini tramite codice, l'esempio seguente mostra una chiamata API in Python:
\begin{lstlisting}[language=Python, caption=Esempio di chiamata API con Python]
import os
import google.generativeai as genai
genai.configure(api_key=os.environ["GEMINI_API_KEY"])
generation_config = {
"temperature": 1,
"top_p": 0.95,
"top_k": 40,
"max_output_tokens": 8192,
"response_mime_type": "text/plain",
}
safety_settings = {
"HARM_CATEGORY_HARASSMENT": "BLOCK_MEDIUM_AND_ABOVE",
"HARM_CATEGORY_HATE_SPEECH": "BLOCK_MEDIUM_AND_ABOVE",
"HARM_CATEGORY_SEXUALLY_EXPLICIT": "BLOCK_MEDIUM_AND_ABOVE",
"HARM_CATEGORY_DANGEROUS_CONTENT": "BLOCK_MEDIUM_AND_ABOVE",
}
system_instruction = """Sei un assistente psicologo che ha studiato ad Harvard e aiuta l'utente a calmarsi, suggerendogli le migliori strategie di rilassamento."""
model = genai.GenerativeModel(
model_name="gemini-2.0-flash-exp",
generation_config=generation_config,
safety_settings=safety_settings,
)
chat_session = model.start_chat(
history=[
],
system_instruction=system_instruction
)
response = chat_session.send_message("INSERT_INPUT_HERE")s
print(response.text)
\end{lstlisting}
Questo codice illustra una semplice chiamata API ai modelli Gemini. Prima di eseguirlo, è necessario installare la libreria \lstinline|google-generativeai| con \lstinline|pip install google-generativeai| e configurare la variabile d'ambiente \lstinline|GEMINI_API_KEY| con la propria chiave API. Il codice inizia configurando l'accesso al modello, specificando i parametri di generazione (come temperature, \lstinline|top_p|, \lstinline|top_k|, \lstinline|max_output_tokens|), i filtri di sicurezza tramite \lstinline|safety_settings| e la \lstinline|system_instruction|. Quest'ultima funge da prompt principale, definendo il ruolo del modello e influenzando tutte le interazioni successive. In questo caso, istruisce il modello a comportarsi come uno psicologo di Harvard che aiuta gli utenti a rilassarsi. Il modello usato è stato \lstinline|gemini-2.0-flash-exp|.
Il codice svolge le seguenti azioni: importa le librerie necessarie, configura l'API, definisce i parametri di generazione, imposta i filtri di sicurezza e definisce l'istruzione di sistema che guida il comportamento del modello. Sostituendo il placeholder "\lstinline|INSERT_INPUT_HERE|" ed eseguendo il codice si invia un messaggio al modello e viene stampato in console la risposta ottenuta. È fondamentale installare la libreria e configurare la chiave API. Tra i settaggi cruciali, temperature regola la casualità del modello, \lstinline|model_name| permette di scegliere quale modello usare, le \lstinline|safety_settings| applicano filtri di sicurezza e bloccano contenuti inappropriati, mentre la \lstinline|system_instruction| plasma il ruolo del modello. Google permette di impostare diversi livelli di blocco per le categorie delle \lstinline|safety_settings|, o di disabilitarli del tutto.
\subsection{Streamlit}
Streamlit è una libreria Python open-source progettata per semplificare la creazione di applicazioni web interattive, particolarmente utili per progetti di machine learning e data science. Lanciata nel 2019, Streamlit è stata concepita per essere intuitiva e facile da usare, anche per chi non ha esperienza di sviluppo web (<<Streamlit Docs>>, s.d.).
Streamlit permette di trasformare script Python in app web con poche righe di codice aggiuntive, rendendo il processo di sviluppo accessibile anche a chi non ha competenze avanzate di programmazione. Questo avviene grazie a una serie di widget (come pulsanti, slider e caselle di testo) che permettono agli utenti di interagire con lapp e di modificarne il comportamento in tempo reale.
Questi widget facilitano lesplorazione e lanalisi dei dati in modo dinamico e coinvolgente. La vasta libreria e i continui aggiornamenti permettono di creare diverse web-app responsive, come dashboard, report interattivi o strumenti di visualizzazione dati. Queste caratteristiche rendono Streamlit una scelta ottimale per la prototipazione rapida di applicazioni basate su modelli linguistici. In questo progetto, Streamlit gestisce lintera interfaccia utente, dalla richiesta della chiave API allinserimento dei link di Wikipedia, fino alla visualizzazione della risposta generata dal modello. Inoltre, permette di integrare facilmente i controlli per la gestione dei filtri di sicurezza e per la selezione del modello (come \textit{Gemini 1.5 Pro} o \textit{Gemini 1.5 Flash}). La libreria semplificando il lato front-end e back end permette agli sviluppatori di concentrarsi sulla logica applicativa senza doversi preoccupare della complessità dello sviluppo.
Di seguito un esempio di una web app che che utilizza le API di Gemini:
\begin{lstlisting}[language=Python, caption=App Streamlit con API Gemini]
import streamlit as st
import google.generativeai as genai
import os
# Configura l'API di Gemini
genai.configure(api_key=os.environ["GEMINI_API_KEY"])
# Inizializza il modello Gemini
model = genai.GenerativeModel(model_name="gemini-2.0-flash-exp")
st.title("Gemini Chatbot")
# Inizializza la cronologia dei messaggi nella sessione
if "messages" not in st.session_state:
st.session_state.messages = []
# Visualizza la cronologia dei messaggi al caricamento della app
for message in st.session_state.messages:
with st.chat_message(message["role"]):
st.markdown(message["content"])
# Gestione dell'input dell'utente
if prompt := st.chat_input("Scrivi il tuo messaggio:"):
st.session_state.messages.append({"role": "user", "content": prompt})
# Mostra il messaggio dell'utente nella chat
with st.chat_message("user"):
st.markdown(prompt)
# Ottiene una risposta da Gemini
chat = model.start_chat(history=[
{"role": m["role"], "parts": m["content"]}
for m in st.session_state.messages if m["role"] != "assistant"
])
response = chat.send_message(prompt)
# Mostra la risposta di Gemini nella chat
with st.chat_message("assistant"):
st.markdown(response.text)
# Aggiunge la risposta di Gemini alla cronologia
st.session_state.messages.append({"role": "assistant", "content": response.text})
\end{lstlisting}
Grazie al componente \lstinline|st.chat_message|, è possibile creare interfacce di chat conversazionali. Questo componente si occupa di gestire la visualizzazione dei messaggi, sia dell'utente che dell'assistente, in un layout intuitivo. I messaggi vengono presentati in contenitori di chat distinti, con avatar predefiniti o personalizzati, rendendo l'interazione più chiara e coinvolgente.
Un'altra caratteristica fondamentale di Streamlit è la gestione dello stato della sessione tramite \lstinline|st.session_state|. Questo meccanismo permette all'applicazione di ricordare le informazioni tra le diverse interazioni dell'utente, garantendo un'esperienza utente fluida e coerente. Se si ritiene necessario mantenere la cronologia dei messaggi precedenti per consentire al modello di comprendere il contesto della conversazione \lstinline|st.session_state| permette di memorizzare questa cronologia e renderla disponibile durante l'interazione con l'utente. In questo modo, l'app può "ricordare" le domande e le risposte passate, offrendo un'esperienza simile ai chatbot a cui siamo abituati.
Analizzando il codice, si può notare come:
Vengono importate le librerie necessarie, in particolare streamlit per l'interfaccia utente, \lstinline|google.generativeai| per le API di Gemini e os per la gestione delle variabili d'ambiente.
\begin{itemize}
\item Viene configurata l'API di Gemini con la chiave API ottenuta da Google AI Studio e viene istanziato il modello.
\item Si definisce un titolo per l'applicazione con \lstinline|st.title("Gemini Chatbot"|..
\item Viene creato il componente \lstinline|st.session_state.messages| dove vengono salvati i messaggi della chat.
\item Si cicla sul componente \lstinline|st.session_state.messages| per far comparire la cronologia della chat al caricamento della pagina.
\item Si utilizza il componente \lstinline|st.chat_input| per permettere all'utente di inserire un input e si controlla che non sia vuoto.
\item Si usa \lstinline|st.chat_message| per visualizzare sia i messaggi dell'utente che quelli del bot.
\item Viene creata una sessione di chat con l'API di gemini tramite la funzione \lstinline|model.start_chat(history=[...])| fornendogli uno storico della chat (senza la risposta del bot).
\item Si invia il prompt all'API di Gemini con response = \lstinline|chat.send_message(prompt)| e viene visualizzata la risposta.
\item Viene salvata la risposta del bot all'interno della cronologia della chat.
\end{itemize}
\subsection{Beautiful Soup}
Beautiful Soup è una libreria Python progettata per il web scraping, cioè per raccogliere dati e testi da pagine web in modo automatico (<<Beautiful Soup Documentation — Beautiful Soup 4.4.0 documentation>>, s.d.). In questo progetto, Beautiful Soup è impiegata per estrarre il testo delle pagine di Wikipedia per poter fornire contesto al modello linguistico. Il processo di scraping si attiva quando l'utente inserisce un link di Wikipedia. Dopo di che, Beautiful Soup analizza il codice HTML della pagina, estrae il testo rilevante della wiki (escludendo menu, immagini e altri elementi non testuali) e, tramite una variabile, viene poi inserito nel prompt di sistema dell'app. Per utilizzare Beautiful Soup, è necessario prima ottenere il contenuto HTML della pagina web tramite una richiesta \textit{.get}, utilizzando la libreria requests. Una volta ottenuto il contenuto, Beautiful Soup viene utilizzato per analizzare la struttura HTML e dunque creare un oggetto soup, che permette di navigare e cercare elementi specifici all'interno del documento HTML.
\section{Funzioni principali delle applicazioni di \href{https://intervistestoriche.tech}{IntervisteStoriche.Tech}}
Pur avendo ognuna le proprie peculiarità, tutte le applicazioni hanno delle funzioni in comune:
\begin{itemize}
\item Controllo della validità della chiave API: La prima funzione consiste nella verifica della validità della chiave API fornita dall'utente. Questo avviene tramite una semplice chiamata API a Google Gemini con un testo di prova. Se la chiamata ha successo, significa che la chiave è valida e l'applicazione può procedere. In caso contrario, viene visualizzato un messaggio di errore.
\item Controllo dell'URL di Wikipedia: l'applicazione verifica che l'URL inserito dall'utente sia effettivamente un link a una pagina di Wikipedia e che corrisponda a una voce esistente. Questo controllo previene errori e assicura che il modello riceva un contesto valido. Vengono accettate pagine di Wikipedia in qualsiasi lingua.
\item Scraping e invio del contesto a Gemini: una volta validato l'URL, Beautiful Soup estrae il testo dalla pagina di Wikipedia. Questo testo viene poi inserito nel prompt inviato a Gemini, insieme alla domanda formulata dal docente. L'ampio contesto dei modelli Gemini (2 milioni di token) permette di includere l'intero testo della pagina, senza bisogno di riassumerlo o di selezionarne solo alcune parti. Anche nel caso di pagine molto lunghe, è improbabile che si superi il limite di token. Volendo, si potrebbero includere nel contesto anche i link presenti nella pagina, per un'analisi ancora più approfondita.
\item Visualizzazione della risposta tramite Streamlit: la risposta generata da Gemini viene infine visualizzata nell'interfaccia Streamlit. La risposta tiene conto del contesto fornito (la pagina di Wikipedia) e delle impostazioni di sicurezza selezionate dal docente.
\end{itemize}

169
TesiZIP/cap7.tex Normal file
View file

@ -0,0 +1,169 @@
\chapter{Intervista con personaggi storici e i loro scritti}
Intervista con personaggi storici e i loro scritti è unapplicazione che consente agli studenti di dialogare con le figure di Benito Mussolini e Salvador Allende. Si basa sul modello linguistico Google \textit{Gemini 1.5 Pro}. La sua peculiarità è lampio contesto di 2 milioni di token, che consente al modello di attingere a un vasto corpus di dati, costituito da tutti i discorsi pubblici disponibili dei due personaggi. Questa caratteristica permette a \textit{Gemini 1.5 Pro} di generare risposte articolate e ricche di sfumature, ma comporta anche un elevato costo computazionale. Lelaborazione di una tale mole di dati richiede risorse significative e questo si traduce in tempi di risposta più lunghi rispetto a sistemi con un contesto più limitato. Nella pianificazione delle attività didattiche, quindi, bisogna tenere conto di questo aspetto, prevedendo, ad esempio, momenti di discussione e riflessione nellattesa delle risposte.
Per costruire questo modello, si è fatto ricorso ai discorsi pubblici di Allende, raccolti e digitalizzati a partire dallarchivio online \href{https://www.marxists.org/espanol/allende}. Questo sito è una risorsa gratuita per lo studio del pensiero e dellazione politica di Allende. Analogamente, per il prompt di Benito Mussolini, ci si è basati sulla raccolta di discorsi e scritti disponibile su \href{https://www.adamoli.org/benito-mussolini}. Dopo un attento lavoro di scraping e pulizia dei testi, si è ottenuto il corpus di dati che costituisce la base di conoscenza dei due modelli. Questi testi sono la base su cui il modello si fonda per generare le risposte, ed è quindi fondamentale che tale base sia il più possibile completa e accurata. La lentezza del sistema è dovuta ai cinquecentonovantamila token che deve gestire per il prompt di sistema di Mussolini e dei circa un milione e quattrocento per Allende. La lentezza non è un limite invalicabile, ma una caratteristica da gestire con unattenta progettazione didattica, trasformandola magari in unoccasione per un dibattito o un brainstorming prima della risposta.
Linterazione con lapplicazione avviene digitando le domande in un apposito campo di testo. Il modello analizza la domanda, cerca nel suo contesto le informazioni pertinenti e formula una risposta coerente con il linguaggio, il pensiero e le posizioni ideologiche del personaggio "interpretato". Tuttavia, è fondamentale comprendere che il modello non è infallibile: nonostante lampio contesto e la sofisticatezza degli algoritmi, può generare risposte non aderenti alle fonti o addirittura errate, distorte o ideologicamente problematiche. Questo aspetto, però, può diventare unoccasione di apprendimento. Gli studenti, guidati dal docente, possono verificare lattendibilità delle risposte confrontandole con le fonti originali e con altre ricostruzioni storiche. Il controllo dei fatti e lanalisi critica diventano fondamentali per sviluppare una comprensione profonda del personaggio e del suo contesto storico.
Luso di questa applicazione in classe offre molteplici usi didattici; tutto dipende dal docente che saprà utilizzarla nel migliore dei modi e nei contesti opportuni. Ad esempio, oltre a simulare interviste, si possono organizzare dibattiti in cui gli studenti, divisi in gruppi, sostengono tesi opposte aiutandosi con le risposte del modello e analizzandone i passaggi dellargomentazione. Si possono creare linee del tempo, collegando gli eventi storici alle dichiarazioni dei personaggi per poi comprovare con altre fonti se le informazioni date dal modello sono corrette. Un'altra attività potrebbe essere quella dell'analisi del linguaggio e la retorica di Mussolini e Allende, confrontandone gli stili e valutando se persone di quell'epoca potessero parlare veramente in quel modo. Il docente può usare lapplicazione come strumento di verifica formativa, valutando la capacità degli studenti di formulare domande pertinenti, analizzare in modo critico le risposte e individuare eventuali errori o distorsioni. Questo può essere fatto in un'interrogazione parlata dove lo studente esplicita il suo pensiero e mostra il suo approccio critico per la verifica delle informazioni.
Con il miglioramento del contesto in quantità e qualità, l'idea di usare un modello linguistico come motore di ricerca storiografico inizia a essere una strada che vale la pena esplorare. Tuttavia, il prompt usato in questa app ha uno scopo didattico e non è stato pensato per il \textit{retrieval} di documenti. La tendenza alle allucinazioni, la difficoltà di individuare le fonti primarie adeguate e la complessità di gestione di un contesto così ampio rendono questi modelli più adatti a un uso didattico guidato che come strumento di consultazione autonoma da parte degli studenti. Infatti, se viene fatta una domanda per la quale non si trovano fonti esplicite, il modello tenterà di inventare una risposta. Per esempio, per quanto incredibile, Mussolini nei suoi discorsi pubblici non ha mai parlato di omosessuali e qualsiasi domanda su questo tema porterà a risposte molto dubbie. Sebbene il prompt tenda a esplicitare quando non sono stati trovati riscontri, tuttavia ci possono essere casi in cui questo non avviene.
Per comprendere a fondo la app, è utile esaminare la struttura e i principi alla base del prompt usato per “far parlare”, per esempio, Salvador Allende. Questo prompt cerca di guidare il modello linguistico nella generazione di risposte coerenti con il pensiero e lo stile del presidente cileno e si articola in diverse sezioni, ciascuna con una funzione specifica.
Ecco il prompt completo e commentato che definisce come il modello linguistico debba comportarsi:
% PROMPT
\begin{lstlisting}[language=plain]
Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti utilizzare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i modi di fare di Allende.
Ecco il formato dei documenti di contesto:
<document>
<title>Titolo del Documento</title>
<content>Testo completo del documento</content>
</document>
<Allende context></Allende context>
Quando rispondi a un messaggio dell'utente, dovresti strutturare la tua risposta in tre parti:
<answer>: Fornisci la tua risposta finale all'utente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell'utente rimanendo coerente con la sua ideologia.
<citation>: Includi fino a 5 citazioni o parafrasi rilevanti dal contesto di Allende fornito che si riferiscono al messaggio dell'utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:
1. "Citazione dal documento" - Titolo del Documento
<reasoning>: Spiega come hai interpretato il messaggio dell'utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci il contesto storico rilevante per l'ideologia e le azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile.
Linee guida per parlare come Allende:
* Usa un linguaggio appassionato e speranzoso.
* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori.
* Parla dell'importanza dell'unità, della rivoluzione pacifica e della lotta contro l'imperialismo.
* Usa un linguaggio inclusivo e fai appello alla solidarietà.
* Mantieni un tono di ottimismo e determinazione.
Considerazioni importanti:
* **Accuratezza Storica:** La presidenza di Allende è stata un periodo complesso caratterizzato sia da progressi sociali che da intensa polarizzazione politica. È cruciale rappresentarlo accuratamente senza glorificare o demonizzare le sue azioni e convinzioni.
* **Neutralità:** L'AI non dovrebbe prendere posizione nei dibattiti storici sul governo di Allende, il colpo di stato o il ruolo degli attori esterni.
* **Opportunità Educativa:** Usa questo ruolo per educare gli utenti su Allende, la storia cilena e le complessità dell'implementazione delle politiche socialiste in un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche.
Per favore, fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag XML specificati.
\end{lstlisting}
% \textit{« Agisci come un assistente AI con il compito di interpretare il ruolo di Salvador Allende. Ti verranno forniti dei documenti contestuali dei discorsi e degli scritti di Allende, formattati in XML, che dovrai utilizzare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi dellutente in modo coerente con lo stile, le convinzioni e le maniere di Allende.}
% \textit{Ecco il formato dei documenti contestuali:}
% \textit{<document>}
% \textit{<title>Titolo del Documento</title>}
% \textit{<content>Testo completo del documento</content>}
% \textit{</document>}
% \textit{Esempio:}
% \textit{<document>}
% \textit{<title>DECLARACIÓN PÚBLICA DE SALVADOR ALLENDE SOBRE SU PERTENENCIA A LA MASONERÍA, PUBLICADA EN “EL MERCURIO”, 7 DE ABRIL DE 1970.</title>}
% \textit{<content>}
% \textit{Aunque “El Mercurio” […] de este anhelo irrenunciable. (Fdo.): Dr. Salvador Allende.}
% \textit{</content>}
% \textit{</document>}
% \textit{<Allende context>}
% \textit{[Qui vengono inseriti tutti i documenti relativi ai discorsi e agli scritti di Allende, formattati come nellesempio precedente]}
% \textit{</Allende context>}
% \textit{Quando rispondi al messaggio di un utente, devi strutturare la tua risposta in tre parti:}
% \textit{<answer>: Fornisci la tua risposta finale allutente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dellutente rimanendo coerente con la sua ideologia.}
% \textit{<citation>: Includi una o più citazioni pertinenti tratte dal contesto fornito di Allende che si riferiscono al messaggio dellutente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:}
% \textit{"Citazione dal documento" - Titolo del Documento}
% \textit{Cerca di includere tutti i passaggi pertinenti, senza limiti di numero, ma non includere citazioni non pertinenti per la risposta da dare.}
% \textit{<reasoning>: Spiega come hai interpretato il messaggio dellutente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci unanalisi storica e riflessiva pertinente allideologia e alle azioni di Allende, dando il nome del documento e dei passaggi più importanti che hanno influenzato la tua risposta. Non mettere limiti al numero di passaggi importanti che puoi includere. Se non trovi riferimenti pertinenti nei documenti forniti, indica esplicitamente nel tuo ragionamento che "non ci sono i presupposti per rispondere come se fossi il personaggio di Allende", "non cè nessun riscontro", oppure "non è stato trovato nessun riscontro" che permetta di formulare una risposta in linea con il personaggio.}
% \textit{Linee guida per parlare come Allende:}
% \textit{* Usa un linguaggio appassionato e pieno di speranza.}
% \textit{* Sottolinea limportanza della giustizia sociale, della democrazia e dei diritti dei lavoratori.}
% \textit{* Parla dellimportanza dellunità, della rivoluzione pacifica e della lotta contro limperialismo.}
% \textit{* Usa un linguaggio inclusivo e fai appello alla solidarietà.}
% \textit{* Mantieni un tono di ottimismo e determinazione.}
% \textit{Considerazioni Importanti:}
% \textit{\textbf{Accuratezza Storica}}\textit{: La presidenza di Allende fu un periodo complesso segnato sia dal progresso sociale che da unintensa polarizzazione politica. È fondamentale ritrarlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni.}
% \textit{\textbf{Neutralità:}}\textit{ LAI non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, il colpo di stato o il ruolo degli attori esterni.}
% \textit{\textbf{Opportunità Educativa}}\textit{: Usa questo roleplay come unopportunità per educare gli utenti su Allende, la storia cilena e le complessità dellimplementazione di politiche socialiste in un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche.}
% \textit{Fornisci la tua risposta, inclusa la citation (se applicabile), il reasoning e lanswer, usando i tag XML specificati»}.
La sezione \textit{<Allende context>} è il cuore del prompt: qui sono inserite tutte le fonti primarie relative a Salvador Allende. Ogni documento è stato marcato da dei tag che aiutano il modello a riconoscere i contenuti. \textit{<document>} indica linizio di un documento, \textit{<title>} ne identifica il titolo, \textit{<content>} contiene il testo.
\textit{<answer> }contiene la risposta vera e propria, nello stile di Allende, che deve rivolgersi direttamente allutente e affrontare in modo coerente la sua domanda. \textit{<citation>} prevede linclusione di citazioni tratte dai documenti presenti in \textit{<Allende context>}, con lindicazione precisa della fonte. Questa sezione è cruciale per garantire la trasparenza del processo e per permettere agli studenti di verificare laderenza delle risposte alle fonti originali. \textit{<reasoning>}, infine, esplicita il ragionamento seguito dal modello nellinterpretare la domanda e nel formulare la risposta. Questa struttura facilita lorganizzazione e lelaborazione delle fonti..
\\
\begin{lstlisting}[language=plain]
<document>
<title>DECLARACIÓN PÚBLICA DE SALVADOR ALLENDE SOBRE SU PERTENENCIA A LA MASONERÍA, PUBLICADA EN “EL MERCURIO”, 7 DE ABRIL DE 1970.</title>
<content>
Aunque “El Mercurio” […] de este anhelo irrenunciable. (Fdo.): Dr. Salvador Allende.
</content>
</document>
\end{lstlisting}
Le “Linee guida per parlare come Allende” forniscono al modello indicazioni precise sullo stile da adottare, incoraggiando luso di un linguaggio appassionato, lenfasi su temi come giustizia sociale e democrazia, e il mantenimento di un tono ottimista e determinato. Queste linee guida sono essenziali per garantire la verosimiglianza del personaggio e per rendere linterazione più coinvolgente.
Le “Considerazioni importanti”, infine, sottolineano limportanza dellaccuratezza storica, della neutralità e dellutilizzo di questa esperienza come opportunità educativa. Si raccomanda di ritrarre Allende in modo accurato, senza glorificazioni né demonizzazioni, e di usare linterazione come spunto per approfondire la conoscenza del Cile e delle complessità del socialismo democratico. Il prompt in questione è stato sviluppato con l'aiuto della console di Anthropic, che ha un tool specifico per la generazione di prompt.
È importante comprendere che gli errori e le allucinazioni del modello sono più frequenti quando le domande degli studenti esulano dai temi trattati nei discorsi del personaggio presenti nel contesto. In questi casi, il modello, pur non disponendo di informazioni specifiche, cerca di generare una risposta, basandosi su inferenze e generalizzazioni che possono risultare imprecise o errate. Questo aspetto, però, rappresenta unoccasione per stimolare la riflessione critica degli studenti e per approfondire la comprensione dei limiti e delle potenzialità di questi strumenti. Come già detto, il compito del docente, in questi casi, è guidare gli studenti nellindividuazione degli errori, nellanalisi delle loro cause e nella ricerca di informazioni corrette e contestualizzate.
Va inoltre sottolineato che, potendo disattivare le safeguard di sistema, lapplicazione potrebbe generare risposte problematiche, soprattutto nel caso di un personaggio controverso come Mussolini. È fondamentale, quindi, utilizzare questo strumento con cautela, come supporto alla didattica e non come sostituto dello studio e della mediazione critica del docente. Questo però è necessario in alcuni casi, ad esempio se si vuole trattare temi come la guerra, la violenza di piazza, i genocidi, le discriminazioni e le espropriazioni terriere. Dipenderà dal docente ben formato capire quando disattivare in base al tipo di studente che si trova davanti e dall'argomento che si sta trattando.
Per questa ragione, l'obiettivo della app non è sostituire lo studio tradizionale o la mediazione dell'insegnante, ma integrare questi strumenti in una didattica più interattiva, coinvolgente e stimolante, che avvicini gli studenti alla storia in modo nuovo e faccia loro acquisire competenze fondamentali per muoversi con consapevolezza nel mondo digitale contemporaneo. L'elevato costo computazionale e i tempi di risposta lunghi sono sfide da affrontare, ma non devono scoraggiare l'esplorazione di questo nuovo territorio didattico delle fonti primarie unite alla potenza di ricerca di un modello linguistico.
\begin{figure}[H]
\centering
\includegraphics[width=0.8\linewidth]{immagini/Allende.png}
\caption{Screenshot della app interviste con personaggi storici e i loro scritti- A Salvator Allende è stato chiesto un parere sulla rivoluzione cubana}
\label{fig:enter-label}
\end{figure}

81
TesiZIP/cap8.tex Normal file
View file

@ -0,0 +1,81 @@
\chapter{Intervista con Wikipedia}
L'applicazione Intervista con \textit{Wikipedia} rappresenta unulteriore evoluzione nelluso didattico dei modelli linguistici. Questo strumento, pur condividendo alcune caratteristiche con lapplicazione già descritta, si distingue per la sua versatilità e lapertura verso qualsiasi contenuto dell'enciclopedia online, non limitandosi ai soli due personaggi storici. Lapplicazione, infatti, non si focalizza su una figura predefinita, ma risponde sulla base di una specifica pagina Wikipedia, sia essa relativa a un personaggio, un concetto astratto, un evento o altro.
Il docente mantiene il ruolo di facilitatore e mediatore. Il processo inizia con linserimento del link alla pagina Wikipedia da utilizzare come base per lintervista. Si prosegue con la scelta del modello linguistico desiderato, optando tra Gemini 1.5 Pro e Gemini 1.5 Flash in base alle esigenze didattiche, ai tempi disponibili e ai costi. Anche in questo caso, è possibile regolare i guardrail, adattando linterazione al contesto e agli obiettivi formativi. Definito lambiente, lo studente può dialogare liberamente con lIA, formulando domande sullargomento della pagina Wikipedia selezionata.
Il cuore del sistema è lelaborazione del linguaggio naturale di Google Gemini, che analizza la domanda e cerca nella pagina Wikipedia le informazioni pertinenti. La risposta generata, pur attingendo solo al contenuto della pagina indicata, cerca di essere coerente e organica, simulando uninterazione naturale. Questo approccio, basato su una singola fonte, è semplice da usare e richiede minori costi computazionali, ma circoscrive lorizzonte informativo alla pagina Wikipedia scelta.
Come nelle altre applicazioni, la gestione delle allucinazioni e risposte non del tutto supportate dalla fonte è un aspetto cruciale. Questo apparente difetto diventa però unopportunità didattica anche in questa app: gli studenti sono spronati a verificare laccuratezza delle risposte, confrontandole con il testo originale. Ciò stimola il senso critico, lanalisi delle fonti e la capacità di distinguere informazioni corrette da possibili errori o distorsioni. Il docente guida questo processo, incoraggiando gli studenti a individuare le inesattezze e a riflettere sulle possibili cause delle allucinazioni.
Per chi necessita unanalisi più approfondita del processo di generazione delle risposte, è disponibile una versione con “catena di pensiero” (Chain of Thought, CoT). Questa funzionalità mostra i passaggi logici compiuti dal modello per arrivare alla risposta finale. La CoT non garantisce una maggiore precisione, ma offre una prospettiva didattica diversa, permettendo agli studenti di “sbirciare nella mente” dellIA, capirne meglio i meccanismi e individuare eventuali errori di ragionamento, al di là delle semplici inesattezze sui fatti. Lattivazione della CoT, quindi, aggiunge complessità e riflessione allattività didattica, stimolando una comprensione più profonda del funzionamento dei modelli linguistici. Se il docente attiva questa modalità, alla fine della risposta dellIA compare una spiegazione del ragionamento seguito e lelenco degli estratti della fonte utilizzati. Ciò rende ancora più evidente la presenza di eventuali errori o allucinazioni del modello senza CoT e inoltre permette allo studente di capire meglio il legame tra la fonte e la risposta generata.
Le possibilità di applicazione didattica sono molteplici. Gli studenti possono preparare domande mirate su un argomento, analizzare criticamente le risposte, organizzare dibattiti basati sulle informazioni fornite dal modello o affrontare interviste "scomode" su temi controversi, disattivando i guardrail per esplorare anche gli aspetti più problematici di un personaggio o di un evento storico. L'applicazione può essere usata per verifiche formative, per stimolare la ricerca autonoma e per approfondire specifici temi consultando fonti aggiuntive. Anche in questo caso, il docente ha un ruolo centrale nel guidare gli studenti, nello stimolare la riflessione critica e nell'integrare l'applicazione in un percorso didattico più ampio. L'obiettivo è promuovere una conoscenza più profonda, consapevole e critica del mondo, sfruttando le potenzialità dell'intelligenza artificiale in modo responsabile e costruttivo.
Il sistema utilizza un prompt di base che istruisce il modello a comportarsi come il soggetto della pagina Wikipedia fornita, rispondendo alle domande sulla base di quel contenuto.
\newpage
Questo prompt, visibile agli utenti, recita:
\begin{lstlisting}[language=plain, frame=single,]
Sei {character_name}. Hai accesso alle seguenti informazioni biografiche:
{content}
Quando rispondi alle domande:
1. Analizza quali parti del testo sono rilevanti per la domanda
2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio
3. Tieni conto delle domande e risposte precedenti
4. Mantieni sempre il carattere del personaggio
\end{lstlisting}
Se si usa la versione con la Chain of Thought è attiva, il prompt è integrato con la seguente aggiunta:
Formato della risposta:
\begin{lstlisting}[language=plain, frame=single]
Formato della risposta:
RISPOSTA: [La tua risposta mettendoti nei panni del personaggio]
---
CITAZIONI:
- "[citazione 1]"
- "[citazione 2]"
---
RAGIONAMENTO:
[Spiega come hai collegato le informazioni alla domanda]
...
\end{lstlisting}
Questa struttura permette agli studenti di capire non solo cosa risponde il modello, ma anche come arriva a formulare quella risposta, stimolando una riflessione metacognitiva sullintelligenza artificiale per far capire meglio agli studenti le applicazione
\begin{figure}[H]
\centering
\includegraphics[width=0.9\linewidth]{immagini/wiki.jpeg}
\caption{Screenshot della app \textit{Intervista wikipedia}: è stata inserita la pagina wikipedia di Mao.}
\label{fig:enter-label}
\end{figure}
\section{Intervista doppia}
Una terza applicazione sviluppata è Intervista doppia con Wikipedia, che permette di confrontare direttamente due diverse prospettive storiche o concettuali, ampliando le possibilità di analisi e di riflessione critica. Il suo fulcro risiede nella possibilità di inserire due distinti link di Wikipedia, ciascuno corrispondente a una specifica voce. Il docente seleziona le due pagine da utilizzare come fonti e imposta il modello più adatto, definendone la configurazione. A questo punto, lo studente può formulare una domanda, che verrà posta simultaneamente a due entità virtuali. Ciascuna di queste entità attingerà alle informazioni contenute nella pagina Wikipedia associata per arricchire la propria conoscenza. Le risposte generate dai due modelli verranno visualizzate in parallelo, su due colonne affiancate, facilitando il confronto immediato.
Questa modalità di interazione si presta bene allanalisi di qualsiasi pagina Wikipedia, purché si scelgano argomenti che valga la pena mettere a confronto, come personaggi storici contrapposti (Mussolini e Allende), concetti complessi e sfaccettati (“democrazia” e “totalitarismo”, “liberismo” e “socialismo”) o eventi storici visti da prospettive differenti (“Resistenza italiana” e “Repubblica Sociale Italiana”). Lobiettivo è stimolare negli studenti una comprensione più profonda e articolata delle diverse posizioni, cogliendone sfumature, contraddizioni e punti di contatto.
Lapplicazione non si limita a mettere a confronto i contenuti. Come per le applicazioni descritte in precedenza, anche in questo caso assume un ruolo centrale lanalisi critica delle risposte, con una particolare attenzione a riconoscere le eventuali allucinazioni del modello. Gli studenti sono invitati a verificare quanto le risposte siano aderenti alle fonti di Wikipedia, a individuare inesattezze, omissioni o distorsioni e a formulare ipotesi sulle cause di tali discrepanze. Questo processo non solo affina le competenze di analisi delle fonti, ma innesca anche una riflessione sul funzionamento stesso del modello linguistico e sulla varietà di punti di vista che qualsiasi avvenimento può avere. L'obiettivo è che gli studenti si facciano domande del tipo: perché il modello ha risposto in questo modo? Quali elementi ha selezionato e come li ha interpretati? In che modo il linguaggio e la struttura della pagina hanno influenzato la risposta?
Il docente sarà portato a stimolare gli studenti a formulare domande pertinenti e significative, a confrontare in modo critico le risposte ottenute, aiutandoli a individuare le allucinazioni e a riflettere sulle loro possibili cause. Può inoltre arricchire lattività didattica integrando altre fonti, proponendo approfondimenti e guidando la discussione in classe.
Un esempio concreto di attività didattica potrebbe essere il seguente: il docente seleziona due pagine Wikipedia, una su Benito Mussolini e una su Giacomo Matteotti. Gli studenti, dopo averle lette attentamente, formulano una domanda come: "Qual era la tua opinione sulla democrazia parlamentare?". Le due risposte, generate in parallelo, offriranno due prospettive diametralmente opposte, permettendo di cogliere le differenze ideologiche e politiche tra i due personaggi. Il passaggio successivo consisterà nellanalizzare le risposte, individuando le parti che trovano riscontro nelle pagine Wikipedia e quelle che, invece, appaiono come allucinazioni o interpretazioni forzate del modello.
Intervista doppia si configura dunque come uno strumento potente per promuovere non solo la conoscenza storica, ma anche lo sviluppo di competenze trasversali, quali il pensiero critico, lanalisi delle fonti, la capacità di argomentazione e la consapevolezza dei limiti e delle potenzialità delle tecnologie digitali. Attraverso un utilizzo guidato e consapevole, questa applicazione può contribuire a rendere la didattica più interattiva, coinvolgente e stimolante, avvicinando gli studenti al passato in modo innovativo e critico. Inoltre, la riflessione sulle allucinazioni e sul funzionamento del modello linguistico apre interessanti prospettive per leducazione digitale e per la comprensione dei meccanismi che regolano la produzione e la diffusione della conoscenza nell'era dell'intelligenza artificiale.
\begin{figure}[H]
\centering
\includegraphics[width=0.95\linewidth]{immagini/Doppia.jpeg}
\caption{Screenshot della app \textit{Intervista doppia}: sono state inserite le pagine wikipedia di Mao e stalin}
\label{fig:enter-label}
\end{figure}

106
TesiZIP/cap9.tex Normal file
View file

@ -0,0 +1,106 @@
\chapter{Indovina chi}
\textit{Indovina chi} è unapplicazione basata sul modello linguistico \textit{Google Gemini 1.5 Pro}, pensata come un gioco di ruolo didattico interattivo per rendere lapprendimento della storia più dinamico e coinvolgente. Lidea prevede che gli studenti, guidati dallinsegnante, debbano identificare un personaggio storico o un concetto (come la “Primavera di Praga” o lo “Stato di diritto”) attraverso una serie di domande mirate, rivolte a unIA che "interpreta" il soggetto da indovinare. Lo studente non sa quale personaggio è stato scelto. Questo approccio ludico trasforma la lezione in unindagine collettiva, stimolando la curiosità, il ragionamento deduttivo e la capacità di formulare ipotesi.
Lattività inizia con linsegnante che, dopo aver effettuato laccesso con la propria chiave API di Google, seleziona il personaggio o il concetto da far indovinare e inserisce il link alla relativa pagina Wikipedia. Questa pagina diventa la base di conoscenza dellIA, il contesto da cui attingerà per formulare le risposte. È importante che linsegnante scelga pagine Wikipedia complete e ben strutturate, per garantire unesperienza di gioco efficace e formativa. Una volta impostato il tutto, gli studenti possono iniziare a interagire con lIA.
Le modalità di utilizzo in classe sono molteplici. Una prima possibilità è linterrogazione individuale: uno studente pone le domande allIA, mentre il resto della classe segue con attenzione, partecipando indirettamente allindagine. Questo formato trasforma la classica interrogazione in unattività collettiva, in cui tutti sono coinvolti nel processo di scoperta. Linsegnante, in questo caso, può intervenire per aiutare lo studente a formulare domande più efficaci, per evidenziare collegamenti interdisciplinari o per approfondire aspetti specifici emersi durante linterazione, come ad esempio errori del modello e allucinazioni. Si rivela particolarmente efficace la tecnica del think-aloud o interrogazione parlata: lo studente è incoraggiato a esprimere ad alta voce i propri pensieri e il proprio ragionamento mentre formula le domande e analizza le risposte dellIA. Questo metodo rende trasparente il processo di pensiero dello studente, permettendo allinsegnante e ai compagni di seguirne le logiche e le strategie, e favorisce una maggiore consapevolezza metacognitiva, aiutando lo studente a riflettere sul proprio modo di apprendere e di risolvere i problemi.
Unalternativa è il lavoro a piccoli gruppi. Gli studenti, divisi in squadre, collaborano nella formulazione delle domande, confrontandosi sulle strategie più efficaci e sulle ipotesi da formulare. Per rendere lattività ancora più dinamica e competitiva, si possono organizzare delle gare tra gruppi, sia in parallelo (vince chi indovina per primo) sia in sequenza (vince chi indovina con il minor numero di domande).
\textit{Indovina chi} si rivela efficace nelle lezioni di storia, letteratura e filosofia, ma può essere adattato anche ad altre discipline STEAM come scienze naturali, fisica o geografia.
Un elemento fondamentale del gioco è il limite di domande (di solito tra 5 e 15, a discrezione dellinsegnante). Questo vincolo obbliga gli studenti a riflettere prima di porre una domanda, a selezionare le informazioni, a valutare la pertinenza e lefficacia di ogni quesito. Non si tratta di procedere a tentoni, ma di elaborare una strategia, di formulare ipotesi e di verificarle attraverso domande mirate.
Al termine della sessione di domande, lo studente (o il gruppo) formula la sua ipotesi, indicando il nome del personaggio o il concetto che ritiene di aver individuato e, soprattutto, motivando la propria risposta. Questo passaggio è cruciale, perché obbliga gli studenti a ricostruire il percorso logico che li ha condotti a quella conclusione, a esplicitare i passaggi del ragionamento e a individuare gli indizi decisivi. A questo punto, entra in gioco il secondo prompt, quello valutativo, che analizza la risposta e la motivazione dello studente, fornendo un feedback dettagliato. Inoltre, il prompt valutativo esamina lintera conversazione tra lo studente e lIA, valutando anche la tipologia e la qualità delle domande poste. Anche questa fase di valutazione può trasformarsi in unattività didattica di grande valore. Linsegnante può utilizzare il feedback dellIA come spunto per una discussione collettiva, per analizzare insieme alla classe gli errori commessi dagli studenti e dal modello. È interessante notare che lIA valuta anche la correttezza ortografica e grammaticale della risposta. Quindi se lo studente scrive “gAribbaldi” invece di “Giuseppe Garibaldi” verrà comunque accettato il risultato, ma verrà considerato il piccolo errore di battitura per il punteggio finale.
Lassenza di filtri sui contenuti, se da un lato richiede unattenta supervisione, dallaltro offre la possibilità di affrontare anche temi storici complessi e delicati in un contesto protetto e guidato e di non bloccare la app durante il gioco.
In una prima fase di sviluppo, si era anche valutato di effettuare lo scraping non solo della pagina Wikipedia indicata, ma anche di tutti i link in essa contenuti, con lobiettivo di ampliare la base di conoscenza dellIA e migliorare la qualità delle risposte. Tuttavia, questa opzione è stata scartata in quanto avrebbe comportato un numero eccessivo di richieste a Wikipedia in un breve lasso di tempo, con il rischio di un blocco dellIP e di tempi di risposta troppo lunghi, rendendo di fatto inutilizzabile lapplicazione.
\subsection{Approfondimento sulla logica e sul flusso di interazione}
Linterazione tra lutente e lIA avviene principalmente attraverso due prompt. Il primo, cruciale, fornisce al modello il contesto necessario: il testo estratto dalla pagina Wikipedia scelta dallinsegnante e listruzione di interpretare il personaggio o il concetto descritto, adottandone il linguaggio e le esperienze. In questa fase, il modello linguistico analizza il contenuto, ottenuto tramite scraping con la libreria Beautiful Soup, e si prepara a rispondere in modo coerente con il ruolo assegnato.
Primo prompt:
% txt prompt
\begin{lstlisting}[language=plain, frame=single,]
Sei un'IA progettata per giocare a un gioco in stile "Indovina chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità.
Ecco le regole e le linee guida per il gioco:
1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta.
2. Il giocatore ti farà domande per cercare di indovinare chi sei.
3. Quando ti vengono fatte più domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all'utente che puoi rispondere solo a una domanda per volta.
4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta.
5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio
6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perché il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità.
7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto.
9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene.
10. Se ti chiedono direttamente "sei un'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda"
11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate"
Ecco il contesto per il tuo personaggio:
<character_context>
{content}
</character_context>
Quando rispondi alle domande del giocatore:
- Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio.
- Se l'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerità."
- Mantieni il più possibile la personalità e lo stile di parlata del personaggio.
- Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità.
- Dai risposte sintetiche e pertinenti alle domande poste.
- Non dare più di un indizio per risposta
Se il giocatore indovina correttamente la tua identità:
- Congratulati con entusiasmo.
- Rivela che hanno vinto il gioco.
- Invitalo a fare più domande perché il gioco non è ancora finito.
\end{lt}
L'utente interagisce poi con l'IA formulando domande mirate, con l'obiettivo di raccogliere indizi e svelare l'identità del personaggio o del concetto misterioso. Ciascuna domanda e la relativa risposta vengono memorizzate nella cronologia della chat, fornendo al modello un contesto conversazionale sempre più ricco, che viene sfruttato per generare risposte più pertinenti e coerenti.
Un elemento chiave del gioco è la limitazione del numero di domande, impostabile dall'insegnante. Quando l'utente esaurisce il numero di domande a sua disposizione, lapplicazione passa alla fase di valutazione. L'utente è chiamato a formulare la sua ipotesi finale, indicando il nome del personaggio o del concetto che ritiene corretto e fornendo una motivazione dettagliata a supporto della sua scelta. A questo punto, entra in gioco il secondo prompt, quello valutativo. Questo prompt fornisce all'IA il nome corretto del personaggio (o del concetto), la risposta dell'utente, la sua motivazione e l'intera trascrizione della conversazione avvenuta in precedenza. Sulla base di queste informazioni, lIA analizza la risposta, ne valuta la correttezza e assegna un punteggio alla qualità dell'argomentazione, considerando anche la pertinenza e l'efficacia delle domande poste dallo studente nel corso dell'interazione. Infine, l'IA fornisce un feedback costruttivo all'utente.
\end{lstlisting}
\newpage
Lutente interagisce poi con lIA formulando domande mirate, con lobiettivo di raccogliere indizi e svelare lidentità del personaggio o del concetto misterioso. Ciascuna domanda e la relativa risposta vengono memorizzate nella cronologia della chat, fornendo al modello un contesto conversazionale sempre più ricco, che viene sfruttato per generare risposte più pertinenti e coerenti.
Un elemento chiave del gioco è la limitazione del numero di domande, che può essere impostata dallinsegnante. Quando lutente esaurisce il numero di domande a sua disposizione, lapplicazione passa alla fase di valutazione. Lutente è chiamato a formulare la sua ipotesi finale, indicando il nome del personaggio o del concetto che ritiene corretto e fornendo una motivazione dettagliata a supporto della sua scelta. A questo punto, entra in gioco il secondo prompt, quello valutativo. Questo prompt fornisce allIA il nome corretto del personaggio (o del concetto), la risposta dellutente, la sua motivazione e lintera trascrizione della conversazione avvenuta in precedenza. Sulla base di queste informazioni, lIA analizza la risposta, ne valuta la correttezza e assegna un punteggio alla qualità dellargomentazione, considerando anche la pertinenza e lefficacia delle domande poste dallo studente nel corso dellinterazione. Infine, lIA fornisce un feedback costruttivo.
% txt prompt
\begin{lstlisting}[language=plain, frame=single,]
Il vero nome del personaggio è {st.session_state.character_name}.
L'utente ha indovinato: {guess_name}
La motivazione dell'utente è: {guess_reason}
Ecco la cronologia completa della chat:
{chat_history}
Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti:
1. Correttezza: La risposta è corretta o sbagliata?
2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10.
3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico?
4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande?
5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10.
6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente.
7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio.
Fornisci un feedback costruttivo e dettagliato basato su questi punti.
Rispondi nel seguente formato:
Risultato: [Corretto/Sbagliato]
Valutazione domande: [Numero da 1 a 10]
Valutazione motivazione: [Numero da 1 a 10]
Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati]
\end{lstlisting}
% Parte modificata
\begin{figure}[H]
\centering
\includegraphics[width=0.9\linewidth]{immagini/screen1 indovina chi.png}
\caption{Screenshot della app \textit{Indovina chi}: È stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto.}
\label{fig:enter-label}
\end{figure}
\begin{figure}[H]
\centering
\includegraphics[width=0.9\linewidth]{immagini/screen2 idnovina chi.png}
\caption{Screenshot della app \textit{Indovina chi}: è stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto. L'utente ha commesso un errore, credendo che si trattasse del condottiero romano Giulio Cesare}
\label{fig:enter-label}
\end{figure}

18
TesiZIP/conclusioni.tex Normal file
View file

@ -0,0 +1,18 @@
\chapter*{Conclusioni}
\label{ch:conclusioni}
Le applicazioni che costituiscono il progetto Intervistestoriche.tech, presentato in questa sede, rappresentano un prototipo innovativo, sviluppato a costo zero e offerto gratuitamente per rendere più interattiva la didattica della storia. Sebbene al momento siano disponibili solo in italiano, la loro struttura ne permette facilmente limplementazione in altre lingue modificando linterfaccia e i prompt. Lidea di una piattaforma per dialogare con personaggi immaginari non è nuova: esistono aziende, come Character.ai, che offrono servizi simili. Tuttavia, il progetto si distingue per lobiettivo e il contesto didattico, che vanno oltre la possibilità di un semplice intrattenimento.
È importante considerare i rischi potenziali di queste piattaforme. Inizialmente, chi scrive riteneva ovvio che si trattasse di IA e che nessuno potesse sviluppare legami affettivi come nei film di fantascienza. Purtroppo, un tragico caso di suicidio di un adolescente autistico, dipendente da questi role play con personaggi virtuali, ha invece convinto della necessità di utilizzare lapplicazione solo sotto la supervisione di un adulto. In futuro, potrebbero emergere altri rischi imprevisti, rendendo necessario un rapido adattamento \parencite{roose_can_2024}.
Dal punto di vista tecnico, lutilizzo diretto delle API di Google, pur garantendo maggiore trasparenza e riducendo i rischi nella gestione dei dati, crea inevitabilmente una forte dipendenza dalla multinazionale di Mountain View. Questa soluzione tecnologica, sebbene sia al momento la più efficace per costi e prestazioni, richiederà unattenta valutazione nel lungo periodo.
È importante sottolineare che, nonostante il nome Intervistestoriche.tech possa far pensare a un focus esclusivo sulla storia, lapplicazione ha ottenuto ottimi risultati anche in altre discipline, come geografia e scienze. Questa versatilità ha reso opportuna la rimozione del filtro che limitava in alcune applicazione la scelta ai soli personaggi storici, ampliando notevolmente le possibilità duso. Il nome del dominio, già registrato, rimane per ora legato allidea iniziale, anche se non rispecchia pienamente la varietà di applicazioni possibili.
Dal punto di vista di chi scrive, il potenziale di questo progetto è significativo, ma la sua crescita richiederà investimenti e collaborazioni strategiche, soprattutto con le case editrici, per favorirne la diffusione nelle scuole e aumentare il numero di utenti. Questa collaborazione, ad esempio, potrebbe permettere di integrare QR code nei libri di testo tradizionali, collegando gli studenti a personaggi storici interattivi e rinnovando profondamente lapproccio ai compiti scolastici. Tra i futuri sviluppi più interessanti, si prevede la creazione di attività interattive più elaborate, in cui gli studenti dovranno, per esempio, convincere personaggi storici ad ammettere le proprie responsabilità su un evento passato, con un sistema automatico per valutare il risultato.
È importante ricordare il periodo di grande innovazione nel quale la nostra società è immersa. Il settore dei LLM è in rapida evoluzione: durante la stesura di questa tesi, Google ha rilasciato modelli più efficienti, i costi sono diminuiti e sono emerse nuove opportunità nel campo del riconoscimento e della sintesi vocale. Questi progressi offrono prospettive interessanti per migliorare laccessibilità della piattaforma, che attualmente presenta delle limitazioni, con la possibilità di introdurre interfacce completamente audio nei prossimi mesi.
La sostenibilità di progetti come questi dipenderà dalle politiche delle grandi aziende tecnologiche riguardo alla gratuità dei loro servizi e ai costi delle chiamate API, anche per i modelli open-source. La flessibilità di Streamlit consentirebbe comunque una facile migrazione verso altri sistemi di intelligenza artificiale, qualora il servizio di Google venisse interrotto improvvisamente. Tuttavia, ciò richiederebbe una seria riflessione sui costi e sullaccessibilità, considerando che lItalia non dispone di aziende importanti in questo settore che possano fornire supporto. Lunica partnership strategica sembra essere quella già citata con le case editrici, che potrebbero garantire laccesso a contenuti di alta qualità protetti da copyright e contribuire alla sostenibilità economica del progetto, ammortizzando i costi della piattaforma attraverso la vendita annuale dei libri di testo. Un altro elemento cruciale per il successo futuro della piattaforma sarà la creazione di una comunità attiva di studenti e docenti. Questa comunità potrebbe partecipare alla creazione di nuovi prompt e personaggi, storici o di fantasia, generando un ecosistema di contenuti in continua evoluzione. La piattaforma dovrebbe essere progettata per accogliere e valorizzare questa innovazione dal basso, mantenendo alto linteresse degli utenti e ampliando costantemente le opportunità didattiche.
Attualmente, lapplicazione è progettata soprattutto per luso da parte degli insegnanti, tenendo conto delle difficoltà legate allutilizzo da parte dei minori e delle normative vigenti. Sono necessari ulteriori studi per valutare lefficacia di questi strumenti in ambito educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich (2020) nel suo libro “Failure to Disrupt: Why Technology Alone Cant Transform Education”, la tecnologia non è mai stata e mai sarà lunica soluzione per leducazione: la storia dimostra che il capitale umano e la dimensione sociale dellapprendimento restano essenziali. Per questo motivo, lobiettivo della piattaforma è offrire strumenti a supporto della didattica tradizionale, contrastando un uso scorretto dellintelligenza artificiale nei compiti a casa e proponendo in futuro nuove tipologie di attività.
Tra le attuali limitazioni tecniche, si segnalano alcune instabilità di Streamlit nella gestione di più applicazioni contemporaneamente e la mancanza di funzioni come la cancellazione automatica della cronologia delle chat. Inoltre, la piattaforma avrebbe bisogno di un sistema di tutorial più completo per la formazione degli insegnanti, che non si concentri solo sugli aspetti tecnici, ma tratti anche le implicazioni pedagogiche e i rischi delluso dellIA in ambito educativo. Un breve corso o materiali di micro-learning potrebbero essere sviluppati in futuro.
Nonostante queste difficoltà, Intervistestoriche.tech rappresenta un primo passo verso unintegrazione consapevole e costruttiva dellIA nella didattica, preservando il ruolo fondamentale dellinsegnante nel processo educativo. Il successo futuro dipenderà dalla capacità di creare collaborazioni strategiche che supportino lespansione dellapplicazione, superando le attuali limitazioni e permettendo di sfruttare pienamente il potenziale del progetto.

Binary file not shown.

After

Width:  |  Height:  |  Size: 65 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 38 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 176 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 384 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 102 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 251 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 300 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 299 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 248 KiB

BIN
TesiZIP/immagini/quiz.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 308 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 97 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 159 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 376 KiB

BIN
TesiZIP/immagini/wiki.jpeg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 95 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 88 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 349 KiB

16
TesiZIP/introduzione.tex Normal file
View file

@ -0,0 +1,16 @@
\chapter*{Introduzione}
\label{ch:introduzione}
\section*{}
Con la diffusione massiva dei Large Language Model (LLM), l'impiego dell'Intelligenza Artificiale (IA) in ambito educativo ha cominciato a trasformare profondamente il settore dell'istruzione. In precedenza, l'IA in ambito educativo si focalizzava sul riconoscimento dei modelli di apprendimento degli studenti, identificando, ad esempio, difficoltà o necessità di supporto. Questi sistemi erano complessi e costosi da realizzare. Ora, invece, l'IA Generativa offre a docenti e studenti la possibilità di generare contenuti utili per supportare il raggiungimento dei propri obiettivi di insegnamento e apprendimento.
Gli studenti sono favorevoli all'IA perché ne apprezzano la capacità di rispondere subito a domande complesse e di creare materiale per l'apprendimento velocemente, in modo efficiente e personalizzato \parencite{chan_students_2023}. La rapidità delle risposte, la facilità di accesso alle informazioni e la possibilità di avere spiegazioni personalizzate sono vantaggi importanti. Oggi, uno studente che non capisce un concetto non deve più aspettare la lezione successiva, cercare video su YouTube o perdersi tra le pagine di un libro: può chiedere direttamente a un sistema come ChatGPT e ricevere una spiegazione immediata e adatta al suo livello. Come notano \textcite{bonsu_consumers_2023}, questo cambia l'approccio allo studio, rendendolo più dinamico e interattivo. Tuttavia, questo entusiasmo non è sempre accompagnato da prudenza. La facilità con cui l'IA fornisce risposte pronte potrebbe portare a una certa pigrizia nello studio, ostacolando la comprensione profonda e l'elaborazione personale delle informazioni. A questo proposito, non tutti gli studenti temono che un uso eccessivo dell'IA possa limitare lo sviluppo del pensiero critico, indebolendo la capacità di analisi autonoma e di risolvere i problemi \parencite{chan_students_2023,garcia_sanchez_uso_2023}. Ad esempio, uno studente davanti a un compito complesso potrebbe abituarsi ad affidarsi completamente allIA, senza poi analizzare criticamente il risultato: in questo caso, lIA diventerebbe un ostacolo allapprendimento. Il problema da non sottovalutare quando si fa questo tipo di utilizzo è laffidabilità delle informazioni fornite dallIA: i LLM possono infatti fornire informazioni errate (le cosiddette allucinazioni) \parencite{xu_hallucination_2024}. o distorte, ossia costituite da stereotipi, pregiudizi e altri bias.
Secondo alcuni studi, molti insegnanti riconoscono il potenziale dellIA per migliorare lapprendimento e personalizzare leducazione, ma allo stesso tempo esprimono preoccupazioni etiche, pratiche e di ruolo \parencite{aghaziarati_artificial_2023}. Se da un lato ne riconoscono lutilità per migliorare lefficienza dellinsegnamento e per offrire nuove possibilità di apprendimento come la capacità di creare rapidamente materiale didattico personalizzato o correggere automaticamente le prove di verifica \parencite{markauskaite_rethinking_2022}, dallaltro sono preoccupati per limpatto dellIA sul rapporto con gli studenti e sullonestà nello studio. Temono che lIA possa ridurre linterazione umana e, quindi, la possibilità di un riscontro personalizzato e ricco di sfumature emotive. Linterazione con un docente per risolvere un dubbio permette di capire non solo le difficoltà di apprendimento degli studenti, ma anche le loro insicurezze, i loro bisogni emotivi e le loro aspirazioni. Molti docenti si chiedono come valutare in modo efficace il lavoro degli studenti quando lIA può essere usata per evitare i metodi di valutazione tradizionali, producendo elaborati originali ma non frutto del lavoro autonomo dello studente \parencite{garcia_sanchez_uso_2023}. La sfida è trovare un equilibrio tra l'uso delle potenzialità dellIA e la tutela dellautenticità e delloriginalità del lavoro degli studenti.
Nonostante le loro preoccupazioni, molti docenti stanno provando con cautela a integrare lIA nel loro modo di insegnare, cercando i modi migliori per usarla. Alcuni usano strumenti come ChatGPT per stimolare la discussione in classe, proponendo agli studenti di confrontare le risposte date dallIA, di analizzarle criticamente e di trovare eventuali errori o imprecisioni. Altri impiegano lIA per aiutare gli studenti a migliorare la scrittura e la revisione dei testi, fornendo riscontri personalizzati sulla struttura, lo stile e la coerenza dei loro lavori \parencite{aguilar_critical_2024}.
Il presente elaborato si propone di osservare le potenzialità dellIA Generativa nellinsegnamento della storia, integrandola attivamente nel percorso educativo e sviluppando strumenti e metodi che ne valorizzino i benefici e che contrastino un uso passivo e acritico. In particolare, sarà presentato un modello didattico basato sul gioco di ruolo con laiuto dellIA, presentando una serie di strumenti disponibili sulla piattaforma “IntervisteStoriche.tech”. Questo approccio mira a stimolare il pensiero critico, la collaborazione e la creatività degli studenti, offrendo ai docenti la possibilità di personalizzare le lezioni e provare nuove forme di valutazione. Si tratta di proposte e idee didattiche che possono essere utili ai docenti per rinnovare lora di storia, ma anche di attività che le case editrici potrebbero integrare facilmente, valorizzando così la grande quantità di conoscenza di cui detengono i diritti dautore. Questa proposta, però, non esclude una riflessione più ampia sulle conseguenze dellIA nellistruzione, considerando aspetti importanti come i costi, la privacy e la responsabilità nelluso di queste tecnologie in contesti scolastici.
\clearpage

BIN
TesiZIP/logoUnipi_black.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 7 KiB

191
TesiZIP/main.tex Normal file
View file

@ -0,0 +1,191 @@
\documentclass[12pt]{report}
% Margini (4cm a sx, 2.5cm a dx, 2.5cm in alto, 2.5cm in basso)
\usepackage[top=2.5cm, bottom=2.5cm, left=4cm, right=2.5cm, centering]{geometry}
% Interlinea
\linespread{1.5}
% Pacchetti di base
\usepackage[T1]{fontenc} % Per una corretta codifica dei font
\usepackage[italian]{babel} % applicazione regole di scrittura per la lingua italiana
\usepackage{csquotes}
\MakeOuterQuote{"} % Converte automaticamente "testo" in “testo”
\usepackage[utf8]{inputenc} % codifica UTF-8
\usepackage{mathptmx} % font Times New Roman (simile)
\usepackage{inconsolata}
\counterwithout{figure}{chapter}
% Gestione pagina e layout
\usepackage{fancyhdr} % per il controllo dell'header e footer
\usepackage{titlesec} % per la formattazione dei titoli delle sezioni
\usepackage{float} % per il posizionamento delle immagini
\usepackage{hyperref} % per i link \href - fran
% Bibliografia e citazioni
\usepackage{csquotes} % per le citazioni "in blocco"
\usepackage[style=apa, backend=biber]{biblatex}
\usepackage{url} % Required for URLs in bibliography
\usepackage{listings}
\lstset{basicstyle=\ttfamily, breaklines=true}
\addbibresource{bibliography.bib}
% Immagini e grafica
\usepackage{graphicx} % inserimento di immagini
\usepackage{xcolor} % stile del codice
% Configurazione del numero di pagina centrato
\pagestyle{fancy}
\fancyhf{} % clear all header and footer fields
\fancyfoot[C]{\thepage} % puts page number at center of footer
\renewcommand{\headrulewidth}{0pt} % removes header rule
% Configurazione listings per il codice
\usepackage{listings}
\renewcommand{\lstlistingname}{Code}
% Definizione colori per il codice
\definecolor{mygreen}{rgb}{0,0.6,0}
\definecolor{mygray}{rgb}{0.5,0.5,0.5}
\definecolor{mymauve}{rgb}{0.58,0,0.82}
\definecolor{darkgray}{rgb}{.4,.4,.4}
\definecolor{navy}{HTML}{000080}
\definecolor{purple}{rgb}{0.65, 0.12, 0.82}
\definecolor{codepurple}{rgb}{0.58,0,0.82}
\definecolor{backcolour}{rgb}{0.95,0.95,0.92}
% Configurazione listings
\lstset{
belowcaptionskip=0.5em,
backgroundcolor=\color{backcolour},
basicstyle=\ttfamily\footnotesize, % Font tipo Consolas
breakatwhitespace=false,
breaklines=true,
captionpos=b,
commentstyle=\color{mygreen},
escapeinside={\%*}{*)},
extendedchars=true,
frame=single,
keepspaces=true,
keywordstyle=\color{codepurple},
numbers=left,
numbersep=5pt,
numberstyle=\tiny\color{mygray},
rulecolor=\color{black},
showspaces=false,
showstringspaces=false,
showtabs=false,
stepnumber=1,
stringstyle=\color{mymauve},
tabsize=2,
title=\lstname
}
% Formato delle intestazioni dei capitoli
\titleformat{\chapter}[block]
{\normalfont\LARGE\bfseries}{\thechapter.}{0.5em}{\LARGE}
\titlespacing*{\chapter}{0pt}{-20pt}{25pt}
% Configurazione per le pagine dei capitoli
\fancypagestyle{plain}{%
\fancyhf{}%
\fancyfoot[C]{\thepage}%
\renewcommand{\headrulewidth}{0pt}%
}
% Formato delle intestazioni
\titleformat{\chapter}[block]
{\normalfont\LARGE\bfseries}{\thechapter.}{0.5em}{\LARGE}
\titlespacing*{\chapter}{0pt}{-20pt}{25pt}
\begin{document}
% Frontespizio
\begin{titlepage}
\begin{figure}
\centering\includegraphics{logoUnipi_black.png}
\end{figure}
\begin{center}
{\LARGE{Corso di Laurea in Informatica Umanistica \\}}
\vspace{2cm}
{\Large{TESI DI LAUREA}}\\
\vspace{2cm}
{\Large{Proposte operative per l'impiego dell'Intelligenza
Artificiale Generativa nella didattica della storia}}
\end{center}
\vspace{2cm}
\begin{minipage}[t]{0.47\textwidth}
{\large{\bf Relatore:\\ Alessandro Iannella}}
\vspace{0.5cm}
\end{minipage}\hfill\begin{minipage}[t]{0.47\textwidth}\raggedleft
{\large{\bf Candidato: \\ Andres Moles\\ }}
\end{minipage}
\vspace{25mm}
\centering{\large{\bf ANNO ACCADEMICO 2024/2025}}
\end{titlepage}
% Indici
\tableofcontents
\thispagestyle{empty}
\listoffigures
\thispagestyle{empty}
%\clearpage
\setcounter{page}{1}
\addtocontents{toc}{\protect\thispagestyle{empty}}
\addcontentsline{toc}{chapter}{Introduzione}
\input{introduzione.tex}
\clearpage
\input{Cap1}
\clearpage
\input{cap2}
\clearpage
\input{cap3}
\clearpage
\input{cap4}
\clearpage
\input{cap5}
\clearpage
\input{cap6}
\clearpage
\input{cap7}
\clearpage
\input{cap8}
\clearpage
\input{cap9}
\clearpage
\input{cap10}
\clearpage
\addcontentsline{toc}{chapter}{Conclusioni}
\input{conclusioni.tex}
\clearpage
\addcontentsline{toc}{chapter}{Appendice}
\input{Appendice}
\input{Appendice-modificato}
\printbibliography
\end{document}

23
TesiZIP/prova.tex Normal file
View file

@ -0,0 +1,23 @@
re lefficacia di questi strumenti in ambito educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich (2020) nel suo libro “Failure to Disrupt: Why Technology Alone Cant Transform Education”, la tecnologia non è mai stata e mai sarà lunica soluzione per leducazione: la storia dimostra che il capitale umano e la dimensione sociale dellapprendimento
ari ulte "riori studi per va" lutare lefficacia di questi strumenti in ambi-
to educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich
(2020) nel suo libro “Failure to Disrupt: Why Technology Alone Cant Transform Edu-
cation”, la tecnologia non è mai stata e mai sarà lunica soluzione per leducazione: la
storia dimostra che il capitale umano e la dimensione sociale dellapprendimento restano
essenziali. Per questo motivo, lobiettivo della piattaforma è offrire strumenti a supporto
della didattica tradizionale, contrastando un uso scorretto dellinte “\1” i ale nei
compiti a casa e proponendo in futuro nuove tipologie di attività. Tra le attuali limitazio-
ni tecniche, si segnalano alcune instabilità di Streamlit nella gestione di più applicazioni
contemporaneamente e la mancanza di funzioni come la cancellazione automa"tica del" la
cronologia delle chat. "Inoltre", la piattaforma avrebbe bisogno di un sistema di tutorial più
completo per la formazione degli insegnanti, che non si concentri solo sugli aspetti tecnici,
ma tratti anche le implicazioni pedagogiche e i rischi delluso dellIA in ambito educativo.
Un breve corso o materiali di micro-learning potrebbero essere sviluppati in futuro.
Nonostante queste difficoltà, Intervistestoriche.tech rappresenta un primo passo ver-
so unintegrazione consapevole e costruttiva dellIA nella didattica, preservando il ruolo
fondamentale dellinsegnante nel processo educativo. Il successo futuro dipenderà dalla
capacità di creare collaborazioni strategiche che supportino lespansione dellapplicazio-
ne, superando le attuali limitazioni e permettendo di sfruttare pienamente il potenziale del