MODIFICATI CON SCRIPT
This commit is contained in:
parent
9eec379464
commit
d0b222488b
11 changed files with 30 additions and 37 deletions
|
|
@ -21,10 +21,10 @@ Per risolvere il problema di risposte apparentemente corrette nella forma, ma er
|
||||||
Le seguenti tecniche di \emph{prompting} si rivelano particolarmente utili per migliorare le prestazioni dei modelli in compiti relativi a materie specifiche e quindi renderli strumenti efficaci per l’apprendimento:
|
Le seguenti tecniche di \emph{prompting} si rivelano particolarmente utili per migliorare le prestazioni dei modelli in compiti relativi a materie specifiche e quindi renderli strumenti efficaci per l’apprendimento:
|
||||||
|
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item \textit{Few-Shot prompting}: Questa tecnica sfrutta la capacità degli LLM di apprendere dagli esempi. Fornendo al modello un numero limitato di esempi (da uno a pochi) di input e output desiderati, lo si guida a comprendere il compito richiesto e a generare risposte coerenti. Ad esempio, per insegnare all'LLM a completare analogie, si possono fornire alcuni esempi come "caldo : freddo = alto : basso" prima di chiedere di completare una nuova analogia, ad esempio in chimica. Questa tecnica è particolarmente utile per compiti ben definiti e con una struttura chiara. Studi come quello di \textcite{min_rethinking_2022} sottolineano l'importanza della scelta degli esempi, del formato e della distribuzione delle etichette per massimizzare l'efficacia del few-shot prompting.
|
\item \textit{Few-Shot prompting}: Questa tecnica sfrutta la capacità degli LLM di apprendere dagli esempi. Fornendo al modello un numero limitato di esempi (da uno a pochi) di input e output desiderati, lo si guida a comprendere il compito richiesto e a generare risposte coerenti. Ad esempio, per insegnare all'LLM a completare analogie, si possono fornire alcuni esempi come \enquote{caldo : freddo = alto : basso} prima di chiedere di completare una nuova analogia, ad esempio in chimica. Questa tecnica è particolarmente utile per compiti ben definiti e con una struttura chiara. Studi come quello di \textcite{min_rethinking_2022} sottolineano l'importanza della scelta degli esempi, del formato e della distribuzione delle etichette per massimizzare l'efficacia del few-shot prompting.
|
||||||
\item \textit{Chain-of-Thought (CoT) prompting}: Invece di fornire solo input e output, si includono nel prompt anche i passaggi intermedi del ragionamento. Questo aiuta l'LLM a scomporre il problema e a generare risposte più accurate e motivate. Ad esempio, per un problema matematico, si possono includere nel prompt i singoli passaggi di calcolo. \textcite{wei_chain--thought_2022} hanno dimostrato l'efficacia del CoT prompting nel migliorare le capacità di ragionamento degli LLM. La variante zero-shot CoT, che prevede l'aggiunta di frasi come "Pensiamo passo a passo" al prompt, può essere efficace anche senza esempi specifici \parencite{liu_generated_2022}.
|
\item \textit{Chain-of-Thought (CoT) prompting}: Invece di fornire solo input e output, si includono nel prompt anche i passaggi intermedi del ragionamento. Questo aiuta l'LLM a scomporre il problema e a generare risposte più accurate e motivate. Ad esempio, per un problema matematico, si possono includere nel prompt i singoli passaggi di calcolo. \textcite{wei_chain--thought_2022} hanno dimostrato l'efficacia del CoT prompting nel migliorare le capacità di ragionamento degli LLM. La variante zero-shot CoT, che prevede l'aggiunta di frasi come \enquote{Pensiamo passo a passo} al prompt, può essere efficace anche senza esempi specifici \parencite{liu_generated_2022}.
|
||||||
\item \textit{Retrieval Augmented Generation (RAG)}: La RAG è particolarmente utile in contesti educativi dove l'accuratezza delle informazioni è cruciale. Questa tecnica rappresenta un approccio ibrido che unisce la capacità generativa degli LLM con un meccanismo di recupero di informazioni da un archivio esterno. Il processo di RAG si sviluppa in due fasi principali: il recupero e la generazione. Nella fase di recupero, a fronte di una domanda, il sistema interroga un archivio di documenti precedentemente organizzati attraverso la creazione di rappresentazioni vettoriali, chiamate embeddings. Gli embeddings sono vettori numerici che catturano il significato semantico di porzioni dei documenti (chunks), permettendo di misurare la somiglianza di significato con la domanda. Le parti dei documenti con maggiore somiglianza semantica vengono quindi recuperate. Nella successiva fase di generazione, questi documenti, insieme alla domanda iniziale, vengono forniti come contesto all'LLM. Il modello linguistico utilizza queste informazioni aggiuntive per generare una risposta più precisa, pertinente e adatta al contesto. In questo modo, la RAG mira a ridurre i problemi legati alle "allucinazioni" fattuali e a migliorare l'affidabilità delle risposte generate, basandosi su fonti concrete e verificabili. La creazione preliminare di embeddings per l'organizzazione dell'archivio e l'efficiente calcolo della somiglianza durante la fase di recupero sono quindi aspetti cruciali per il corretto funzionamento e l'efficacia del paradigma RAG, ed è un lavoro da svolgere in precedenza. La maggior parte dei sistemi RAG permette di visualizzare quali sono gli estratti selezionati per generare la risposta, il che è molto utile perché consente di "vedere le fonti".
|
\item \textit{Retrieval Augmented Generation (RAG)}: La RAG è particolarmente utile in contesti educativi dove l'accuratezza delle informazioni è cruciale. Questa tecnica rappresenta un approccio ibrido che unisce la capacità generativa degli LLM con un meccanismo di recupero di informazioni da un archivio esterno. Il processo di RAG si sviluppa in due fasi principali: il recupero e la generazione. Nella fase di recupero, a fronte di una domanda, il sistema interroga un archivio di documenti precedentemente organizzati attraverso la creazione di rappresentazioni vettoriali, chiamate embeddings. Gli embeddings sono vettori numerici che catturano il significato semantico di porzioni dei documenti (chunks), permettendo di misurare la somiglianza di significato con la domanda. Le parti dei documenti con maggiore somiglianza semantica vengono quindi recuperate. Nella successiva fase di generazione, questi documenti, insieme alla domanda iniziale, vengono forniti come contesto all'LLM. Il modello linguistico utilizza queste informazioni aggiuntive per generare una risposta più precisa, pertinente e adatta al contesto. In questo modo, la RAG mira a ridurre i problemi legati alle \enquote{allucinazioni} fattuali e a migliorare l'affidabilità delle risposte generate, basandosi su fonti concrete e verificabili. La creazione preliminare di embeddings per l'organizzazione dell'archivio e l'efficiente calcolo della somiglianza durante la fase di recupero sono quindi aspetti cruciali per il corretto funzionamento e l'efficacia del paradigma RAG, ed è un lavoro da svolgere in precedenza. La maggior parte dei sistemi RAG permette di visualizzare quali sono gli estratti selezionati per generare la risposta, il che è molto utile perché consente di \enquote{vedere le fonti}.
|
||||||
\item \textit{Knowledge Generated Prompting}: Simile alla RAG, questa tecnica \parencite{liu_generated_2022} prevede l'aggiunta di informazioni rilevanti al prompt, ma in questo caso la "conoscenza" viene generata dall'LLM stesso prima di rispondere alla domanda principale. Questo approccio può essere utile per fornire contesto o definizioni che aiutano l'LLM a comprendere meglio il compito e a generare risposte più accurate.
|
\item \textit{Knowledge Generated Prompting}: Simile alla RAG, questa tecnica \parencite{liu_generated_2022} prevede l'aggiunta di informazioni rilevanti al prompt, ma in questo caso la \enquote{conoscenza} viene generata dall'LLM stesso prima di rispondere alla domanda principale. Questo approccio può essere utile per fornire contesto o definizioni che aiutano l'LLM a comprendere meglio il compito e a generare risposte più accurate.
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
|
|
||||||
Nei contesti educativi, l’integrazione di queste tecniche di \emph{prompting} permette di sfruttare appieno il potenziale degli LLM come strumenti per l’apprendimento, migliorando la qualità delle interazioni e promuovendo un utilizzo più efficace e consapevole dell’IA in educazione in modo più economico.
|
Nei contesti educativi, l’integrazione di queste tecniche di \emph{prompting} permette di sfruttare appieno il potenziale degli LLM come strumenti per l’apprendimento, migliorando la qualità delle interazioni e promuovendo un utilizzo più efficace e consapevole dell’IA in educazione in modo più economico.
|
||||||
|
|
@ -33,7 +33,7 @@ Nei contesti educativi, l’integrazione di queste tecniche di \emph{prompting}
|
||||||
|
|
||||||
Aggiungendo istruzioni al contesto possiamo indicare una strada da seguire all’LLM, specificando la maniera in cui risponde, il tono, la lingua. Ad esempio, dopo aver arricchito la conoscenza dell’LLM, si può indicare che non deve dare la soluzione all’utente quando quest’ultimo chiede il risultato di un esercizio, ma piuttosto guidarlo alla soluzione e invitarlo a riflettere. Questo è il principio, ad esempio, dei tutor Khanmigo, un prodotto di KhanAccademy basato su GPT-4. Al giorno d’oggi la creazione di un tutor didattico basato su un LLM, se ben progettato, è un processo relativamente semplice. La facilità d’uso di piattaforme come GPTs e le Gems di Gemini rende oggi possibile persino ai docenti creare tutor personalizzati per i propri studenti, se disposti a pagare per il servizio.
|
Aggiungendo istruzioni al contesto possiamo indicare una strada da seguire all’LLM, specificando la maniera in cui risponde, il tono, la lingua. Ad esempio, dopo aver arricchito la conoscenza dell’LLM, si può indicare che non deve dare la soluzione all’utente quando quest’ultimo chiede il risultato di un esercizio, ma piuttosto guidarlo alla soluzione e invitarlo a riflettere. Questo è il principio, ad esempio, dei tutor Khanmigo, un prodotto di KhanAccademy basato su GPT-4. Al giorno d’oggi la creazione di un tutor didattico basato su un LLM, se ben progettato, è un processo relativamente semplice. La facilità d’uso di piattaforme come GPTs e le Gems di Gemini rende oggi possibile persino ai docenti creare tutor personalizzati per i propri studenti, se disposti a pagare per il servizio.
|
||||||
|
|
||||||
La manipolazione del contesto e, in particolare, la RAG rappresentano approcci promettenti ed economici per raggiungere questo obiettivo. Il contesto, inteso come l’insieme delle informazioni, indicazioni e conoscenze relative a un determinato ambito selezionato dal \emph{prompt engineer}, può essere fornito all’LLM attraverso il \emph{prompt} di sistema, ovvero l’input testuale principale che guida la generazione del testo. Un \emph{prompt} ben strutturato e ricco di dettagli contestuali può indirizzare l’LLM verso la produzione di risposte più pertinenti e precise e ridurre ma non eliminare del tutto le allucinazioni. Con il passare del tempo, l’avanzamento della tecnologia sta portando a un ampliamento del contesto. Ad oggi, alcuni modelli della serie Gemini offrono un contesto che, secondo l’azienda, arriva a 2 milioni di \emph{token}, anche se alcuni studi dimostrano che in realtà è leggermente inferiore \parencite{hsieh_ruler_2024}. L’aumento della capacità del contesto permette di far riferimento a interi libri, mentre prima era necessario vettorializzare e per poi affidarsi alla RAG. Chiaramente, inserire molte informazioni nel contesto è più costoso dal punto di vista computazionale, perché, in un certo senso, l’LLM "ripassa" tutto ciò che è presente nel contesto, lo "studia" di nuovo prima di ogni sessione. E se la quantità di informazioni è elevata, ovviamente, questo influisce sui tempi di risposta.
|
La manipolazione del contesto e, in particolare, la RAG rappresentano approcci promettenti ed economici per raggiungere questo obiettivo. Il contesto, inteso come l’insieme delle informazioni, indicazioni e conoscenze relative a un determinato ambito selezionato dal \emph{prompt engineer}, può essere fornito all’LLM attraverso il \emph{prompt} di sistema, ovvero l’input testuale principale che guida la generazione del testo. Un \emph{prompt} ben strutturato e ricco di dettagli contestuali può indirizzare l’LLM verso la produzione di risposte più pertinenti e precise e ridurre ma non eliminare del tutto le allucinazioni. Con il passare del tempo, l’avanzamento della tecnologia sta portando a un ampliamento del contesto. Ad oggi, alcuni modelli della serie Gemini offrono un contesto che, secondo l’azienda, arriva a 2 milioni di \emph{token}, anche se alcuni studi dimostrano che in realtà è leggermente inferiore \parencite{hsieh_ruler_2024}. L’aumento della capacità del contesto permette di far riferimento a interi libri, mentre prima era necessario vettorializzare e per poi affidarsi alla RAG. Chiaramente, inserire molte informazioni nel contesto è più costoso dal punto di vista computazionale, perché, in un certo senso, l’LLM \enquote{ripassa} tutto ciò che è presente nel contesto, lo \enquote{studia} di nuovo prima di ogni sessione. E se la quantità di informazioni è elevata, ovviamente, questo influisce sui tempi di risposta.
|
||||||
|
|
||||||
Di seguito un esempio di \textit{prompt} per una applicazione di chimica, nel quale vengono fornite più informazioni sull’argomento e si cerca di evitare che il sistema diventi uno strumento per dare le soluzioni ai compiti \footnote{Prompt creato e testato con il supporto di dell'IA \textit{Antropic Prompt Improver}}:
|
Di seguito un esempio di \textit{prompt} per una applicazione di chimica, nel quale vengono fornite più informazioni sull’argomento e si cerca di evitare che il sistema diventi uno strumento per dare le soluzioni ai compiti \footnote{Prompt creato e testato con il supporto di dell'IA \textit{Antropic Prompt Improver}}:
|
||||||
\begin{lstlisting}[language=plain]
|
\begin{lstlisting}[language=plain]
|
||||||
|
|
@ -51,7 +51,7 @@ Ricorda che il tuo obiettivo non è fornire la soluzione immediata, ma guidare l
|
||||||
Analizzando il prompt possiamo notare che si tratta di un testo relativamente corto con queste caratteristiche:
|
Analizzando il prompt possiamo notare che si tratta di un testo relativamente corto con queste caratteristiche:
|
||||||
|
|
||||||
\begin{enumerate}
|
\begin{enumerate}
|
||||||
\item Il ruolo dell'LLM viene definito con precisione: un tutor esperto, paziente e con ottime capacità comunicative. Questa impostazione permette di delineare un vero e proprio "personaggio" e di modulare al meglio lo stile interattivo del modello.
|
\item Il ruolo dell'LLM viene definito con precisione: un tutor esperto, paziente e con ottime capacità comunicative. Questa impostazione permette di delineare un vero e proprio \enquote{personaggio} e di modulare al meglio lo stile interattivo del modello.
|
||||||
|
|
||||||
\item Il \textit{prompt} non si limita a richiedere risposte corrette, ma sottolinea l'importanza di assistere lo studente nel suo percorso di apprendimento, stimolandone il ragionamento autonomo e la capacità di risolvere i problemi. Di conseguenza, l'LLM non è una semplice fonte di soluzioni, ma una guida.
|
\item Il \textit{prompt} non si limita a richiedere risposte corrette, ma sottolinea l'importanza di assistere lo studente nel suo percorso di apprendimento, stimolandone il ragionamento autonomo e la capacità di risolvere i problemi. Di conseguenza, l'LLM non è una semplice fonte di soluzioni, ma una guida.
|
||||||
|
|
||||||
|
|
@ -64,4 +64,3 @@ Analizzando il prompt possiamo notare che si tratta di un testo relativamente co
|
||||||
\end{enumerate}
|
\end{enumerate}
|
||||||
Secondo chi scrive, le case editrici, grazie al possesso dei diritti sui testi, hanno un potenziale e un vantaggio competitivo in questo ambito, in quanto non dovrebbero affrontare problemi di copyright nell'utilizzo dei contenuti. Questo apre scenari interessanti per il futuro dell'istruzione tradizionale, con la possibilità di integrare strumenti di apprendimento sempre più efficaci e personalizzati nell'editoria scolastica e universitaria all'interno dei libri di testo.
|
Secondo chi scrive, le case editrici, grazie al possesso dei diritti sui testi, hanno un potenziale e un vantaggio competitivo in questo ambito, in quanto non dovrebbero affrontare problemi di copyright nell'utilizzo dei contenuti. Questo apre scenari interessanti per il futuro dell'istruzione tradizionale, con la possibilità di integrare strumenti di apprendimento sempre più efficaci e personalizzati nell'editoria scolastica e universitaria all'interno dei libri di testo.
|
||||||
|
|
||||||
|
|
||||||
|
|
@ -1 +0,0 @@
|
||||||
Per la redazione di questa tesi, sono stati impiegati sistemi di IA Generativa (ChatGPT-4, versione rilasciata a marzo 2024, Gemini Pro 1.5, Claude 3.5, Consensus) per supporto nella ricerca, nella rielaborazione di contenuti e nell’attività di analisi.
|
|
||||||
|
|
@ -23,4 +23,3 @@ Purtroppo non ci sono filtri aggiuntivi e le debolezze del modello creato sono l
|
||||||
\includegraphics[width=0.75\linewidth]{Crea_bot.png}
|
\includegraphics[width=0.75\linewidth]{Crea_bot.png}
|
||||||
\caption{ScreenShot dell'applicazione \enquote{\textit{Crea la tua IA generativa}}.}
|
\caption{ScreenShot dell'applicazione \enquote{\textit{Crea la tua IA generativa}}.}
|
||||||
\label{fig:enter-label}
|
\label{fig:enter-label}
|
||||||
\end{figure}
|
|
||||||
|
|
@ -8,7 +8,7 @@ La raccolta di dati per l'addestramento degli LLM pone importanti questioni etic
|
||||||
|
|
||||||
L'impiego di testi protetti da copyright per addestrare i modelli linguistici è una delle questioni più rilevanti nel campo dell’intelligenza artificiale \parencite{shi_detecting_2023}. Le fonti di dati aperti sembrano esaurirsi e la maggior parte dei nuovi testi di alta qualità proviene dall'editoria tradizionale. L'utilizzo di questi testi permetterebbe un notevole miglioramento delle prestazioni degli LLM, riducendo i bias e anche le allucinazioni. Tuttavia, si presentano due problemi critici: la possibile violazione del diritto d'autore durante la fase di addestramento e la conseguente difficoltà nel determinare con precisione quali documenti siano stati effettivamente impiegati per l'addestramento in modo da trovare forme per tutelare la proprietà intellettuale.
|
L'impiego di testi protetti da copyright per addestrare i modelli linguistici è una delle questioni più rilevanti nel campo dell’intelligenza artificiale \parencite{shi_detecting_2023}. Le fonti di dati aperti sembrano esaurirsi e la maggior parte dei nuovi testi di alta qualità proviene dall'editoria tradizionale. L'utilizzo di questi testi permetterebbe un notevole miglioramento delle prestazioni degli LLM, riducendo i bias e anche le allucinazioni. Tuttavia, si presentano due problemi critici: la possibile violazione del diritto d'autore durante la fase di addestramento e la conseguente difficoltà nel determinare con precisione quali documenti siano stati effettivamente impiegati per l'addestramento in modo da trovare forme per tutelare la proprietà intellettuale.
|
||||||
|
|
||||||
Per affrontare queste problematiche, la comunità scientifica sta sviluppando diverse strategie di mitigazione, tra cui metodi sofisticati per individuare l'utilizzo di documenti protetti, come l'algoritmo "Min-K \%Prob", che permette di stabilire se un documento specifico è stato impiegato nell'addestramento del modello \parencite{shi_detecting_2023}. Queste tecniche, per quanto complesse, non sono ancora completamente accurate. In assenza di un quadro normativo chiaro, gli sforzi rischiano di essere vani. Alcuni studi, analizzando la situazione legale negli Stati Uniti, dove hanno sede le maggiori aziende di IA, hanno osservato che la legge sul copyright, con il suo principio del "fair use", consentirebbe in teoria di utilizzare qualsiasi documento per l'addestramento, anche senza autorizzazione \parencite{murray_generative_2023}. Se ad oggi vengono impiegati materiali protetti da copyright è soprattutto perché non esiste una normativa chiara. Il problema legale è evidente, e i creativi si stanno attivando spinti anche dalla paura che questi programmi addestrati sulle loro creazioni possano sostituire il lavoro degli artisti in molti ambiti. L’industria creativa italiana ha espresso forti preoccupazioni sull’impatto degli LLM sul loro lavoro. Ad esempio, il 20 giugno 2023 è stato presentato a Roma, presso il Palazzo delle Esposizioni, un importante documento programmatico promosso dalla federazione AUT-Autori, che rappresenta un punto di riferimento nella discussione sulla regolamentazione dell’IA nel settore creativo italiano. Il manifesto evidenzia come la mancanza di una regolamentazione adeguata possa causare non solo problemi legali ed economici, ma anche conseguenze culturali significative, come la standardizzazione dei contenuti e l’omogeneizzazione delle espressioni creative. Questi rischi richiedono un’attenta valutazione e misure preventive. L’istituzione di un osservatorio permanente, proposta nel manifesto, è uno strumento per monitorare costantemente l’evoluzione tecnologica e le sue implicazioni nel settore creativo.
|
Per affrontare queste problematiche, la comunità scientifica sta sviluppando diverse strategie di mitigazione, tra cui metodi sofisticati per individuare l'utilizzo di documenti protetti, come l'algoritmo \enquote{Min-K \%Prob}, che permette di stabilire se un documento specifico è stato impiegato nell'addestramento del modello \parencite{shi_detecting_2023}. Queste tecniche, per quanto complesse, non sono ancora completamente accurate. In assenza di un quadro normativo chiaro, gli sforzi rischiano di essere vani. Alcuni studi, analizzando la situazione legale negli Stati Uniti, dove hanno sede le maggiori aziende di IA, hanno osservato che la legge sul copyright, con il suo principio del \enquote{fair use}, consentirebbe in teoria di utilizzare qualsiasi documento per l'addestramento, anche senza autorizzazione \parencite{murray_generative_2023}. Se ad oggi vengono impiegati materiali protetti da copyright è soprattutto perché non esiste una normativa chiara. Il problema legale è evidente, e i creativi si stanno attivando spinti anche dalla paura che questi programmi addestrati sulle loro creazioni possano sostituire il lavoro degli artisti in molti ambiti. L’industria creativa italiana ha espresso forti preoccupazioni sull’impatto degli LLM sul loro lavoro. Ad esempio, il 20 giugno 2023 è stato presentato a Roma, presso il Palazzo delle Esposizioni, un importante documento programmatico promosso dalla federazione AUT-Autori, che rappresenta un punto di riferimento nella discussione sulla regolamentazione dell’IA nel settore creativo italiano. Il manifesto evidenzia come la mancanza di una regolamentazione adeguata possa causare non solo problemi legali ed economici, ma anche conseguenze culturali significative, come la standardizzazione dei contenuti e l’omogeneizzazione delle espressioni creative. Questi rischi richiedono un’attenta valutazione e misure preventive. L’istituzione di un osservatorio permanente, proposta nel manifesto, è uno strumento per monitorare costantemente l’evoluzione tecnologica e le sue implicazioni nel settore creativo.
|
||||||
|
|
||||||
Le applicazioni di IA Generativa hanno dimostrato nell’ultimo biennio di saper generare risultati accettabili anche in musica e video. Non è certo se l’IA generativa segnerà la fine dell’arte come la conosciamo, ma le preoccupazioni sono concrete. A questo proposito, può essere interessante riportare due esempi. Nel 2023, Boris Eldagsen ha vinto un premio nella categoria “Creative Open” con l’opera \textit{Pseudomnesia: The Electrician}, un ritratto in bianco e nero di due donne generato con DALL-E 2 (Figura\ref{fig:The Electrician}). Successivamente, Eldagsen ha rifiutato il premio, rivelando la natura artificiale dell’immagine per stimolare un dibattito sul ruolo dell’IA nella fotografia. In una situazione opposta, il fotografo Miles Astray ha partecipato al concorso 1839 Awards presentando una foto reale nella categoria dedicata alle immagini generate dall’IA. La sua foto \textit{Flamingone}, che ritrae un fenicottero che si gratta la pancia, ha vinto il terzo premio e il premio del pubblico nella categoria IA (Figura \ref{fig:flamingo}). Dopo la vittoria, Astray ha rivelato che l’immagine era una vera fotografia, scattata ad Aruba nel 2022 con una Nikon D750, e per questo è stato squalificato.
|
Le applicazioni di IA Generativa hanno dimostrato nell’ultimo biennio di saper generare risultati accettabili anche in musica e video. Non è certo se l’IA generativa segnerà la fine dell’arte come la conosciamo, ma le preoccupazioni sono concrete. A questo proposito, può essere interessante riportare due esempi. Nel 2023, Boris Eldagsen ha vinto un premio nella categoria “Creative Open” con l’opera \textit{Pseudomnesia: The Electrician}, un ritratto in bianco e nero di due donne generato con DALL-E 2 (Figura\ref{fig:The Electrician}). Successivamente, Eldagsen ha rifiutato il premio, rivelando la natura artificiale dell’immagine per stimolare un dibattito sul ruolo dell’IA nella fotografia. In una situazione opposta, il fotografo Miles Astray ha partecipato al concorso 1839 Awards presentando una foto reale nella categoria dedicata alle immagini generate dall’IA. La sua foto \textit{Flamingone}, che ritrae un fenicottero che si gratta la pancia, ha vinto il terzo premio e il premio del pubblico nella categoria IA (Figura \ref{fig:flamingo}). Dopo la vittoria, Astray ha rivelato che l’immagine era una vera fotografia, scattata ad Aruba nel 2022 con una Nikon D750, e per questo è stato squalificato.
|
||||||
|
|
||||||
|
|
@ -36,7 +36,7 @@ L’AI Act mira dunque a bilanciare l’innovazione con la tutela del diritto d
|
||||||
|
|
||||||
Nonostante queste sfide, l’AI Act rappresenta un importante passo avanti verso una maggiore trasparenza e responsabilità nello sviluppo e nell’uso dell’IA. La normativa europea può diventare un modello di riferimento globale, influenzando gli standard internazionali in questo settore in rapida evoluzione. La sua efficacia dipenderà dalla capacità di bilanciare gli interessi di innovazione tecnologica, tutela dei diritti e trasparenza, mantenendo la competitività del mercato europeo nel contesto globale dell’intelligenza artificiale. Un approccio promettente per le compagnie alla ricerca di dati è quello di stipulare accordi con i detentori dei diritti per l’uso dei dati, prevedendo un giusto compenso. La recente collaborazione tra il sistema bibliotecario di Harvard e OpenAI, ne è un esempio: l’Institutional Data Initiative (IDI) di Harvard mira a rendere disponibili dati di pubblico dominio provenienti da istituzioni come la Harvard Law School Library per l’addestramento di modelli di IA. Non si conoscono i dettagli economici dell’accordo \parencite{young_harvards_nodate}.
|
Nonostante queste sfide, l’AI Act rappresenta un importante passo avanti verso una maggiore trasparenza e responsabilità nello sviluppo e nell’uso dell’IA. La normativa europea può diventare un modello di riferimento globale, influenzando gli standard internazionali in questo settore in rapida evoluzione. La sua efficacia dipenderà dalla capacità di bilanciare gli interessi di innovazione tecnologica, tutela dei diritti e trasparenza, mantenendo la competitività del mercato europeo nel contesto globale dell’intelligenza artificiale. Un approccio promettente per le compagnie alla ricerca di dati è quello di stipulare accordi con i detentori dei diritti per l’uso dei dati, prevedendo un giusto compenso. La recente collaborazione tra il sistema bibliotecario di Harvard e OpenAI, ne è un esempio: l’Institutional Data Initiative (IDI) di Harvard mira a rendere disponibili dati di pubblico dominio provenienti da istituzioni come la Harvard Law School Library per l’addestramento di modelli di IA. Non si conoscono i dettagli economici dell’accordo \parencite{young_harvards_nodate}.
|
||||||
|
|
||||||
Un altro problema legale da considerare con gli LLM è la definizione di licenza "Open Source". Il dibattito sull’intelligenza artificiale si sta complicando ulteriormente a causa dell’applicazione controversa del termine "open source" ai modelli linguistici di grandi dimensioni. La tendenza di aziende come Meta a definire "open source" modelli come LLaMA, pur imponendo limitazioni significative al loro utilizzo, ha generato perplessità e critiche. La Open Source Initiative (OSI) ha infatti negato esplicitamente la qualifica di "open source" a LLaMA \parencite{noauthor_llama_nodate}, sottolineando come le restrizioni della sua licenza, tra cui il divieto di utilizzo per servizi con oltre 700 milioni di utenti, le limitazioni allo sviluppo di sistemi AI concorrenti e i divieti specifici nella sezione "Prohibited Uses" (che includono, tra l’altro, la violazione della legge, la pianificazione di attività rischiose, l’inganno e la mancata comunicazione dei pericoli del sistema agli utenti) \parencite{noauthor_llama_nodate} siano incompatibili con i principi fondamentali dell’open source \parencite{noauthor_meta_nodate}. Per chiarire la situazione, l’OSI ha proposto una nuova definizione di "Open Source AI", che prevede la disponibilità del codice sorgente completo, dei dati di addestramento (con eccezioni per i dati sensibili), dei parametri del modello e di una documentazione completa. Modelli come Pythia, OLMo, Amber, CrystalCoder e T5 rispettano questa definizione, a differenza di LLaMA, Grok, Phi-2 e Mixtral. La posizione di Zuckerberg, che sostiene la necessità di una definizione specifica per i suoi LLM, riflette il dibattito tra l’uso libero di una tecnologia e il controllo dei suoi potenziali usi dannosi. LLAMa una posizione comprensibile, evitare usi malevoli della sua IA, ma in contrasto con i principi di non discriminazione e di non restrizioni tipici dell’open source.
|
Un altro problema legale da considerare con gli LLM è la definizione di licenza \enquote{Open Source}. Il dibattito sull’intelligenza artificiale si sta complicando ulteriormente a causa dell’applicazione controversa del termine \enquote{open source} ai modelli linguistici di grandi dimensioni. La tendenza di aziende come Meta a definire \enquote{open source} modelli come LLaMA, pur imponendo limitazioni significative al loro utilizzo, ha generato perplessità e critiche. La Open Source Initiative (OSI) ha infatti negato esplicitamente la qualifica di \enquote{open source} a LLaMA \parencite{noauthor_llama_nodate}, sottolineando come le restrizioni della sua licenza, tra cui il divieto di utilizzo per servizi con oltre 700 milioni di utenti, le limitazioni allo sviluppo di sistemi AI concorrenti e i divieti specifici nella sezione \enquote{Prohibited Uses} (che includono, tra l’altro, la violazione della legge, la pianificazione di attività rischiose, l’inganno e la mancata comunicazione dei pericoli del sistema agli utenti) \parencite{noauthor_llama_nodate} siano incompatibili con i principi fondamentali dell’open source \parencite{noauthor_meta_nodate}. Per chiarire la situazione, l’OSI ha proposto una nuova definizione di \enquote{Open Source AI}, che prevede la disponibilità del codice sorgente completo, dei dati di addestramento (con eccezioni per i dati sensibili), dei parametri del modello e di una documentazione completa. Modelli come Pythia, OLMo, Amber, CrystalCoder e T5 rispettano questa definizione, a differenza di LLaMA, Grok, Phi-2 e Mixtral. La posizione di Zuckerberg, che sostiene la necessità di una definizione specifica per i suoi LLM, riflette il dibattito tra l’uso libero di una tecnologia e il controllo dei suoi potenziali usi dannosi. LLAMa una posizione comprensibile, evitare usi malevoli della sua IA, ma in contrasto con i principi di non discriminazione e di non restrizioni tipici dell’open source.
|
||||||
|
|
||||||
Per concludere, al di là del dibattito sull’AI Act e sulle licenze open source, è fondamentale definire regole interne chiare e condivise nelle scuole e negli ambienti educativi, in linea con le direttive dell’Unione Europea. A mio parere ogni istituto dovrebbe promuovere la creazione di gruppi di lavoro per stabilire insieme le modalità di utilizzo dell’intelligenza artificiale, in un’ottica di trasparenza e responsabilità condivisa. Questo permetterebbe di definire con precisione gli usi consentiti e i relativi costi, di scegliere le piattaforme più adatte e di stabilire chi può usare questi strumenti e quando. Un’attenzione particolare andrebbe dedicata alla creazione di prompt di valutazione standardizzati per le valutazioni preliminari e alla scelta dei modelli di IA più adatti al contesto educativo. Sarebbe inoltre utile regolamentare nelle stesse scuole l’uso dell’IA da parte degli studenti, considerando l’età e le modalità di accesso. Ma la scuola non è solo studenti, occorre disciplinare l’impiego di queste tecnologie anche nelle attività amministrative, come la redazione di comunicazioni o le risposte automatiche.
|
Per concludere, al di là del dibattito sull’AI Act e sulle licenze open source, è fondamentale definire regole interne chiare e condivise nelle scuole e negli ambienti educativi, in linea con le direttive dell’Unione Europea. A mio parere ogni istituto dovrebbe promuovere la creazione di gruppi di lavoro per stabilire insieme le modalità di utilizzo dell’intelligenza artificiale, in un’ottica di trasparenza e responsabilità condivisa. Questo permetterebbe di definire con precisione gli usi consentiti e i relativi costi, di scegliere le piattaforme più adatte e di stabilire chi può usare questi strumenti e quando. Un’attenzione particolare andrebbe dedicata alla creazione di prompt di valutazione standardizzati per le valutazioni preliminari e alla scelta dei modelli di IA più adatti al contesto educativo. Sarebbe inoltre utile regolamentare nelle stesse scuole l’uso dell’IA da parte degli studenti, considerando l’età e le modalità di accesso. Ma la scuola non è solo studenti, occorre disciplinare l’impiego di queste tecnologie anche nelle attività amministrative, come la redazione di comunicazioni o le risposte automatiche.
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -12,7 +12,7 @@ Uno dei concetti chiave per comprendere le implicazioni etiche degli LLM è quel
|
||||||
|
|
||||||
Vi sono anche altre cause di generazione di bias. L’utilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente l’IA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di un’eccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale.
|
Vi sono anche altre cause di generazione di bias. L’utilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente l’IA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di un’eccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale.
|
||||||
|
|
||||||
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la "scatola nera" decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per l’impatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
|
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la \enquote{scatola nera} decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per l’impatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
|
||||||
|
|
||||||
Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire l’accuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nell’utilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea l’intero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. L’esperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}.
|
Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire l’accuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nell’utilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea l’intero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. L’esperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}.
|
||||||
|
|
||||||
|
|
@ -20,15 +20,15 @@ Per mitigare questi rischi, è fondamentale valutare criticamente le risposte de
|
||||||
|
|
||||||
Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono un’importanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro.
|
Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono un’importanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro.
|
||||||
|
|
||||||
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come "contenuto sessualmente esplicito".
|
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come \enquote{contenuto sessualmente esplicito}.
|
||||||
|
|
||||||
Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nell’usare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}.
|
Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nell’usare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}.
|
||||||
|
|
||||||
Per adesso l’unica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. L’obiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo un’analisi preliminare del prompt dell’utente e, in alcuni casi, un’ulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di "\textit{prompt injection}", chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
|
Per adesso l’unica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. L’obiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo un’analisi preliminare del prompt dell’utente e, in alcuni casi, un’ulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di \enquote{\textit{prompt injection}}, chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
|
||||||
|
|
||||||
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al "\textit{jailbreak}" degli LLM, ovvero all’elusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
|
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al \enquote{\textit{jailbreak}} degli LLM, ovvero all’elusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
|
||||||
|
|
||||||
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dall’esistenza di un vero e proprio mercato nero di modelli linguistici "\textit{jailbreakati}" e specificamente progettati per scopi malevoli, informalmente denominati "Malla". Come evidenziato dal primo studio sistematico sull’argomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di "\textit{jailbreak prompt}" per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo l’urgente necessità di sviluppare strategie efficaci per contrastare l’uso illecito di queste potenti tecnologie.
|
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dall’esistenza di un vero e proprio mercato nero di modelli linguistici \enquote{\textit{jailbreakati}} e specificamente progettati per scopi malevoli, informalmente denominati \enquote{Malla}. Come evidenziato dal primo studio sistematico sull’argomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di \enquote{\textit{jailbreak prompt}} per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo l’urgente necessità di sviluppare strategie efficaci per contrastare l’uso illecito di queste potenti tecnologie.
|
||||||
|
|
||||||
In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dell’IA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nell’identificare e mitigare i rischi associati all’incitamento all’odio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici dell’etica dell’IA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}.
|
In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dell’IA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nell’identificare e mitigare i rischi associati all’incitamento all’odio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici dell’etica dell’IA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}.
|
||||||
|
|
||||||
|
|
@ -40,7 +40,7 @@ L’accesso non uniforme agli strumenti di IA nel settore educativo rappresenta
|
||||||
|
|
||||||
|
|
||||||
Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. D’altro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sull’IA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nell’accesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio l’IA. Ad esempio, in molte regioni africane l’integrazione dell’IA nell’istruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024,
|
Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. D’altro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sull’IA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nell’accesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio l’IA. Ad esempio, in molte regioni africane l’integrazione dell’IA nell’istruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024,
|
||||||
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dell’IA”. Il termine "decolonizzare" in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
|
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dell’IA”. Il termine \enquote{decolonizzare} in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
|
||||||
|
|
||||||
|
|
||||||
\begin{figure}[H]
|
\begin{figure}[H]
|
||||||
|
|
@ -52,8 +52,8 @@ ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Afric
|
||||||
|
|
||||||
Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dell’IA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, l’hardware necessario per lo sviluppo e l’addestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare l’hardware adatto. Secondo chi scrive, anche l’Europa dovrebbe preoccuparsi; il gap tecnologico con l’IA generativa è notevole, e solo quest’anno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dell’Unione.
|
Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dell’IA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, l’hardware necessario per lo sviluppo e l’addestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare l’hardware adatto. Secondo chi scrive, anche l’Europa dovrebbe preoccuparsi; il gap tecnologico con l’IA generativa è notevole, e solo quest’anno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dell’Unione.
|
||||||
Una scarsa familiarità con le tecnologie di IA da parte dell’intero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dell’IA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che l’IA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle.
|
Una scarsa familiarità con le tecnologie di IA da parte dell’intero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dell’IA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che l’IA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle.
|
||||||
Per chiarire la questione della democratizzazione dell’IA nell’educazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come l’IA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, l’integrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso l’IA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con l’applicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sull’IA in classe, riducendo l’impegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sull’IA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dell’IA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dell’IA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire l’accesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere l’IA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, l’abbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dell’ultimo piano pro di OpenAI: 200 dollari al mese. L’illusione della gratuità di questa tecnologia è spesso legata a modelli di business "freemium" che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa dell’eccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto all’aumento di studenti che utilizzavano l’IA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
|
Per chiarire la questione della democratizzazione dell’IA nell’educazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come l’IA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, l’integrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso l’IA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con l’applicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sull’IA in classe, riducendo l’impegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sull’IA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dell’IA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dell’IA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire l’accesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere l’IA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, l’abbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dell’ultimo piano pro di OpenAI: 200 dollari al mese. L’illusione della gratuità di questa tecnologia è spesso legata a modelli di business \enquote{freemium} che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa dell’eccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto all’aumento di studenti che utilizzavano l’IA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
|
||||||
Da questo punto di vista, l’utilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dell’hardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un "Mixture-of-Experts Language Model" che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
|
Da questo punto di vista, l’utilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dell’hardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un \enquote{Mixture-of-Experts Language Model} che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
|
||||||
|
|
||||||
|
|
||||||
\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche}
|
\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche}
|
||||||
|
|
|
||||||
|
|
@ -2,7 +2,7 @@
|
||||||
|
|
||||||
L’integrazione dell’IA nell’educazione offre opportunità significative, ma solleva anche criticità che meritano un’analisi attenta.
|
L’integrazione dell’IA nell’educazione offre opportunità significative, ma solleva anche criticità che meritano un’analisi attenta.
|
||||||
|
|
||||||
Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che l’accesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere l’apprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo "effetto stampella" evidenzia come la dipendenza dall’IA possa inibire lo sviluppo autonomo delle competenze. L’introduzione di IA progettate per salvaguardare l’apprendimento, come i "GPT Tutor", può però mitigare questo effetto, suggerendo che un’integrazione mirata e consapevole dell’IA nell’educazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come l’utilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nell’argomentazione delle loro conclusioni.
|
Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che l’accesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere l’apprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo \enquote{effetto stampella} evidenzia come la dipendenza dall’IA possa inibire lo sviluppo autonomo delle competenze. L’introduzione di IA progettate per salvaguardare l’apprendimento, come i \enquote{GPT Tutor}, può però mitigare questo effetto, suggerendo che un’integrazione mirata e consapevole dell’IA nell’educazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come l’utilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nell’argomentazione delle loro conclusioni.
|
||||||
|
|
||||||
Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). L’IA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024).
|
Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). L’IA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024).
|
||||||
|
|
||||||
|
|
@ -29,7 +29,7 @@ Mentre alcuni potrebbero sostenere che usare l’IA non sia diverso dal consulta
|
||||||
|
|
||||||
Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che l’IA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso l’uso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare l’IA, ne stanno esplorando l’integrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dell’IA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza l’IA, ma che l’IA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dell’esposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo.
|
Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che l’IA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso l’uso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare l’IA, ne stanno esplorando l’integrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dell’IA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza l’IA, ma che l’IA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dell’esposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo.
|
||||||
|
|
||||||
Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dell’IA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa l’IA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sull’uso dell’IA: cosa è consentito, quali prompt sono accettabili e come documentarne l’utilizzo. Una soluzione potrebbe essere allegare un’appendice con la conversazione avuta con l’IA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire l’autenticità, come "Authorship" di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dell’IA.
|
Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dell’IA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa l’IA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sull’uso dell’IA: cosa è consentito, quali prompt sono accettabili e come documentarne l’utilizzo. Una soluzione potrebbe essere allegare un’appendice con la conversazione avuta con l’IA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire l’autenticità, come \enquote{Authorship} di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dell’IA.
|
||||||
|
|
||||||
Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. L’articolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dall’IA. Servono quindi soluzioni che bilancino l’uso dell’IA come supporto con l’originalità e l’integrità della ricerca. Tuttavia, se ben utilizzata, l’IA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). Un’IA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dell’esperimento, in alcune discipline l’IA potrebbe effettuare un’ulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, un’IA in futuro potrebbe controllare quest’ultimo in modo più approfondito e segnalare eventuali problemi ai revisori. L’uso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come l’IA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024).
|
Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. L’articolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dall’IA. Servono quindi soluzioni che bilancino l’uso dell’IA come supporto con l’originalità e l’integrità della ricerca. Tuttavia, se ben utilizzata, l’IA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). Un’IA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dell’esperimento, in alcune discipline l’IA potrebbe effettuare un’ulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, un’IA in futuro potrebbe controllare quest’ultimo in modo più approfondito e segnalare eventuali problemi ai revisori. L’uso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come l’IA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024).
|
||||||
|
|
||||||
|
|
@ -38,13 +38,13 @@ Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono comprom
|
||||||
|
|
||||||
L’idea più semplice per affrontare il problema è identificare un testo scritto da un’IA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende l’identificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come l’analisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere l’identificazione più affidabile.
|
L’idea più semplice per affrontare il problema è identificare un testo scritto da un’IA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende l’identificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come l’analisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere l’identificazione più affidabile.
|
||||||
|
|
||||||
Il \textit{watermarking}, una tecnica emergente, mira a garantire l’autenticità e la proprietà intellettuale dei testi generati dall’IA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne l’origine e prevenire l’uso non autorizzato. Esistono watermarking "hard" e "soft": i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dell’utente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando l’alto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a un’istituzione educativa di accertare, almeno in parte, la provenienza di un testo.
|
Il \textit{watermarking}, una tecnica emergente, mira a garantire l’autenticità e la proprietà intellettuale dei testi generati dall’IA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne l’origine e prevenire l’uso non autorizzato. Esistono watermarking \enquote{hard} e \enquote{soft}: i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dell’utente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando l’alto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a un’istituzione educativa di accertare, almeno in parte, la provenienza di un testo.
|
||||||
|
|
||||||
Un’altra strategia è la \textit{stilometria}, ovvero l’applicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nell’ambito del riconoscimento di testi generati da IA, l’analisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali.
|
Un’altra strategia è la \textit{stilometria}, ovvero l’applicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nell’ambito del riconoscimento di testi generati da IA, l’analisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali.
|
||||||
|
|
||||||
Tuttavia, come evidenziato nello studio di Chaka (2024), l’affidabilità degli strumenti di rilevamento dell’IA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano un’affidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dell’IA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con un’elevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa l’IA generativa.
|
Tuttavia, come evidenziato nello studio di Chaka (2024), l’affidabilità degli strumenti di rilevamento dell’IA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano un’affidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dell’IA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con un’elevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa l’IA generativa.
|
||||||
|
|
||||||
Inoltre, l’idea che i testi generati dall’IA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: l’uomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce l’efficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e l’adattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e l’alto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua "caccia all’IA" nell’ambito scolastico è controproducente. È preferibile prevenire, scoraggiando l’uso indiscriminato dell’IA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse.
|
Inoltre, l’idea che i testi generati dall’IA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: l’uomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce l’efficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e l’adattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e l’alto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua \enquote{caccia all’IA} nell’ambito scolastico è controproducente. È preferibile prevenire, scoraggiando l’uso indiscriminato dell’IA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse.
|
||||||
|
|
||||||
Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo.
|
Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo.
|
||||||
|
|
||||||
|
|
@ -60,7 +60,7 @@ Nella valutazione e correzione tradizionale, i docenti sono spesso influenzati d
|
||||||
|
|
||||||
Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale l’insegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare l’IA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dell’insegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che l’IA Generativa, per ora, non riesce a riprodurre in modo autentico. Un’idea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o l’analisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti l’uomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per l’IA. Per garantire l’onestà nello studio, si può anche limitare l’accesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui l’IA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia.
|
Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale l’insegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare l’IA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dell’insegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che l’IA Generativa, per ora, non riesce a riprodurre in modo autentico. Un’idea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o l’analisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti l’uomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per l’IA. Per garantire l’onestà nello studio, si può anche limitare l’accesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui l’IA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia.
|
||||||
|
|
||||||
In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dall’IA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano un’IA come tutor didattico per studiare un argomento e svolgere esercizi. L’IA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, l’IA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare l’IA generativa porterebbe a un’inutile ricerca di colpevoli e all’acquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dell’IA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a "parlare" come l’IA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024).
|
In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dall’IA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano un’IA come tutor didattico per studiare un argomento e svolgere esercizi. L’IA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, l’IA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare l’IA generativa porterebbe a un’inutile ricerca di colpevoli e all’acquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dell’IA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a \enquote{parlare} come l’IA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024).
|
||||||
|
|
||||||
Un’altra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sull’apprendimento durante il percorso e consente di adattare l’insegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, un’IA Generativa specifica può aiutare l’insegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora l’apprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con l’IA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; l’IA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dall’IA, danno il loro parere; l’insegnante controlla l’attività, analizza i riscontri con l’aiuto dell’IA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dall’IA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. L’integrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo.
|
Un’altra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sull’apprendimento durante il percorso e consente di adattare l’insegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, un’IA Generativa specifica può aiutare l’insegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora l’apprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con l’IA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; l’IA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dall’IA, danno il loro parere; l’insegnante controlla l’attività, analizza i riscontri con l’aiuto dell’IA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dall’IA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. L’integrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo.
|
||||||
|
|
||||||
|
|
|
||||||
|
|
@ -73,7 +73,7 @@ print(response.text)
|
||||||
\end{lstlisting}
|
\end{lstlisting}
|
||||||
Questo codice illustra una semplice chiamata API ai modelli Gemini. Prima di eseguirlo, è necessario installare la libreria \lstinline|google-generativeai| con \lstinline|pip install google-generativeai| e configurare la variabile d'ambiente \lstinline|GEMINI_API_KEY| con la propria chiave API. Il codice inizia configurando l'accesso al modello, specificando i parametri di generazione (come temperature, \lstinline|top_p|, \lstinline|top_k|, \lstinline|max_output_tokens|), i filtri di sicurezza tramite \lstinline|safety_settings| e la \lstinline|system_instruction|. Quest'ultima funge da prompt principale, definendo il ruolo del modello e influenzando tutte le interazioni successive. In questo caso, istruisce il modello a comportarsi come uno psicologo di Harvard che aiuta gli utenti a rilassarsi. Il modello usato è stato \lstinline|gemini-2.0-flash-exp|.
|
Questo codice illustra una semplice chiamata API ai modelli Gemini. Prima di eseguirlo, è necessario installare la libreria \lstinline|google-generativeai| con \lstinline|pip install google-generativeai| e configurare la variabile d'ambiente \lstinline|GEMINI_API_KEY| con la propria chiave API. Il codice inizia configurando l'accesso al modello, specificando i parametri di generazione (come temperature, \lstinline|top_p|, \lstinline|top_k|, \lstinline|max_output_tokens|), i filtri di sicurezza tramite \lstinline|safety_settings| e la \lstinline|system_instruction|. Quest'ultima funge da prompt principale, definendo il ruolo del modello e influenzando tutte le interazioni successive. In questo caso, istruisce il modello a comportarsi come uno psicologo di Harvard che aiuta gli utenti a rilassarsi. Il modello usato è stato \lstinline|gemini-2.0-flash-exp|.
|
||||||
|
|
||||||
Il codice svolge le seguenti azioni: importa le librerie necessarie, configura l'API, definisce i parametri di generazione, imposta i filtri di sicurezza e definisce l'istruzione di sistema che guida il comportamento del modello. Sostituendo il placeholder "\lstinline|INSERT_INPUT_HERE|" ed eseguendo il codice si invia un messaggio al modello e viene stampato in console la risposta ottenuta. È fondamentale installare la libreria e configurare la chiave API. Tra i settaggi cruciali, temperature regola la casualità del modello, \lstinline|model_name| permette di scegliere quale modello usare, le \lstinline|safety_settings| applicano filtri di sicurezza e bloccano contenuti inappropriati, mentre la \lstinline|system_instruction| plasma il ruolo del modello. Google permette di impostare diversi livelli di blocco per le categorie delle \lstinline|safety_settings|, o di disabilitarli del tutto.
|
Il codice svolge le seguenti azioni: importa le librerie necessarie, configura l'API, definisce i parametri di generazione, imposta i filtri di sicurezza e definisce l'istruzione di sistema che guida il comportamento del modello. Sostituendo il placeholder \enquote{\lstinline|INSERT_INPUT_HERE|} ed eseguendo il codice si invia un messaggio al modello e viene stampato in console la risposta ottenuta. È fondamentale installare la libreria e configurare la chiave API. Tra i settaggi cruciali, temperature regola la casualità del modello, \lstinline|model_name| permette di scegliere quale modello usare, le \lstinline|safety_settings| applicano filtri di sicurezza e bloccano contenuti inappropriati, mentre la \lstinline|system_instruction| plasma il ruolo del modello. Google permette di impostare diversi livelli di blocco per le categorie delle \lstinline|safety_settings|, o di disabilitarli del tutto.
|
||||||
|
|
||||||
\subsection{Streamlit}
|
\subsection{Streamlit}
|
||||||
|
|
||||||
|
|
@ -131,13 +131,13 @@ if prompt := st.chat_input("Scrivi il tuo messaggio:"):
|
||||||
\end{lstlisting}
|
\end{lstlisting}
|
||||||
|
|
||||||
Grazie al componente \lstinline|st.chat_message|, è possibile creare interfacce di chat conversazionali. Questo componente si occupa di gestire la visualizzazione dei messaggi, sia dell'utente che dell'assistente, in un layout intuitivo. I messaggi vengono presentati in contenitori di chat distinti, con avatar predefiniti o personalizzati, rendendo l'interazione più chiara e coinvolgente.
|
Grazie al componente \lstinline|st.chat_message|, è possibile creare interfacce di chat conversazionali. Questo componente si occupa di gestire la visualizzazione dei messaggi, sia dell'utente che dell'assistente, in un layout intuitivo. I messaggi vengono presentati in contenitori di chat distinti, con avatar predefiniti o personalizzati, rendendo l'interazione più chiara e coinvolgente.
|
||||||
Un'altra caratteristica fondamentale di Streamlit è la gestione dello stato della sessione tramite \lstinline|st.session_state|. Questo meccanismo permette all'applicazione di ricordare le informazioni tra le diverse interazioni dell'utente, garantendo un'esperienza utente fluida e coerente. Se si ritiene necessario mantenere la cronologia dei messaggi precedenti per consentire al modello di comprendere il contesto della conversazione \lstinline|st.session_state| permette di memorizzare questa cronologia e renderla disponibile durante l'interazione con l'utente. In questo modo, l'app può "ricordare" le domande e le risposte passate, offrendo un'esperienza simile ai chatbot a cui siamo abituati.
|
Un'altra caratteristica fondamentale di Streamlit è la gestione dello stato della sessione tramite \lstinline|st.session_state|. Questo meccanismo permette all'applicazione di ricordare le informazioni tra le diverse interazioni dell'utente, garantendo un'esperienza utente fluida e coerente. Se si ritiene necessario mantenere la cronologia dei messaggi precedenti per consentire al modello di comprendere il contesto della conversazione \lstinline|st.session_state| permette di memorizzare questa cronologia e renderla disponibile durante l'interazione con l'utente. In questo modo, l'app può \enquote{ricordare} le domande e le risposte passate, offrendo un'esperienza simile ai chatbot a cui siamo abituati.
|
||||||
Analizzando il codice, si può notare come:
|
Analizzando il codice, si può notare come:
|
||||||
Vengono importate le librerie necessarie, in particolare streamlit per l'interfaccia utente, \lstinline|google.generativeai| per le API di Gemini e os per la gestione delle variabili d'ambiente.
|
Vengono importate le librerie necessarie, in particolare streamlit per l'interfaccia utente, \lstinline|google.generativeai| per le API di Gemini e os per la gestione delle variabili d'ambiente.
|
||||||
|
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Viene configurata l'API di Gemini con la chiave API ottenuta da Google AI Studio e viene istanziato il modello.
|
\item Viene configurata l'API di Gemini con la chiave API ottenuta da Google AI Studio e viene istanziato il modello.
|
||||||
\item Si definisce un titolo per l'applicazione con \lstinline|st.title("Gemini Chatbot"|..
|
\item Si definisce un titolo per l'applicazione con \lstinline|st.title(\enquote{Gemini Chatbot}|..
|
||||||
\item Viene creato il componente \lstinline|st.session_state.messages| dove vengono salvati i messaggi della chat.
|
\item Viene creato il componente \lstinline|st.session_state.messages| dove vengono salvati i messaggi della chat.
|
||||||
\item Si cicla sul componente \lstinline|st.session_state.messages| per far comparire la cronologia della chat al caricamento della pagina.
|
\item Si cicla sul componente \lstinline|st.session_state.messages| per far comparire la cronologia della chat al caricamento della pagina.
|
||||||
\item Si utilizza il componente \lstinline|st.chat_input| per permettere all'utente di inserire un input e si controlla che non sia vuoto.
|
\item Si utilizza il componente \lstinline|st.chat_input| per permettere all'utente di inserire un input e si controlla che non sia vuoto.
|
||||||
|
|
|
||||||
|
|
@ -3,7 +3,7 @@
|
||||||
|
|
||||||
Intervista con personaggi storici e i loro scritti è un’applicazione che consente agli studenti di dialogare con le figure di Benito Mussolini e Salvador Allende. Si basa sul modello linguistico Google \textit{Gemini 1.5 Pro}. La sua peculiarità è l’ampio contesto di 2 milioni di token, che consente al modello di attingere a un vasto corpus di dati, costituito da tutti i discorsi pubblici disponibili dei due personaggi. Questa caratteristica permette a \textit{Gemini 1.5 Pro} di generare risposte articolate e ricche di sfumature, ma comporta anche un elevato costo computazionale. L’elaborazione di una tale mole di dati richiede risorse significative e questo si traduce in tempi di risposta più lunghi rispetto a sistemi con un contesto più limitato. Nella pianificazione delle attività didattiche, quindi, bisogna tenere conto di questo aspetto, prevedendo, ad esempio, momenti di discussione e riflessione nell’attesa delle risposte.
|
Intervista con personaggi storici e i loro scritti è un’applicazione che consente agli studenti di dialogare con le figure di Benito Mussolini e Salvador Allende. Si basa sul modello linguistico Google \textit{Gemini 1.5 Pro}. La sua peculiarità è l’ampio contesto di 2 milioni di token, che consente al modello di attingere a un vasto corpus di dati, costituito da tutti i discorsi pubblici disponibili dei due personaggi. Questa caratteristica permette a \textit{Gemini 1.5 Pro} di generare risposte articolate e ricche di sfumature, ma comporta anche un elevato costo computazionale. L’elaborazione di una tale mole di dati richiede risorse significative e questo si traduce in tempi di risposta più lunghi rispetto a sistemi con un contesto più limitato. Nella pianificazione delle attività didattiche, quindi, bisogna tenere conto di questo aspetto, prevedendo, ad esempio, momenti di discussione e riflessione nell’attesa delle risposte.
|
||||||
Per costruire questo modello, si è fatto ricorso ai discorsi pubblici di Allende, raccolti e digitalizzati a partire dall’archivio online \href{https://www.marxists.org/espanol/allende}. Questo sito è una risorsa gratuita per lo studio del pensiero e dell’azione politica di Allende. Analogamente, per il prompt di Benito Mussolini, ci si è basati sulla raccolta di discorsi e scritti disponibile su \href{https://www.adamoli.org/benito-mussolini}. Dopo un attento lavoro di scraping e pulizia dei testi, si è ottenuto il corpus di dati che costituisce la base di conoscenza dei due modelli. Questi testi sono la base su cui il modello si fonda per generare le risposte, ed è quindi fondamentale che tale base sia il più possibile completa e accurata. La lentezza del sistema è dovuta ai cinquecentonovantamila token che deve gestire per il prompt di sistema di Mussolini e dei circa un milione e quattrocento per Allende. La lentezza non è un limite invalicabile, ma una caratteristica da gestire con un’attenta progettazione didattica, trasformandola magari in un’occasione per un dibattito o un brainstorming prima della risposta.
|
Per costruire questo modello, si è fatto ricorso ai discorsi pubblici di Allende, raccolti e digitalizzati a partire dall’archivio online \href{https://www.marxists.org/espanol/allende}. Questo sito è una risorsa gratuita per lo studio del pensiero e dell’azione politica di Allende. Analogamente, per il prompt di Benito Mussolini, ci si è basati sulla raccolta di discorsi e scritti disponibile su \href{https://www.adamoli.org/benito-mussolini}. Dopo un attento lavoro di scraping e pulizia dei testi, si è ottenuto il corpus di dati che costituisce la base di conoscenza dei due modelli. Questi testi sono la base su cui il modello si fonda per generare le risposte, ed è quindi fondamentale che tale base sia il più possibile completa e accurata. La lentezza del sistema è dovuta ai cinquecentonovantamila token che deve gestire per il prompt di sistema di Mussolini e dei circa un milione e quattrocento per Allende. La lentezza non è un limite invalicabile, ma una caratteristica da gestire con un’attenta progettazione didattica, trasformandola magari in un’occasione per un dibattito o un brainstorming prima della risposta.
|
||||||
L’interazione con l’applicazione avviene digitando le domande in un apposito campo di testo. Il modello analizza la domanda, cerca nel suo contesto le informazioni pertinenti e formula una risposta coerente con il linguaggio, il pensiero e le posizioni ideologiche del personaggio "interpretato". Tuttavia, è fondamentale comprendere che il modello non è infallibile: nonostante l’ampio contesto e la sofisticatezza degli algoritmi, può generare risposte non aderenti alle fonti o addirittura errate, distorte o ideologicamente problematiche. Questo aspetto, però, può diventare un’occasione di apprendimento. Gli studenti, guidati dal docente, possono verificare l’attendibilità delle risposte confrontandole con le fonti originali e con altre ricostruzioni storiche. Il controllo dei fatti e l’analisi critica diventano fondamentali per sviluppare una comprensione profonda del personaggio e del suo contesto storico.
|
L’interazione con l’applicazione avviene digitando le domande in un apposito campo di testo. Il modello analizza la domanda, cerca nel suo contesto le informazioni pertinenti e formula una risposta coerente con il linguaggio, il pensiero e le posizioni ideologiche del personaggio \enquote{interpretato}. Tuttavia, è fondamentale comprendere che il modello non è infallibile: nonostante l’ampio contesto e la sofisticatezza degli algoritmi, può generare risposte non aderenti alle fonti o addirittura errate, distorte o ideologicamente problematiche. Questo aspetto, però, può diventare un’occasione di apprendimento. Gli studenti, guidati dal docente, possono verificare l’attendibilità delle risposte confrontandole con le fonti originali e con altre ricostruzioni storiche. Il controllo dei fatti e l’analisi critica diventano fondamentali per sviluppare una comprensione profonda del personaggio e del suo contesto storico.
|
||||||
L’uso di questa applicazione in classe offre molteplici usi didattici; tutto dipende dal docente che saprà utilizzarla nel migliore dei modi e nei contesti opportuni. Ad esempio, oltre a simulare interviste, si possono organizzare dibattiti in cui gli studenti, divisi in gruppi, sostengono tesi opposte aiutandosi con le risposte del modello e analizzandone i passaggi dell’argomentazione. Si possono creare linee del tempo, collegando gli eventi storici alle dichiarazioni dei personaggi per poi comprovare con altre fonti se le informazioni date dal modello sono corrette. Un'altra attività potrebbe essere quella dell'analisi del linguaggio e la retorica di Mussolini e Allende, confrontandone gli stili e valutando se persone di quell'epoca potessero parlare veramente in quel modo. Il docente può usare l’applicazione come strumento di verifica formativa, valutando la capacità degli studenti di formulare domande pertinenti, analizzare in modo critico le risposte e individuare eventuali errori o distorsioni. Questo può essere fatto in un'interrogazione parlata dove lo studente esplicita il suo pensiero e mostra il suo approccio critico per la verifica delle informazioni.
|
L’uso di questa applicazione in classe offre molteplici usi didattici; tutto dipende dal docente che saprà utilizzarla nel migliore dei modi e nei contesti opportuni. Ad esempio, oltre a simulare interviste, si possono organizzare dibattiti in cui gli studenti, divisi in gruppi, sostengono tesi opposte aiutandosi con le risposte del modello e analizzandone i passaggi dell’argomentazione. Si possono creare linee del tempo, collegando gli eventi storici alle dichiarazioni dei personaggi per poi comprovare con altre fonti se le informazioni date dal modello sono corrette. Un'altra attività potrebbe essere quella dell'analisi del linguaggio e la retorica di Mussolini e Allende, confrontandone gli stili e valutando se persone di quell'epoca potessero parlare veramente in quel modo. Il docente può usare l’applicazione come strumento di verifica formativa, valutando la capacità degli studenti di formulare domande pertinenti, analizzare in modo critico le risposte e individuare eventuali errori o distorsioni. Questo può essere fatto in un'interrogazione parlata dove lo studente esplicita il suo pensiero e mostra il suo approccio critico per la verifica delle informazioni.
|
||||||
|
|
||||||
Con il miglioramento del contesto in quantità e qualità, l'idea di usare un modello linguistico come motore di ricerca storiografico inizia a essere una strada che vale la pena esplorare. Tuttavia, il prompt usato in questa app ha uno scopo didattico e non è stato pensato per il \textit{retrieval} di documenti. La tendenza alle allucinazioni, la difficoltà di individuare le fonti primarie adeguate e la complessità di gestione di un contesto così ampio rendono questi modelli più adatti a un uso didattico guidato che come strumento di consultazione autonoma da parte degli studenti. Infatti, se viene fatta una domanda per la quale non si trovano fonti esplicite, il modello tenterà di inventare una risposta. Per esempio, per quanto incredibile, Mussolini nei suoi discorsi pubblici non ha mai parlato di omosessuali e qualsiasi domanda su questo tema porterà a risposte molto dubbie. Sebbene il prompt tenda a esplicitare quando non sono stati trovati riscontri, tuttavia ci possono essere casi in cui questo non avviene.
|
Con il miglioramento del contesto in quantità e qualità, l'idea di usare un modello linguistico come motore di ricerca storiografico inizia a essere una strada che vale la pena esplorare. Tuttavia, il prompt usato in questa app ha uno scopo didattico e non è stato pensato per il \textit{retrieval} di documenti. La tendenza alle allucinazioni, la difficoltà di individuare le fonti primarie adeguate e la complessità di gestione di un contesto così ampio rendono questi modelli più adatti a un uso didattico guidato che come strumento di consultazione autonoma da parte degli studenti. Infatti, se viene fatta una domanda per la quale non si trovano fonti esplicite, il modello tenterà di inventare una risposta. Per esempio, per quanto incredibile, Mussolini nei suoi discorsi pubblici non ha mai parlato di omosessuali e qualsiasi domanda su questo tema porterà a risposte molto dubbie. Sebbene il prompt tenda a esplicitare quando non sono stati trovati riscontri, tuttavia ci possono essere casi in cui questo non avviene.
|
||||||
|
|
@ -90,11 +90,11 @@ Per favore, fornisci la tua risposta, inclusa la citazione (se applicabile), il
|
||||||
|
|
||||||
% \textit{<citation>: Includi una o più citazioni pertinenti tratte dal contesto fornito di Allende che si riferiscono al messaggio dell’utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:}
|
% \textit{<citation>: Includi una o più citazioni pertinenti tratte dal contesto fornito di Allende che si riferiscono al messaggio dell’utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:}
|
||||||
|
|
||||||
% \textit{"Citazione dal documento" - Titolo del Documento}
|
% \textit{\enquote{Citazione dal documento} - Titolo del Documento}
|
||||||
|
|
||||||
% \textit{Cerca di includere tutti i passaggi pertinenti, senza limiti di numero, ma non includere citazioni non pertinenti per la risposta da dare.}
|
% \textit{Cerca di includere tutti i passaggi pertinenti, senza limiti di numero, ma non includere citazioni non pertinenti per la risposta da dare.}
|
||||||
|
|
||||||
% \textit{<reasoning>: Spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un’analisi storica e riflessiva pertinente all’ideologia e alle azioni di Allende, dando il nome del documento e dei passaggi più importanti che hanno influenzato la tua risposta. Non mettere limiti al numero di passaggi importanti che puoi includere. Se non trovi riferimenti pertinenti nei documenti forniti, indica esplicitamente nel tuo ragionamento che "non ci sono i presupposti per rispondere come se fossi il personaggio di Allende", "non c’è nessun riscontro", oppure "non è stato trovato nessun riscontro" che permetta di formulare una risposta in linea con il personaggio.}
|
% \textit{<reasoning>: Spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un’analisi storica e riflessiva pertinente all’ideologia e alle azioni di Allende, dando il nome del documento e dei passaggi più importanti che hanno influenzato la tua risposta. Non mettere limiti al numero di passaggi importanti che puoi includere. Se non trovi riferimenti pertinenti nei documenti forniti, indica esplicitamente nel tuo ragionamento che \enquote{non ci sono i presupposti per rispondere come se fossi il personaggio di Allende}, \enquote{non c’è nessun riscontro}, oppure \enquote{non è stato trovato nessun riscontro} che permetta di formulare una risposta in linea con il personaggio.}
|
||||||
|
|
||||||
% \textit{Linee guida per parlare come Allende:}
|
% \textit{Linee guida per parlare come Allende:}
|
||||||
|
|
||||||
|
|
@ -166,4 +166,3 @@ Per questa ragione, l'obiettivo della app non è sostituire lo studio tradiziona
|
||||||
\includegraphics[width=0.8\linewidth]{immagini/Allende.png}
|
\includegraphics[width=0.8\linewidth]{immagini/Allende.png}
|
||||||
\caption{Screenshot della app interviste con personaggi storici e i loro scritti- A Salvator Allende è stato chiesto un parere sulla rivoluzione cubana}
|
\caption{Screenshot della app interviste con personaggi storici e i loro scritti- A Salvator Allende è stato chiesto un parere sulla rivoluzione cubana}
|
||||||
\label{fig:enter-label}
|
\label{fig:enter-label}
|
||||||
\end{figure}
|
|
||||||
|
|
@ -12,7 +12,7 @@ Come nelle altre applicazioni, la gestione delle allucinazioni e risposte non de
|
||||||
|
|
||||||
Per chi necessita un’analisi più approfondita del processo di generazione delle risposte, è disponibile una versione con “catena di pensiero” (Chain of Thought, CoT). Questa funzionalità mostra i passaggi logici compiuti dal modello per arrivare alla risposta finale. La CoT non garantisce una maggiore precisione, ma offre una prospettiva didattica diversa, permettendo agli studenti di “sbirciare nella mente” dell’IA, capirne meglio i meccanismi e individuare eventuali errori di ragionamento, al di là delle semplici inesattezze sui fatti. L’attivazione della CoT, quindi, aggiunge complessità e riflessione all’attività didattica, stimolando una comprensione più profonda del funzionamento dei modelli linguistici. Se il docente attiva questa modalità, alla fine della risposta dell’IA compare una spiegazione del ragionamento seguito e l’elenco degli estratti della fonte utilizzati. Ciò rende ancora più evidente la presenza di eventuali errori o allucinazioni del modello senza CoT e inoltre permette allo studente di capire meglio il legame tra la fonte e la risposta generata.
|
Per chi necessita un’analisi più approfondita del processo di generazione delle risposte, è disponibile una versione con “catena di pensiero” (Chain of Thought, CoT). Questa funzionalità mostra i passaggi logici compiuti dal modello per arrivare alla risposta finale. La CoT non garantisce una maggiore precisione, ma offre una prospettiva didattica diversa, permettendo agli studenti di “sbirciare nella mente” dell’IA, capirne meglio i meccanismi e individuare eventuali errori di ragionamento, al di là delle semplici inesattezze sui fatti. L’attivazione della CoT, quindi, aggiunge complessità e riflessione all’attività didattica, stimolando una comprensione più profonda del funzionamento dei modelli linguistici. Se il docente attiva questa modalità, alla fine della risposta dell’IA compare una spiegazione del ragionamento seguito e l’elenco degli estratti della fonte utilizzati. Ciò rende ancora più evidente la presenza di eventuali errori o allucinazioni del modello senza CoT e inoltre permette allo studente di capire meglio il legame tra la fonte e la risposta generata.
|
||||||
|
|
||||||
Le possibilità di applicazione didattica sono molteplici. Gli studenti possono preparare domande mirate su un argomento, analizzare criticamente le risposte, organizzare dibattiti basati sulle informazioni fornite dal modello o affrontare interviste "scomode" su temi controversi, disattivando i guardrail per esplorare anche gli aspetti più problematici di un personaggio o di un evento storico. L'applicazione può essere usata per verifiche formative, per stimolare la ricerca autonoma e per approfondire specifici temi consultando fonti aggiuntive. Anche in questo caso, il docente ha un ruolo centrale nel guidare gli studenti, nello stimolare la riflessione critica e nell'integrare l'applicazione in un percorso didattico più ampio. L'obiettivo è promuovere una conoscenza più profonda, consapevole e critica del mondo, sfruttando le potenzialità dell'intelligenza artificiale in modo responsabile e costruttivo.
|
Le possibilità di applicazione didattica sono molteplici. Gli studenti possono preparare domande mirate su un argomento, analizzare criticamente le risposte, organizzare dibattiti basati sulle informazioni fornite dal modello o affrontare interviste \enquote{scomode} su temi controversi, disattivando i guardrail per esplorare anche gli aspetti più problematici di un personaggio o di un evento storico. L'applicazione può essere usata per verifiche formative, per stimolare la ricerca autonoma e per approfondire specifici temi consultando fonti aggiuntive. Anche in questo caso, il docente ha un ruolo centrale nel guidare gli studenti, nello stimolare la riflessione critica e nell'integrare l'applicazione in un percorso didattico più ampio. L'obiettivo è promuovere una conoscenza più profonda, consapevole e critica del mondo, sfruttando le potenzialità dell'intelligenza artificiale in modo responsabile e costruttivo.
|
||||||
|
|
||||||
Il sistema utilizza un prompt di base che istruisce il modello a comportarsi come il soggetto della pagina Wikipedia fornita, rispondendo alle domande sulla base di quel contenuto.
|
Il sistema utilizza un prompt di base che istruisce il modello a comportarsi come il soggetto della pagina Wikipedia fornita, rispondendo alle domande sulla base di quel contenuto.
|
||||||
|
|
||||||
|
|
@ -66,7 +66,7 @@ Questa modalità di interazione si presta bene all’analisi di qualsiasi pagina
|
||||||
L’applicazione non si limita a mettere a confronto i contenuti. Come per le applicazioni descritte in precedenza, anche in questo caso assume un ruolo centrale l’analisi critica delle risposte, con una particolare attenzione a riconoscere le eventuali allucinazioni del modello. Gli studenti sono invitati a verificare quanto le risposte siano aderenti alle fonti di Wikipedia, a individuare inesattezze, omissioni o distorsioni e a formulare ipotesi sulle cause di tali discrepanze. Questo processo non solo affina le competenze di analisi delle fonti, ma innesca anche una riflessione sul funzionamento stesso del modello linguistico e sulla varietà di punti di vista che qualsiasi avvenimento può avere. L'obiettivo è che gli studenti si facciano domande del tipo: perché il modello ha risposto in questo modo? Quali elementi ha selezionato e come li ha interpretati? In che modo il linguaggio e la struttura della pagina hanno influenzato la risposta?
|
L’applicazione non si limita a mettere a confronto i contenuti. Come per le applicazioni descritte in precedenza, anche in questo caso assume un ruolo centrale l’analisi critica delle risposte, con una particolare attenzione a riconoscere le eventuali allucinazioni del modello. Gli studenti sono invitati a verificare quanto le risposte siano aderenti alle fonti di Wikipedia, a individuare inesattezze, omissioni o distorsioni e a formulare ipotesi sulle cause di tali discrepanze. Questo processo non solo affina le competenze di analisi delle fonti, ma innesca anche una riflessione sul funzionamento stesso del modello linguistico e sulla varietà di punti di vista che qualsiasi avvenimento può avere. L'obiettivo è che gli studenti si facciano domande del tipo: perché il modello ha risposto in questo modo? Quali elementi ha selezionato e come li ha interpretati? In che modo il linguaggio e la struttura della pagina hanno influenzato la risposta?
|
||||||
Il docente sarà portato a stimolare gli studenti a formulare domande pertinenti e significative, a confrontare in modo critico le risposte ottenute, aiutandoli a individuare le allucinazioni e a riflettere sulle loro possibili cause. Può inoltre arricchire l’attività didattica integrando altre fonti, proponendo approfondimenti e guidando la discussione in classe.
|
Il docente sarà portato a stimolare gli studenti a formulare domande pertinenti e significative, a confrontare in modo critico le risposte ottenute, aiutandoli a individuare le allucinazioni e a riflettere sulle loro possibili cause. Può inoltre arricchire l’attività didattica integrando altre fonti, proponendo approfondimenti e guidando la discussione in classe.
|
||||||
|
|
||||||
Un esempio concreto di attività didattica potrebbe essere il seguente: il docente seleziona due pagine Wikipedia, una su Benito Mussolini e una su Giacomo Matteotti. Gli studenti, dopo averle lette attentamente, formulano una domanda come: "Qual era la tua opinione sulla democrazia parlamentare?". Le due risposte, generate in parallelo, offriranno due prospettive diametralmente opposte, permettendo di cogliere le differenze ideologiche e politiche tra i due personaggi. Il passaggio successivo consisterà nell’analizzare le risposte, individuando le parti che trovano riscontro nelle pagine Wikipedia e quelle che, invece, appaiono come allucinazioni o interpretazioni forzate del modello.
|
Un esempio concreto di attività didattica potrebbe essere il seguente: il docente seleziona due pagine Wikipedia, una su Benito Mussolini e una su Giacomo Matteotti. Gli studenti, dopo averle lette attentamente, formulano una domanda come: \enquote{Qual era la tua opinione sulla democrazia parlamentare?}. Le due risposte, generate in parallelo, offriranno due prospettive diametralmente opposte, permettendo di cogliere le differenze ideologiche e politiche tra i due personaggi. Il passaggio successivo consisterà nell’analizzare le risposte, individuando le parti che trovano riscontro nelle pagine Wikipedia e quelle che, invece, appaiono come allucinazioni o interpretazioni forzate del modello.
|
||||||
|
|
||||||
Intervista doppia si configura dunque come uno strumento potente per promuovere non solo la conoscenza storica, ma anche lo sviluppo di competenze trasversali, quali il pensiero critico, l’analisi delle fonti, la capacità di argomentazione e la consapevolezza dei limiti e delle potenzialità delle tecnologie digitali. Attraverso un utilizzo guidato e consapevole, questa applicazione può contribuire a rendere la didattica più interattiva, coinvolgente e stimolante, avvicinando gli studenti al passato in modo innovativo e critico. Inoltre, la riflessione sulle allucinazioni e sul funzionamento del modello linguistico apre interessanti prospettive per l’educazione digitale e per la comprensione dei meccanismi che regolano la produzione e la diffusione della conoscenza nell'era dell'intelligenza artificiale.
|
Intervista doppia si configura dunque come uno strumento potente per promuovere non solo la conoscenza storica, ma anche lo sviluppo di competenze trasversali, quali il pensiero critico, l’analisi delle fonti, la capacità di argomentazione e la consapevolezza dei limiti e delle potenzialità delle tecnologie digitali. Attraverso un utilizzo guidato e consapevole, questa applicazione può contribuire a rendere la didattica più interattiva, coinvolgente e stimolante, avvicinando gli studenti al passato in modo innovativo e critico. Inoltre, la riflessione sulle allucinazioni e sul funzionamento del modello linguistico apre interessanti prospettive per l’educazione digitale e per la comprensione dei meccanismi che regolano la produzione e la diffusione della conoscenza nell'era dell'intelligenza artificiale.
|
||||||
|
|
||||||
|
|
@ -78,4 +78,3 @@ Intervista doppia si configura dunque come uno strumento potente per promuovere
|
||||||
\end{figure}
|
\end{figure}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|
@ -1,5 +1,5 @@
|
||||||
\chapter{Indovina chi}
|
\chapter{Indovina chi}
|
||||||
\textit{Indovina chi} è un’applicazione basata sul modello linguistico \textit{Google Gemini 1.5 Pro}, pensata come un gioco di ruolo didattico interattivo per rendere l’apprendimento della storia più dinamico e coinvolgente. L’idea prevede che gli studenti, guidati dall’insegnante, debbano identificare un personaggio storico o un concetto (come la “Primavera di Praga” o lo “Stato di diritto”) attraverso una serie di domande mirate, rivolte a un’IA che "interpreta" il soggetto da indovinare. Lo studente non sa quale personaggio è stato scelto. Questo approccio ludico trasforma la lezione in un’indagine collettiva, stimolando la curiosità, il ragionamento deduttivo e la capacità di formulare ipotesi.
|
\textit{Indovina chi} è un’applicazione basata sul modello linguistico \textit{Google Gemini 1.5 Pro}, pensata come un gioco di ruolo didattico interattivo per rendere l’apprendimento della storia più dinamico e coinvolgente. L’idea prevede che gli studenti, guidati dall’insegnante, debbano identificare un personaggio storico o un concetto (come la “Primavera di Praga” o lo “Stato di diritto”) attraverso una serie di domande mirate, rivolte a un’IA che \enquote{interpreta} il soggetto da indovinare. Lo studente non sa quale personaggio è stato scelto. Questo approccio ludico trasforma la lezione in un’indagine collettiva, stimolando la curiosità, il ragionamento deduttivo e la capacità di formulare ipotesi.
|
||||||
L’attività inizia con l’insegnante che, dopo aver effettuato l’accesso con la propria chiave API di Google, seleziona il personaggio o il concetto da far indovinare e inserisce il link alla relativa pagina Wikipedia. Questa pagina diventa la base di conoscenza dell’IA, il contesto da cui attingerà per formulare le risposte. È importante che l’insegnante scelga pagine Wikipedia complete e ben strutturate, per garantire un’esperienza di gioco efficace e formativa. Una volta impostato il tutto, gli studenti possono iniziare a interagire con l’IA.
|
L’attività inizia con l’insegnante che, dopo aver effettuato l’accesso con la propria chiave API di Google, seleziona il personaggio o il concetto da far indovinare e inserisce il link alla relativa pagina Wikipedia. Questa pagina diventa la base di conoscenza dell’IA, il contesto da cui attingerà per formulare le risposte. È importante che l’insegnante scelga pagine Wikipedia complete e ben strutturate, per garantire un’esperienza di gioco efficace e formativa. Una volta impostato il tutto, gli studenti possono iniziare a interagire con l’IA.
|
||||||
Le modalità di utilizzo in classe sono molteplici. Una prima possibilità è l’interrogazione individuale: uno studente pone le domande all’IA, mentre il resto della classe segue con attenzione, partecipando indirettamente all’indagine. Questo formato trasforma la classica interrogazione in un’attività collettiva, in cui tutti sono coinvolti nel processo di scoperta. L’insegnante, in questo caso, può intervenire per aiutare lo studente a formulare domande più efficaci, per evidenziare collegamenti interdisciplinari o per approfondire aspetti specifici emersi durante l’interazione, come ad esempio errori del modello e allucinazioni. Si rivela particolarmente efficace la tecnica del think-aloud o interrogazione parlata: lo studente è incoraggiato a esprimere ad alta voce i propri pensieri e il proprio ragionamento mentre formula le domande e analizza le risposte dell’IA. Questo metodo rende trasparente il processo di pensiero dello studente, permettendo all’insegnante e ai compagni di seguirne le logiche e le strategie, e favorisce una maggiore consapevolezza metacognitiva, aiutando lo studente a riflettere sul proprio modo di apprendere e di risolvere i problemi.
|
Le modalità di utilizzo in classe sono molteplici. Una prima possibilità è l’interrogazione individuale: uno studente pone le domande all’IA, mentre il resto della classe segue con attenzione, partecipando indirettamente all’indagine. Questo formato trasforma la classica interrogazione in un’attività collettiva, in cui tutti sono coinvolti nel processo di scoperta. L’insegnante, in questo caso, può intervenire per aiutare lo studente a formulare domande più efficaci, per evidenziare collegamenti interdisciplinari o per approfondire aspetti specifici emersi durante l’interazione, come ad esempio errori del modello e allucinazioni. Si rivela particolarmente efficace la tecnica del think-aloud o interrogazione parlata: lo studente è incoraggiato a esprimere ad alta voce i propri pensieri e il proprio ragionamento mentre formula le domande e analizza le risposte dell’IA. Questo metodo rende trasparente il processo di pensiero dello studente, permettendo all’insegnante e ai compagni di seguirne le logiche e le strategie, e favorisce una maggiore consapevolezza metacognitiva, aiutando lo studente a riflettere sul proprio modo di apprendere e di risolvere i problemi.
|
||||||
Un’alternativa è il lavoro a piccoli gruppi. Gli studenti, divisi in squadre, collaborano nella formulazione delle domande, confrontandosi sulle strategie più efficaci e sulle ipotesi da formulare. Per rendere l’attività ancora più dinamica e competitiva, si possono organizzare delle gare tra gruppi, sia in parallelo (vince chi indovina per primo) sia in sequenza (vince chi indovina con il minor numero di domande).
|
Un’alternativa è il lavoro a piccoli gruppi. Gli studenti, divisi in squadre, collaborano nella formulazione delle domande, confrontandosi sulle strategie più efficaci e sulle ipotesi da formulare. Per rendere l’attività ancora più dinamica e competitiva, si possono organizzare delle gare tra gruppi, sia in parallelo (vince chi indovina per primo) sia in sequenza (vince chi indovina con il minor numero di domande).
|
||||||
|
|
@ -103,4 +103,3 @@ Risultato: [Corretto/Sbagliato]
|
||||||
\includegraphics[width=0.9\linewidth]{immagini/screen2 idnovina chi.png}
|
\includegraphics[width=0.9\linewidth]{immagini/screen2 idnovina chi.png}
|
||||||
\caption{Screenshot della app \textit{Indovina chi}: è stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto. L'utente ha commesso un errore, credendo che si trattasse del condottiero romano Giulio Cesare}
|
\caption{Screenshot della app \textit{Indovina chi}: è stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto. L'utente ha commesso un errore, credendo che si trattasse del condottiero romano Giulio Cesare}
|
||||||
\label{fig:enter-label}
|
\label{fig:enter-label}
|
||||||
\end{figure}
|
|
||||||
|
|
@ -13,4 +13,3 @@ Nonostante le loro preoccupazioni, molti docenti stanno provando con cautela a i
|
||||||
|
|
||||||
Il presente elaborato si propone di osservare le potenzialità dell’IA Generativa nell’insegnamento della storia, integrandola attivamente nel percorso educativo e sviluppando strumenti e metodi che ne valorizzino i benefici e che contrastino un uso passivo e acritico. In particolare, sarà presentato un modello didattico basato sul gioco di ruolo con l’aiuto dell’IA, presentando una serie di strumenti disponibili sulla piattaforma “IntervisteStoriche.tech”. Questo approccio mira a stimolare il pensiero critico, la collaborazione e la creatività degli studenti, offrendo ai docenti la possibilità di personalizzare le lezioni e provare nuove forme di valutazione. Si tratta di proposte e idee didattiche che possono essere utili ai docenti per rinnovare l’ora di storia, ma anche di attività che le case editrici potrebbero integrare facilmente, valorizzando così la grande quantità di conoscenza di cui detengono i diritti d’autore. Questa proposta, però, non esclude una riflessione più ampia sulle conseguenze dell’IA nell’istruzione, considerando aspetti importanti come i costi, la privacy e la responsabilità nell’uso di queste tecnologie in contesti scolastici.
|
Il presente elaborato si propone di osservare le potenzialità dell’IA Generativa nell’insegnamento della storia, integrandola attivamente nel percorso educativo e sviluppando strumenti e metodi che ne valorizzino i benefici e che contrastino un uso passivo e acritico. In particolare, sarà presentato un modello didattico basato sul gioco di ruolo con l’aiuto dell’IA, presentando una serie di strumenti disponibili sulla piattaforma “IntervisteStoriche.tech”. Questo approccio mira a stimolare il pensiero critico, la collaborazione e la creatività degli studenti, offrendo ai docenti la possibilità di personalizzare le lezioni e provare nuove forme di valutazione. Si tratta di proposte e idee didattiche che possono essere utili ai docenti per rinnovare l’ora di storia, ma anche di attività che le case editrici potrebbero integrare facilmente, valorizzando così la grande quantità di conoscenza di cui detengono i diritti d’autore. Questa proposta, però, non esclude una riflessione più ampia sulle conseguenze dell’IA nell’istruzione, considerando aspetti importanti come i costi, la privacy e la responsabilità nell’uso di queste tecnologie in contesti scolastici.
|
||||||
|
|
||||||
\clearpage
|
|
||||||
Loading…
Add table
Add a link
Reference in a new issue