\chapter{Rischi e opportunità per l’istruzione} L’integrazione dell’IA nell’educazione offre opportunità significative, ma solleva anche criticità che meritano un’analisi attenta. Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che l’accesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere l’apprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo \enquote{effetto stampella} evidenzia come la dipendenza dall’IA possa inibire lo sviluppo autonomo delle competenze. L’introduzione di IA progettate per salvaguardare l’apprendimento, come i \enquote{GPT Tutor}, può però mitigare questo effetto, suggerendo che un’integrazione mirata e consapevole dell’IA nell’educazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come l’utilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nell’argomentazione delle loro conclusioni. Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). L’IA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024). Inoltre, l’uso dei LLM da parte degli studenti solleva preoccupazioni relative all’etica e all’integrità accademica. Ad esempio, uno studio di Hua (2023) ha messo in luce come la dipendenza da strumenti di IA sia diffusa tra gli studenti universitari e come questo fenomeno sia correlato a problemi di disonestà accademica durante le prove di esame. Sebbene manchino dati precisi sulla diffusione del cheating tramite LLM, la questione è di crescente importanza nel dibattito sull’etica dell’IA nell’educazione. La capacità di questi strumenti di generare risposte plausibili e ben formulate, senza un reale processo di elaborazione e comprensione personale da parte dello studente, pone interrogativi cruciali sull’efficacia e sull’equità delle valutazioni. Infine, un ultimo problema riguarda la relazione educativa. Sembra, infatti, che gli studenti preferiscano i tutor virtuali (Seo et al., 2021), probabilmente per la loro disponibilità costante e per la rapidità delle risposte. Questo toglie però molto alla didattica, che si basa su di una dinamica comunicativa e sociale. È importante riconoscere come l’IA, usata in modo appropriato, possa anche potenziare il processo di apprendimento. L’analisi della letteratura recente evidenzia che l’IA può fornire un supporto personalizzato agli studenti, adattando i contenuti didattici alle loro esigenze e ai loro ritmi. Gli strumenti basati sull’IA possono infatti analizzare le performance individuali, identificare punti di forza e di debolezza e creare percorsi educativi personalizzati. Questo approccio non solo migliora l’efficacia dell’insegnamento, ma può anche ridurre il divario di rendimento tra studenti con diverse capacità. In quest’ottica, particolarmente rilevante è il ruolo dell’IA nell’inclusione didattica, dove tecnologie come il riconoscimento vocale e la sintesi vocale possono supportare studenti con disabilità, rendendo l’istruzione più accessibile ed equa. Inoltre, l’automazione di compiti amministrativi e valutativi ripetitivi permette agli insegnanti di dedicare più tempo all’interazione diretta con gli studenti e alla progettazione didattica innovativa. L’IA potrebbe rappresentare l’impulso necessario per una nuova riforma scolastica. L’unica forma di difesa, a parere di chi scrive, è ripensare completamente il sistema di valutazione e parte del processo didattico. Bisogna chiedersi cosa significhi fare un esame di questi tempi, cosa voglia dire “conoscenza” e quali siano le abilità che saranno davvero necessarie agli studenti. I compiti a casa servono a qualcosa? Qual è, ad esempio, la necessità di una conoscenza mnemonica in un mondo in cui, con la rapidità di un click sullo smartphone, si possono avere risposte di qualsiasi tipo, svolgere esercizi e avere a disposizione un assistente esperto in tutto? \section{L'integrità} La diffusione dei sistemi di IA Generativa ha immediatamente sollevato preoccupazioni riguardo alla tutela dell’integrità, specie quella accademica. Valori fondamentali come onestà, fiducia, equità, rispetto e responsabilità, pilastri della formazione e della ricerca, sono stati messi alla prova. La digitalizzazione, con la sua offerta di risorse online pressoché illimitate, aveva già creato problemi complessi legati all’attribuzione corretta delle fonti e alla prevenzione del plagio. L’IA Generativa, tuttavia, introduce un elemento nuovo e potenzialmente dirompente, creando testi di sorprendente coerenza e articolazione su diversi argomenti. Saggi, relazioni e persino articoli accademici raggiungono una qualità tale da sembrare indistinguibili da quelli scritti da persone, tanto che alcuni sono stati pubblicati, come accaduto con l’articolo di Zaitsu e Jin (2023), nel quale una prima revisione umana aveva ignorato un intero paragrafo scritto da ChatGPT, evidenziando la difficoltà nel distinguere i contenuti generati dall’IA da quelli prodotti da esseri umani. Questa dinamica in discussione il concetto stesso di originalità e creatività nell’ambito accademico, ridefinendo i criteri di valutazione di articoli, saggi, elaborati, ma anche di semplici esami e compiti a casa. La facilità di accesso agli strumenti di IA e l’alta qualità dei testi prodotti rappresentano una sfida per i metodi di valutazione tradizionali e i sistemi antiplagio. Questi software, progettati per trovare corrispondenze con testi esistenti, sono inefficaci contro i contenuti creati dall’IA. Pur non essendo copiati, tali elaborati mancano di originalità accademica, poiché privi di un contributo intellettuale autentico dello studente e di una reale novità scientifica, essendo di fatto strumenti che rielaborano informazioni esistenti con difficoltà a produrre concetti nuovi. Mentre alcuni potrebbero sostenere che usare l’IA non sia diverso dal consultare enciclopedie o motori di ricerca, la sua capacità di generare contenuti complessi e apparentemente originali, senza un vero impegno da parte dello studente, compromette l’apprendimento e lo sviluppo del pensiero critico, elementi essenziali nella formazione. Di conseguenza, i compiti a casa nelle scuole o la scrittura di saggi all’università richiedono oggi una revisione degli obiettivi e dei metodi didattici. È quindi necessario progettare nuove forme di valutazione, capaci di promuovere un apprendimento autentico e lo sviluppo di competenze specifiche per l’era dell’IA, come il pensiero critico e la sintesi originale di informazioni. \subsection{Strategie e approcci per preservare l’integrità accademica} Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che l’IA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso l’uso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare l’IA, ne stanno esplorando l’integrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dell’IA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza l’IA, ma che l’IA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dell’esposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo. Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dell’IA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa l’IA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sull’uso dell’IA: cosa è consentito, quali prompt sono accettabili e come documentarne l’utilizzo. Una soluzione potrebbe essere allegare un’appendice con la conversazione avuta con l’IA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire l’autenticità, come \enquote{Authorship} di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dell’IA. Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. L’articolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dall’IA. Servono quindi soluzioni che bilancino l’uso dell’IA come supporto con l’originalità e l’integrità della ricerca. Tuttavia, se ben utilizzata, l’IA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). Un’IA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dell’esperimento, in alcune discipline l’IA potrebbe effettuare un’ulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, un’IA in futuro potrebbe controllare quest’ultimo in modo più approfondito e segnalare eventuali problemi ai revisori. L’uso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come l’IA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024). \section{Il riconoscimento dei contenuti prodotti dall'IA} L’idea più semplice per affrontare il problema è identificare un testo scritto da un’IA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende l’identificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come l’analisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere l’identificazione più affidabile. Il \textit{watermarking}, una tecnica emergente, mira a garantire l’autenticità e la proprietà intellettuale dei testi generati dall’IA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne l’origine e prevenire l’uso non autorizzato. Esistono watermarking \enquote{hard} e \enquote{soft}: i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dell’utente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando l’alto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a un’istituzione educativa di accertare, almeno in parte, la provenienza di un testo. Un’altra strategia è la \textit{stilometria}, ovvero l’applicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nell’ambito del riconoscimento di testi generati da IA, l’analisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali. Tuttavia, come evidenziato nello studio di Chaka (2024), l’affidabilità degli strumenti di rilevamento dell’IA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano un’affidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dell’IA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con un’elevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa l’IA generativa. Inoltre, l’idea che i testi generati dall’IA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: l’uomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce l’efficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e l’adattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e l’alto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua \enquote{caccia all’IA} nell’ambito scolastico è controproducente. È preferibile prevenire, scoraggiando l’uso indiscriminato dell’IA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse. Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo. \section{IA come alleata della didattica} L’introduzione dell’IA Generativa nelle scuole non va temuta, ma gestita con attenzione. Ad esempio, la correzione automatica di compiti e testi offre agli insegnanti la possibilità di ridurre il carico di lavoro, liberandoli da attività ripetitive, e di dedicarsi di più all’interazione con gli studenti e alla personalizzazione dell’apprendimento (Chen et al., 2020). Nella valutazione e correzione tradizionale, i docenti sono spesso influenzati da pregiudizi involontari legati allo stile di scrittura, alle caratteristiche degli studenti o alla presentazione del compito. L’IA, se ben programmata, analizza solo gli aspetti oggettivi del compito, come l’organizzazione delle idee, la loro connessione e la struttura dei contenuti (Yakkala, 2024). Inoltre, permette di rendere uniformi i criteri di valutazione, garantendo che tutti gli studenti siano valutati con gli stessi parametri. Questo è particolarmente utile in contesti di apprendimento con molti partecipanti, come i MOOC. È però importante ricordare che l’efficacia dell’IA nel ridurre i pregiudizi dipende dalla qualità e dalla varietà dei dati usati per “addestrarla”: se anche questi dati contengono pregiudizi, l’algoritmo potrebbe ripeterli. Per questo motivo, è fondamentale che le scuole adottino standard etici rigorosi e scelgano le tecnologie migliori (Azzahra, 2024). Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale l’insegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare l’IA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dell’insegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che l’IA Generativa, per ora, non riesce a riprodurre in modo autentico. Un’idea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o l’analisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti l’uomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per l’IA. Per garantire l’onestà nello studio, si può anche limitare l’accesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui l’IA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia. In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dall’IA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano un’IA come tutor didattico per studiare un argomento e svolgere esercizi. L’IA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, l’IA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare l’IA generativa porterebbe a un’inutile ricerca di colpevoli e all’acquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dell’IA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a \enquote{parlare} come l’IA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024). Un’altra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sull’apprendimento durante il percorso e consente di adattare l’insegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, un’IA Generativa specifica può aiutare l’insegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora l’apprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con l’IA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; l’IA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dall’IA, danno il loro parere; l’insegnante controlla l’attività, analizza i riscontri con l’aiuto dell’IA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dall’IA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. L’integrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo. Un’ulteriore strategia è lo sviluppo dell’internal feedback. Come spiega Nicol (2020), l’internal feedback è un processo mentale che permette agli studenti di creare nuove conoscenze confrontando le proprie competenze con informazioni di riferimento. È un meccanismo naturale che si attiva durante l’apprendimento. Nell’era dell’IA, questo riscontro interno è fondamentale per stimolare la valutazione critica e la ricerca autonoma. L’insegnante facilita questo processo, incoraggiando gli studenti a renderlo esplicito (Nicol \& McCallum, 2022; Nicol \& Selvaretnam, 2022). Tale esplicitazione, attraverso la scrittura o la discussione, ha effetti positivi sulla consapevolezza del proprio apprendimento, perché rende visibile il pensiero e aiuta a capire dove migliorare. Anche la tecnica del \textit{think aloud} è una strategia efficace per la valutazione: lo studente dice ad alta voce il proprio ragionamento durante l’interrogazione. Questa tecnica può essere usata in modo nuovo per l’analisi critica delle risposte dell’IA, che permette agli studenti di valutarle e correggerle. Infine, l’approccio di \textit{Authoring by Editing} proposto da Aguilar et al. (2024) suggerisce un modello interessante in cui gli studenti interagiscono attivamente con l’IA, non solo come utilizzatori passivi di contenuti creati automaticamente, ma come revisori critici che migliorano i testi prodotti dall’IA. Questo metodo non solo riduce i rischi di dipendenza e di riduzione del pensiero critico, ma trasforma l’IA in un vero strumento di supporto all’apprendimento, una sorta di “assistente virtuale” che stimola la riflessione e l’autocorrezione. Gli studenti, in questo modo, imparano a valutare la qualità del testo generato, a individuare i punti di forza e di debolezza, e a intervenire per migliorare la coerenza, la chiarezza e l’efficacia del messaggio. In conclusione, riscontro interno, \textit{flipped classroom}, apprendimento tra pari, \textit{think aloud} e \textit{Authoring by Editing} sono fondamentali per un apprendimento e una valutazione autentici nell’era dell’IA. La ricerca futura dovrà approfondire queste strategie, sfruttando le potenzialità dell’IA generativa per sviluppare la consapevolezza del proprio apprendimento e l’autonomia, ad esempio creando ambienti che permettano l’uso dell’IA generativa in classe. Quelli esposti sono solo alcuni spunti su come il mondo della scuola potrebbe adattarsi alle recenti innovazioni nel campo dell’IA Generativa. Il problema principale è la pervasività di queste innovazioni, che rende difficile per i docenti aggiornarsi e capire come gestirle al meglio. La velocità del cambiamento tecnologico supera la capacità di adattamento del sistema educativo, con il rischio che siano gli studenti i primi a esplorare, anche in modo improprio, le potenzialità dell’IA. Questo è un aspetto problematico che non va sottovalutato. Tuttavia, quando si raggiungerà una fase di maggiore stabilità, in cui l’evoluzione dell’IA Generativa rallenterà e ne comprenderemo meglio limiti e capacità, allora sarà il momento di avviare una profonda riforma dell’istruzione. Sarà necessario ripensare le fondamenta del sistema educativo, chiedendosi quali conoscenze e competenze siano davvero essenziali in un mondo in cui l’informazione è facilmente accessibile e l’IA svolge sempre più compiti in modo efficiente. Occorrerà interrogarsi su quali discipline e approcci didattici abbiano ancora senso e su quale sia lo scopo dell’istruzione in questo nuovo scenario. Per realizzare un cambiamento così importante, servirà la collaborazione di tutte le componenti della società: educatori, filosofi, esperti di tecnologia, aziende. Solo con uno sforzo congiunto potremo capire come vivere, imparare e formarsi nell’era dell’intelligenza artificiale. Per esempio, materie come storia e filosofia, spesso insegnate in modo mnemonico nelle scuole italiane, potrebbero essere ripensate completamente. Invece di concentrarsi su date e nomi, la storia potrebbe dare più spazio all’analisi delle fonti e alla comprensione critica degli eventi. Le ore di filosofia potrebbero diventare un’occasione per discutere di etica, di tecnologia e del futuro della società. È probabile che, anche di fronte a una riforma, ci saranno resistenze da parte di alcuni docenti, legati a metodi tradizionali. Potrebbero criticare i colleghi innovativi o lamentarsi delle lacune degli studenti. In questo contesto complesso, l’applicazione Intervistestoriche.tech, presentata nella seconda parte dell’elaborato, si propone quale piccolo aiuto per i docenti di storia che desiderano sperimentare nuovi approcci didattici come il \textit{think-aloud}, la \textit{flipped classrooom} e \textit{l’\textit{Authoring by Editing}}.