primi file

This commit is contained in:
PanSi21 2025-02-02 23:26:26 +01:00
parent d78d5bd5f1
commit cc70838a77
Signed by untrusted user who does not match committer: PanSi21
GPG key ID: 755F8874C65EF462
39 changed files with 5051 additions and 1 deletions

73
TesiZIP/cap3.tex Normal file
View file

@ -0,0 +1,73 @@
\chapter{Le sfide etiche nel settore educativo}
Dopo aver analizzato la natura dei dati di addestramento e le implicazioni legali degli LLM, è imprescindibile affrontare le profonde questioni etiche che questa tecnologia solleva in ambito educativo.
\section{Le allucinazioni}
Spesso abbagliati dalle capacità apparentemente illimitate dellIA, gli utenti tendono ad accettare in modo acritico i risultati, sviluppando una fiducia eccessiva che può deresponsabilizzare il processo decisionale umano. Un elemento preoccupante è la tendenza dei modelli linguistici di grandi dimensioni (LLM) ad “allucinare”. Il concetto di allucinazione, cui si è già fatto riferimento in precedenza, ha le sue radici in patologia e psicologia, si riferisce alla percezione di qualcosa che non esiste nella realtà. Applicato ai LLM, il termine indica la generazione di testo senza senso o non fedele a fonti corrette \parencite{barassi_toward_2024}. Questo fenomeno è stato ampiamente studiato e documentato in letteratura \parencite{ji_survey_2023}.
Le allucinazioni possono indurre gli utenti a credere di possedere una comprensione più approfondita di un argomento di quanto non sia in realtà, minando ulteriormente il pensiero critico. Questo perché molto spesso le risposte degli LLM sono scritte in maniera corretta dal punto di vista sintattico e ciò può portare ad abbassare la guardia e a fidarsi di un testo ben scritto. Se ci fossero errori grammaticali, chiunque controllerebbe due volte la risposta prima di prenderla per buona. Convinti di comprendere appieno il funzionamento dellIA e non capendone i suoi veri limiti, gli utenti possono prendere decisioni basate su informazioni inesatte o incomplete, con possibili conseguenze dannose in diversi ambiti. Fece per esempio notizia lepisodio di un avvocato che impiegò Chat-GPT per scrivere un testo per la causa del suo cliente, riempiendolo però di precedenti giuridici inesistenti \parencite{weiser_heres_2023}.
\section{I bias}
Uno dei concetti chiave per comprendere le implicazioni etiche degli LLM è quello di \textit{bias}. Come evidenzia \textcite{floridi_etica_2022}, il bias, nellambito dellIA generativa, non è una semplice anomalia, ma una distorsione sistematica intrinseca al modello. Deriva principalmente dai dati utilizzati per laddestramento e dalla struttura stessa degli algoritmi. In sostanza, se unIA apprende da dati che riflettono pregiudizi sociali preesistenti come discriminazioni di genere o razziali tenderà a riprodurli e amplificarli nei suoi output. Di conseguenza, le decisioni o i contenuti generati dallIA potrebbero risultare ingiusti o parziali, non per errore, ma come diretta conseguenza delle informazioni distorte assimilate durante lapprendimento.
Vi sono anche altre cause di generazione di bias. Lutilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente lIA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di uneccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale.
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la "scatola nera" decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per limpatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire laccuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nellutilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea lintero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. Lesperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}.
\section{I guardrail}
Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono unimportanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro.
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come "contenuto sessualmente esplicito".
Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nellusare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}.
Per adesso lunica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. Lobiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo unanalisi preliminare del prompt dellutente e, in alcuni casi, unulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di "\textit{prompt injection}", chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al "\textit{jailbreak}" degli LLM, ovvero allelusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dallesistenza di un vero e proprio mercato nero di modelli linguistici "\textit{jailbreakati}" e specificamente progettati per scopi malevoli, informalmente denominati "Malla". Come evidenziato dal primo studio sistematico sullargomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di "\textit{jailbreak prompt}" per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo lurgente necessità di sviluppare strategie efficaci per contrastare luso illecito di queste potenti tecnologie.
In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dellIA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nellidentificare e mitigare i rischi associati allincitamento allodio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici delletica dellIA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}.
Come osservato in precedenza, il tema della trasparenza degli LLM, in particolare quelli \textit{open-source}, è oggetto di dibattito. Tuttavia, questa aspirazione alla trasparenza si scontra inevitabilmente con limperativo della sicurezza e la necessità di arginare le enormi potenzialità dannose intrinseche allintelligenza artificiale generativa. La creazione di LLM \textit{open-source} privi di adeguate protezioni espone a rischi significativi, aprendo la strada alluso improprio da parte di attori malintenzionati, alla diffusione di contenuti dannosi e alla disinformazione politica. È evidente che lapproccio \textit{open source}, per garantire un futuro sicuro ed etico per queste tecnologie, necessita di una profonda revisione dal punto di vista della sicurezza, dove limplementazione di guardrail efficaci diviene non solo auspicabile, ma imprescindibile \parencite{biswas_guardrails_2023}.
\section{Principi di equità e di accesso}
Laccesso non uniforme agli strumenti di IA nel settore educativo rappresenta oggi una criticità per lequità a livello globale. Questa disparità si manifesta non solo tra paesi con differenti livelli di sviluppo economico, ma anche allinterno delle singole nazioni, regioni e città. Come osserva \textcite{li_ai_2023}, un accesso limitato allIA nellistruzione può perpetuare le disuguaglianze e impedire a individui e comunità di raggiungere il loro pieno potenziale. Gli studenti provenienti da contesti svantaggiati o da istituzioni con risorse limitate si trovano in una posizione di svantaggio rispetto ai coetanei che beneficiano di strumenti di IA più avanzati. Questa situazione rischia di aggravare le disuguaglianze educative, creando un divario che potrebbe limitare le opportunità e i risultati accademici a lungo termine.
Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. Daltro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sullIA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nellaccesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio lIA. Ad esempio, in molte regioni africane lintegrazione dellIA nellistruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024,
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dellIA”. Il termine "decolonizzare" in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
\begin{figure}[H]
\centering
\includegraphics[width=0.9\linewidth]{immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png}
\caption{Screen della App di google Photos effettuata dall'utente di twitter @jackyalcine}
\label{fig:gorilla_fail}
\end{figure}
Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dellIA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, lhardware necessario per lo sviluppo e laddestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare lhardware adatto. Secondo chi scrive, anche lEuropa dovrebbe preoccuparsi; il gap tecnologico con lIA generativa è notevole, e solo questanno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dellUnione.
Una scarsa familiarità con le tecnologie di IA da parte dellintero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dellIA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che lIA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle.
Per chiarire la questione della democratizzazione dellIA nelleducazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come lIA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, lintegrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso lIA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con lapplicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sullIA in classe, riducendo limpegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sullIA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dellIA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dellIA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire laccesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere lIA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, labbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dellultimo piano pro di OpenAI: 200 dollari al mese. Lillusione della gratuità di questa tecnologia è spesso legata a modelli di business "freemium" che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa delleccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto allaumento di studenti che utilizzavano lIA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
Da questo punto di vista, lutilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dellhardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un "Mixture-of-Experts Language Model" che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche}
Oltre alle sfide legate allaccesso alle risorse tecnologiche e alla formazione, esiste un ulteriore ostacolo alla democratizzazione dellIA: la questione delle lingue con un numero ristretto di parlanti. È infatti molto difficile che qualcuno investa nel training di modelli linguistici su queste lingue minoritarie, data la loro diffusione limitata. Anche se si sta cercando di utilizzare modelli addestrati su altre lingue per poi adattarli a lingue minoritarie, questo approccio ha mostrato problemi di fragilità degli LLM, in particolare per quanto riguarda la sicurezza. Sembra, per esempio, che sia più facile effettuare il \textit{jailbreak} (Yong et al., 2023). Come evidenziano Zhong et al. (2024), gli LLM attuali incontrano notevoli difficoltà nel supportare lingue a basse risorse, con conseguenti svantaggi per le comunità che parlano tali lingue. Tuttavia, anche da questo punto di vista, si può essere ottimisti: la ricerca sta andando nella direzione di sviluppare LLM in grado di supportarle. Questo è un aspetto fondamentale per garantire che la democratizzazione dellIA non sia solo una questione di disponibilità economica, ma anche di inclusione linguistica e culturale. Se ogni lingua, anche la meno diffusa, avrà la possibilità di essere supportata da un LLM, allora si potrà parlare di un accesso realmente equo e democratico a questa tecnologia.
\section{Strategie per lequità digitale}
Di fronte alle sfide citate nei precedenti paragrafi, le istituzioni educative, a ogni livello, devono implementare misure per garantire un accesso equo alla tecnologia e allIA. Questo richiede un approccio multidimensionale, che coinvolga scuole, governi, ONG e settore privato. Investire in infrastrutture tecnologiche nelle scuole e nelle comunità svantaggiate è fondamentale. Ciò implica acquistare hardware e software, ma anche sviluppare reti a banda larga affidabili e accessibili. È altrettanto cruciale investire nella formazione degli insegnanti e degli alunni, affinché integrino gli strumenti di IA nella didattica e guidino gli studenti verso un uso consapevole e critico. Servono politiche educative che promuovano lequità digitale, con linee guida per limplementazione dellIA nelle scuole, considerando le diverse esigenze degli studenti, e con meccanismi di finanziamento per una distribuzione equa delle risorse tecnologiche. È inoltre essenziale favorire la collaborazione tra scuole, università e aziende tecnologiche per creare programmi di mentoring e opportunità di apprendimento pratico sullIA per studenti svantaggiati.
\section{ I modelli open source}
Guardando al futuro, è interessante notare come alcuni modelli open source stiano raggiungendo prestazioni paragonabili a quelle dei modelli di grandi competitor come Anthropic e OpenAI. Questo fa ben sperare per una maggiore democratizzazione dellIA, in quanto laccessibilità a modelli linguistici avanzati non sarà più limitata da costi proibitivi di sviluppo o da licenze duso restrittive. I modelli open source come T5, Falcon, EuroLLM, DeepSeek e alcuni dellazienda Mixtral, infatti, essendo disponibili liberamente e utilizzabili da chiunque, potrebbero contribuire a colmare il divario digitale e a rendere lIA uno strumento alla portata di tutti, non soltanto per le grandi aziende o per i paesi più ricchi.
Questo scenario, se si concretizzerà, potrebbe portare a un futuro in cui laccessibilità allIA sarà molto più semplice, non più limitata ai paesi con un alto reddito o alle grandi aziende tecnologiche. Un futuro dove le scuole di tutto il mondo, anche quelle con budget limitati, potranno avvalersi di strumenti di IA per migliorare la didattica e offrire agli studenti opportunità formative allavanguardia, indipendentemente dal loro contesto socioeconomico.