MODIFICATI CON SCRIPT
This commit is contained in:
parent
9eec379464
commit
d0b222488b
11 changed files with 30 additions and 37 deletions
|
|
@ -12,7 +12,7 @@ Uno dei concetti chiave per comprendere le implicazioni etiche degli LLM è quel
|
|||
|
||||
Vi sono anche altre cause di generazione di bias. L’utilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente l’IA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di un’eccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale.
|
||||
|
||||
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la "scatola nera" decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per l’impatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
|
||||
I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la \enquote{scatola nera} decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per l’impatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online.
|
||||
|
||||
Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire l’accuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nell’utilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea l’intero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. L’esperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}.
|
||||
|
||||
|
|
@ -20,15 +20,15 @@ Per mitigare questi rischi, è fondamentale valutare criticamente le risposte de
|
|||
|
||||
Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono un’importanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro.
|
||||
|
||||
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come "contenuto sessualmente esplicito".
|
||||
Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come \enquote{contenuto sessualmente esplicito}.
|
||||
|
||||
Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nell’usare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}.
|
||||
|
||||
Per adesso l’unica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. L’obiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo un’analisi preliminare del prompt dell’utente e, in alcuni casi, un’ulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di "\textit{prompt injection}", chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
|
||||
Per adesso l’unica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. L’obiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo un’analisi preliminare del prompt dell’utente e, in alcuni casi, un’ulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di \enquote{\textit{prompt injection}}, chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}.
|
||||
|
||||
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al "\textit{jailbreak}" degli LLM, ovvero all’elusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
|
||||
I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al \enquote{\textit{jailbreak}} degli LLM, ovvero all’elusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità.
|
||||
|
||||
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dall’esistenza di un vero e proprio mercato nero di modelli linguistici "\textit{jailbreakati}" e specificamente progettati per scopi malevoli, informalmente denominati "Malla". Come evidenziato dal primo studio sistematico sull’argomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di "\textit{jailbreak prompt}" per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo l’urgente necessità di sviluppare strategie efficaci per contrastare l’uso illecito di queste potenti tecnologie.
|
||||
Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dall’esistenza di un vero e proprio mercato nero di modelli linguistici \enquote{\textit{jailbreakati}} e specificamente progettati per scopi malevoli, informalmente denominati \enquote{Malla}. Come evidenziato dal primo studio sistematico sull’argomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di \enquote{\textit{jailbreak prompt}} per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo l’urgente necessità di sviluppare strategie efficaci per contrastare l’uso illecito di queste potenti tecnologie.
|
||||
|
||||
In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dell’IA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nell’identificare e mitigare i rischi associati all’incitamento all’odio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici dell’etica dell’IA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}.
|
||||
|
||||
|
|
@ -40,7 +40,7 @@ L’accesso non uniforme agli strumenti di IA nel settore educativo rappresenta
|
|||
|
||||
|
||||
Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. D’altro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sull’IA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nell’accesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio l’IA. Ad esempio, in molte regioni africane l’integrazione dell’IA nell’istruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024,
|
||||
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dell’IA”. Il termine "decolonizzare" in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
|
||||
ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dell’IA”. Il termine \enquote{decolonizzare} in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi.
|
||||
|
||||
|
||||
\begin{figure}[H]
|
||||
|
|
@ -52,8 +52,8 @@ ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Afric
|
|||
|
||||
Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dell’IA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, l’hardware necessario per lo sviluppo e l’addestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare l’hardware adatto. Secondo chi scrive, anche l’Europa dovrebbe preoccuparsi; il gap tecnologico con l’IA generativa è notevole, e solo quest’anno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dell’Unione.
|
||||
Una scarsa familiarità con le tecnologie di IA da parte dell’intero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dell’IA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che l’IA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle.
|
||||
Per chiarire la questione della democratizzazione dell’IA nell’educazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come l’IA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, l’integrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso l’IA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con l’applicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sull’IA in classe, riducendo l’impegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sull’IA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dell’IA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dell’IA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire l’accesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere l’IA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, l’abbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dell’ultimo piano pro di OpenAI: 200 dollari al mese. L’illusione della gratuità di questa tecnologia è spesso legata a modelli di business "freemium" che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa dell’eccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto all’aumento di studenti che utilizzavano l’IA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
|
||||
Da questo punto di vista, l’utilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dell’hardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un "Mixture-of-Experts Language Model" che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
|
||||
Per chiarire la questione della democratizzazione dell’IA nell’educazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come l’IA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, l’integrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso l’IA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con l’applicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sull’IA in classe, riducendo l’impegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sull’IA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dell’IA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dell’IA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire l’accesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere l’IA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, l’abbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dell’ultimo piano pro di OpenAI: 200 dollari al mese. L’illusione della gratuità di questa tecnologia è spesso legata a modelli di business \enquote{freemium} che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa dell’eccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto all’aumento di studenti che utilizzavano l’IA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento.
|
||||
Da questo punto di vista, l’utilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dell’hardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un \enquote{Mixture-of-Experts Language Model} che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}.
|
||||
|
||||
|
||||
\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche}
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue