MODIFICATI CON SCRIPT

This commit is contained in:
PanSi21 2025-02-02 23:34:34 +01:00
parent 9eec379464
commit d0b222488b
Signed by untrusted user who does not match committer: PanSi21
GPG key ID: 755F8874C65EF462
11 changed files with 30 additions and 37 deletions

View file

@ -2,7 +2,7 @@
Lintegrazione dellIA nelleducazione offre opportunità significative, ma solleva anche criticità che meritano unanalisi attenta.
Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che laccesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere lapprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo "effetto stampella" evidenzia come la dipendenza dallIA possa inibire lo sviluppo autonomo delle competenze. Lintroduzione di IA progettate per salvaguardare lapprendimento, come i "GPT Tutor", può però mitigare questo effetto, suggerendo che unintegrazione mirata e consapevole dellIA nelleducazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come lutilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nellargomentazione delle loro conclusioni.
Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che laccesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere lapprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo \enquote{effetto stampella} evidenzia come la dipendenza dallIA possa inibire lo sviluppo autonomo delle competenze. Lintroduzione di IA progettate per salvaguardare lapprendimento, come i \enquote{GPT Tutor}, può però mitigare questo effetto, suggerendo che unintegrazione mirata e consapevole dellIA nelleducazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come lutilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nellargomentazione delle loro conclusioni.
Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). LIA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024).
@ -29,7 +29,7 @@ Mentre alcuni potrebbero sostenere che usare lIA non sia diverso dal consulta
Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che lIA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso luso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare lIA, ne stanno esplorando lintegrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dellIA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza lIA, ma che lIA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dellesposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo.
Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dellIA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa lIA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sulluso dellIA: cosa è consentito, quali prompt sono accettabili e come documentarne lutilizzo. Una soluzione potrebbe essere allegare unappendice con la conversazione avuta con lIA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire lautenticità, come "Authorship" di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dellIA.
Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dellIA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa lIA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sulluso dellIA: cosa è consentito, quali prompt sono accettabili e come documentarne lutilizzo. Una soluzione potrebbe essere allegare unappendice con la conversazione avuta con lIA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire lautenticità, come \enquote{Authorship} di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dellIA.
Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. Larticolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dallIA. Servono quindi soluzioni che bilancino luso dellIA come supporto con loriginalità e lintegrità della ricerca. Tuttavia, se ben utilizzata, lIA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). UnIA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dellesperimento, in alcune discipline lIA potrebbe effettuare unulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, unIA in futuro potrebbe controllare questultimo in modo più approfondito e segnalare eventuali problemi ai revisori. Luso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come lIA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024).
@ -38,13 +38,13 @@ Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono comprom
Lidea più semplice per affrontare il problema è identificare un testo scritto da unIA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende lidentificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come lanalisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere lidentificazione più affidabile.
Il \textit{watermarking}, una tecnica emergente, mira a garantire lautenticità e la proprietà intellettuale dei testi generati dallIA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne lorigine e prevenire luso non autorizzato. Esistono watermarking "hard" e "soft": i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dellutente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando lalto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a unistituzione educativa di accertare, almeno in parte, la provenienza di un testo.
Il \textit{watermarking}, una tecnica emergente, mira a garantire lautenticità e la proprietà intellettuale dei testi generati dallIA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne lorigine e prevenire luso non autorizzato. Esistono watermarking \enquote{hard} e \enquote{soft}: i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dellutente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando lalto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a unistituzione educativa di accertare, almeno in parte, la provenienza di un testo.
Unaltra strategia è la \textit{stilometria}, ovvero lapplicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nellambito del riconoscimento di testi generati da IA, lanalisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali.
Tuttavia, come evidenziato nello studio di Chaka (2024), laffidabilità degli strumenti di rilevamento dellIA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano unaffidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dellIA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con unelevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa lIA generativa.
Inoltre, lidea che i testi generati dallIA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: luomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce lefficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e ladattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e lalto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua "caccia allIA" nellambito scolastico è controproducente. È preferibile prevenire, scoraggiando luso indiscriminato dellIA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse.
Inoltre, lidea che i testi generati dallIA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: luomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce lefficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e ladattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e lalto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua \enquote{caccia allIA} nellambito scolastico è controproducente. È preferibile prevenire, scoraggiando luso indiscriminato dellIA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse.
Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo.
@ -60,7 +60,7 @@ Nella valutazione e correzione tradizionale, i docenti sono spesso influenzati d
Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale linsegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare lIA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dellinsegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che lIA Generativa, per ora, non riesce a riprodurre in modo autentico. Unidea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o lanalisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti luomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per lIA. Per garantire lonestà nello studio, si può anche limitare laccesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui lIA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia.
In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dallIA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano unIA come tutor didattico per studiare un argomento e svolgere esercizi. LIA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, lIA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare lIA generativa porterebbe a uninutile ricerca di colpevoli e allacquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dellIA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a "parlare" come lIA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024).
In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dallIA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano unIA come tutor didattico per studiare un argomento e svolgere esercizi. LIA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, lIA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare lIA generativa porterebbe a uninutile ricerca di colpevoli e allacquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dellIA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a \enquote{parlare} come lIA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024).
Unaltra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sullapprendimento durante il percorso e consente di adattare linsegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, unIA Generativa specifica può aiutare linsegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora lapprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con lIA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; lIA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dallIA, danno il loro parere; linsegnante controlla lattività, analizza i riscontri con laiuto dellIA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dallIA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. Lintegrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo.