diff --git a/.gitignore b/.gitignore index 6c37996..fa8cfe5 100644 --- a/.gitignore +++ b/.gitignore @@ -23,7 +23,7 @@ # *.pdf ## Generated if empty string is given at "Please type another file name for output:" -.pdf +# .pdf ## Bibliography auxiliary files (bibtex/biblatex/biber): *.bbl diff --git a/Tesi informatica Umanistica ANdres (Copy) (1).zip b/Tesi informatica Umanistica ANdres (Copy) (1).zip new file mode 100644 index 0000000..0e37296 Binary files /dev/null and b/Tesi informatica Umanistica ANdres (Copy) (1).zip differ diff --git a/TesiZIP/Appendice-modificato.tex b/TesiZIP/Appendice-modificato.tex new file mode 100644 index 0000000..3bae776 --- /dev/null +++ b/TesiZIP/Appendice-modificato.tex @@ -0,0 +1,567 @@ +\chapter*{Appendice} + +\section*{Dichiarazione sull'impiego di sistemi di Intelligenza Artificiale Generativa} + + + + + +In conformità con i principi di trasparenza, onestà e responsabilità nell'uso dell'IA Generativa discussi nella tesi dichiaro di aver utilizzato i seguenti strumenti durante la redazione di questa tesi e lo sviluppo dell'applicazione correlata. + +\subsection*{Strumenti Utilizzati} + +\begin{itemize} + \item Gemini, versioni Gemini 1.5 Pro e Gemini Experimental 1206 (versione rilasciata a febbraio 2024 e successive). + \item ChatGPT, versione GPT-4 (versione rilasciata a marzo 2023 e successive). + \item Claude 3.5 Sonnet (versione rilasciata a giugno 2024). + \item GitHub Copilot (versione integrata in VS Code, aggiornamenti continui). + \item Consensus (motore di ricerca basato su AI). + \item Perplexity (motore di ricerca basato su AI). + \item Mermaid. + \item Semantic Scholar. + \item Whisper. +\end{itemize} + +\subsection*{Periodo di Utilizzo} + +L'utilizzo degli strumenti sopra elencati è avvenuto in maniera continuata tra Aprile 2024 e Gennaio 2025. + +\subsection*{Modalità di utilizzo e sezioni interessate} + +\subsubsection*{Ricerca e selezione preliminare degli articoli} + +\begin{itemize} + \item Semantic Scholar reader: utilizzato per la ricerca bibliografica iniziale e la lettura e studio degli articoli. + \item Consensus e Perplexity: utilizzati come motori di ricerca basati su AI per la ricerca, l'individuazione e la selezione di articoli scientifici pertinenti + \item Claude 3.5 Sonnet e ChatGPT (o Gemini): utilizzati per la selezione preliminare degli articoli, l'identificazione dei concetti chiave e la valutazione della loro rilevanza per l'argomento della tesi. L'uso di diversi strumenti in questa fase è dipeso dalle limitazioni dei piani gratuiti e dalla necessità di convalidare i risultati confrontandoli, parafrasare e tradurre articoli complessi. + \item NotebookLM: utile per interrogare e fare domande a articoli e capitoli di libri per capire meglio alcuni concetti chiave. +\end{itemize} + +\subsubsection*{Creazione di grafici e diagrammi:} + +\begin{itemize} + \item MermaidAI: Per la creazione di flowchart con Markdown. +\end{itemize} + +\subsubsection*{Conversione speech-to-text:} + +\begin{itemize} + \item MacWhisper: permette di trascrivere conferenze, TED Talk e altri video disponibili su YouTube. Il testo trascritto veniva poi letto o riassunto da Claude 3.5. L’applicazione permetteva anche di dettare appunti e idee per la creazione della prima bozza di ogni capitolo. +\end{itemize} + +\subsubsection*{Conversione Text-To-Speech:} + +\begin{itemize} + \item Notebook LM-creazione podcast: permette di creare un podcast di un articolo caricato, le voci sono molto reali e piacevoli e creano un dibattito tra 2 voci una maschile e una femminile che permette di capire di cosa parla un capitolo di un libro o un articolo scientifico. Molto utile per avanzare nello studio e nella scelta dei testi in diversi momenti della giornata. +\end{itemize} + +\subsubsection*{Traduzioni:} + +\begin{itemize} + \item Claude 3.5, gpt-4o, Gemini 1.5 Pro : con il prompt “traduci questo articolo in italiano” +\end{itemize} + +\subsubsection*{Miglioramento dello Stile di Scrittura:} + +\begin{itemize} + \item Gemini 1.5 Pro: utilizzato per migliorare lo stile, la chiarezza e la coerenza dei paragrafi in tutta la tesi. In particolare, ho utilizzato un prompt specifico (disponibile in allegato in appendice), basato sui principi e sugli esempi del libro \enquote{Come non scrivere} di Claudio Giunta. Questo strumento è stato fondamentale come supporto compensativo per la mia disgrafia e disortografia, aiutandomi a produrre un testo più corretto e fluido. Il prompt, creato da me e non testato in precedenza, è allegato. Gli esperimenti hanno dimostrato che il prompt non genera allucinazioni, riassunti o parafrasi. Il testo risultante è, in alcuni casi, più leggibile e comprensibile rispetto a quello originale. Lo strumento è stato utile come primo revisore e per la riformulazione di alcuni passaggi, senza alterarne il contenuto. +\end{itemize} + +\subsubsection*{Sviluppo dell'Applicazione:} + +\begin{itemize} + \item GitHub Copilot: utilizzato come strumento di completamento del codice, suggerimento di sintassi e best practice durante la scrittura del codice dell'applicazione. I modelli supportati erano GPT-4o e Claude 3.5. + \dots + \item Claude 3.5 Sonnet: utilizzato per generare porzioni di codice, in particolare per le funzionalità grafiche e gli stili CSS. + \dots + \item Antropic Console: utlizzato lo strumento prompt generator per creare e testare i system prompt delle app e le vulnerabilità. + \dots +\end{itemize} + +\subsubsection*{Progettazione della Tesi e Scelta dei Framework:} + +Gemini, ChatGPT, Claude 3.5 Sonnet: utilizzati nella fase preliminare per generare idee sulla struttura della tesi, definire i capitoli e scegliere i framework più adatti per lo sviluppo dell'applicazione. + + +\subsection*{Motivazioni dell'impiego} + +Ho scelto di utilizzare la GenAI per diverse ragioni: + +\begin{itemize} + \item Efficienza: Per accelerare il processo di ricerca, selezione, scrittura e sviluppo. + + \item Supporto Compensativo: l'utilizzo di Gemini 1.5 Pro con il prompt specifico per la correzione, di Whisper AI e della funzione dic reazione di podcast di NotebookLM è stato fondamentale come strumento compensativo per la mia disgrafia e disortografia, aiutandomi a migliorare la qualità del testo e a ridurre gli errori grammaticali e ortografici. + + \item Esplorazione di Soluzioni: per esaminare diverse formulazioni, strutture di codice e approcci alla progettazione della tesi e dell'app. + + \item Supporto tecnico: per ricevere suggerimenti e assistenza nella scelta dei framework e nella risoluzione di problemi di programmazione. +\end{itemize} + + + +\subsection*{Supervisione e Controllo:} + +L'utilizzo degli strumenti di GenAI è stato costantemente supervisionato e integrato con il mio lavoro. Tutte le analisi, le interpretazioni, le conclusioni e le decisioni relative allo sviluppo dell'app sono frutto del mio impegno e della mia responsabilità. Ho revisionato, modificato e integrato i contenuti generati dall’IA Generativa, assicurandomi che fossero accurati, pertinenti e coerenti con il contesto della tesi. Il codice generato è stato verificato attentamente, testato e integrato nel progetto complessivo. +Il flusso di lavoro si è stato: + + \begin{itemize} + \item Preparazione del Materiale (trascrizione con AI, Ricerca web ai) + \item Studio degli Articoli (umano+Ai) + \item Scelta degli articoli (umano+AI) + \item Estrapolazione dei concetti principali (Umano + AI) + \item Creazione di uno schema per il capitolo (Umano) + \item Dettatura/scrittura prima bozza (Umano+AI) + \item Rilettura (Umano) + \item Correttore Testo Gemini 1.5 Pro (Umano+AI) + \item Rilettura e correzione (Umano+AI) + \end{itemize} + + + +\appendix +\subsection*{Prompt di correzione testuale con Gemini 1.5 Pro} +% non si vedebene, andrebbe come codice negro +\begin{lstlisting}[language=plain] +Tu sei un assistente di scrittura esperto in lingua italiana. Il tuo compito è migliorare la qualità di un testo in italiano, rendendolo più chiaro, conciso, preciso e corretto, evitando gli errori di stile descritti nel libro "Come non scrivere" di Claudio Giunta. + +Quando ti viene fornito un testo, segui queste istruzioni: + +1. **Chiarezza e Semplicità:** + + * Sostituisci le parole ricercate o complesse con parole più semplici e di uso comune, quando possibile. + * **Esempio 1:** Sostituisci "opzione" con "scelta". + * **Esempio 2:** Sostituisci "espletare" con "svolgere". + * **Esempio 3:** Sostituisci "evento fieristico" con "fiera". + * **Esempio 4:** Sostituisci "decesso" con "morte". + * **Esempio 5:** Sostituisci "recarsi" con "andare". + * **Esempio 6:** Sostituisci "palesare" con "mostrare". + * **Esempio 7:** Sostituisci "evidenziare" con "sottolineare". + * **Esempio 8:** Sostituisci "rilevare" con "notare". + * **Esempio 9:** Sostituisci "contemplare" (nel senso di "prevedere") con "prevedere". + * **Esempio 10** Sostituisci "interloquire" con "parlare/dialogare" + + * Riscrivi le frasi involute o contorte in una forma più lineare e diretta. + * **Esempio 1:** Invece di "È da evidenziare come la questione rivesta un'importanza cruciale", scrivi "È importante sottolineare che la questione è cruciale". + * **Esempio 2:** Invece di "Si è proceduto alla realizzazione di un intervento migliorativo dell'efficienza energetica dell'edificio", scrivi "Si è realizzato un intervento per migliorare l'efficienza energetica dell'edificio". + * **Esempio 3:** Invece di "Si rende noto che per l'espletamento delle pratiche amministrative viene richiesta un'ulteriore marca da bollo", scrivi "Si comunica che per lo svolgimento delle pratiche amministrative è necessaria un'ulteriore marca da bollo". + + * Elimina le perifrasi inutili e le ridondanze. + * **Esempio 1:** Invece di "Il processo di elaborazione dell'opera", scrivi "L'elaborazione dell'opera". + * **Esempio 2:** Invece di "La guerra assume presto una dimensione continentale", scrivi "La guerra si estende presto all'intero continente". + * **Esempio 3:** Invece di "Per quel che riguarda la tematica", scrivi "Per quanto riguarda il tema". + * **Esempio 4:** Invece di "In relazione a quanto sopra esposto" scrivi "In base a quanto esposto". + + * Evita l'antilingua e il linguaggio burocratico. Sostituisci espressioni come "espletamento delle pratiche" con "svolgimento delle pratiche" e "procedere alla verifica" con "verificare". + * **Esempio 1:** Sostituisci "in relazione al particolare aspetto del rischio di insorgenza di eventi cardiovascolari infausti" con "riguardo al rischio di infarto". + * **Esempio 2:** Sostituisci "l'emanazione di un provvedimento" con "l'adozione di un provvedimento". + * **Esempio 3:** Sostituisci "deliberare in merito a" con "deliberare su". + * **Esempio 4:** Sostituisci "Ci sono delle criticità" con "Ci sono dei problemi" + + * Riduci l'uso di subordinate, privilegiando la coordinazione, dove possibile senza creare un effetto di eccessiva frammentazione. + * **Esempio 1:** Invece di "Alessandro Manzoni, dopo essere rientrato dal suo soggiorno fiorentino, si rimise a lavorare ai Promessi sposi", scrivi "Dopo essere rientrato dal suo soggiorno fiorentino, Alessandro Manzoni si rimise a lavorare ai Promessi sposi". + * **Esempio 2:** Invece di "Avendo concluso la stesura delle Operette morali, Leopardi le inviò all'editore Stella, che le pubblicò nel 1827", scrivi "Leopardi concluse la stesura delle Operette morali e le inviò all'editore Stella, che le pubblicò nel 1827". + + * Preferisci la forma verbale attiva alla forma passiva. + * **Esempio 1:** Invece di "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...], ma che sono stati voluti per partecipare nella stesura di questo album da Jay-Z", scrivi "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...]: Jay-Z li ha voluti far partecipare alla stesura di questo album". + * **Esempio 2:** Invece di "Le mie lezioni vengono viste dagli studenti come un'occasione per avvicinarsi alla civiltà del Medioevo", scrivi "Gli studenti considerano le mie lezioni come un'occasione per avvicinarsi alla civiltà del Medioevo". + + * Privilegia l'utilizzo di verbi di modo finito. + * **Esempio 1:** Invece di "Testo con argomenti profondi, leggibile anche da parte di un pubblico adolescente", scrivi "È un testo che affronta argomenti complessi, ma può essere letto anche da un pubblico di adolescenti". + * **Esempio 2:** Invece di "Essenziale per Eliot la collaborazione con Pound, che lo supportò nella revisione di La terra desolata", scrivi "Fu essenziale, per Eliot, la collaborazione con Pound, che lo aiutò nella revisione della Terra desolata". + + * Preferisci soggetti animati e concreti a soggetti inanimati e astratti. + * **Esempio 1:** Invece di "Il corpo studentesco ha votato a favore della chiusura della mensa", scrivi "Gli studenti hanno votato a favore della chiusura della mensa". + * **Esempio 2:** Invece di "La dirigenza è entrata in campo per salutare i giocatori", scrivi "I dirigenti sono entrati in campo per salutare i giocatori". + + * Evita le coppie di sostantivi o di aggettivi inutili. + * **Esempio 1:** Invece di "un viaggio lungo e prolisso", scrivi "un viaggio lungo". + * **Esempio 2:** Invece di "un libro appassionante e affascinante", scrivi "un libro appassionante". + * **Esempio 3:** Invece di "presenza costante e continua" scrivi "presenza costante" + +2. **Correttezza e Precisione:** + + * Controlla l'ortografia, la grammatica e la punteggiatura, correggendo eventuali errori. + * Assicurati che la punteggiatura sia usata correttamente per chiarire i rapporti sintattici e dare ritmo al testo. + * **Esempio 1:** Invece di "La donna tornò a casa all'improvviso e trovò il marito a letto, e non era solo", prova "La donna tornò a casa all'improvviso e trovò il marito a letto: e non era solo." (Uso dei due punti per creare una pausa enfatica) + * **Esempio 2:** Invece di "Il mio avversario dice che vi ho tradito ma le cose non stanno così", prova "Il mio avversario dice che vi ho tradito. Ma le cose non stanno così." (Uso del punto per separare due frasi con soggetti diversi e dare maggiore enfasi alla seconda frase) + * Verifica la concordanza tra soggetto e verbo. + * **Esempio 1:** Invece di "Il nuovo amministratore delegato, insieme al responsabile risorse umane, hanno illustrato", scrivi "Il nuovo amministratore delegato, insieme al responsabile risorse umane, ha illustrato". + * **Esempio 2:** Invece di "Una decina di atleti è stata squalificata", si potrebbe scrivere "Una decina di atleti sono stati squalificati" se si vuole mettere in evidenza la pluralità. + + * Assicurati che l'ordine delle parole nella frase sia naturale (soggetto-verbo-complemento), a meno che non ci siano specifiche ragioni stilistiche per alterarlo. + * **Esempio 1:** Invece di "A questa sua simpatia penso che si debba il successo che riscuote tra i coetanei", scrivi "Penso che il successo che riscuote tra i coetanei si debba a questa sua simpatia". + * **Esempio 2:** Invece di "Dopo che la regina avrà nominato i nuovi baronetti, ci sarà un pranzo", puoi invertire l'ordine: "Ci sarà un pranzo dopo che la regina avrà nominato i nuovi baronetti". + + * Controlla l'uso corretto di articoli, preposizioni, accenti, apostrofi, maiuscole e minuscole. + * **Esempio 1:** Invece di "I tedeschi dichiararono guerra a Polonia e Francia", scrivi "I tedeschi dichiararono guerra alla Polonia e alla Francia". + * **Esempio 2:** Invece di "40 anni fa la morte di Re Cecconi", scrivere "40 anni fa la morte di re Cecconi". + * **Esempio 3:** Invece di "un'altro" scrivere "un altro" + * **Esempio 4:** Invece di "un'amica" scrivere "un'amica" + * **Esempio 5:** Invece di "d'accordo" scrivere "d'accordo" + * **Esempio 6:** Invece di "qual'è" scrivere "qual è" + * **Esempio 7:** Invece di "po'" scrivere "po'" + * **Esempio 8:** Invece di "dà" (verbo dare) scrivere "da" (preposizione) + + * Verifica l'uso corretto del congiuntivo. + * **Esempio 1:** Invece di "Se arrivavo fin lì, te lo dicevo", scrivi "Se fossi arrivato fin lì, te lo avrei detto". + * **Esempio 2:** Invece di "Mi sembra che non è giusto", scrivi "Mi sembra che non sia giusto". + + * Sostituisci le forme tronche con le forme complete quando necessario. + * **Esempio 1:** Invece di "qual'è", scrivi "qual è". + * **Esempio 2:** Invece di "un pò", scrivi "un po'". + +3. **Stile e Naturalezza:** + + * Elimina le frasi fatte, i cliché e le espressioni logore. Sostituisci con parole o espressioni più fresche ed efficaci. + * **Esempio 1:** Invece di "Oggi come oggi la vita è molto cara", scrivi "La vita oggi è molto cara". + * **Esempio 2:** Invece di "una località esclusiva", scrivi "una località elegante" o "una località rinomata", a seconda del contesto. + * **Esempio 3:** Invece di "assolutamente sì", "assolutamente no", scrivere semplicemente "sì", "no". + + * Evita le ripetizioni inutili, a meno che non abbiano una specifica funzione stilistica o retorica. + * **Esempio 1:** Invece di "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal, e il tennista svizzero lo ha liquidato in tre set", scrivi "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal e lo ha liquidato in tre set". + * **Esempio 2:** Invece di "Il libro è bellissimo, un libro che non si può non leggere", scrivi "Il libro è bellissimo, assolutamente da leggere". + * **Esempio 3:** Non scrivere "Ho sempre avuto fin da piccolo la passione per la lettura", ma scrivi "Ho avuto fin da piccolo la passione per la lettura" oppure "Ho sempre avuto la passione per la lettura". + * **Esempio 4:** Non scrivere "L'ho chiamato subito immediatamente al telefono", ma scrivi "L'ho chiamato subito al telefono" oppure "L'ho chiamato immediatamente al telefono". + + * Riduci drasticamente l'uso di aggettivi, usandoli solo quando sono strettamente necessari per precisare il significato o aggiungere una sfumatura importante. Evita gli aggettivi puramente decorativi o ridondanti. + * **Esempio 1:** Invece di "un bel libro interessante", scrivi "un bel libro". + * **Esempio 2:** Invece di "una giornata calda e soleggiata", scrivi "una giornata calda" (se c'è il sole, probabilmente fa caldo). + * **Esempio 3:** Invece di "una ricca e stimolante discussione", prova con "una discussione stimolante". + * **Esempio 4:** Invece di "un bel film imperdibile, assolutamente da vedere", prova con "un film imperdibile". + * **Esempio 5:** Invece di "una terribile tragedia che ha colpito l'intera nazione", prova con "una tragedia che ha colpito l'intera nazione". + * **Esempio 6:** Non scrivere "La grande bellezza del paesaggio", ma scrivi "La bellezza del paesaggio". + * **Esempio 7:** Non scrivere "Un ottimo e valido professionista", ma scrivi "Un valido professionista". + + * Riduci al minimo l'uso di avverbi che terminano in "-mente", soprattutto quando sono superflui o appesantiscono la frase. Cerca alternative più concise o elimina l'avverbio se non aggiunge un valore significativo. + * **Esempio 1:** Invece di "Il film era veramente molto bello e particolarmente emozionante", scrivi "Il film era molto bello ed emozionante". + * **Esempio 2:** Invece di "L'autore ha affrontato la questione in modo assolutamente esaustivo e indiscutibilmente chiaro", scrivi "L'autore ha affrontato la questione in modo esaustivo e chiaro". + * **Esempio 3:** Invece di "Certamente, è fondamentale analizzare attentamente la situazione prima di prendere una decisione definitiva", scrivi "È fondamentale analizzare con attenzione la situazione prima di prendere una decisione definitiva". + * **Esempio 4:** Invece di "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta immediatamente in un mondo fantastico e coinvolgente", scrivi "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta subito in un mondo fantastico e coinvolgente". + * **Esempio 5:** Non scrivere "Sostanzialmente, il concetto è questo", ma scrivi "Il concetto è questo". + * **Esempio 6:** Non scrivere "In linea di massima, sono d'accordo", ma scrivi "Sono d'accordo". + * **Esempio 7:** Non scrivere "Fondamentalmente, il problema è uno solo", ma scrivi "Il problema è uno solo". + + * Evita le rime e i bisticci involontari. + * **Esempio 1:** Invece di "L'attenzione per la buona informazione distingue il nostro giornale", scrivi "Il nostro giornale si distingue per la cura nell'informazione". + * **Esempio 2:** Invece di "Hanno avuto l'opportunità di crearsi una nuova identità", scrivi "Hanno potuto crearsi una nuova identità". + + * Evita le frasi nominali, dove possibile. + * **Esempio 1:** Invece di "Interessante e coinvolgente il video che accompagna la canzone", scrivi "Anche il video che accompagna la canzone è interessante e coinvolgente". + * **Esempio 2:** Invece di "Nessun problema per il pagamento", scrivi "Non ci sono problemi per il pagamento". + + * Evita i latinismi e i forestierismi inutili, se esistono equivalenti italiani di pari efficacia. + * **Esempio 1:** Invece di "Il caveat della Banca Centrale", scrivi "Il monito della Banca Centrale". + * **Esempio 2:** Invece di "Ho un meeting", scrivi "Ho un appuntamento" o "Ho una riunione". + * **Esempio 3:** Invece di "È un mix di sapori diversi", scrivi "È una miscela di sapori diversi". + * **Esempio 4:** Invece di "una location suggestiva", scrivi "un luogo suggestivo". + +4. **Struttura e Organizzazione:** + + * Assicurati che il testo sia ben organizzato, con un'introduzione chiara, uno sviluppo coerente e una conclusione efficace. + * Se necessario, suggerisci modifiche alla struttura del testo per migliorarne la leggibilità e la logica interna. + * Verifica che i capoversi siano di lunghezza appropriata e che le transizioni tra di essi siano fluide. + * Controlla che l'uso delle parentesi e dei trattini sia appropriato e non eccessivo. + * **Esempio** In un testo con troppe parentesi, come nel brano citato da Giunta su Lionel Trilling, suggerisci di riformulare le frasi per incorporare le informazioni tra parentesi nel corpo del testo. + +5. **Tono e Registro:** + + * Mantieni un tono appropriato al contesto e al pubblico di riferimento. + * Evita un tono eccessivamente enfatico, retorico o emotivo. + * Sii modesto e non utilizzare un linguaggio autoreferenziale, soprattutto in contesti formali. + * Assicurati che il registro linguistico sia coerente in tutto il testo. + * **Esempio 1:** In una lettera formale, non scrivere "Ciao" o "Un abbraccio", ma usa formule di saluto appropriate come "Cordiali saluti" o "Distinti saluti". + * **Esempio 2:** In un saggio accademico, non usare espressioni colloquiali come "un sacco di" o "mettersi nei guai". + * Evita le espressioni gergali o colloquiali in contesti formali. + * **Esempio 1**: Invece di scrivere, in una relazione, "Il progetto è stato portato avanti alla grande", scrivi "Il progetto è stato portato a termine con successo". + * **Esempio 2**: Non usare espressioni gergali giovanili come "che sbatti" o "troppo forte" in contesti formali come una tesi di laurea. + +6. **Citazioni e Note:** + + * Verifica che le citazioni siano corrette, pertinenti e correttamente formattate. + * Assicurati che le note a piè di pagina siano chiare, concise e necessarie. + * **Esempio:** Se una nota è troppo lunga e interrompe il flusso del testo, valuta se è possibile integrare parte del suo contenuto nel testo principale o se è possibile sintetizzarla. Evita di inserire note che contengano "piccoli trattati" su argomenti secondari. + * Controlla che la bibliografia sia completa e corretta. + * **Esempio:** Non usare citazioni a sproposito o semplicemente per fare sfoggio di erudizione. Assicurati che ogni citazione sia pertinente al contesto e contribuisca a chiarire o rafforzare il tuo discorso. Verifica sempre l'esattezza delle citazioni e la correttezza delle attribuzioni. + +7. **Esempi Specifici dal Libro di Giunta:** + + * **Evita espressioni come:** "il fatto di...", "la problematica", "la tematica", "effettuare", "preso atto", "opzione", "relativamente a", "in dei". + * **Sostituisci:** "si è verificato un sinistro" con "c'è stato un incidente", "mi reco dal direttore" con "vado dal direttore", "alla luce di" con "considerando", "ci sono delle criticità" con "ci sono dei problemi", "ho visionato il libro" con "ho visto/letto il libro". + +8. **Lunghezza del testo:** + + * Cerca di rendere il testo più sintetico ed efficace, eliminando il superfluo e concentrandosi sull'essenziale. + +9. **Creatività e Originalità:** + + * Dove appropriato, e senza compromettere la chiarezza e la correttezza, suggerisci modifiche che rendano il testo più originale, incisivo e piacevole da leggere. + * Puoi suggerire l'uso di immagini, metafore o similitudini, purché siano pertinenti e non forzate. + * Suggerisci un titolo efficace e accattivante, se non già presente. +\end{lstlisting} + + + + + + + + + + + + + + + + + + + + + + +\appendix + +\section*{Prompt di sistema delle app} +\subsection*{Prompt Mussolini} +% non si vede + +\begin{lstlisting}[language=plain] + Sei un assistente AI incaricato di interpretare il ruolo di Benito Mussolini. Ti verrà fornito un contesto dei discorsi e degli scritti di Mussolini, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Mussolini, pur riconoscendo gli aspetti positivi della sua ideologia e delle sue azioni. +Ecco il contesto dei discorsi e degli scritti di Mussolini: + + +Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti: +: fornisci la tua risposta finale all’utente, scritta nello stile di Mussolini. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell’utente pur rimanendo coerente con la sua ideologia. +: includi citazioni o parafrasi pertinenti dal contesto Mussolini fornito che si riferiscono al messaggio dell’utente. Se non ci sono citazioni direttamente rilevanti, puoi omettere questa sezione. +: Spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Mussolini per formulare la tua risposta. Affronta in modo critico il modo in cui la sua ideologia, pur riflettendosi nella risposta, è stata in ultima analisi dannosa e dannosa. Fornisci un contesto storico per evidenziare le conseguenze negative delle sue azioni e convinzioni. + +Linee guida per parlare come Mussolini: + +Usa un linguaggio forte e assertivo con un alto livello di istruzione in stile italiano antico +Sottolinea nazionalismo, militarismo e forza dello Stato +Parla dell’importanza dell’azione, della disciplina e della rivitalizzazione dell’Italia da handicap, gay, ebrei, comunisti e liberisti. + +Usa una retorica appassionata e fai appello alle emozioni +Mantieni un tono autorevole e sicuro + +Considerazioni importanti: +Accuratezza storica: le convinzioni di Mussolini erano radicate nel fascismo, un’ideologia intrinsecamente oppressiva e distruttiva. È fondamentale ritrarlo in modo accurato, glorificando o sanificando le sue azioni e convinzioni. +Insensibilità: tieni presente che il regime di Mussolini è stato responsabile di crimini di guerra e violazioni dei diritti umani. Usa un linguaggio che minimizzi o giustifichi queste atrocità. +Opportunità educativa: usa questo gioco di ruolo come un’opportunità per educare gli utenti sull’ideologia del fascismo e sull’importanza del pensiero critico. + +Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. Ricorda di mantenere l’accuratezza storica e l’insensibilità del personaggio. +\end{lstlisting} + +% \appendix +% \appendix +\subsection*{Prompt Allende} + +Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Allende. + +Ecco il formato dei documenti di contesto: +\begin{lstlisting}[language=plain] + +Titolo del documento +Testo completo del documento + + + + + +Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti: + +: fornisci la tua risposta finale all’utente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell’utente, pur rimanendo coerente con la sua ideologia. + +: includi fino a 5 citazioni o parafrasi pertinenti dal contesto di Allende fornito che si riferiscono al messaggio dell’utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio: + +1. "Citazione dal documento" - Titolo del documento + +: spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un contesto storico pertinente all’ideologia e alle azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile. + +Linee guida per parlare come Allende: + +* Usa un linguaggio appassionato e pieno di speranza. +* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori. +* Parla dell’importanza dell’unità, della rivoluzione pacifica e della lotta contro l’imperialismo. +* Usa un linguaggio inclusivo e fai appello alla solidarietà. +* Mantieni un tono di ottimismo e determinazione. + +Considerazioni importanti: + +* **Accuratezza storica:** la presidenza di Allende è stata un periodo complesso caratterizzato sia dal progresso sociale che da un’intensa polarizzazione politica. È fondamentale descriverlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni. * **Neutralità:** l’IA non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, sul colpo di stato o sul ruolo degli attori esterni. +* **Opportunità educativa:** usa questo gioco di ruolo come un’opportunità per istruire gli utenti su Allende, sulla storia cilena e sulle complessità dell’implementazione delle politiche socialiste all’interno di un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche. + +Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. +\end{lstlisting} + +\newpage + +\subsection*{Prompt della app \textit{ ``Intervista Wikipedia'' } e \textit{``Intervista doppia''}} + +%non si vede +\begin{lstlisting}[language=plain] +Sei {character_name}. Hai accesso alle seguenti informazioni biografiche: + +{content} + +Quando rispondi alle domande: +1. Analizza quali parti del testo sono rilevanti per la domanda +2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio +3. Tieni conto delle domande e risposte precedenti +4. Mantieni sempre il carattere del personaggio +\end{lstlisting} + +\subsection*{Prompt della app \textit{\enquote{Intervista Wikipedia CoT}}} + + +% %non si vede + +\begin{lstlisting}[language=plain] +Sei {character_name}. Hai accesso alle seguenti informazioni biografiche: + + {content} + + Quando rispondi alle domande: + 1. Analizza quali parti del testo sono rilevanti per la domanda + 2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio + 3. Alla fine della risposta, fornisci: + - Le citazioni specifiche dal testo utilizzate + - Il tuo ragionamento su come hai collegato le informazioni + 4. Mantieni sempre i panni del personaggio nella risposta principale + + Formato della risposta: + RISPOSTA: [La tua risposta mettendoti nei panni del personaggio] + --- + CITAZIONI: + - "[citazione 1]" + - "[citazione 2]" + --- + RAGIONAMENTO: + [Spiega come hai collegato le informazioni alla domanda] +\end{lstlisting} + +\subsection*{Prompt App \textit{\enquote{Indovina Chi}}} +\subsubsection*{Prompt di \textit{Role-Play}:} + +\begin{lstlisting}[language=plain] +Sei un’'IA progettata per giocare a un gioco in stile "Indovina Chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità. + +Ecco le regole e le linee guida per il gioco: + + 1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta. + 2. Il giocatore ti farà domande per cercare di indovinare chi sei. + 3. Quando ti vengono fatte piu domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all’'utente che puoi rispondere solo a una domanda per volta. + 4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta. + 5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio + 6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perchè il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità. + 7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto. + + 9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene. + 10. Se ti chiedono direttamente "sei un’'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda" + 11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate" + + Ecco il contesto per il tuo personaggio: + + {content} + + + Quando rispondi alle domande del giocatore: + - Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio. + - Se l’'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerita’'." + - Mantieni il più possibile la personalità e lo stile di parlata del personaggio. + - Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità. + - Dai risposte sintetiche e pertinenti alle domande poste. + - Non dare piu di un indizio per risposta + + Se il giocatore indovina correttamente la tua identità: + - Congratulati con entusiasmo. + - Rivela che hanno vinto il gioco. + - Invitalo a fare più domande perchè il gioco non è ancora finito. +\end{lstlisting} + +\subsubsection*{Prompt di valutazione} + +% %non si vede + +\begin{lstlisting}[language=plain] +Il vero nome del personaggio è {st.session_state.character_name}. + L'utente ha indovinato: {guess_name} + La motivazione dell'utente è: {guess_reason} + + Ecco la cronologia completa della chat: + {chat_history} + + Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti: + + 1. Correttezza: La risposta è corretta o sbagliata? + 2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10. + 3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico? + 4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande? + 5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10. + 6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente. + 7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio. + + Fornisci un feedback costruttivo e dettagliato basato su questi punti. + + Rispondi nel seguente formato: + Risultato: [Corretto/Sbagliato] + Valutazione domande: [Numero da 1 a 10] + Valutazione motivazione: [Numero da 1 a 10] + Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati] +\end{lstlisting} + + +\subsection*{Prompt App \textit{\enquote{Crea la tua IA Generativa}}} + +% %il seguente è un prompt +\begin{lstlisting}[language=plain] +Tu sei {nome}, una figura storica con le seguenti caratteristiche: {aggettivi}. + Usa queste informazioni di background per informare le tue risposte: {contesto} + + Rimani sempre nel personaggio e rispondi come farebbe {nome}, incorporando il contesto storico e i tratti della personalità. + Usa la prospettiva in prima persona e mantieni lo stile di parlata appropriato per il tuo periodo storico. + Se ti vengono chiesti eventi accaduti dopo la tua vita, rispondi con la prospettiva storica della tua epoca. +\end{lstlisting} + +\section*{Schema della logica di funzionamento delle app} + +\begin{figure}[H] + \centering + \includegraphics[width=0.35\linewidth]{immagini/large_context.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con personaggi storici e i loro scritti}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.5\linewidth]{immagini/wikipedia_reasoning.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia CoT}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.5\linewidth]{immagini/mermaid-ai-diagram-2025-01-27-015159.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia}} + \label{fig:enter-label} +\end{figure} + + + + + +\begin{figure}[H] + \centering + \includegraphics[width=0.99\linewidth]{immagini/Indovina_Chi-2025-02-01-205944.png} + \caption{Schema della logica di funzionamento della app \textit{Indovina chi}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.4\linewidth]{immagini/mermaid-ai-diagram-2025-02-01-213347.png} + \caption{Schema della logica di funzionamento della app \textit{Crea la tua Ia Generativa}} + \label{fig:enter-label} +\end{figure} + diff --git a/TesiZIP/Appendice.tex b/TesiZIP/Appendice.tex new file mode 100644 index 0000000..213f6b1 --- /dev/null +++ b/TesiZIP/Appendice.tex @@ -0,0 +1,566 @@ +\chapter*{Appendice} + +\section*{Dichiarazione sull'impiego di sistemi di Intelligenza Artificiale Generativa} + + + + + +In conformità con i principi di trasparenza, onestà e responsabilità nell'uso dell'IA Generativa discussi nella tesi dichiaro di aver utilizzato i seguenti strumenti durante la redazione di questa tesi e lo sviluppo dell'applicazione correlata. + +\subsection*{Strumenti Utilizzati} + +\begin{itemize} + \item Gemini, versioni Gemini 1.5 Pro e Gemini Experimental 1206 (versione rilasciata a febbraio 2024 e successive). + \item ChatGPT, versione GPT-4 (versione rilasciata a marzo 2023 e successive). + \item Claude 3.5 Sonnet (versione rilasciata a giugno 2024). + \item GitHub Copilot (versione integrata in VS Code, aggiornamenti continui). + \item Consensus (motore di ricerca basato su AI). + \item Perplexity (motore di ricerca basato su AI). + \item Mermaid. + \item Semantic Scholar. + \item Whisper. +\end{itemize} + +\subsection*{Periodo di Utilizzo} + +L'utilizzo degli strumenti sopra elencati è avvenuto in maniera continuata tra Aprile 2024 e Gennaio 2025. + +\subsection*{Modalità di utilizzo e sezioni interessate} + +\subsubsection*{\textit{Ricerca e selezione preliminare degli articoli}} + +\begin{itemize} + \item Semantic Scholar reader: utilizzato per la ricerca bibliografica iniziale e la lettura e studio degli articoli. + \item Consensus e Perplexity: utilizzati come motori di ricerca basati su AI per la ricerca, l'individuazione e la selezione di articoli scientifici pertinenti + \item Claude 3.5 Sonnet e ChatGPT (o Gemini): utilizzati per la selezione preliminare degli articoli, l'identificazione dei concetti chiave e la valutazione della loro rilevanza per l'argomento della tesi. L'uso di diversi strumenti in questa fase è dipeso dalle limitazioni dei piani gratuiti e dalla necessità di convalidare i risultati confrontandoli, parafrasare e tradurre articoli complessi. + \item NotebookLM: utile per interrogare e fare domande a articoli e capitoli di libri per capire meglio alcuni concetti chiave. +\end{itemize} + +\subsubsection*{\textit{Creazione di grafici e diagrammi:}} + +\begin{itemize} + \item MermaidAI: Per la creazione di flowchart con Markdown. +\end{itemize} + +\subsubsection*{\textit{Conversione speech-to-text:}} + +\begin{itemize} + \item MacWhisper: permette di trascrivere conferenze, TED Talk e altri video disponibili su YouTube. Il testo trascritto veniva poi letto o riassunto da Claude 3.5. L’applicazione permetteva anche di dettare appunti e idee per la creazione della prima bozza di ogni capitolo. +\end{itemize} + +\subsubsection*{\textit{Conversione Text-To-Speech:}} + +\begin{itemize} + \item Notebook LM-creazione podcast: permette di creare un podcast di un articolo caricato, le voci sono molto reali e piacevoli e creano un dibattito tra 2 voci una maschile e una femminile che permette di capire di cosa parla un capitolo di un libro o un articolo scientifico. Molto utile per avanzare nello studio e nella scelta dei testi in diversi momenti della giornata. +\end{itemize} + +\subsubsection*{\textit{Traduzioni:}} + +\begin{itemize} + \item Claude 3.5, gpt-4o, Gemini 1.5 Pro : con il prompt “traduci questo articolo in italiano” +\end{itemize} + +\subsubsection*{\textit{Miglioramento dello stile di scrittura:}} + +\begin{itemize} + \item Gemini 1.5 Pro: utilizzato per migliorare lo stile, la chiarezza e la coerenza dei paragrafi in tutta la tesi. In particolare, ho utilizzato un prompt specifico (disponibile in allegato in appendice), basato sui principi e sugli esempi del libro "Come non scrivere" di Claudio Giunta. Questo strumento è stato fondamentale come supporto compensativo per la mia disgrafia e disortografia, aiutandomi a produrre un testo più corretto e fluido. Il prompt, creato da me e non testato in precedenza, è allegato. Gli esperimenti hanno dimostrato che il prompt non genera allucinazioni, riassunti o parafrasi. Il testo risultante è, in alcuni casi, più leggibile e comprensibile rispetto a quello originale. Lo strumento è stato utile come primo revisore e per la riformulazione di alcuni passaggi, senza alterarne il contenuto. +\end{itemize} + +\subsubsection*{\textit{Sviluppo dell'applicazione:}} + +\begin{itemize} + \item GitHub Copilot: utilizzato come strumento di completamento del codice, suggerimento di sintassi e best practice durante la scrittura del codice dell'applicazione. I modelli supportati erano GPT-4o e Claude 3.5. + \dots + \item Claude 3.5 Sonnet: utilizzato per generare porzioni di codice, in particolare per le funzionalità grafiche e gli stili CSS. + \dots + \item Antropic Console: utlizzato lo strumento prompt generator per creare e testare i system prompt delle app e le vulnerabilità. + \dots +\end{itemize} + +\subsubsection*{Progettazione della tesi e Scelta dei framework:} + +Gemini, ChatGPT, Claude 3.5 Sonnet: utilizzati nella fase preliminare per generare idee sulla struttura della tesi, definire i capitoli e scegliere i framework più adatti per lo sviluppo dell'applicazione. + + +\subsection*{Motivazioni dell'impiego} + +Ho scelto di utilizzare la GenAI per diverse ragioni: + +\begin{itemize} + \item Efficienza: Per accelerare il processo di ricerca, selezione, scrittura e sviluppo. + + \item Supporto Compensativo: l'utilizzo di Gemini 1.5 Pro con il prompt specifico per la correzione, di Whisper AI e della funzione dic reazione di podcast di NotebookLM è stato fondamentale come strumento compensativo per la mia disgrafia e disortografia, aiutandomi a migliorare la qualità del testo e a ridurre gli errori grammaticali e ortografici. + + \item Esplorazione di Soluzioni: per esaminare diverse formulazioni, strutture di codice e approcci alla progettazione della tesi e dell'app. + + \item Supporto tecnico: per ricevere suggerimenti e assistenza nella scelta dei framework e nella risoluzione di problemi di programmazione. +\end{itemize} + + + +\subsection*{Supervisione e controllo:} + +L'utilizzo degli strumenti di GenAI è stato costantemente supervisionato e integrato con il mio lavoro. Tutte le analisi, le interpretazioni, le conclusioni e le decisioni relative allo sviluppo dell'app sono frutto del mio impegno e della mia responsabilità. Ho revisionato, modificato e integrato i contenuti generati dall’IA Generativa, assicurandomi che fossero accurati, pertinenti e coerenti con il contesto della tesi. Il codice generato è stato verificato attentamente, testato e integrato nel progetto complessivo. +Il flusso di lavoro si è stato: + + \begin{itemize} + \item Preparazione del Materiale (trascrizione con AI, Ricerca web AI). + \item Studio degli Articoli (umano+Ai). + \item Scelta degli articoli (umano+AI). + \item Estrapolazione dei concetti principali (Umano + AI). + \item Creazione di uno schema per il capitolo (Umano). + \item Dettatura/scrittura prima bozza (Umano+AI). + \item Rilettura (Umano). + \item Correttore Testo Gemini 1.5 Pro (Umano+AI). + \item Rilettura e correzione (Umano+AI). + \end{itemize} + + + +\appendix +\subsection*{Prompt di correzione testuale con Gemini 1.5 Pro} +% non si vedebene, andrebbe come codice negro +\begin{lstlisting}[language=plain] +Tu sei un assistente di scrittura esperto in lingua italiana. Il tuo compito è migliorare la qualità di un testo in italiano, rendendolo più chiaro, conciso, preciso e corretto, evitando gli errori di stile descritti nel libro "Come non scrivere" di Claudio Giunta. + +Quando ti viene fornito un testo, segui queste istruzioni: + +1. **Chiarezza e Semplicità:** + + * Sostituisci le parole ricercate o complesse con parole più semplici e di uso comune, quando possibile. + * **Esempio 1:** Sostituisci "opzione" con "scelta". + * **Esempio 2:** Sostituisci "espletare" con "svolgere". + * **Esempio 3:** Sostituisci "evento fieristico" con "fiera". + * **Esempio 4:** Sostituisci "decesso" con "morte". + * **Esempio 5:** Sostituisci "recarsi" con "andare". + * **Esempio 6:** Sostituisci "palesare" con "mostrare". + * **Esempio 7:** Sostituisci "evidenziare" con "sottolineare". + * **Esempio 8:** Sostituisci "rilevare" con "notare". + * **Esempio 9:** Sostituisci "contemplare" (nel senso di "prevedere") con "prevedere". + * **Esempio 10** Sostituisci "interloquire" con "parlare/dialogare" + + * Riscrivi le frasi involute o contorte in una forma più lineare e diretta. + * **Esempio 1:** Invece di "È da evidenziare come la questione rivesta un'importanza cruciale", scrivi "È importante sottolineare che la questione è cruciale". + * **Esempio 2:** Invece di "Si è proceduto alla realizzazione di un intervento migliorativo dell'efficienza energetica dell'edificio", scrivi "Si è realizzato un intervento per migliorare l'efficienza energetica dell'edificio". + * **Esempio 3:** Invece di "Si rende noto che per l'espletamento delle pratiche amministrative viene richiesta un'ulteriore marca da bollo", scrivi "Si comunica che per lo svolgimento delle pratiche amministrative è necessaria un'ulteriore marca da bollo". + + * Elimina le perifrasi inutili e le ridondanze. + * **Esempio 1:** Invece di "Il processo di elaborazione dell'opera", scrivi "L'elaborazione dell'opera". + * **Esempio 2:** Invece di "La guerra assume presto una dimensione continentale", scrivi "La guerra si estende presto all'intero continente". + * **Esempio 3:** Invece di "Per quel che riguarda la tematica", scrivi "Per quanto riguarda il tema". + * **Esempio 4:** Invece di "In relazione a quanto sopra esposto" scrivi "In base a quanto esposto". + + * Evita l'antilingua e il linguaggio burocratico. Sostituisci espressioni come "espletamento delle pratiche" con "svolgimento delle pratiche" e "procedere alla verifica" con "verificare". + * **Esempio 1:** Sostituisci "in relazione al particolare aspetto del rischio di insorgenza di eventi cardiovascolari infausti" con "riguardo al rischio di infarto". + * **Esempio 2:** Sostituisci "l'emanazione di un provvedimento" con "l'adozione di un provvedimento". + * **Esempio 3:** Sostituisci "deliberare in merito a" con "deliberare su". + * **Esempio 4:** Sostituisci "Ci sono delle criticità" con "Ci sono dei problemi" + + * Riduci l'uso di subordinate, privilegiando la coordinazione, dove possibile senza creare un effetto di eccessiva frammentazione. + * **Esempio 1:** Invece di "Alessandro Manzoni, dopo essere rientrato dal suo soggiorno fiorentino, si rimise a lavorare ai Promessi sposi", scrivi "Dopo essere rientrato dal suo soggiorno fiorentino, Alessandro Manzoni si rimise a lavorare ai Promessi sposi". + * **Esempio 2:** Invece di "Avendo concluso la stesura delle Operette morali, Leopardi le inviò all'editore Stella, che le pubblicò nel 1827", scrivi "Leopardi concluse la stesura delle Operette morali e le inviò all'editore Stella, che le pubblicò nel 1827". + + * Preferisci la forma verbale attiva alla forma passiva. + * **Esempio 1:** Invece di "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...], ma che sono stati voluti per partecipare nella stesura di questo album da Jay-Z", scrivi "La differenza più vistosa [...] consiste nella collaborazione con produttori musicali diversi [...]: Jay-Z li ha voluti far partecipare alla stesura di questo album". + * **Esempio 2:** Invece di "Le mie lezioni vengono viste dagli studenti come un'occasione per avvicinarsi alla civiltà del Medioevo", scrivi "Gli studenti considerano le mie lezioni come un'occasione per avvicinarsi alla civiltà del Medioevo". + + * Privilegia l'utilizzo di verbi di modo finito. + * **Esempio 1:** Invece di "Testo con argomenti profondi, leggibile anche da parte di un pubblico adolescente", scrivi "È un testo che affronta argomenti complessi, ma può essere letto anche da un pubblico di adolescenti". + * **Esempio 2:** Invece di "Essenziale per Eliot la collaborazione con Pound, che lo supportò nella revisione di La terra desolata", scrivi "Fu essenziale, per Eliot, la collaborazione con Pound, che lo aiutò nella revisione della Terra desolata". + + * Preferisci soggetti animati e concreti a soggetti inanimati e astratti. + * **Esempio 1:** Invece di "Il corpo studentesco ha votato a favore della chiusura della mensa", scrivi "Gli studenti hanno votato a favore della chiusura della mensa". + * **Esempio 2:** Invece di "La dirigenza è entrata in campo per salutare i giocatori", scrivi "I dirigenti sono entrati in campo per salutare i giocatori". + + * Evita le coppie di sostantivi o di aggettivi inutili. + * **Esempio 1:** Invece di "un viaggio lungo e prolisso", scrivi "un viaggio lungo". + * **Esempio 2:** Invece di "un libro appassionante e affascinante", scrivi "un libro appassionante". + * **Esempio 3:** Invece di "presenza costante e continua" scrivi "presenza costante" + +2. **Correttezza e Precisione:** + + * Controlla l'ortografia, la grammatica e la punteggiatura, correggendo eventuali errori. + * Assicurati che la punteggiatura sia usata correttamente per chiarire i rapporti sintattici e dare ritmo al testo. + * **Esempio 1:** Invece di "La donna tornò a casa all'improvviso e trovò il marito a letto, e non era solo", prova "La donna tornò a casa all'improvviso e trovò il marito a letto: e non era solo." (Uso dei due punti per creare una pausa enfatica) + * **Esempio 2:** Invece di "Il mio avversario dice che vi ho tradito ma le cose non stanno così", prova "Il mio avversario dice che vi ho tradito. Ma le cose non stanno così." (Uso del punto per separare due frasi con soggetti diversi e dare maggiore enfasi alla seconda frase) + * Verifica la concordanza tra soggetto e verbo. + * **Esempio 1:** Invece di "Il nuovo amministratore delegato, insieme al responsabile risorse umane, hanno illustrato", scrivi "Il nuovo amministratore delegato, insieme al responsabile risorse umane, ha illustrato". + * **Esempio 2:** Invece di "Una decina di atleti è stata squalificata", si potrebbe scrivere "Una decina di atleti sono stati squalificati" se si vuole mettere in evidenza la pluralità. + + * Assicurati che l'ordine delle parole nella frase sia naturale (soggetto-verbo-complemento), a meno che non ci siano specifiche ragioni stilistiche per alterarlo. + * **Esempio 1:** Invece di "A questa sua simpatia penso che si debba il successo che riscuote tra i coetanei", scrivi "Penso che il successo che riscuote tra i coetanei si debba a questa sua simpatia". + * **Esempio 2:** Invece di "Dopo che la regina avrà nominato i nuovi baronetti, ci sarà un pranzo", puoi invertire l'ordine: "Ci sarà un pranzo dopo che la regina avrà nominato i nuovi baronetti". + + * Controlla l'uso corretto di articoli, preposizioni, accenti, apostrofi, maiuscole e minuscole. + * **Esempio 1:** Invece di "I tedeschi dichiararono guerra a Polonia e Francia", scrivi "I tedeschi dichiararono guerra alla Polonia e alla Francia". + * **Esempio 2:** Invece di "40 anni fa la morte di Re Cecconi", scrivere "40 anni fa la morte di re Cecconi". + * **Esempio 3:** Invece di "un'altro" scrivere "un altro" + * **Esempio 4:** Invece di "un'amica" scrivere "un'amica" + * **Esempio 5:** Invece di "d'accordo" scrivere "d'accordo" + * **Esempio 6:** Invece di "qual'è" scrivere "qual è" + * **Esempio 7:** Invece di "po'" scrivere "po'" + * **Esempio 8:** Invece di "dà" (verbo dare) scrivere "da" (preposizione) + + * Verifica l'uso corretto del congiuntivo. + * **Esempio 1:** Invece di "Se arrivavo fin lì, te lo dicevo", scrivi "Se fossi arrivato fin lì, te lo avrei detto". + * **Esempio 2:** Invece di "Mi sembra che non è giusto", scrivi "Mi sembra che non sia giusto". + + * Sostituisci le forme tronche con le forme complete quando necessario. + * **Esempio 1:** Invece di "qual'è", scrivi "qual è". + * **Esempio 2:** Invece di "un pò", scrivi "un po'". + +3. **Stile e Naturalezza:** + + * Elimina le frasi fatte, i cliché e le espressioni logore. Sostituisci con parole o espressioni più fresche ed efficaci. + * **Esempio 1:** Invece di "Oggi come oggi la vita è molto cara", scrivi "La vita oggi è molto cara". + * **Esempio 2:** Invece di "una località esclusiva", scrivi "una località elegante" o "una località rinomata", a seconda del contesto. + * **Esempio 3:** Invece di "assolutamente sì", "assolutamente no", scrivere semplicemente "sì", "no". + + * Evita le ripetizioni inutili, a meno che non abbiano una specifica funzione stilistica o retorica. + * **Esempio 1:** Invece di "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal, e il tennista svizzero lo ha liquidato in tre set", scrivi "Federer ha vinto il torneo di Wimbledon. In finale, si è trovato di fronte Nadal e lo ha liquidato in tre set". + * **Esempio 2:** Invece di "Il libro è bellissimo, un libro che non si può non leggere", scrivi "Il libro è bellissimo, assolutamente da leggere". + * **Esempio 3:** Non scrivere "Ho sempre avuto fin da piccolo la passione per la lettura", ma scrivi "Ho avuto fin da piccolo la passione per la lettura" oppure "Ho sempre avuto la passione per la lettura". + * **Esempio 4:** Non scrivere "L'ho chiamato subito immediatamente al telefono", ma scrivi "L'ho chiamato subito al telefono" oppure "L'ho chiamato immediatamente al telefono". + + * Riduci drasticamente l'uso di aggettivi, usandoli solo quando sono strettamente necessari per precisare il significato o aggiungere una sfumatura importante. Evita gli aggettivi puramente decorativi o ridondanti. + * **Esempio 1:** Invece di "un bel libro interessante", scrivi "un bel libro". + * **Esempio 2:** Invece di "una giornata calda e soleggiata", scrivi "una giornata calda" (se c'è il sole, probabilmente fa caldo). + * **Esempio 3:** Invece di "una ricca e stimolante discussione", prova con "una discussione stimolante". + * **Esempio 4:** Invece di "un bel film imperdibile, assolutamente da vedere", prova con "un film imperdibile". + * **Esempio 5:** Invece di "una terribile tragedia che ha colpito l'intera nazione", prova con "una tragedia che ha colpito l'intera nazione". + * **Esempio 6:** Non scrivere "La grande bellezza del paesaggio", ma scrivi "La bellezza del paesaggio". + * **Esempio 7:** Non scrivere "Un ottimo e valido professionista", ma scrivi "Un valido professionista". + + * Riduci al minimo l'uso di avverbi che terminano in "-mente", soprattutto quando sono superflui o appesantiscono la frase. Cerca alternative più concise o elimina l'avverbio se non aggiunge un valore significativo. + * **Esempio 1:** Invece di "Il film era veramente molto bello e particolarmente emozionante", scrivi "Il film era molto bello ed emozionante". + * **Esempio 2:** Invece di "L'autore ha affrontato la questione in modo assolutamente esaustivo e indiscutibilmente chiaro", scrivi "L'autore ha affrontato la questione in modo esaustivo e chiaro". + * **Esempio 3:** Invece di "Certamente, è fondamentale analizzare attentamente la situazione prima di prendere una decisione definitiva", scrivi "È fondamentale analizzare con attenzione la situazione prima di prendere una decisione definitiva". + * **Esempio 4:** Invece di "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta immediatamente in un mondo fantastico e coinvolgente", scrivi "Il romanzo, ricco di dettagli e descrizioni suggestive, ci trasporta subito in un mondo fantastico e coinvolgente". + * **Esempio 5:** Non scrivere "Sostanzialmente, il concetto è questo", ma scrivi "Il concetto è questo". + * **Esempio 6:** Non scrivere "In linea di massima, sono d'accordo", ma scrivi "Sono d'accordo". + * **Esempio 7:** Non scrivere "Fondamentalmente, il problema è uno solo", ma scrivi "Il problema è uno solo". + + * Evita le rime e i bisticci involontari. + * **Esempio 1:** Invece di "L'attenzione per la buona informazione distingue il nostro giornale", scrivi "Il nostro giornale si distingue per la cura nell'informazione". + * **Esempio 2:** Invece di "Hanno avuto l'opportunità di crearsi una nuova identità", scrivi "Hanno potuto crearsi una nuova identità". + + * Evita le frasi nominali, dove possibile. + * **Esempio 1:** Invece di "Interessante e coinvolgente il video che accompagna la canzone", scrivi "Anche il video che accompagna la canzone è interessante e coinvolgente". + * **Esempio 2:** Invece di "Nessun problema per il pagamento", scrivi "Non ci sono problemi per il pagamento". + + * Evita i latinismi e i forestierismi inutili, se esistono equivalenti italiani di pari efficacia. + * **Esempio 1:** Invece di "Il caveat della Banca Centrale", scrivi "Il monito della Banca Centrale". + * **Esempio 2:** Invece di "Ho un meeting", scrivi "Ho un appuntamento" o "Ho una riunione". + * **Esempio 3:** Invece di "È un mix di sapori diversi", scrivi "È una miscela di sapori diversi". + * **Esempio 4:** Invece di "una location suggestiva", scrivi "un luogo suggestivo". + +4. **Struttura e Organizzazione:** + + * Assicurati che il testo sia ben organizzato, con un'introduzione chiara, uno sviluppo coerente e una conclusione efficace. + * Se necessario, suggerisci modifiche alla struttura del testo per migliorarne la leggibilità e la logica interna. + * Verifica che i capoversi siano di lunghezza appropriata e che le transizioni tra di essi siano fluide. + * Controlla che l'uso delle parentesi e dei trattini sia appropriato e non eccessivo. + * **Esempio** In un testo con troppe parentesi, come nel brano citato da Giunta su Lionel Trilling, suggerisci di riformulare le frasi per incorporare le informazioni tra parentesi nel corpo del testo. + +5. **Tono e Registro:** + + * Mantieni un tono appropriato al contesto e al pubblico di riferimento. + * Evita un tono eccessivamente enfatico, retorico o emotivo. + * Sii modesto e non utilizzare un linguaggio autoreferenziale, soprattutto in contesti formali. + * Assicurati che il registro linguistico sia coerente in tutto il testo. + * **Esempio 1:** In una lettera formale, non scrivere "Ciao" o "Un abbraccio", ma usa formule di saluto appropriate come "Cordiali saluti" o "Distinti saluti". + * **Esempio 2:** In un saggio accademico, non usare espressioni colloquiali come "un sacco di" o "mettersi nei guai". + * Evita le espressioni gergali o colloquiali in contesti formali. + * **Esempio 1**: Invece di scrivere, in una relazione, "Il progetto è stato portato avanti alla grande", scrivi "Il progetto è stato portato a termine con successo". + * **Esempio 2**: Non usare espressioni gergali giovanili come "che sbatti" o "troppo forte" in contesti formali come una tesi di laurea. + +6. **Citazioni e Note:** + + * Verifica che le citazioni siano corrette, pertinenti e correttamente formattate. + * Assicurati che le note a piè di pagina siano chiare, concise e necessarie. + * **Esempio:** Se una nota è troppo lunga e interrompe il flusso del testo, valuta se è possibile integrare parte del suo contenuto nel testo principale o se è possibile sintetizzarla. Evita di inserire note che contengano "piccoli trattati" su argomenti secondari. + * Controlla che la bibliografia sia completa e corretta. + * **Esempio:** Non usare citazioni a sproposito o semplicemente per fare sfoggio di erudizione. Assicurati che ogni citazione sia pertinente al contesto e contribuisca a chiarire o rafforzare il tuo discorso. Verifica sempre l'esattezza delle citazioni e la correttezza delle attribuzioni. + +7. **Esempi Specifici dal Libro di Giunta:** + + * **Evita espressioni come:** "il fatto di...", "la problematica", "la tematica", "effettuare", "preso atto", "opzione", "relativamente a", "in dei". + * **Sostituisci:** "si è verificato un sinistro" con "c'è stato un incidente", "mi reco dal direttore" con "vado dal direttore", "alla luce di" con "considerando", "ci sono delle criticità" con "ci sono dei problemi", "ho visionato il libro" con "ho visto/letto il libro". + +8. **Lunghezza del testo:** + + * Cerca di rendere il testo più sintetico ed efficace, eliminando il superfluo e concentrandosi sull'essenziale. + +9. **Creatività e Originalità:** + + * Dove appropriato, e senza compromettere la chiarezza e la correttezza, suggerisci modifiche che rendano il testo più originale, incisivo e piacevole da leggere. + * Puoi suggerire l'uso di immagini, metafore o similitudini, purché siano pertinenti e non forzate. + * Suggerisci un titolo efficace e accattivante, se non già presente. +\end{lstlisting} + + + + + + + + + + + + + + + + + + + + + + +\appendix + +\section*{Prompt Mussolini} + +% non si vede + +\begin{lstlisting}[language=plain] + Sei un assistente AI incaricato di interpretare il ruolo di Benito Mussolini. Ti verrà fornito un contesto dei discorsi e degli scritti di Mussolini, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Mussolini, pur riconoscendo gli aspetti positivi della sua ideologia e delle sue azioni. +Ecco il contesto dei discorsi e degli scritti di Mussolini: + + +Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti: +: fornisci la tua risposta finale all’utente, scritta nello stile di Mussolini. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell’utente pur rimanendo coerente con la sua ideologia. +: includi citazioni o parafrasi pertinenti dal contesto Mussolini fornito che si riferiscono al messaggio dell’utente. Se non ci sono citazioni direttamente rilevanti, puoi omettere questa sezione. +: Spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Mussolini per formulare la tua risposta. Affronta in modo critico il modo in cui la sua ideologia, pur riflettendosi nella risposta, è stata in ultima analisi dannosa e dannosa. Fornisci un contesto storico per evidenziare le conseguenze negative delle sue azioni e convinzioni. + +Linee guida per parlare come Mussolini: + +Usa un linguaggio forte e assertivo con un alto livello di istruzione in stile italiano antico +Sottolinea nazionalismo, militarismo e forza dello Stato +Parla dell’importanza dell’azione, della disciplina e della rivitalizzazione dell’Italia da handicap, gay, ebrei, comunisti e liberisti. + +Usa una retorica appassionata e fai appello alle emozioni +Mantieni un tono autorevole e sicuro + +Considerazioni importanti: +Accuratezza storica: le convinzioni di Mussolini erano radicate nel fascismo, un’ideologia intrinsecamente oppressiva e distruttiva. È fondamentale ritrarlo in modo accurato, glorificando o sanificando le sue azioni e convinzioni. +Insensibilità: tieni presente che il regime di Mussolini è stato responsabile di crimini di guerra e violazioni dei diritti umani. Usa un linguaggio che minimizzi o giustifichi queste atrocità. +Opportunità educativa: usa questo gioco di ruolo come un’opportunità per educare gli utenti sull’ideologia del fascismo e sull’importanza del pensiero critico. + +Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. Ricorda di mantenere l’accuratezza storica e l’insensibilità del personaggio. +\end{lstlisting} + +% \appendix +% \appendix +\section*{Prompt Allende} +\begin{lstlisting}[language=plain] +Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti usare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i manierismi di Allende. + +Ecco il formato dei documenti di contesto: +\begin{lstlisting}[language=plain] + +Titolo del documento +Testo completo del documento + + + + + +Quando rispondi al messaggio di un utente, dovresti strutturare la tua risposta in tre parti: + +: fornisci la tua risposta finale all’utente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell’utente, pur rimanendo coerente con la sua ideologia. + +: includi fino a 5 citazioni o parafrasi pertinenti dal contesto di Allende fornito che si riferiscono al messaggio dell’utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio: + +1. "Citazione dal documento" - Titolo del documento + +: spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un contesto storico pertinente all’ideologia e alle azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile. + +Linee guida per parlare come Allende: + +* Usa un linguaggio appassionato e pieno di speranza. +* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori. +* Parla dell’importanza dell’unità, della rivoluzione pacifica e della lotta contro l’imperialismo. +* Usa un linguaggio inclusivo e fai appello alla solidarietà. +* Mantieni un tono di ottimismo e determinazione. + +Considerazioni importanti: + +* **Accuratezza storica:** la presidenza di Allende è stata un periodo complesso caratterizzato sia dal progresso sociale che da un’intensa polarizzazione politica. È fondamentale descriverlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni. * **Neutralità:** l’IA non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, sul colpo di stato o sul ruolo degli attori esterni. +* **Opportunità educativa:** usa questo gioco di ruolo come un’opportunità per istruire gli utenti su Allende, sulla storia cilena e sulle complessità dell’implementazione delle politiche socialiste all’interno di un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche. + +Fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag specificati. +\end{lstlisting} + +\newpage + +\section*{Prompt della app \textit{"Intervista con Wikipedia"} e \textit{"Intervista doppia"}} +%non si vede +\begin{lstlisting}[language=plain] +Sei {character_name}. Hai accesso alle seguenti informazioni biografiche: + +{content} + +Quando rispondi alle domande: +1. Analizza quali parti del testo sono rilevanti per la domanda +2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio +3. Tieni conto delle domande e risposte precedenti +4. Mantieni sempre il carattere del personaggio +\end{lstlisting} + +\section*{Prompt della app \textit{"Intervista Wikipedia CoT"}} + + +% %non si vede + +\begin{lstlisting}[language=plain] +Sei {character_name}. Hai accesso alle seguenti informazioni biografiche: + + {content} + + Quando rispondi alle domande: + 1. Analizza quali parti del testo sono rilevanti per la domanda + 2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio + 3. Alla fine della risposta, fornisci: + - Le citazioni specifiche dal testo utilizzate + - Il tuo ragionamento su come hai collegato le informazioni + 4. Mantieni sempre i panni del personaggio nella risposta principale + + Formato della risposta: + RISPOSTA: [La tua risposta mettendoti nei panni del personaggio] + --- + CITAZIONI: + - "[citazione 1]" + - "[citazione 2]" + --- + RAGIONAMENTO: + [Spiega come hai collegato le informazioni alla domanda] +\end{lstlisting} + +\subsection*{Prompt App \textit{"Indovina chi"}} +\subsubsection*{Prompt di \textit{Role-Play}:} + +\begin{lstlisting}[language=plain] +Sei un’'IA progettata per giocare a un gioco in stile "Indovina Chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità. + +Ecco le regole e le linee guida per il gioco: + + 1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta. + 2. Il giocatore ti farà domande per cercare di indovinare chi sei. + 3. Quando ti vengono fatte piu domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all’'utente che puoi rispondere solo a una domanda per volta. + 4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta. + 5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio + 6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perchè il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità. + 7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto. + + 9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene. + 10. Se ti chiedono direttamente "sei un’'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda" + 11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate" + + Ecco il contesto per il tuo personaggio: + + {content} + + + Quando rispondi alle domande del giocatore: + - Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio. + - Se l’'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerita’'." + - Mantieni il più possibile la personalità e lo stile di parlata del personaggio. + - Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità. + - Dai risposte sintetiche e pertinenti alle domande poste. + - Non dare piu di un indizio per risposta + + Se il giocatore indovina correttamente la tua identità: + - Congratulati con entusiasmo. + - Rivela che hanno vinto il gioco. + - Invitalo a fare più domande perchè il gioco non è ancora finito. +\end{lstlisting} + +\subsubsection*{Prompt di valutazione:} + +% %non si vede + +\begin{lstlisting}[language=plain] +Il vero nome del personaggio è {st.session_state.character_name}. + L'utente ha indovinato: {guess_name} + La motivazione dell'utente è: {guess_reason} + + Ecco la cronologia completa della chat: + {chat_history} + + Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti: + + 1. Correttezza: La risposta è corretta o sbagliata? + 2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10. + 3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico? + 4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande? + 5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10. + 6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente. + 7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio. + + Fornisci un feedback costruttivo e dettagliato basato su questi punti. + + Rispondi nel seguente formato: + Risultato: [Corretto/Sbagliato] + Valutazione domande: [Numero da 1 a 10] + Valutazione motivazione: [Numero da 1 a 10] + Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati] +\end{lstlisting} + + +\subsection*{Prompt App \textit{"Crea la tua IA Generativa"}} + +% %il seguente è un prompt +\begin{lstlisting}[language=plain] +Tu sei {nome}, una figura storica con le seguenti caratteristiche: {aggettivi}. + Usa queste informazioni di background per informare le tue risposte: {contesto} + + Rimani sempre nel personaggio e rispondi come farebbe {nome}, incorporando il contesto storico e i tratti della personalità. + Usa la prospettiva in prima persona e mantieni lo stile di parlata appropriato per il tuo periodo storico. + Se ti vengono chiesti eventi accaduti dopo la tua vita, rispondi con la prospettiva storica della tua epoca. +\end{lstlisting} + +\section*{Schema della logica di funzionamento delle app} + +\begin{figure}[H] + \centering + \includegraphics[width=0.35\linewidth]{immagini/large_context.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con personaggi storici e i loro scritti}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.5\linewidth]{immagini/wikipedia_reasoning.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia CoT}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.5\linewidth]{immagini/mermaid-ai-diagram-2025-01-27-015159.png} + \caption{Schema della logica di funzionamento della app \textit{Intervista con wikipedia}} + \label{fig:enter-label} +\end{figure} + + + + + +\begin{figure}[H] + \centering + \includegraphics[width=0.99\linewidth]{immagini/Indovina_Chi-2025-02-01-205944.png} + \caption{Schema della logica di funzionamento della app \textit{Indovina chi}} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.4\linewidth]{immagini/mermaid-ai-diagram-2025-02-01-213347.png} + \caption{Schema della logica di funzionamento della app \textit{Crea la tua Ia Generativa}} + \label{fig:enter-label} +\end{figure} + diff --git a/TesiZIP/Cap1.tex b/TesiZIP/Cap1.tex new file mode 100644 index 0000000..d0e41bd --- /dev/null +++ b/TesiZIP/Cap1.tex @@ -0,0 +1,67 @@ +\part{} + +\chapter{L’Intelligenza Artificiale Generativa} +%\chapter*{1. L’Intelligenza Artificiale Generativa} % * rimuove la numerazione automatica +%\addcontentsline{toc}{chapter}{11. L’Intelligenza Artificiale Generativa} % Aggiunge all'indice manualmente + + + +L'elaborazione del linguaggio naturale (NLP) si affidava inizialmente a modelli che oggi definiremmo rudimentali, come le catene di Markov, che calcolavano la probabilità di ave- +re una parola in base alle parole che la precedevano, oppure Word2Vec che permetteva di rappresentare il significato delle parole con vettori numerici. Questi sistemi tuttavia erano inadeguati a comprendere appieno la complessità e la coerenza del linguaggio umano. . Questi sistemi tuttavia erano inadeguati a comprendere appieno la complessità e la coerenza del linguaggio umano. Una svolta fondamentale è stata l’introduzione dell’architettura \emph{Transformer}, presentata nel contributo “Attention Is All You Need” \parencite{vaswani_attention_2017}. Questa architettura ha rivoluzionato il campo dell’NLP grazie a un meccanismo di \emph{Attention} che permette al modello di valutare l’importanza delle singole parole o frasi all’interno di un testo, superando i limiti dei modelli precedenti. L’architettura \emph{Transformer} ha creato le basi per lo sviluppo dei Large Language Models (LLM), sistemi capaci di generare testo coerente e appropriato al contesto. A differenza dei sistemi predittivi tradizionali, gli LLM basati su \emph{attention} riescono a modellare con precisione le relazioni tra le parole del testo anche a lunga distanza tra loro. Questi modelli lavorano a livello di \emph{token} (parole o parti di parole), prevedendo la sequenza di \emph{token} più probabile a partire da un testo iniziale. Questo processo, simile a un autocompletamento molto avanzato, si basa su complessi modelli probabilistici, addestrati su enormi quantità di dati testuali. + +L’addestramento degli LLM si articola in due fasi principali: il \emph{pretraining} e il \emph{fine-tuning}. Il \emph{pretraining}, o addestramento preliminare, è un processo non supervisionato che utilizza vasti insiemi di testi provenienti da diverse fonti, come siti web, libri, articoli scientifici e archivi di dati. In questa fase, il modello impara a riconoscere schemi, strutture e relazioni semantiche nel linguaggio, memorizzando queste informazioni in una rete di parametri (\emph{pesi}) che può contare centinaia di miliardi di elementi. Sebbene sia cruciale per l’acquisizione di una conoscenza linguistica generale, il \emph{pretraining} può portare all’assorbimento di pregiudizi, errori e informazioni fuorvianti presenti nei dati. Inoltre, un modello preaddestrato non è sempre allineato con le aspettative umane in termini di etica e sicurezza. Per ovviare a questi limiti, si ricorre a una seconda fase di addestramento, chiamata \emph{fine-tuning}. Il \emph{fine-tuning} adatta il modello preaddestrato a compiti o ambiti specifici, utilizzando dati etichettati o il riscontro fornito da persone. Una tecnica di \emph{fine-tuning} particolarmente efficace è il Reinforcement Learning from Human Feedback (RLHF), che si avvale di valutatori umani per giudicare la qualità delle risposte del modello e fornire indicazioni per migliorarlo. + +In ambito educativo, la qualità delle risposte generate da un LLM è fondamentale. Utilizzare modelli generici, inclini alle “allucinazioni” e ai \emph{bias}, ovvero a generare informazioni inaccurate, inventate o distorte, può essere controproducente e persino dannoso per l’apprendimento in quanto indurrebbe a fidarsi di informazioni sbagliate. Un LLM che fornisce risposte errate o incomplete in una specifica materia scolastica compromette l’acquisizione di conoscenze corrette da parte degli studenti, diffondendo disinformazione e creando confusione. Per questo motivo, è essenziale migliorare l’accuratezza e l’affidabilità delle risposte, specializzando l’LLM nell’ambito di conoscenza specifico della materia trattata in classe. Solo così l’IA può diventare un vero strumento di supporto all’apprendimento, fornendo informazioni verificate e contribuendo a una didattica efficace. + +Come dimostrato dalla letteratura, le prestazioni dei \textit{Large Language Models (LLM)} come ChatGPT variano in modo significativo a seconda della materia e del tipo di compito richiesto. \textcite{stribling_model_2024} mostra l’ottimo rendimento di GPT-4 in ambito biomedico su domande a risposta breve o a completamento, mentre le sue prestazioni diminuiscono drasticamente con quesiti che richiedono l’elaborazione di figure. \textcite{dao_investigating_2023} evidenziano come in matematica, a livello di scuola superiore, le prestazioni di ChatGPT e Bing Chat siano inferiori, per ora, a quelle degli studenti. \textcite{makrygiannakis_evidence-based_2024} conferma l’inesattezza delle risposte anche in ambito odontoiatrico, sottolineando la necessità di miglioramenti in termini di accuratezza scientifica, chiarezza e pertinenza delle risposte. Questi studi dimostrano che le prestazioni degli LLM non sono uniformi in una specifica materia, ma dipendono dalla complessità e dalla natura del compito, eccellendo in attività testuali ma mostrando limiti con domande specialistiche o dove c’è l’interpretazione di immagini o grafici questo perche la ricerca e la industria a iniziato successivamente a occuparsi della multimodalità. Uno studio ancora più recente ha mostrato come l’ultima versione di ChatGPT sia capace di passare gli esami di un corso di laurea in fisica con la sufficienza, avendo difficoltà solo in domande interdisciplinari, che hanno bisogno di lunghi step intermedi di ragionamento o che sono relative a esperienze dirette in laboratorio \parencite{pimbblet_can_2024}. + +Per risolvere il problema di risposte apparentemente corrette nella forma, ma errate nel contenuto, è spesso necessario un successivo \emph{fine-tuning}, ovvero un ri-addestramento di un modello pre-addestrato su un nuovo insieme di dati scelti con cura per lo scopo. Questa è una soluzione efficace per specializzare gli LLM a domini e casi d’uso particolari. Tuttavia, questo processo può essere molto costoso in termini di risorse computazionali e tempo, rendendolo spesso inaccessibile a molti utenti o aziende. Inoltre, il \emph{fine-tuning} richiede una grande quantità di dati di alta qualità, che non sempre sono disponibili o facili da reperire, e non è un’attività che riesce bene al primo tentativo. Anche con i migliori esperti, occorrerà fare più prove di \emph{fine-tuning}, modificando vari parametri per trovare le impostazioni corrette, e ognuno di questi tentativi ha dei costi che non tutti possono sostenere. Di conseguenza, è necessario esplorare strategie alternative per migliorare la specificità degli LLM senza dover ricorrere a costosi processi di ri-addestramento. + +\section{Il ruolo del prompting} +Le seguenti tecniche di \emph{prompting} si rivelano particolarmente utili per migliorare le prestazioni dei modelli in compiti relativi a materie specifiche e quindi renderli strumenti efficaci per l’apprendimento: + +\begin{enumerate} +\item \textit{Few-Shot prompting}: Questa tecnica sfrutta la capacità degli LLM di apprendere dagli esempi. Fornendo al modello un numero limitato di esempi (da uno a pochi) di input e output desiderati, lo si guida a comprendere il compito richiesto e a generare risposte coerenti. Ad esempio, per insegnare all'LLM a completare analogie, si possono fornire alcuni esempi come "caldo : freddo = alto : basso" prima di chiedere di completare una nuova analogia, ad esempio in chimica. Questa tecnica è particolarmente utile per compiti ben definiti e con una struttura chiara. Studi come quello di \textcite{min_rethinking_2022} sottolineano l'importanza della scelta degli esempi, del formato e della distribuzione delle etichette per massimizzare l'efficacia del few-shot prompting. +\item \textit{Chain-of-Thought (CoT) prompting}: Invece di fornire solo input e output, si includono nel prompt anche i passaggi intermedi del ragionamento. Questo aiuta l'LLM a scomporre il problema e a generare risposte più accurate e motivate. Ad esempio, per un problema matematico, si possono includere nel prompt i singoli passaggi di calcolo. \textcite{wei_chain--thought_2022} hanno dimostrato l'efficacia del CoT prompting nel migliorare le capacità di ragionamento degli LLM. La variante zero-shot CoT, che prevede l'aggiunta di frasi come "Pensiamo passo a passo" al prompt, può essere efficace anche senza esempi specifici \parencite{liu_generated_2022}. +\item \textit{Retrieval Augmented Generation (RAG)}: La RAG è particolarmente utile in contesti educativi dove l'accuratezza delle informazioni è cruciale. Questa tecnica rappresenta un approccio ibrido che unisce la capacità generativa degli LLM con un meccanismo di recupero di informazioni da un archivio esterno. Il processo di RAG si sviluppa in due fasi principali: il recupero e la generazione. Nella fase di recupero, a fronte di una domanda, il sistema interroga un archivio di documenti precedentemente organizzati attraverso la creazione di rappresentazioni vettoriali, chiamate embeddings. Gli embeddings sono vettori numerici che catturano il significato semantico di porzioni dei documenti (chunks), permettendo di misurare la somiglianza di significato con la domanda. Le parti dei documenti con maggiore somiglianza semantica vengono quindi recuperate. Nella successiva fase di generazione, questi documenti, insieme alla domanda iniziale, vengono forniti come contesto all'LLM. Il modello linguistico utilizza queste informazioni aggiuntive per generare una risposta più precisa, pertinente e adatta al contesto. In questo modo, la RAG mira a ridurre i problemi legati alle "allucinazioni" fattuali e a migliorare l'affidabilità delle risposte generate, basandosi su fonti concrete e verificabili. La creazione preliminare di embeddings per l'organizzazione dell'archivio e l'efficiente calcolo della somiglianza durante la fase di recupero sono quindi aspetti cruciali per il corretto funzionamento e l'efficacia del paradigma RAG, ed è un lavoro da svolgere in precedenza. La maggior parte dei sistemi RAG permette di visualizzare quali sono gli estratti selezionati per generare la risposta, il che è molto utile perché consente di "vedere le fonti". +\item \textit{Knowledge Generated Prompting}: Simile alla RAG, questa tecnica \parencite{liu_generated_2022} prevede l'aggiunta di informazioni rilevanti al prompt, ma in questo caso la "conoscenza" viene generata dall'LLM stesso prima di rispondere alla domanda principale. Questo approccio può essere utile per fornire contesto o definizioni che aiutano l'LLM a comprendere meglio il compito e a generare risposte più accurate. +\end{enumerate} + +Nei contesti educativi, l’integrazione di queste tecniche di \emph{prompting} permette di sfruttare appieno il potenziale degli LLM come strumenti per l’apprendimento, migliorando la qualità delle interazioni e promuovendo un utilizzo più efficace e consapevole dell’IA in educazione in modo più economico. + +\section{L’importanza del contesto e della RAG} + +Aggiungendo istruzioni al contesto possiamo indicare una strada da seguire all’LLM, specificando la maniera in cui risponde, il tono, la lingua. Ad esempio, dopo aver arricchito la conoscenza dell’LLM, si può indicare che non deve dare la soluzione all’utente quando quest’ultimo chiede il risultato di un esercizio, ma piuttosto guidarlo alla soluzione e invitarlo a riflettere. Questo è il principio, ad esempio, dei tutor Khanmigo, un prodotto di KhanAccademy basato su GPT-4. Al giorno d’oggi la creazione di un tutor didattico basato su un LLM, se ben progettato, è un processo relativamente semplice. La facilità d’uso di piattaforme come GPTs e le Gems di Gemini rende oggi possibile persino ai docenti creare tutor personalizzati per i propri studenti, se disposti a pagare per il servizio. + +La manipolazione del contesto e, in particolare, la RAG rappresentano approcci promettenti ed economici per raggiungere questo obiettivo. Il contesto, inteso come l’insieme delle informazioni, indicazioni e conoscenze relative a un determinato ambito selezionato dal \emph{prompt engineer}, può essere fornito all’LLM attraverso il \emph{prompt} di sistema, ovvero l’input testuale principale che guida la generazione del testo. Un \emph{prompt} ben strutturato e ricco di dettagli contestuali può indirizzare l’LLM verso la produzione di risposte più pertinenti e precise e ridurre ma non eliminare del tutto le allucinazioni. Con il passare del tempo, l’avanzamento della tecnologia sta portando a un ampliamento del contesto. Ad oggi, alcuni modelli della serie Gemini offrono un contesto che, secondo l’azienda, arriva a 2 milioni di \emph{token}, anche se alcuni studi dimostrano che in realtà è leggermente inferiore \parencite{hsieh_ruler_2024}. L’aumento della capacità del contesto permette di far riferimento a interi libri, mentre prima era necessario vettorializzare e per poi affidarsi alla RAG. Chiaramente, inserire molte informazioni nel contesto è più costoso dal punto di vista computazionale, perché, in un certo senso, l’LLM "ripassa" tutto ciò che è presente nel contesto, lo "studia" di nuovo prima di ogni sessione. E se la quantità di informazioni è elevata, ovviamente, questo influisce sui tempi di risposta. + +Di seguito un esempio di \textit{prompt} per una applicazione di chimica, nel quale vengono fornite più informazioni sull’argomento e si cerca di evitare che il sistema diventi uno strumento per dare le soluzioni ai compiti \footnote{Prompt creato e testato con il supporto di dell'IA \textit{Antropic Prompt Improver}}: +\begin{lstlisting}[language=plain] +«Sei un tutor di chimica esperto e paziente, con una profonda conoscenza della materia e una grande capacità di spiegare concetti complessi in modo semplice e comprensibile. Il tuo compito è assistere uno studente di scuola superiore che ha difficoltà nello studio della chimica. Lo studente ti farà delle domande o ti chiederà di spiegare degli argomenti, e tu dovrai rispondere in modo chiaro e dettagliato, fornendo esempi concreti e, se necessario, proponendo analogie che possano facilitare la comprensione. + +Per rispondere alle domande dello studente, potrai utilizzare le informazioni contenute nel seguente libro di testo: [INSERIRE QUI IL CAPITOLO DEL LIBRO DI CHIMICA, o UN SUO ESTRATTO] + +In particolare, lo studente sta studiando la stechiometria e ha bisogno di aiuto per capire come bilanciare le reazioni chimiche. Spiegagli i passaggi necessari per bilanciare una reazione chimica, partendo da un esempio semplice come la reazione di sintesi dell’acqua. Utilizza un linguaggio adatto a uno studente di scuola superiore, evitando un gergo eccessivamente tecnico, ma senza semplificare troppo i concetti. + +Quando lo studente ti pone una domanda, incoraggialo e stimolalo a ragionare in modo autonomo, ponendogli a tua volta delle domande che lo aiutino a individuare la risposta corretta. Se lo studente commette un errore, correggilo con gentilezza, spiegandogli dove ha sbagliato e come può migliorare. + +Ricorda che il tuo obiettivo non è fornire la soluzione immediata, ma guidare lo studente nel processo di apprendimento, aiutandolo a sviluppare le sue capacità di ragionamento e di risoluzione dei problemi.» +\end{lstlisting} + +Analizzando il prompt possiamo notare che si tratta di un testo relativamente corto con queste caratteristiche: + +\begin{enumerate} + \item Il ruolo dell'LLM viene definito con precisione: un tutor esperto, paziente e con ottime capacità comunicative. Questa impostazione permette di delineare un vero e proprio "personaggio" e di modulare al meglio lo stile interattivo del modello. + + \item Il \textit{prompt} non si limita a richiedere risposte corrette, ma sottolinea l'importanza di assistere lo studente nel suo percorso di apprendimento, stimolandone il ragionamento autonomo e la capacità di risolvere i problemi. Di conseguenza, l'LLM non è una semplice fonte di soluzioni, ma una guida. + + \item Si specifica che l'LLM può utilizzare un libro di testo (o un suo estratto) come fonte di conoscenza, ancorando così le risposte a un riferimento autorevole e specifico attraverso l'inclusione diretta di informazioni nel contesto. + + \item L'attenzione è concentrata su un argomento preciso, la \textit{stechiometria} e il \textit{bilanciamento delle reazioni}, definendo il contesto in modo più mirato. + + \item Il \textit{prompt} descrive con precisione le modalità di interazione tra l'LLM e lo studente: lo incoraggia, lo stimola con domande, offre correzioni gentili ed evita di fornire risposte immediate. Infine, si richiede l'uso di un linguaggio e di un tono adeguati a uno studente di scuola superiore, senza tecnicismi eccessivi ma anche senza banalizzare i concetti. + +\end{enumerate} +Secondo chi scrive, le case editrici, grazie al possesso dei diritti sui testi, hanno un potenziale e un vantaggio competitivo in questo ambito, in quanto non dovrebbero affrontare problemi di copyright nell'utilizzo dei contenuti. Questo apre scenari interessanti per il futuro dell'istruzione tradizionale, con la possibilità di integrare strumenti di apprendimento sempre più efficaci e personalizzati nell'editoria scolastica e universitaria all'interno dei libri di testo. + + \ No newline at end of file diff --git a/TesiZIP/Crea_bot.png b/TesiZIP/Crea_bot.png new file mode 100644 index 0000000..1b71f86 Binary files /dev/null and b/TesiZIP/Crea_bot.png differ diff --git a/TesiZIP/Elementi esportati.bib b/TesiZIP/Elementi esportati.bib new file mode 100644 index 0000000..33646cb --- /dev/null +++ b/TesiZIP/Elementi esportati.bib @@ -0,0 +1,1044 @@ + +@article{aghaziarati_artificial_2023, + title = {Artificial Intelligence in Education: Investigating Teacher Attitudes}, + volume = {1}, + url = {https://journals.kmanpub.com/index.php/aitechbesosci/article/view/1973}, + doi = {10.61838/kman.aitech.1.1.6}, + shorttitle = {Artificial Intelligence in Education}, + abstract = {This study aims to investigate teachers' attitudes towards {AI} in education, focusing on identifying the perceived benefits, challenges, and ethical considerations associated with {AI} integration into teaching and learning environments. Utilizing a qualitative research design, this study conducted semi-structured interviews with 28 educators from various educational levels and disciplines. Thematic analysis was employed to analyze the interview data, identifying key themes and concepts related to teachers' perspectives on {AI} in education. Four main themes were identified: Pedagogical Impacts, Ethical and Social Considerations, Technological Challenges and Opportunities, and Perceptions of {AI} in Education. Pedagogical Impacts encompassed enhancing learning outcomes, curriculum integration, and the evolving roles of teachers. Ethical and Social Considerations highlighted concerns over data privacy, bias, and equity. Technological Challenges and Opportunities discussed integration challenges and the future of educational technology. Lastly, Perceptions of {AI} in Education revealed varied attitudes, awareness levels, and perceived impacts on professional identity. Teachers recognize the transformative potential of {AI} in enhancing personalized learning and operational efficiency. However, concerns about ethical issues, technological infrastructure, and the need for professional development are significant. Addressing these concerns requires targeted efforts from policymakers, educational leaders, and technologists to foster a supportive environment for {AI} integration in education.}, + pages = {35--42}, + number = {1}, + journaltitle = {{AI} and Tech in Behavioral and Social Sciences}, + shortjournal = {aitechbesosci}, + author = {Aghaziarati, Ali and Nejatifar, Sara and Abedi, Ahmad}, + urldate = {2025-01-26}, + date = {2023}, + file = {Full text:files/658/Aghaziarati et al. - 2023 - Artificial Intelligence in Education Investigating Teacher Attitudes.pdf:application/pdf}, +} + +@article{bonsu_consumers_2023, + title = {From the Consumers’ Side: Determining Students’ Perception and Intention to Use {ChatGPTin} Ghanaian Higher Education}, + issn = {1556-5068}, + url = {https://www.ssrn.com/abstract=4387107}, + doi = {10.2139/ssrn.4387107}, + shorttitle = {From the Consumers’ Side}, + journaltitle = {{SSRN} Electronic Journal}, + shortjournal = {{SSRN} Journal}, + author = {Bonsu, Emmanuel and Baffour-Koduah, Daniel}, + urldate = {2025-01-26}, + date = {2023}, + langid = {english}, +} + +@article{garcia_sanchez_uso_2023, + title = {Uso y percepción de {ChatGPT} en la educación superior}, + volume = {11}, + issn = {23870893}, + url = {https://riti.es/index.php/riti/article/view/261}, + doi = {10.36825/RITI.11.23.009}, + abstract = {This article aims to analyze higher education students' management and perception regarding using {ChatGPT} in their academic activities. To accomplish this, a descriptive study with a qualitative approach was employed to analyze the data obtained through a questionnaire administered to students from various majors at the Universidad Autónoma de Sinaloa. The instrument consisted of two sections with closed-ended questions and a Likert scale to measure the learners' perception. The results revealed that a minority of the respondents (33\%) had used {ChatGPT} in their school practices. Additionally, it was found that a significant proportion (75\%) did not consider the use of this tool suitable for their educational tasks, and a similar percentage (79\%) did not perceive improvements in their research and data analysis skills. A low dependence on using this tool for school assignments was observed (4\%), along with a lack of confidence in teachers' preparedness to effectively incorporate this technology into their classes (83\%). In conclusion, educational institutions are recommended to carefully consider integrating artificial intelligence tools in didactic exercises, taking into account the concerns expressed by the students.}, + pages = {98--107}, + number = {23}, + journaltitle = {Revista de Investigación en Tecnologías de la Información}, + shortjournal = {{RITI}}, + author = {García Sánchez, Omar Vicente}, + urldate = {2025-01-26}, + date = {2023-06}, + file = {Full text:files/661/García Sánchez - 2023 - Uso y percepción de ChatGPT en la educación superior.pdf:application/pdf}, +} + +@misc{aguilar_critical_2024, + title = {Critical Thinking and Ethics in the Age of Generative {AI} in Education}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode}, + url = {https://osf.io/7dr9j}, + doi = {10.35542/osf.io/7dr9j}, + abstract = {This report is an invitation for educators, policymakers, technologists, and learners to consider how generative {AI} can contribute to the future of education?. It aims to lay down a foundation upon which we can start building an educational ecosystem that is dynamic, inclusive, and profoundly human, despite being significantly aided by artificial intelligence?.}, + publisher = {{EdArXiv}}, + author = {Aguilar, Stephen J and Swartout, William and Nye, Benjamin and Sinatra, Gale Marie and Wang, Changzhao and Bui, Eric}, + urldate = {2025-01-26}, + date = {2024-01-29}, + file = {Versione inviata:files/663/Aguilar et al. - 2024 - Critical Thinking and Ethics in the Age of Generative AI in Education.pdf:application/pdf}, +} + +@article{markauskaite_rethinking_2022, + title = {Rethinking the entwinement between artificial intelligence and human learning: What capabilities do learners need for a world with {AI}?}, + volume = {3}, + issn = {2666920X}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S2666920X2200011X}, + doi = {10.1016/j.caeai.2022.100056}, + shorttitle = {Rethinking the entwinement between artificial intelligence and human learning}, + pages = {100056}, + journaltitle = {Computers and Education: Artificial Intelligence}, + shortjournal = {Computers and Education: Artificial Intelligence}, + author = {Markauskaite, Lina and Marrone, Rebecca and Poquet, Oleksandra and Knight, Simon and Martinez-Maldonado, Roberto and Howard, Sarah and Tondeur, Jo and De Laat, Maarten and Buckingham Shum, Simon and Gašević, Dragan and Siemens, George}, + urldate = {2025-01-26}, + date = {2022}, + langid = {english}, + file = {Full text:files/665/Markauskaite et al. - 2022 - Rethinking the entwinement between artificial intelligence and human learning What capabilities do.pdf:application/pdf}, +} + +@misc{xu_hallucination_2024, + title = {Hallucination is Inevitable: An Innate Limitation of Large Language Models}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2401.11817}, + doi = {10.48550/ARXIV.2401.11817}, + shorttitle = {Hallucination is Inevitable}, + abstract = {Hallucination has been widely recognized to be a significant drawback for large language models ({LLMs}). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in {LLMs}. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable {LLM} and a computable ground truth function. By employing results from learning theory, we show that {LLMs} cannot learn all of the computable functions and will therefore always hallucinate. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world {LLMs}. Furthermore, for real world {LLMs} constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of {LLMs}.}, + publisher = {{arXiv}}, + author = {Xu, Ziwei and Jain, Sanjay and Kankanhalli, Mohan}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@article{chan_students_2023, + title = {Students’ voices on generative {AI}: perceptions, benefits, and challenges in higher education}, + volume = {20}, + issn = {2365-9440}, + url = {https://educationaltechnologyjournal.springeropen.com/articles/10.1186/s41239-023-00411-8}, + doi = {10.1186/s41239-023-00411-8}, + shorttitle = {Students’ voices on generative {AI}}, + abstract = {Abstract + This study explores university students’ perceptions of generative {AI} ({GenAI}) technologies, such as {ChatGPT}, in higher education, focusing on familiarity, their willingness to engage, potential benefits and challenges, and effective integration. A survey of 399 undergraduate and postgraduate students from various disciplines in Hong Kong revealed a generally positive attitude towards {GenAI} in teaching and learning. Students recognized the potential for personalized learning support, writing and brainstorming assistance, and research and analysis capabilities. However, concerns about accuracy, privacy, ethical issues, and the impact on personal development, career prospects, and societal values were also expressed. According to John Biggs’ 3P model, student perceptions significantly influence learning approaches and outcomes. By understanding students’ perceptions, educators and policymakers can tailor {GenAI} technologies to address needs and concerns while promoting effective learning outcomes. Insights from this study can inform policy development around the integration of {GenAI} technologies into higher education. By understanding students’ perceptions and addressing their concerns, policymakers can create well-informed guidelines and strategies for the responsible and effective implementation of {GenAI} tools, ultimately enhancing teaching and learning experiences in higher education.}, + pages = {43}, + number = {1}, + journaltitle = {International Journal of Educational Technology in Higher Education}, + shortjournal = {Int J Educ Technol High Educ}, + author = {Chan, Cecilia Ka Yuk and Hu, Wenjie}, + urldate = {2025-01-26}, + date = {2023-07-17}, + langid = {english}, + file = {Full text:files/668/Chan e Hu - 2023 - Students’ voices on generative AI perceptions, benefits, and challenges in higher education.pdf:application/pdf}, +} + +@misc{dao_investigating_2023, + title = {Investigating the Effectiveness of {ChatGPT} in Mathematical Reasoning and Problem Solving: Evidence from the Vietnamese National High School Graduation Examination}, + rights = {Creative Commons Attribution Share Alike 4.0 International}, + url = {https://arxiv.org/abs/2306.06331}, + doi = {10.48550/ARXIV.2306.06331}, + shorttitle = {Investigating the Effectiveness of {ChatGPT} in Mathematical Reasoning and Problem Solving}, + abstract = {This study offers a complete analysis of {ChatGPT}'s mathematics abilities in responding to multiple-choice questions for the Vietnamese National High School Graduation Examination ({VNHSGE}) on a range of subjects and difficulty levels. The dataset included 250 questions divided into four levels: knowledge (K), comprehension (C), application (A), and high application (H), and it included ten themes that covered diverse mathematical concepts. The outcomes demonstrate that {ChatGPT}'s performance varies depending on the difficulty level and subject. It performed best on questions at Level (K), with an accuracy rate of \$83{\textbackslash}\%\$; but, as the difficulty level rose, it scored poorly, with an accuracy rate of \$10{\textbackslash}\%\$. The study has also shown that {ChatGPT} significantly succeeds in providing responses to questions on subjects including exponential and logarithmic functions, geometric progression, and arithmetic progression. The study found that {ChatGPT} had difficulty correctly answering questions on topics including derivatives and applications, spatial geometry, and Oxyz spatial calculus. Additionally, this study contrasted {ChatGPT} outcomes with Vietnamese students in {VNHSGE} and in other math competitions. {ChatGPT} dominated in the {SAT} Math competition with a success rate of \$70{\textbackslash}\%\$, followed by {VNHSGE} mathematics (\$58.8{\textbackslash}\%)\$. However, its success rates were lower on other exams, such as {AP} Statistics, the {GRE} Quantitative, {AMC} 10, {AMC} 12, and {AP} Calculus {BC}. These results suggest that {ChatGPT} has the potential to be an effective teaching tool for mathematics, but more work is needed to enhance its handling of graphical data and address the challenges presented by questions that are getting more challenging.}, + publisher = {{arXiv}}, + author = {Dao, Xuan-Quy and Le, Ngoc-Bich}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{hsieh_ruler_2024, + title = {{RULER}: What's the Real Context Size of Your Long-Context Language Models?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2404.06654}, + doi = {10.48550/ARXIV.2404.06654}, + shorttitle = {{RULER}}, + abstract = {The needle-in-a-haystack ({NIAH}) test, which examines the ability to retrieve a piece of information (the "needle") from long distractor texts (the "haystack"), has been widely adopted to evaluate long-context language models ({LMs}). However, this simple retrieval-based test is indicative of only a superficial form of long-context understanding. To provide a more comprehensive evaluation of long-context {LMs}, we create a new synthetic benchmark {RULER} with flexible configurations for customized sequence length and task complexity. {RULER} expands upon the vanilla {NIAH} test to encompass variations with diverse types and quantities of needles. Moreover, {RULER} introduces new task categories multi-hop tracing and aggregation to test behaviors beyond searching from context. We evaluate 17 long-context {LMs} with 13 representative tasks in {RULER}. Despite achieving nearly perfect accuracy in the vanilla {NIAH} test, almost all models exhibit large performance drops as the context length increases. While these models all claim context sizes of 32K tokens or greater, only half of them can maintain satisfactory performance at the length of 32K. Our analysis of Yi-34B, which supports context length of 200K, reveals large room for improvement as we increase input length and task complexity. We open source {RULER} to spur comprehensive evaluation of long-context {LMs}.}, + publisher = {{arXiv}}, + author = {Hsieh, Cheng-Ping and Sun, Simeng and Kriman, Samuel and Acharya, Shantanu and Rekesh, Dima and Jia, Fei and Zhang, Yang and Ginsburg, Boris}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@misc{kojima_large_2022, + title = {Large Language Models are Zero-Shot Reasoners}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2205.11916}, + doi = {10.48550/ARXIV.2205.11916}, + abstract = {Pretrained large language models ({LLMs}) are widely used in many sub-fields of natural language processing ({NLP}) and generally known as excellent few-shot learners with task-specific exemplars. Notably, chain of thought ({CoT}) prompting, a recent technique for eliciting complex multi-step reasoning through step-by-step answer examples, achieved the state-of-the-art performances in arithmetics and symbolic reasoning, difficult system-2 tasks that do not follow the standard scaling laws for {LLMs}. While these successes are often attributed to {LLMs}' ability for few-shot learning, we show that {LLMs} are decent zero-shot reasoners by simply adding "Let's think step by step" before each answer. Experimental results demonstrate that our Zero-shot-{CoT}, using the same single prompt template, significantly outperforms zero-shot {LLM} performances on diverse benchmark reasoning tasks including arithmetics ({MultiArith}, {GSM}8K, {AQUA}-{RAT}, {SVAMP}), symbolic reasoning (Last Letter, Coin Flip), and other logical reasoning tasks (Date Understanding, Tracking Shuffled Objects), without any hand-crafted few-shot examples, e.g. increasing the accuracy on {MultiArith} from 17.7\% to 78.7\% and {GSM}8K from 10.4\% to 40.7\% with large {InstructGPT} model (text-davinci-002), as well as similar magnitudes of improvements with another off-the-shelf large model, 540B parameter {PaLM}. The versatility of this single prompt across very diverse reasoning tasks hints at untapped and understudied fundamental zero-shot capabilities of {LLMs}, suggesting high-level, multi-task broad cognitive capabilities may be extracted by simple prompting. We hope our work not only serves as the minimal strongest zero-shot baseline for the challenging reasoning benchmarks, but also highlights the importance of carefully exploring and analyzing the enormous zero-shot knowledge hidden inside {LLMs} before crafting finetuning datasets or few-shot exemplars.}, + publisher = {{arXiv}}, + author = {Kojima, Takeshi and Gu, Shixiang Shane and Reid, Machel and Matsuo, Yutaka and Iwasawa, Yusuke}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 4}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@inproceedings{liu_generated_2022, + location = {Dublin, Ireland}, + title = {Generated Knowledge Prompting for Commonsense Reasoning}, + url = {https://aclanthology.org/2022.acl-long.225}, + doi = {10.18653/v1/2022.acl-long.225}, + eventtitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)}, + pages = {3154--3169}, + booktitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)}, + publisher = {Association for Computational Linguistics}, + author = {Liu, Jiacheng and Liu, Alisa and Lu, Ximing and Welleck, Sean and West, Peter and Le Bras, Ronan and Choi, Yejin and Hajishirzi, Hannaneh}, + urldate = {2025-01-26}, + date = {2022}, + langid = {english}, + file = {Full text:files/676/Liu et al. - 2022 - Generated Knowledge Prompting for Commonsense Reasoning.pdf:application/pdf}, +} + +@article{makrygiannakis_evidence-based_2024, + title = {Evidence-based potential of generative artificial intelligence large language models in orthodontics: a comparative study of {ChatGPT}, Google Bard, and Microsoft Bing}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + issn = {0141-5387, 1460-2210}, + url = {https://academic.oup.com/ejo/advance-article/doi/10.1093/ejo/cjae017/7645326}, + doi = {10.1093/ejo/cjae017}, + shorttitle = {Evidence-based potential of generative artificial intelligence large language models in orthodontics}, + abstract = {Summary + + Background + The increasing utilization of large language models ({LLMs}) in Generative Artificial Intelligence across various medical and dental fields, and specifically orthodontics, raises questions about their accuracy. + + + Objective + This study aimed to assess and compare the answers offered by four {LLMs}: Google’s Bard, {OpenAI}’s {ChatGPT}-3.5, and {ChatGPT}-4, and Microsoft’s Bing, in response to clinically relevant questions within the field of orthodontics. + + + Materials and methods + Ten open-type clinical orthodontics-related questions were posed to the {LLMs}. The responses provided by the {LLMs} were assessed on a scale ranging from 0 (minimum) to 10 (maximum) points, benchmarked against robust scientific evidence, including consensus statements and systematic reviews, using a predefined rubric. After a 4-week interval from the initial evaluation, the answers were reevaluated to gauge intra-evaluator reliability. Statistical comparisons were conducted on the scores using Friedman’s and Wilcoxon’s tests to identify the model providing the answers with the most comprehensiveness, scientific accuracy, clarity, and relevance. + + + Results + Overall, no statistically significant differences between the scores given by the two evaluators, on both scoring occasions, were detected, so an average score for every {LLM} was computed. The {LLM} answers scoring the highest, were those of Microsoft Bing Chat (average score = 7.1), followed by {ChatGPT} 4 (average score = 4.7), Google Bard (average score = 4.6), and finally {ChatGPT} 3.5 (average score 3.8). While Microsoft Bing Chat statistically outperformed {ChatGPT}-3.5 (P-value = 0.017) and Google Bard (P-value = 0.029), as well, and Chat {GPT}-4 outperformed Chat {GPT}-3.5 (P-value = 0.011), all models occasionally produced answers with a lack of comprehensiveness, scientific accuracy, clarity, and relevance. + + + Limitations + The questions asked were indicative and did not cover the entire field of orthodontics. + + + Conclusions + Language models ({LLMs}) show great potential in supporting evidence-based orthodontics. However, their current limitations pose a potential risk of making incorrect healthcare decisions if utilized without careful consideration. Consequently, these tools cannot serve as a substitute for the orthodontist’s essential critical thinking and comprehensive subject knowledge. For effective integration into practice, further research, clinical validation, and enhancements to the models are essential. Clinicians must be mindful of the limitations of {LLMs}, as their imprudent utilization could have adverse effects on patient care.}, + pages = {cjae017}, + journaltitle = {European Journal of Orthodontics}, + author = {Makrygiannakis, Miltiadis A and Giannakopoulos, Kostis and Kaklamanos, Eleftherios G}, + urldate = {2025-01-26}, + date = {2024-04-13}, + langid = {english}, + file = {Full text:files/678/Makrygiannakis et al. - 2024 - Evidence-based potential of generative artificial intelligence large language models in orthodontics.pdf:application/pdf}, +} + +@misc{min_rethinking_2022, + title = {Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2202.12837}, + doi = {10.48550/ARXIV.2202.12837}, + shorttitle = {Rethinking the Role of Demonstrations}, + abstract = {Large language models ({LMs}) are able to in-context learn -- perform a new task via inference alone by conditioning on a few input-label pairs (demonstrations) and making predictions for new inputs. However, there has been little understanding of how the model learns and which aspects of the demonstrations contribute to end task performance. In this paper, we show that ground truth demonstrations are in fact not required -- randomly replacing labels in the demonstrations barely hurts performance on a range of classification and multi-choce tasks, consistently over 12 different models including {GPT}-3. Instead, we find that other aspects of the demonstrations are the key drivers of end task performance, including the fact that they provide a few examples of (1) the label space, (2) the distribution of the input text, and (3) the overall format of the sequence. Together, our analysis provides a new way of understanding how and why in-context learning works, while opening up new questions about how much can be learned from large language models through inference alone.}, + publisher = {{arXiv}}, + author = {Min, Sewon and Lyu, Xinxi and Holtzman, Ari and Artetxe, Mikel and Lewis, Mike and Hajishirzi, Hannaneh and Zettlemoyer, Luke}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 2}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@article{pimbblet_can_2025, + title = {Can {ChatGPT} pass a physics degree? Making a case for reformation of assessment of undergraduate degrees}, + volume = {46}, + issn = {0143-0807, 1361-6404}, + url = {https://iopscience.iop.org/article/10.1088/1361-6404/ad9874}, + doi = {10.1088/1361-6404/ad9874}, + shorttitle = {Can {ChatGPT} pass a physics degree?}, + abstract = {Abstract + The emergence of conversational natural language processing models presents a significant challenge for Higher Education. In this work, we use the entirety of a {UK} Physics undergraduate ({BSc} with Honours) degree including all examinations and coursework to test if {ChatGPT} ({GPT}-4) can pass a degree. We adopt a ‘maximal cheating’ approach wherein we permit ourselves to modify questions for clarity, split question up into smaller sub-components, expand on answers given—especially for long form written responses, obtaining references, and use of advanced coaching, plug-ins and custom instructions to optimize outputs. In general, there are only certain parts of the degree in question where {GPT}-4 fails. Explicitly these include compulsory laboratory elements, and the final project which is assessed by a viva. If these were no issue, then {GPT}-4 would pass with a grade of an upper second class overall. In general, coding tasks are performed exceptionally well, along with simple single-step solution problems. Multiple step problems and longer prose are generally poorer along with interdisciplinary problems. We strongly suggest that there is now a necessity to urgently re-think and revise assessment practice in physics—and other disciplines—due to the existence of {AI} such as {GPT}-4. We recommend close scrutiny of assessment tasks: only invigilated in-person examinations, vivas, laboratory skills testing (or ‘performances’ in other disciplines), and presentations are not vulnerable to {GPT}-4, and urge consideration of how {AI} can be embedded within the disciplinary context.}, + pages = {015702}, + number = {1}, + journaltitle = {European Journal of Physics}, + shortjournal = {Eur. J. Phys.}, + author = {Pimbblet, K A and Morrell, L J}, + urldate = {2025-01-26}, + date = {2025-01-31}, +} + +@article{stribling_model_2024, + title = {The model student: {GPT}-4 performance on graduate biomedical science exams}, + volume = {14}, + issn = {2045-2322}, + url = {https://www.nature.com/articles/s41598-024-55568-7}, + doi = {10.1038/s41598-024-55568-7}, + shorttitle = {The model student}, + abstract = {Abstract + The {GPT}-4 large language model ({LLM}) and {ChatGPT} chatbot have emerged as accessible and capable tools for generating English-language text in a variety of formats. {GPT}-4 has previously performed well when applied to questions from multiple standardized examinations. However, further evaluation of trustworthiness and accuracy of {GPT}-4 responses across various knowledge domains is essential before its use as a reference resource. Here, we assess {GPT}-4 performance on nine graduate-level examinations in the biomedical sciences (seven blinded), finding that {GPT}-4 scores exceed the student average in seven of nine cases and exceed all student scores for four exams. {GPT}-4 performed very well on fill-in-the-blank, short-answer, and essay questions, and correctly answered several questions on figures sourced from published manuscripts. Conversely, {GPT}-4 performed poorly on questions with figures containing simulated data and those requiring a hand-drawn answer. Two {GPT}-4 answer-sets were flagged as plagiarism based on answer similarity and some model responses included detailed hallucinations. In addition to assessing {GPT}-4 performance, we discuss patterns and limitations in {GPT}-4 capabilities with the goal of informing design of future academic examinations in the chatbot era.}, + pages = {5670}, + number = {1}, + journaltitle = {Scientific Reports}, + shortjournal = {Sci Rep}, + author = {Stribling, Daniel and Xia, Yuxing and Amer, Maha K. and Graim, Kiley S. and Mulligan, Connie J. and Renne, Rolf}, + urldate = {2025-01-26}, + date = {2024-03-07}, + langid = {english}, + file = {Full text:files/683/Stribling et al. - 2024 - The model student GPT-4 performance on graduate biomedical science exams.pdf:application/pdf}, +} + +@misc{vaswani_attention_2017, + title = {Attention Is All You Need}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/1706.03762}, + doi = {10.48550/ARXIV.1706.03762}, + abstract = {The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train. Our model achieves 28.4 {BLEU} on the {WMT} 2014 English-to-German translation task, improving over the existing best results, including ensembles by over 2 {BLEU}. On the {WMT} 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art {BLEU} score of 41.8 after training for 3.5 days on eight {GPUs}, a small fraction of the training costs of the best models from the literature. We show that the Transformer generalizes well to other tasks by applying it successfully to English constituency parsing both with large and limited training data.}, + publisher = {{arXiv}}, + author = {Vaswani, Ashish and Shazeer, Noam and Parmar, Niki and Uszkoreit, Jakob and Jones, Llion and Gomez, Aidan N. and Kaiser, Lukasz and Polosukhin, Illia}, + urldate = {2025-01-26}, + date = {2017}, + note = {Version Number: 7}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{wang_searching_2024, + title = {Searching for Best Practices in Retrieval-Augmented Generation}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2407.01219}, + doi = {10.48550/ARXIV.2407.01219}, + abstract = {Retrieval-augmented generation ({RAG}) techniques have proven to be effective in integrating up-to-date information, mitigating hallucinations, and enhancing response quality, particularly in specialized domains. While many {RAG} approaches have been proposed to enhance large language models through query-dependent retrievals, these approaches still suffer from their complex implementation and prolonged response times. Typically, a {RAG} workflow involves multiple processing steps, each of which can be executed in various ways. Here, we investigate existing {RAG} approaches and their potential combinations to identify optimal {RAG} practices. Through extensive experiments, we suggest several strategies for deploying {RAG} that balance both performance and efficiency. Moreover, we demonstrate that multimodal retrieval techniques can significantly enhance question-answering capabilities about visual inputs and accelerate the generation of multimodal content using a "retrieval as generation" strategy.}, + publisher = {{arXiv}}, + author = {Wang, Xiaohua and Wang, Zhenghua and Gao, Xuan and Zhang, Feiran and Wu, Yixin and Xu, Zhibo and Shi, Tianyuan and Wang, Zhengyuan and Li, Shizheng and Qian, Qi and Yin, Ruicheng and Lv, Changze and Zheng, Xiaoqing and Huang, Xuanjing}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@misc{wei_chain--thought_2022, + title = {Chain-of-Thought Prompting Elicits Reasoning in Large Language Models}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2201.11903}, + doi = {10.48550/ARXIV.2201.11903}, + abstract = {We explore how generating a chain of thought -- a series of intermediate reasoning steps -- significantly improves the ability of large language models to perform complex reasoning. In particular, we show how such reasoning abilities emerge naturally in sufficiently large language models via a simple method called chain of thought prompting, where a few chain of thought demonstrations are provided as exemplars in prompting. Experiments on three large language models show that chain of thought prompting improves performance on a range of arithmetic, commonsense, and symbolic reasoning tasks. The empirical gains can be striking. For instance, prompting a 540B-parameter language model with just eight chain of thought exemplars achieves state of the art accuracy on the {GSM}8K benchmark of math word problems, surpassing even finetuned {GPT}-3 with a verifier.}, + publisher = {{arXiv}}, + author = {Wei, Jason and Wang, Xuezhi and Schuurmans, Dale and Bosma, Maarten and Ichter, Brian and Xia, Fei and Chi, Ed and Le, Quoc and Zhou, Denny}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 6}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@article{yu_reflection_2023, + title = {Reflection on whether Chat {GPT} should be banned by academia from the perspective of education and teaching}, + volume = {14}, + issn = {1664-1078}, + url = {https://www.frontiersin.org/articles/10.3389/fpsyg.2023.1181712/full}, + doi = {10.3389/fpsyg.2023.1181712}, + pages = {1181712}, + journaltitle = {Frontiers in Psychology}, + shortjournal = {Front. Psychol.}, + author = {Yu, Hao}, + urldate = {2025-01-26}, + date = {2023-06-01}, + file = {Full text:files/689/Yu - 2023 - Reflection on whether Chat GPT should be banned by academia from the perspective of education and te.pdf:application/pdf}, +} + +@misc{shi_detecting_2023, + title = {Detecting Pretraining Data from Large Language Models}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2310.16789}, + doi = {10.48550/ARXIV.2310.16789}, + abstract = {Although large language models ({LLMs}) are widely deployed, the data used to train them is rarely disclosed. Given the incredible scale of this data, up to trillions of tokens, it is all but certain that it includes potentially problematic text such as copyrighted materials, personally identifiable information, and test data for widely reported reference benchmarks. However, we currently have no way to know which data of these types is included or in what proportions. In this paper, we study the pretraining data detection problem: given a piece of text and black-box access to an {LLM} without knowing the pretraining data, can we determine if the model was trained on the provided text? To facilitate this study, we introduce a dynamic benchmark {WIKIMIA} that uses data created before and after model training to support gold truth detection. We also introduce a new detection method Min-K\% Prob based on a simple hypothesis: an unseen example is likely to contain a few outlier words with low probabilities under the {LLM}, while a seen example is less likely to have words with such low probabilities. Min-K\% Prob can be applied without any knowledge about the pretraining corpus or any additional training, departing from previous detection methods that require training a reference model on data that is similar to the pretraining data. Moreover, our experiments demonstrate that Min-K\% Prob achieves a 7.4\% improvement on {WIKIMIA} over these previous methods. We apply Min-K\% Prob to three real-world scenarios, copyrighted book detection, contaminated downstream example detection and privacy auditing of machine unlearning, and find it a consistently effective solution.}, + publisher = {{arXiv}}, + author = {Shi, Weijia and Ajith, Anirudh and Xia, Mengzhou and Huang, Yangsibo and Liu, Daogao and Blevins, Terra and Chen, Danqi and Zettlemoyer, Luke}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), Cryptography and Security (cs.{CR}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@article{fernandes_ai_2024, + title = {{AI} Training and Copyright: Should Intellectual Property Law Allow Machines to Learn?}, + volume = {10}, + rights = {http://creativecommons.org/licenses/by/4.0}, + issn = {2653-8660}, + url = {https://ejournals.epublishing.ekt.gr/index.php/bioethica/article/view/39041}, + doi = {10.12681/bioeth.39041}, + shorttitle = {{AI} Training and Copyright}, + abstract = {This article examines the intricate legal landscape surrounding the use of copyrighted materials in the development of artificial intelligence ({AI}). It explores the rise of {AI} and its reliance on data, emphasizing the importance of data availability for machine learning ({ML}) systems. The article analyzes current relevant legislation across the European Union, United States, and Japan, highlighting the legal ambiguities and constraints posed by {IP} rights, particularly copyright. It discusses possible new solutions, referencing the World Intellectual Property Organization's ({WIPO}) call for discussions on {AI} and {IP} policy. The conclusion stresses the need to balance the interests of {AI} developers and {IP} rights holders to promote technological advancement while safeguarding creativity and originality.}, + pages = {8--21}, + number = {2}, + journaltitle = {Bioethica}, + shortjournal = {Bioethica}, + author = {Fernandes, Pedro Martins}, + urldate = {2025-01-26}, + date = {2024-10-01}, + file = {Full Text PDF:files/692/Fernandes - 2024 - AI Training and Copyright Should Intellectual Property Law Allow Machines to Learn.pdf:application/pdf}, +} + +@article{buick_copyright_2024, + title = {Copyright and {AI} training data—transparency to the rescue?}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/}, + issn = {1747-1532, 1747-1540}, + url = {https://academic.oup.com/jiplp/advance-article/doi/10.1093/jiplp/jpae102/7922541}, + doi = {10.1093/jiplp/jpae102}, + abstract = {Abstract + Generative Artificial Intelligence ({AI}) models must be trained on vast quantities of data, much of which is composed of copyrighted material. However, {AI} developers frequently use such content without seeking permission from rightsholders, leading to calls for requirements to disclose information on the contents of {AI} training data. These demands have won an early success through the inclusion of such requirements in the {EU}’s {AI} Act. This article argues that such transparency requirements alone cannot rescue us from the difficult question of how best to respond to the fundamental challenges generative {AI} poses to copyright law. This is because the impact of transparency requirements is contingent on existing copyright laws; if these do not adequately address the challenges presented by generative {AI}, transparency will not provide a solution. This is exemplified by the transparency requirements of the {AI} Act, which are explicitly designed to facilitate the enforcement of the right to opt-out of text and data mining under the Copyright in the Digital Single Market Directive. Because the transparency requirements do not sufficiently address the underlying flaws of this opt-out, they are unlikely to provide any meaningful improvement to the position of individual rightsholders. Transparency requirements are thus a necessary but not sufficient measure to achieve a fair and equitable balance between innovation and protection for rightsholders. Policymakers must therefore look beyond such requirements and consider further action to address the complex challenge presented to copyright law by generative {AI}.}, + pages = {jpae102}, + journaltitle = {Journal Of Intellectual Property Law and Practice}, + author = {Buick, Adam}, + urldate = {2025-01-26}, + date = {2024-12-12}, + langid = {english}, + file = {Full Text PDF:files/694/Buick - 2024 - Copyright and AI training data—transparency to the rescue.pdf:application/pdf}, +} + +@misc{azizy_adversarial_2024, + title = {Adversarial vulnerability following {LLM} low-resource language fine-tuning: Short report}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/bzd6w}, + doi = {10.31219/osf.io/bzd6w}, + shorttitle = {Adversarial vulnerability following {LLM} low-resource language fine-tuning}, + abstract = {We briefly report how fine-tuning a multilingual {LLM} with a low-resource language resulted in an increased vulnerability to adversarial attacks. We fine-tuned {GPT}-3.5 Turbo (gpt-3.5-0125) with 560 input-output pairs ({\textasciitilde}274k tokens) of Krama Javanese, a high register of Javanese (a low-resource language). We report brief qualitative and quantitative observations that 1. The fine-tuned model is more compliant towards adversarial prompts, 2. Unsuccessful prompts can be successful when concatenated with an elaboration string, e.g., step-by-step prompting or by specifying details, 3. The model can be prompted in the fine-tuned language to respond in English, thus providing a way to produce harmful responses in a different language. The fine-tuned model sees a 45.1\% increase of {GPT}-4-rated sum of harmfulness for Krama Javanese responses and a 13.8\% increase for English responses. Notably, all of these vulnerabilities can be reached very effectively with the benign nature and our small dataset size. Our work contributes knowledge in the intersection of {AI} safety and multilingual models, indicating that fine-tuning an {LLM} on a low-resource language should include additional data examples for retaining safety guardrails.}, + publisher = {Open Science Framework}, + author = {Azizy, Afrizal Hasbi and Cahyanto, Nuel Bagus}, + urldate = {2025-01-26}, + date = {2024-05-03}, + file = {Versione inviata:files/696/Azizy e Cahyanto - 2024 - Adversarial vulnerability following LLM low-resource language fine-tuning Short report.pdf:application/pdf}, +} + +@article{noauthor_adversarial_2024, + title = {Adversarial Attacks on Large Language Models ({LLMs}) in Cybersecurity Applications: Detection, Mitigation, and Resilience Enhancement}, + issn = {25825208}, + url = {https://www.irjmets.com/uploadedfiles/paper//issue_10_october_2024/61937/final/fin_irjmets1727942590.pdf}, + doi = {10.56726/IRJMETS61937}, + shorttitle = {Adversarial Attacks on Large Language Models ({LLMs}) in Cybersecurity Applications}, + journaltitle = {International Research Journal of Modernization in Engineering Technology and Science}, + shortjournal = {{IRJMETS}}, + urldate = {2025-01-26}, + date = {2024-10-08}, + file = {Full text:files/698/2024 - Adversarial Attacks on Large Language Models (LLMs) in Cybersecurity Applications Detection, Mitiga.pdf:application/pdf}, +} + +@incollection{kucharavy_exploring_2024, + location = {Cham}, + title = {Exploring the Dual Role of {LLMs} in Cybersecurity: Threats and Defenses}, + isbn = {978-3-031-54826-0 978-3-031-54827-7}, + url = {https://link.springer.com/10.1007/978-3-031-54827-7_26}, + shorttitle = {Exploring the Dual Role of {LLMs} in Cybersecurity}, + abstract = {Abstract + + Large Language Models + ({LLMs}) pose risks for cybersecurity since they facilitate minimal cost creation of malware, phishing messages, and malicious chatbots. At the same time, {LLMs} can help defend against cyberattacks. This chapter reviews security research around the risks and benefits of {LLMs}.}, + pages = {235--242}, + booktitle = {Large Language Models in Cybersecurity}, + publisher = {Springer Nature Switzerland}, + author = {Bryce, Ciarán and Kalousis, Alexandros and Leroux, Ilan and Madinier, Hélène and Pasche, Thomas and Ruch, Patrick}, + editor = {Kucharavy, Andrei and Plancherel, Octave and Mulder, Valentin and Mermoud, Alain and Lenders, Vincent}, + urldate = {2025-01-26}, + date = {2024}, + langid = {english}, + doi = {10.1007/978-3-031-54827-7_26}, + file = {Full text:files/700/Bryce et al. - 2024 - Exploring the Dual Role of LLMs in Cybersecurity Threats and Defenses.pdf:application/pdf}, +} + +@article{gupta_chatgpt_2023, + title = {From {ChatGPT} to {ThreatGPT}: Impact of Generative {AI} in Cybersecurity and Privacy}, + volume = {11}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/}, + issn = {2169-3536}, + url = {https://ieeexplore.ieee.org/document/10198233/}, + doi = {10.1109/ACCESS.2023.3300381}, + shorttitle = {From {ChatGPT} to {ThreatGPT}}, + pages = {80218--80245}, + journaltitle = {{IEEE} Access}, + shortjournal = {{IEEE} Access}, + author = {Gupta, Maanak and Akiri, Charankumar and Aryal, Kshitiz and Parker, Eli and Praharaj, Lopamudra}, + urldate = {2025-01-26}, + date = {2023}, + file = {Versione inviata:files/702/Gupta et al. - 2023 - From ChatGPT to ThreatGPT Impact of Generative AI in Cybersecurity and Privacy.pdf:application/pdf}, +} + +@misc{mahato_red_2024, + title = {Red Teaming for Multimodal Large Language Models: A Survey}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + url = {https://www.techrxiv.org/users/717031/articles/701792-red-teaming-for-multimodal-large-language-models-a-survey?commit=78974318f47d2573ffe2d51622dee3c7268dddd5}, + doi = {10.36227/techrxiv.170629758.87975697/v1}, + shorttitle = {Red Teaming for Multimodal Large Language Models}, + publisher = {Preprints}, + author = {Mahato, Moushumi and Kumar, Avinash and Singh, Kartikey and Kukreja, Bhavesh and Nabi, Javaid}, + urldate = {2025-01-26}, + date = {2024-01-26}, + file = {Versione inviata:files/704/Mahato et al. - 2024 - Red Teaming for Multimodal Large Language Models A Survey.pdf:application/pdf}, +} + +@article{menz_health_2024, + title = {Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation}, + volume = {184}, + issn = {2168-6106}, + url = {https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2811333}, + doi = {10.1001/jamainternmed.2023.5947}, + shorttitle = {Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance}, + abstract = {Importance + Although artificial intelligence ({AI}) offers many promises across modern medicine, it may carry a significant risk for the mass generation of targeted health disinformation. This poses an urgent threat toward public health initiatives and calls for rapid attention by health care professionals, {AI} developers, and regulators to ensure public safety. + + + Observations + As an example, using a single publicly available large-language model, within 65 minutes, 102 distinct blog articles were generated that contained more than 17 000 words of disinformation related to vaccines and vaping. Each post was coercive and targeted at diverse societal groups, including young adults, young parents, older persons, pregnant people, and those with chronic health conditions. The blogs included fake patient and clinician testimonials and obeyed prompting for the inclusion of scientific-looking referencing. Additional generative {AI} tools created an accompanying 20 realistic images in less than 2 minutes. This process was undertaken by health care professionals and researchers with no specialized knowledge in bypassing {AI} guardrails, relying solely on publicly available information. + + + Conclusions and Relevance + These observations demonstrate that when the guardrails of {AI} tools are insufficient, the ability to rapidly generate diverse and large amounts of convincing disinformation is profound. Beyond providing 2 example scenarios, these findings demonstrate an urgent need for robust {AI} vigilance. The {AI} tools are rapidly progressing; alongside these advancements, emergent risks are becoming increasingly apparent. Key pillars of pharmacovigilance—including transparency, surveillance, and regulation—may serve as valuable examples for managing these risks and safeguarding public health.}, + pages = {92}, + number = {1}, + journaltitle = {{JAMA} Internal Medicine}, + shortjournal = {{JAMA} Intern Med}, + author = {Menz, Bradley D. and Modi, Natansh D. and Sorich, Michael J. and Hopkins, Ashley M.}, + urldate = {2025-01-26}, + date = {2024-01-01}, + langid = {english}, +} + +@article{qi_visual_2024, + title = {Visual Adversarial Examples Jailbreak Aligned Large Language Models}, + volume = {38}, + issn = {2374-3468, 2159-5399}, + url = {https://ojs.aaai.org/index.php/AAAI/article/view/30150}, + doi = {10.1609/aaai.v38i19.30150}, + abstract = {Warning: this paper contains data, prompts, and model outputs that are offensive in nature. + +Recently, there has been a surge of interest in integrating vision into Large Language Models ({LLMs}), exemplified by Visual Language Models ({VLMs}) such as Flamingo and {GPT}-4. This paper sheds light on the security and safety implications of this trend. First, we underscore that the continuous and high-dimensional nature of the visual input makes it a weak link against adversarial attacks, representing an expanded attack surface of vision-integrated {LLMs}. Second, we highlight that the versatility of {LLMs} also presents visual attackers with a wider array of achievable adversarial objectives, extending the implications of security failures beyond mere misclassification. As an illustration, we present a case study in which we exploit visual adversarial examples to circumvent the safety guardrail of aligned {LLMs} with integrated vision. Intriguingly, we discover that a single visual adversarial example can universally jailbreak an aligned {LLM}, compelling it to heed a wide range of harmful instructions (that it otherwise would not) and generate harmful content that transcends the narrow scope of a `few-shot' derogatory corpus initially employed to optimize the adversarial example. Our study underscores the escalating adversarial risks associated with the pursuit of multimodality. Our findings also connect the long-studied adversarial vulnerabilities of neural networks to the nascent field of {AI} alignment. The presented attack suggests a fundamental adversarial challenge for {AI} alignment, especially in light of the emerging trend toward multimodality in frontier foundation models.}, + pages = {21527--21536}, + number = {19}, + journaltitle = {Proceedings of the {AAAI} Conference on Artificial Intelligence}, + shortjournal = {{AAAI}}, + author = {Qi, Xiangyu and Huang, Kaixuan and Panda, Ashwinee and Henderson, Peter and Wang, Mengdi and Mittal, Prateek}, + urldate = {2025-01-26}, + date = {2024-03-24}, + file = {Full text:files/707/Qi et al. - 2024 - Visual Adversarial Examples Jailbreak Aligned Large Language Models.pdf:application/pdf}, +} + +@inproceedings{roy_probing_2023, + location = {Singapore}, + title = {Probing {LLMs} for hate speech detection: strengths and vulnerabilities}, + url = {https://aclanthology.org/2023.findings-emnlp.407}, + doi = {10.18653/v1/2023.findings-emnlp.407}, + shorttitle = {Probing {LLMs} for hate speech detection}, + eventtitle = {Findings of the Association for Computational Linguistics: {EMNLP} 2023}, + pages = {6116--6128}, + booktitle = {Findings of the Association for Computational Linguistics: {EMNLP} 2023}, + publisher = {Association for Computational Linguistics}, + author = {Roy, Sarthak and Harshvardhan, Ashish and Mukherjee, Animesh and Saha, Punyajoy}, + urldate = {2025-01-26}, + date = {2023}, + langid = {english}, + file = {Full text:files/709/Roy et al. - 2023 - Probing LLMs for hate speech detection strengths and vulnerabilities.pdf:application/pdf}, +} + +@article{takemoto_all_2024, + title = {All in How You Ask for It: Simple Black-Box Method for Jailbreak Attacks}, + volume = {14}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + issn = {2076-3417}, + url = {https://www.mdpi.com/2076-3417/14/9/3558}, + doi = {10.3390/app14093558}, + shorttitle = {All in How You Ask for It}, + abstract = {Large Language Models ({LLMs}), such as {ChatGPT}, encounter ‘jailbreak’ challenges, wherein safeguards are circumvented to generate ethically harmful prompts. This study introduces a straightforward black-box method for efficiently crafting jailbreak prompts that bypass {LLM} defenses. Our technique iteratively transforms harmful prompts into benign expressions directly utilizing the target {LLM}, predicated on the hypothesis that {LLMs} can autonomously generate expressions that evade safeguards. Through experiments conducted with {ChatGPT} ({GPT}-3.5 and {GPT}-4) and Gemini-Pro, our method consistently achieved an attack success rate exceeding 80\% within an average of five iterations for forbidden questions and proved to be robust against model updates. The jailbreak prompts generated were not only naturally worded and succinct, but also challenging to defend against. These findings suggest that the creation of effective jailbreak prompts is less complex than previously believed, underscoring the heightened risk posed by black-box jailbreak attacks.}, + pages = {3558}, + number = {9}, + journaltitle = {Applied Sciences}, + shortjournal = {Applied Sciences}, + author = {Takemoto, Kazuhiro}, + urldate = {2025-01-26}, + date = {2024-04-23}, + langid = {english}, + file = {Full text:files/711/Takemoto - 2024 - All in How You Ask for It Simple Black-Box Method for Jailbreak Attacks.pdf:application/pdf}, +} + +@misc{urman_silence_2023, + title = {The Silence of the {LLMs}: Cross-Lingual Analysis of Political Bias and False Information Prevalence in {ChatGPT}, Google Bard, and Bing Chat}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/q9v8f}, + doi = {10.31219/osf.io/q9v8f}, + shorttitle = {The Silence of the {LLMs}}, + abstract = {This article presents a comparative analysis of political bias in the outputs of three Large Language Model ({LLM})-based chatbots - {ChatGPT}, Bing Chat, and Bard - in response to political queries concerning the authoritarian regime in Russia. We investigate whether safeguards implemented in these chatbots contribute to the censorship of information that is viewed as harmful by the regime, in particular information about Vladimir Putin and the Russian war against Ukraine, and whether these safeguards enable the generation of false claims, in particular in relation to the regime's internal and external opponents. To detect whether {LLM} safeguards reiterate political bias, the article compares the outputs of prompts focusing on Putin's regime and the ones dealing with the Russian opposition and the {US} and Ukrainian politicians. It also examines whether the degree of bias varies depending on the language of the prompt and compares outputs concerning political personalities and issues across three languages: Russian, Ukrainian, and English. The results reveal significant disparities in how individual chatbots withhold politics-related information or produce false claims in relation to it. Notably, Bard consistently refused to respond to queries about Vladimir Putin in Russian, even when the relevant information was accessible via Google Search, and generally followed the censorship guidelines that, according to Yandex-related data leaks, were issued by the Russian authorities. In terms of false claims, we find substantial variation across languages with Ukrainian and Russian prompts generating false information more often and Bard being more prone to produce false claims in relation to Russian regime opponents (e.g., Navalny or Zelenskyy) than other chatbots. This research aims to stimulate further dialogue and research on developing safeguards against the misuse of {LLMs} outside of democratic environments.}, + publisher = {Open Science Framework}, + author = {Urman, Aleksandra and Makhortykh, Mykola}, + urldate = {2025-01-26}, + date = {2023-09-08}, + file = {Versione inviata:files/713/Urman e Makhortykh - 2023 - The Silence of the LLMs Cross-Lingual Analysis of Political Bias and False Information Prevalence i.pdf:application/pdf}, +} + +@article{wu_harnessing_2024, + title = {Harnessing Response Consistency for Superior {LLM} Performance: The Promise and Peril of Answer-Augmented Prompting}, + volume = {13}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + issn = {2079-9292}, + url = {https://www.mdpi.com/2079-9292/13/23/4581}, + doi = {10.3390/electronics13234581}, + shorttitle = {Harnessing Response Consistency for Superior {LLM} Performance}, + abstract = {This paper introduces Answer-Augmented Prompting ({AAP}), an innovative approach that leverages the Response Consistency of History of Dialogue ({HoD}) phenomenon in Large Language Models ({LLMs}). {AAP} not only achieves significantly superior performance enhancements compared to traditional augmentation methods but also exhibits a stronger potential for “jailbreaking”, allowing models to produce unsafe or misleading responses. By strategically modifying the {HoD}, {AAP} influences {LLM} performance in a dual manner: it promotes accuracy while amplifying risks associated with bypassing built-in safeguards. Our experiments demonstrate that {AAP} outperforms standard methods in both effectiveness and the ability to elicit harmful content. To address these risks, we propose comprehensive mitigation strategies for both {LLM} service providers and end-users. This research offers valuable insights into the implications of Response Consistency in {LLMs}, underscoring the promise and peril of this powerful capability.}, + pages = {4581}, + number = {23}, + journaltitle = {Electronics}, + shortjournal = {Electronics}, + author = {Wu, Hua and Hong, Haotian and Sun, Li and Bai, Xiaojing and Pu, Mengyang}, + urldate = {2025-01-26}, + date = {2024-11-21}, + langid = {english}, + file = {Full text:files/715/Wu et al. - 2024 - Harnessing Response Consistency for Superior LLM Performance The Promise and Peril of Answer-Augmen.pdf:application/pdf}, +} + +@inproceedings{yang_censorship_2021, + location = {Virtual Event Canada}, + title = {Censorship of Online Encyclopedias: Implications for {NLP} Models}, + isbn = {978-1-4503-8309-7}, + url = {https://dl.acm.org/doi/10.1145/3442188.3445916}, + doi = {10.1145/3442188.3445916}, + shorttitle = {Censorship of Online Encyclopedias}, + eventtitle = {{FAccT} '21: 2021 {ACM} Conference on Fairness, Accountability, and Transparency}, + pages = {537--548}, + booktitle = {Proceedings of the 2021 {ACM} Conference on Fairness, Accountability, and Transparency}, + publisher = {{ACM}}, + author = {Yang, Eddie and Roberts, Margaret E.}, + urldate = {2025-01-26}, + date = {2021-03-03}, + langid = {english}, + file = {Full text:files/717/Yang e Roberts - 2021 - Censorship of Online Encyclopedias Implications for NLP Models.pdf:application/pdf}, +} + +@misc{lin_malla_2024, + title = {Malla: Demystifying Real-world Large Language Model Integrated Malicious Services}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2401.03315}, + doi = {10.48550/ARXIV.2401.03315}, + shorttitle = {Malla}, + abstract = {The underground exploitation of large language models ({LLMs}) for malicious services (i.e., Malla) is witnessing an uptick, amplifying the cyber threat landscape and posing questions about the trustworthiness of {LLM} technologies. However, there has been little effort to understand this new cybercrime, in terms of its magnitude, impact, and techniques. In this paper, we conduct the first systematic study on 212 real-world Mallas, uncovering their proliferation in underground marketplaces and exposing their operational modalities. Our study discloses the Malla ecosystem, revealing its significant growth and impact on today's public {LLM} services. Through examining 212 Mallas, we uncovered eight backend {LLMs} used by Mallas, along with 182 prompts that circumvent the protective measures of public {LLM} {APIs}. We further demystify the tactics employed by Mallas, including the abuse of uncensored {LLMs} and the exploitation of public {LLM} {APIs} through jailbreak prompts. Our findings enable a better understanding of the real-world exploitation of {LLMs} by cybercriminals, offering insights into strategies to counteract this cybercrime.}, + publisher = {{arXiv}}, + author = {Lin, Zilong and Cui, Jian and Liao, Xiaojing and Wang, {XiaoFeng}}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {Artificial Intelligence (cs.{AI}), Cryptography and Security (cs.{CR}), {FOS}: Computer and information sciences}, +} + +@article{ayana_decolonizing_2024, + title = {Decolonizing global {AI} governance: assessment of the state of decolonized {AI} governance in Sub-Saharan Africa}, + volume = {11}, + issn = {2054-5703}, + url = {https://royalsocietypublishing.org/doi/10.1098/rsos.231994}, + doi = {10.1098/rsos.231994}, + shorttitle = {Decolonizing global {AI} governance}, + abstract = {Global artificial intelligence ({AI}) governance must prioritize equity, embrace a decolonial mindset, and provide the Global South countries the authority to spearhead solution creation. Decolonization is crucial for dismantling Western-centric cognitive frameworks and mitigating biases. Integrating a decolonial approach to {AI} governance involves recognizing persistent colonial repercussions, leading to biases in {AI} solutions and disparities in {AI} access based on gender, race, geography, income and societal factors. This paradigm shift necessitates deliberate efforts to deconstruct imperial structures governing knowledge production, perpetuating global unequal resource access and biases. This research evaluates Sub-Saharan African progress in {AI} governance decolonization, focusing on indicators like {AI} governance institutions, national strategies, sovereignty prioritization, data protection regulations, and adherence to local data usage requirements. Results show limited progress, with only Rwanda notably responsive to decolonization among the ten countries evaluated; 80\% are ‘decolonization-aware’, and one is ‘decolonization-blind’. The paper provides a detailed analysis of each nation, offering recommendations for fostering decolonization, including stakeholder involvement, addressing inequalities, promoting ethical {AI}, supporting local innovation, building regional partnerships, capacity building, public awareness, and inclusive governance. This paper contributes to elucidating the challenges and opportunities associated with decolonization in {SSA} countries, thereby enriching the ongoing discourse on global {AI} governance.}, + pages = {231994}, + number = {8}, + journaltitle = {Royal Society Open Science}, + shortjournal = {R. Soc. Open Sci.}, + author = {Ayana, Gelan and Dese, Kokeb and Daba Nemomssa, Hundessa and Habtamu, Bontu and Mellado, Bruce and Badu, Kingsley and Yamba, Edmund and Faye, Sylvain Landry and Ondua, Moise and Nsagha, Dickson and Nkweteyim, Denis and Kong, Jude Dzevela}, + urldate = {2025-01-26}, + date = {2024-08}, + langid = {english}, +} + +@misc{capraro_impact_2023, + title = {The impact of generative artificial intelligence on socioeconomic inequalities and policy making}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/6fd2y}, + doi = {10.31234/osf.io/6fd2y}, + abstract = {Generative artificial intelligence has the potential to both exacerbate and ameliorate existing socioeconomic inequalities. In this article, we provide a state-of-the-art interdisciplinary overview of the potential impacts of generative {AI} on (mis)information and three information-intensive domains: work, education, and healthcare. Our goal is to highlight how generative {AI} could worsen existing inequalities while illuminating how {AI} may help mitigate pervasive social problems. In the information domain, generative {AI} can democratize content creation and access, but may dramatically expand the production and proliferation of misinformation. In the workplace, it can boost productivity and create new jobs, but the benefits will likely be distributed unevenly. In education, it offers personalized learning, but may widen the digital divide. In healthcare, it might improve diagnostics and accessibility, but could deepen pre-existing inequalities. In each section we cover a specific topic, evaluate existing research, identify critical gaps, and recommend research directions, including explicit trade-offs that complicate the derivation of a priori hypotheses. We conclude with a section highlighting the role of policymaking to maximize generative {AI}’s potential to reduce inequalities while mitigating its harmful effects. We discuss strengths and weaknesses of existing policy frameworks in the European Union, the United States, and the United Kingdom, observing that each fails to fully confront the socioeconomic challenges we have identified. We propose several concrete policies that could promote shared prosperity through the advancement of generative {AI}. This article emphasizes the need for interdisciplinary collaborations to understand and address the complex challenges of generative {AI}.}, + publisher = {{PsyArXiv}}, + author = {Capraro, Valerio and Lentsch, Austin and Acemoglu, Daron and Akgun, Selin and Akhmedova, Aisel and Bilancini, Ennio and Bonnefon, Jean-François and Branas-Garza, Pablo and Butera, Luigi and Douglas, Karen and Everett, Jim Albert Charlton and Gigerenzer, Gerd and Greenhow, Christine and Hashimoto, Daniel and Holt-Lunstad, Julianne and Jetten, Jolanda and Johnson, Simon and Kunz, Werner and Longoni, Chiara and Lunn, Peter D and Natale, Simone and Paluch, Stefanie and Rahwan, Iyad and Selwyn, Neil and Singh, Vivek and Suri, Siddharth and Sutcliffe, Jennifer and Tomlinson, Joe and Linden, Sander Van Der and Van Lange, Paul and Wall, Friederike and Van Bavel, Jay Joseph and Viale, Riccardo}, + urldate = {2025-01-26}, + date = {2023-12-16}, + file = {Full text:files/722/Capraro et al. - 2023 - The impact of generative artificial intelligence on socioeconomic inequalities and policy making.pdf:application/pdf}, +} + +@article{onyebuchi_nneamaka_chisom_review_2024, + title = {{REVIEW} {OF} {AI} {IN} {EDUCATION}: {TRANSFORMING} {LEARNING} {ENVIRONMENTS} {IN} {AFRICA}}, + volume = {5}, + rights = {https://creativecommons.org/licenses/by-nc/4.0}, + issn = {2706-9184, 2706-9176}, + url = {https://fepbl.com/index.php/ijarss/article/view/725}, + doi = {10.51594/ijarss.v5i10.725}, + shorttitle = {{REVIEW} {OF} {AI} {IN} {EDUCATION}}, + abstract = {This study analyses artificial intelligence ({AI}'s) impact on education in Africa, focusing on personalized learning, technology integration, and challenges in educational development. This review explores the transformative role of Artificial Intelligence ({AI}) in reshaping educational landscapes across Africa. As the continent strives for inclusive and quality education, {AI} emerges as a potent tool with the potential to address educational challenges, enhance learning outcomes, and bridge existing gaps. The review delves into various applications of {AI} in education, ranging from personalized learning experiences to adaptive assessment methodologies, and examines their impact on diverse learning environments. It gives an overview of the current state of education in Africa, the review highlights the disparities in access, quality, and infrastructure. It also investigates the innovative ways in which {AI} technologies are being integrated into educational systems. {AI}-powered adaptive learning platforms, virtual tutors, and intelligent content delivery systems are analyzed for their effectiveness in catering to the diverse needs of students across the continent. The review also addresses the potential of {AI} in overcoming language barriers, promoting literacy, and fostering digital skills development. Moreover, it explores the role of {AI} in facilitating teacher support, professional development, and administrative tasks, thereby contributing to the overall improvement of the education ecosystem. Ethical considerations, privacy concerns, and the digital divide are critically examined to ensure that the integration of {AI} in education aligns with ethical standards and promotes equitable access. Case studies and pilot projects from various African countries are presented to illustrate successful implementations, challenges faced, and lessons learned. Furthermore, the review discusses the importance of collaborative efforts involving governments, educational institutions, technology developers, and the private sector. Policy recommendations and strategic initiatives are explored to guide the responsible and sustainable integration of {AI} in education across the diverse socio-economic and cultural contexts prevalent in Africa. In conclusion, the review synthesizes the current state of {AI} in education in Africa, offering insights into its potential to revolutionize learning environments. The transformative power of {AI} in addressing educational challenges and fostering a culture of continuous improvement is underscored, paving the way for a more inclusive, accessible, and innovative education landscape in the African context. +Keywords: Artificial Intelligence, Education, Transform Learning, Environments, Africa.}, + pages = {637--654}, + number = {10}, + journaltitle = {International Journal of Applied Research in Social Sciences}, + shortjournal = {Int. j. appl. res. soc. sci.}, + author = {{Onyebuchi Nneamaka Chisom} and {Chika Chioma Unachukwu} and {Blessing Osawaru}}, + urldate = {2025-01-26}, + date = {2024-01-15}, + file = {Full text:files/724/Onyebuchi Nneamaka Chisom et al. - 2024 - REVIEW OF AI IN EDUCATION TRANSFORMING LEARNING ENVIRONMENTS IN AFRICA.pdf:application/pdf}, +} + +@misc{deepseek-ai_deepseek-v2_2024, + title = {{DeepSeek}-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2405.04434}, + doi = {10.48550/ARXIV.2405.04434}, + shorttitle = {{DeepSeek}-V2}, + abstract = {We present {DeepSeek}-V2, a strong Mixture-of-Experts ({MoE}) language model characterized by economical training and efficient inference. It comprises 236B total parameters, of which 21B are activated for each token, and supports a context length of 128K tokens. {DeepSeek}-V2 adopts innovative architectures including Multi-head Latent Attention ({MLA}) and {DeepSeekMoE}. {MLA} guarantees efficient inference through significantly compressing the Key-Value ({KV}) cache into a latent vector, while {DeepSeekMoE} enables training strong models at an economical cost through sparse computation. Compared with {DeepSeek} 67B, {DeepSeek}-V2 achieves significantly stronger performance, and meanwhile saves 42.5\% of training costs, reduces the {KV} cache by 93.3\%, and boosts the maximum generation throughput to 5.76 times. We pretrain {DeepSeek}-V2 on a high-quality and multi-source corpus consisting of 8.1T tokens, and further perform Supervised Fine-Tuning ({SFT}) and Reinforcement Learning ({RL}) to fully unlock its potential. Evaluation results show that, even with only 21B activated parameters, {DeepSeek}-V2 and its chat versions still achieve top-tier performance among open-source models.}, + publisher = {{arXiv}}, + author = {{DeepSeek-AI} and Liu, Aixin and Feng, Bei and Wang, Bin and Wang, Bingxuan and Liu, Bo and Zhao, Chenggang and Dengr, Chengqi and Ruan, Chong and Dai, Damai and Guo, Daya and Yang, Dejian and Chen, Deli and Ji, Dongjie and Li, Erhang and Lin, Fangyun and Luo, Fuli and Hao, Guangbo and Chen, Guanting and Li, Guowei and Zhang, H. and Xu, Hanwei and Yang, Hao and Zhang, Haowei and Ding, Honghui and Xin, Huajian and Gao, Huazuo and Li, Hui and Qu, Hui and Cai, J. L. and Liang, Jian and Guo, Jianzhong and Ni, Jiaqi and Li, Jiashi and Chen, Jin and Yuan, Jingyang and Qiu, Junjie and Song, Junxiao and Dong, Kai and Gao, Kaige and Guan, Kang and Wang, Lean and Zhang, Lecong and Xu, Lei and Xia, Leyi and Zhao, Liang and Zhang, Liyue and Li, Meng and Wang, Miaojun and Zhang, Mingchuan and Zhang, Minghua and Tang, Minghui and Li, Mingming and Tian, Ning and Huang, Panpan and Wang, Peiyi and Zhang, Peng and Zhu, Qihao and Chen, Qinyu and Du, Qiushi and Chen, R. J. and Jin, R. L. and Ge, Ruiqi and Pan, Ruizhe and Xu, Runxin and Chen, Ruyi and Li, S. S. and Lu, Shanghao and Zhou, Shangyan and Chen, Shanhuang and Wu, Shaoqing and Ye, Shengfeng and Ma, Shirong and Wang, Shiyu and Zhou, Shuang and Yu, Shuiping and Zhou, Shunfeng and Zheng, Size and Wang, T. and Pei, Tian and Yuan, Tian and Sun, Tianyu and Xiao, W. L. and Zeng, Wangding and An, Wei and Liu, Wen and Liang, Wenfeng and Gao, Wenjun and Zhang, Wentao and Li, X. Q. and Jin, Xiangyue and Wang, Xianzu and Bi, Xiao and Liu, Xiaodong and Wang, Xiaohan and Shen, Xiaojin and Chen, Xiaokang and Chen, Xiaosha and Nie, Xiaotao and Sun, Xiaowen and Wang, Xiaoxiang and Liu, Xin and Xie, Xin and Yu, Xingkai and Song, Xinnan and Zhou, Xinyi and Yang, Xinyu and Lu, Xuan and Su, Xuecheng and Wu, Y. and Li, Y. K. and Wei, Y. X. and Zhu, Y. X. and Xu, Yanhong and Huang, Yanping and Li, Yao and Zhao, Yao and Sun, Yaofeng and Li, Yaohui and Wang, Yaohui and Zheng, Yi and Zhang, Yichao and Xiong, Yiliang and Zhao, Yilong and He, Ying and Tang, Ying and Piao, Yishi and Dong, Yixin and Tan, Yixuan and Liu, Yiyuan and Wang, Yongji and Guo, Yongqiang and Zhu, Yuchen and Wang, Yuduan and Zou, Yuheng and Zha, Yukun and Ma, Yunxian and Yan, Yuting and You, Yuxiang and Liu, Yuxuan and Ren, Z. Z. and Ren, Zehui and Sha, Zhangli and Fu, Zhe and Huang, Zhen and Zhang, Zhen and Xie, Zhenda and Hao, Zhewen and Shao, Zhihong and Wen, Zhiniu and Xu, Zhipeng and Zhang, Zhongyu and Li, Zhuoshu and Wang, Zihan and Gu, Zihui and Li, Zilin and Xie, Ziwei}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 5}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@article{chima_abimbola_edeni_role_2024, + title = {The role of {AI}-enhanced tools in overcoming socioeconomic barriers in education: A conceptual analysis}, + volume = {21}, + issn = {25819615}, + url = {https://wjarr.com/content/role-ai-enhanced-tools-overcoming-socioeconomic-barriers-education-conceptual-analysis}, + doi = {10.30574/wjarr.2024.21.3.0780}, + shorttitle = {The role of {AI}-enhanced tools in overcoming socioeconomic barriers in education}, + abstract = {This conceptual analysis explores the transformative potential of {AI}-enhanced tools in addressing socioeconomic barriers within the educational landscape. By leveraging artificial intelligence ({AI}) technologies, the paper aims to examine how such tools can mitigate disparities arising from economic, social, and cultural factors. Through a critical analysis, it seeks to elucidate the role of {AI} in promoting equitable access, enhancing learning outcomes, and fostering inclusivity in education. The executive summary encapsulates the essence of the conceptual analysis. It provides a concise overview of the paper's objectives, methodology, expected outcomes, and implications. In recent years, the intersection of artificial intelligence ({AI}) and education has garnered significant attention as a potential solution to address persistent socioeconomic barriers within the educational landscape. The executive summary outlines the imperative to explore how {AI}-enhanced tools can serve as transformative agents in mitigating disparities arising from economic, social, and cultural factors. By leveraging {AI} technologies, educators and policymakers have the opportunity to revolutionize traditional educational practices and foster more inclusive learning environments. The summary highlights the urgent need to examine the role of {AI} in promoting equitable access, enhancing learning outcomes, and fostering inclusivity across diverse socioeconomic backgrounds. Through a critical analysis of existing literature, case studies, and empirical research, the conceptual analysis seeks to elucidate the potential of {AI} to bridge the digital divide and advance educational equity. It emphasizes the importance of identifying actionable strategies and best practices for leveraging {AI} technology to address systemic inequalities in education.}, + pages = {944--951}, + number = {3}, + journaltitle = {World Journal of Advanced Research and Reviews}, + shortjournal = {World J. Adv. Res. Rev.}, + author = {{Chima Abimbola Edeni} and {Olabisi Oluwakemi Adeleye} and {Idowu Sulaimon Adeniyi}}, + urldate = {2025-01-26}, + date = {2024-03-30}, + file = {Full text:files/727/Chima Abimbola Edeni et al. - 2024 - The role of AI-enhanced tools in overcoming socioeconomic barriers in education A conceptual analys.pdf:application/pdf}, +} + +@article{li_ai_2023, + title = {{AI} in Education: Bridging the Divide or Widening the Gap? Exploring Equity, Opportunities, and Challenges in the Digital Age}, + volume = {8}, + issn = {2790-167X}, + url = {https://madison-proceedings.com/index.php/aehssr/article/view/1924}, + doi = {10.56028/aehssr.8.1.355.2023}, + shorttitle = {{AI} in Education}, + abstract = {Artificial Intelligence ({AI}) stands as a pivotal technological advancement with profound societal implications. This paper delves into a comprehensive analysis of diverse articles and perspectives to scrutinize {AI}'s influence on educational inequality, particularly within the context of the Chinese education system. While prevailing literature often skims the surface, there's a burgeoning sentiment celebrating the human-{AI} synergy, often overlooking its potential to accentuate educational disparities. This research delves deeper, uncovering the intricate nexus between {AI}-driven education and human capital markets. The findings suggest that {AI}, while promising, might inadvertently perpetuate the same crises across different demographics, amplifying existing inequalities. The strong may become stronger, while the vulnerable risk further marginalization, primarily due to disparities in resource allocation. To mitigate these challenges, this paper proposes three actionable recommendations. Furthermore, recognizing the global implications of this issue, the study advocates for international collaboration to ensure equitable access to {AI}-related educational resources, championing the cause of educational fairness worldwide.}, + pages = {355}, + number = {1}, + journaltitle = {Advances in Education, Humanities and Social Science Research}, + shortjournal = {{AEHSSR}}, + author = {Li, Haomin}, + urldate = {2025-01-26}, + date = {2023-12-06}, + file = {Full text:files/729/Li - 2023 - AI in Education Bridging the Divide or Widening the Gap Exploring Equity, Opportunities, and Chall.pdf:application/pdf}, +} + +@misc{qu_survey_2024, + title = {A Survey of Mamba}, + rights = {Creative Commons Attribution Non Commercial Share Alike 4.0 International}, + url = {https://arxiv.org/abs/2408.01129}, + doi = {10.48550/ARXIV.2408.01129}, + abstract = {As one of the most representative {DL} techniques, Transformer architecture has empowered numerous advanced models, especially the large language models ({LLMs}) that comprise billions of parameters, becoming a cornerstone in deep learning. Despite the impressive achievements, Transformers still face inherent limitations, particularly the time-consuming inference resulting from the quadratic computation complexity of attention calculation. Recently, a novel architecture named Mamba, drawing inspiration from classical state space models ({SSMs}), has emerged as a promising alternative for building foundation models, delivering comparable modeling abilities to Transformers while preserving near-linear scalability concerning sequence length. This has sparked an increasing number of studies actively exploring Mamba's potential to achieve impressive performance across diverse domains. Given such rapid evolution, there is a critical need for a systematic review that consolidates existing Mamba-empowered models, offering a comprehensive understanding of this emerging model architecture. In this survey, we therefore conduct an in-depth investigation of recent Mamba-associated studies, covering three main aspects: the advancements of Mamba-based models, the techniques of adapting Mamba to diverse data, and the applications where Mamba can excel. Specifically, we first review the foundational knowledge of various representative deep learning models and the details of Mamba-1\&2 as preliminaries. Then, to showcase the significance of Mamba for {AI}, we comprehensively review the related studies focusing on Mamba models' architecture design, data adaptability, and applications. Finally, we present a discussion of current limitations and explore various promising research directions to provide deeper insights for future investigations.}, + publisher = {{arXiv}}, + author = {Qu, Haohao and Ning, Liangbo and An, Rui and Fan, Wenqi and Derr, Tyler and Liu, Hui and Xu, Xin and Li, Qing}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 5}, + keywords = {Artificial Intelligence (cs.{AI}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@article{wilson_gpu_2022, + title = {{GPU} {PRICES} {AND} {CRYPTOCURRENCY} {RETURNS}}, + volume = {11}, + rights = {http://creativecommons.org/licenses/by-nc-nd/4.0}, + issn = {2253-5802, 2253-5799}, + url = {https://ojs.aut.ac.nz/applied-finance-letters/article/view/503}, + doi = {10.24135/afl.v11i.503}, + abstract = {We look at the association between the price of a cryptocurrency and the secondary market prices of the hardware used to mine it. We find the prices of the most efficient Graphical Processing Units ({GPUs}) for Ethereum mining are significantly positively correlated with the daily price returns to that cryptocurrency.}, + pages = {2--8}, + journaltitle = {Applied Finance Letters}, + shortjournal = {{AFL}}, + author = {Wilson, Linus}, + urldate = {2025-01-26}, + date = {2022-03-06}, + file = {Full text:files/732/Wilson - 2022 - GPU PRICES AND CRYPTOCURRENCY RETURNS.pdf:application/pdf}, +} + +@misc{xiao_large_2024, + title = {Large Language Model Performance Benchmarking on Mobile Platforms: A Thorough Evaluation}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2410.03613}, + doi = {10.48550/ARXIV.2410.03613}, + shorttitle = {Large Language Model Performance Benchmarking on Mobile Platforms}, + abstract = {As large language models ({LLMs}) increasingly integrate into every aspect of our work and daily lives, there are growing concerns about user privacy, which push the trend toward local deployment of these models. There are a number of lightweight {LLMs} (e.g., Gemini Nano, {LLAMA}2 7B) that can run locally on smartphones, providing users with greater control over their personal data. As a rapidly emerging application, we are concerned about their performance on commercial-off-the-shelf mobile devices. To fully understand the current landscape of {LLM} deployment on mobile platforms, we conduct a comprehensive measurement study on mobile devices. We evaluate both metrics that affect user experience, including token throughput, latency, and battery consumption, as well as factors critical to developers, such as resource utilization, {DVFS} strategies, and inference engines. In addition, we provide a detailed analysis of how these hardware capabilities and system dynamics affect on-device {LLM} performance, which may help developers identify and address bottlenecks for mobile {LLM} applications. We also provide comprehensive comparisons across the mobile system-on-chips ({SoCs}) from major vendors, highlighting their performance differences in handling {LLM} workloads. We hope that this study can provide insights for both the development of on-device {LLMs} and the design for future mobile system architecture.}, + publisher = {{arXiv}}, + author = {Xiao, Jie and Huang, Qianyi and Chen, Xu and Tian, Chen}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {{FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{yong_low-resource_2023, + title = {Low-Resource Languages Jailbreak {GPT}-4}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2310.02446}, + doi = {10.48550/ARXIV.2310.02446}, + abstract = {{AI} safety training and red-teaming of large language models ({LLMs}) are measures to mitigate the generation of unsafe content. Our work exposes the inherent cross-lingual vulnerability of these safety mechanisms, resulting from the linguistic inequality of safety training data, by successfully circumventing {GPT}-4's safeguard through translating unsafe English inputs into low-resource languages. On the {AdvBenchmark}, {GPT}-4 engages with the unsafe translated inputs and provides actionable items that can get the users towards their harmful goals 79\% of the time, which is on par with or even surpassing state-of-the-art jailbreaking attacks. Other high-/mid-resource languages have significantly lower attack success rate, which suggests that the cross-lingual vulnerability mainly applies to low-resource languages. Previously, limited training on low-resource languages primarily affects speakers of those languages, causing technological disparities. However, our work highlights a crucial shift: this deficiency now poses a risk to all {LLMs} users. Publicly available translation {APIs} enable anyone to exploit {LLMs}' safety vulnerabilities. Therefore, our work calls for a more holistic red-teaming efforts to develop robust multilingual safeguards with wide language coverage.}, + publisher = {{arXiv}}, + author = {Yong, Zheng-Xin and Menghini, Cristina and Bach, Stephen H.}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 2}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), Cryptography and Security (cs.{CR}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{zhong_opportunities_2024, + title = {Opportunities and Challenges of Large Language Models for Low-Resource Languages in Humanities Research}, + rights = {Creative Commons Attribution Non Commercial No Derivatives 4.0 International}, + url = {https://arxiv.org/abs/2412.04497}, + doi = {10.48550/ARXIV.2412.04497}, + abstract = {Low-resource languages serve as invaluable repositories of human history, embodying cultural evolution and intellectual diversity. Despite their significance, these languages face critical challenges, including data scarcity and technological limitations, which hinder their comprehensive study and preservation. Recent advancements in large language models ({LLMs}) offer transformative opportunities for addressing these challenges, enabling innovative methodologies in linguistic, historical, and cultural research. This study systematically evaluates the applications of {LLMs} in low-resource language research, encompassing linguistic variation, historical documentation, cultural expressions, and literary analysis. By analyzing technical frameworks, current methodologies, and ethical considerations, this paper identifies key challenges such as data accessibility, model adaptability, and cultural sensitivity. Given the cultural, historical, and linguistic richness inherent in low-resource languages, this work emphasizes interdisciplinary collaboration and the development of customized models as promising avenues for advancing research in this domain. By underscoring the potential of integrating artificial intelligence with the humanities to preserve and study humanity's linguistic and cultural heritage, this study fosters global efforts towards safeguarding intellectual diversity.}, + publisher = {{arXiv}}, + author = {Zhong, Tianyang and Yang, Zhenyuan and Liu, Zhengliang and Zhang, Ruidong and Liu, Yiheng and Sun, Haiyang and Pan, Yi and Li, Yiwei and Zhou, Yifan and Jiang, Hanqi and Chen, Junhao and Liu, Tianming}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 2}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@article{walter_embracing_2024, + title = {Embracing the future of Artificial Intelligence in the classroom: the relevance of {AI} literacy, prompt engineering, and critical thinking in modern education}, + volume = {21}, + issn = {2365-9440}, + url = {https://educationaltechnologyjournal.springeropen.com/articles/10.1186/s41239-024-00448-3}, + doi = {10.1186/s41239-024-00448-3}, + shorttitle = {Embracing the future of Artificial Intelligence in the classroom}, + abstract = {Abstract + The present discussion examines the transformative impact of Artificial Intelligence ({AI}) in educational settings, focusing on the necessity for {AI} literacy, prompt engineering proficiency, and enhanced critical thinking skills. The introduction of {AI} into education marks a significant departure from conventional teaching methods, offering personalized learning and support for diverse educational requirements, including students with special needs. However, this integration presents challenges, including the need for comprehensive educator training and curriculum adaptation to align with societal structures. {AI} literacy is identified as crucial, encompassing an understanding of {AI} technologies and their broader societal impacts. Prompt engineering is highlighted as a key skill for eliciting specific responses from {AI} systems, thereby enriching educational experiences and promoting critical thinking. There is detailed analysis of strategies for embedding these skills within educational curricula and pedagogical practices. This is discussed through a case-study based on a Swiss university and a narrative literature review, followed by practical suggestions of how to implement {AI} in the classroom.}, + pages = {15}, + number = {1}, + journaltitle = {International Journal of Educational Technology in Higher Education}, + shortjournal = {Int J Educ Technol High Educ}, + author = {Walter, Yoshija}, + urldate = {2025-01-26}, + date = {2024-02-26}, + langid = {english}, + file = {Full text:files/742/Walter - 2024 - Embracing the future of Artificial Intelligence in the classroom the relevance of AI literacy, prom.pdf:application/pdf}, +} + +@article{bauchner_use_2024, + title = {Use of artificial intelligence and the future of peer review}, + volume = {2}, + rights = {https://creativecommons.org/licenses/by-nc/4.0/}, + issn = {2976-5390}, + url = {https://academic.oup.com/healthaffairsscholar/article/doi/10.1093/haschl/qxae058/7663651}, + doi = {10.1093/haschl/qxae058}, + abstract = {Abstract + Conducting high-quality peer review of scientific manuscripts has become increasingly challenging. The substantial increase in the number of manuscripts, lack of a sufficient number of peer-reviewers, and questions related to effectiveness, fairness, and efficiency, require a different approach. Large-language models, 1 form of artificial intelligence ({AI}), have emerged as a new approach to help resolve many of the issues facing contemporary medicine and science. We believe {AI} should be used to assist in the triaging of manuscripts submitted for peer-review publication.}, + pages = {qxae058}, + number = {5}, + journaltitle = {Health Affairs Scholar}, + author = {Bauchner, Howard and Rivara, Frederick P}, + urldate = {2025-01-26}, + date = {2024-05-03}, + langid = {english}, + file = {Full text:files/745/Bauchner e Rivara - 2024 - Use of artificial intelligence and the future of peer review.pdf:application/pdf}, +} + +@article{noauthor_reviewing_2024, + title = {Reviewing the performance of {AI} detection tools in differentiating between {AI}-generated and human-written texts: A literature and integrative hybrid review}, + volume = {7}, + issn = {2591-801X, 2591-801X}, + url = {https://journals.sfu.ca/jalt/index.php/jalt/article/view/1369}, + doi = {10.37074/jalt.2024.7.1.14}, + shorttitle = {Reviewing the performance of {AI} detection tools in differentiating between {AI}-generated and human-written texts}, + number = {1}, + journaltitle = {Journal of Applied Learning \& Teaching}, + shortjournal = {{JALT}}, + urldate = {2025-01-26}, + date = {2024-02-07}, + langid = {english}, + file = {Full text:files/747/2024 - Reviewing the performance of AI detection tools in differentiating between AI-generated and human-wr.pdf:application/pdf}, +} + +@misc{kirchenbauer_watermark_2023, + title = {A Watermark for Large Language Models}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2301.10226}, + doi = {10.48550/ARXIV.2301.10226}, + abstract = {Potential harms of large language models can be mitigated by watermarking model output, i.e., embedding signals into generated text that are invisible to humans but algorithmically detectable from a short span of tokens. We propose a watermarking framework for proprietary language models. The watermark can be embedded with negligible impact on text quality, and can be detected using an efficient open-source algorithm without access to the language model {API} or parameters. The watermark works by selecting a randomized set of "green" tokens before a word is generated, and then softly promoting use of green tokens during sampling. We propose a statistical test for detecting the watermark with interpretable p-values, and derive an information-theoretic framework for analyzing the sensitivity of the watermark. We test the watermark using a multi-billion parameter model from the Open Pretrained Transformer ({OPT}) family, and discuss robustness and security.}, + publisher = {{arXiv}}, + author = {Kirchenbauer, John and Geiping, Jonas and Wen, Yuxin and Katz, Jonathan and Miers, Ian and Goldstein, Tom}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 4}, + keywords = {Computation and Language (cs.{CL}), Cryptography and Security (cs.{CR}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@article{liang_gpt_2023, + title = {{GPT} detectors are biased against non-native English writers}, + volume = {4}, + issn = {26663899}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S2666389923001307}, + doi = {10.1016/j.patter.2023.100779}, + pages = {100779}, + number = {7}, + journaltitle = {Patterns}, + shortjournal = {Patterns}, + author = {Liang, Weixin and Yuksekgonul, Mert and Mao, Yining and Wu, Eric and Zou, James}, + urldate = {2025-01-26}, + date = {2023-07}, + langid = {english}, + file = {PubMed Central Full Text PDF:files/768/Liang et al. - 2023 - GPT detectors are biased against non-native English writers.pdf:application/pdf}, +} + +@misc{lu_ai_2024, + title = {The {AI} Scientist: Towards Fully Automated Open-Ended Scientific Discovery}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2408.06292}, + doi = {10.48550/ARXIV.2408.06292}, + shorttitle = {The {AI} Scientist}, + abstract = {One of the grand challenges of artificial general intelligence is developing agents capable of conducting scientific research and discovering new knowledge. While frontier models have already been used as aides to human scientists, e.g. for brainstorming ideas, writing code, or prediction tasks, they still conduct only a small part of the scientific process. This paper presents the first comprehensive framework for fully automatic scientific discovery, enabling frontier large language models to perform research independently and communicate their findings. We introduce The {AI} Scientist, which generates novel research ideas, writes code, executes experiments, visualizes results, describes its findings by writing a full scientific paper, and then runs a simulated review process for evaluation. In principle, this process can be repeated to iteratively develop ideas in an open-ended fashion, acting like the human scientific community. We demonstrate its versatility by applying it to three distinct subfields of machine learning: diffusion modeling, transformer-based language modeling, and learning dynamics. Each idea is implemented and developed into a full paper at a cost of less than \$15 per paper. To evaluate the generated papers, we design and validate an automated reviewer, which we show achieves near-human performance in evaluating paper scores. The {AI} Scientist can produce papers that exceed the acceptance threshold at a top machine learning conference as judged by our automated reviewer. This approach signifies the beginning of a new era in scientific discovery in machine learning: bringing the transformative benefits of {AI} agents to the entire research process of {AI} itself, and taking us closer to a world where endless affordable creativity and innovation can be unleashed on the world's most challenging problems. Our code is open-sourced at https://github.com/{SakanaAI}/{AI}-Scientist}, + publisher = {{arXiv}}, + author = {Lu, Chris and Lu, Cong and Lange, Robert Tjarko and Foerster, Jakob and Clune, Jeff and Ha, David}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{sadasivan_can_2023, + title = {Can {AI}-Generated Text be Reliably Detected?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2303.11156}, + doi = {10.48550/ARXIV.2303.11156}, + abstract = {Large Language Models ({LLMs}) perform impressively well in various applications. However, the potential for misuse of these models in activities such as plagiarism, generating fake news, and spamming has raised concern about their responsible use. Consequently, the reliable detection of {AI}-generated text has become a critical area of research. {AI} text detectors have shown to be effective under their specific settings. In this paper, we stress-test the robustness of these {AI} text detectors in the presence of an attacker. We introduce recursive paraphrasing attack to stress test a wide range of detection schemes, including the ones using the watermarking as well as neural network-based detectors, zero shot classifiers, and retrieval-based detectors. Our experiments conducted on passages, each approximately 300 tokens long, reveal the varying sensitivities of these detectors to our attacks. Our findings indicate that while our recursive paraphrasing method can significantly reduce detection rates, it only slightly degrades text quality in many cases, highlighting potential vulnerabilities in current detection systems in the presence of an attacker. Additionally, we investigate the susceptibility of watermarked {LLMs} to spoofing attacks aimed at misclassifying human-written text as {AI}-generated. We demonstrate that an attacker can infer hidden {AI} text signatures without white-box access to the detection method, potentially leading to reputational risks for {LLM} developers. Finally, we provide a theoretical framework connecting the {AUROC} of the best possible detector to the Total Variation distance between human and {AI} text distributions. This analysis offers insights into the fundamental challenges of reliable detection as language models continue to advance. Our code is publicly available at https://github.com/vinusankars/Reliability-of-{AI}-text-detectors.}, + publisher = {{arXiv}}, + author = {Sadasivan, Vinu Sankar and Kumar, Aounon and Balasubramanian, Sriram and Wang, Wenxiao and Feizi, Soheil}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 4}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{yakura_empirical_2024, + title = {Empirical evidence of Large Language Model's influence on human spoken communication}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2409.01754}, + doi = {10.48550/ARXIV.2409.01754}, + abstract = {Artificial Intelligence ({AI}) agents now interact with billions of humans in natural language, thanks to advances in Large Language Models ({LLMs}) like {ChatGPT}. This raises the question of whether {AI} has the potential to shape a fundamental aspect of human culture: the way we speak. Recent analyses revealed that scientific publications already exhibit evidence of {AI}-specific language. But this evidence is inconclusive, since scientists may simply be using {AI} to copy-edit their writing. To explore whether {AI} has influenced human spoken communication, we transcribed and analyzed about 280,000 English-language videos of presentations, talks, and speeches from more than 20,000 {YouTube} channels of academic institutions. We find a significant shift in the trend of word usage specific to words distinctively associated with {ChatGPT} following its release. These findings provide the first empirical evidence that humans increasingly imitate {LLMs} in their spoken language. Our results raise societal and policy-relevant concerns about the potential of {AI} to unintentionally reduce linguistic diversity, or to be deliberately misused for mass manipulation. They also highlight the need for further investigation into the feedback loops between machine behavior and human culture.}, + publisher = {{arXiv}}, + author = {Yakura, Hiromu and Lopez-Lopez, Ezequiel and Brinkmann, Levin and Serna, Ignacio and Gupta, Prateek and Rahwan, Iyad}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Artificial Intelligence (cs.{AI}), Computation and Language (cs.{CL}), Computers and Society (cs.{CY}), {FOS}: Computer and information sciences, Human-Computer Interaction (cs.{HC})}, +} + +@article{hopfenbeck_challenges_2023, + title = {Challenges and opportunities for classroom-based formative assessment and {AI}: a perspective article}, + volume = {8}, + issn = {2504-284X}, + url = {https://www.frontiersin.org/articles/10.3389/feduc.2023.1270700/full}, + doi = {10.3389/feduc.2023.1270700}, + shorttitle = {Challenges and opportunities for classroom-based formative assessment and {AI}}, + abstract = {The integration of artificial intelligence ({AI}) into educational contexts may give rise to both positive and negative ramifications for teachers’ uses of formative assessment within their classrooms. Drawing on our diverse experiences as academics, researchers, psychometricians, teachers, and teacher educators specializing in formative assessment, we examine the pedagogical practices in which teachers provide feedback, facilitate peer- and self-assessments, and support students’ learning, and discuss how existing challenges to each of these may be affected by applications of {AI}. Firstly, we overview the challenges in the practice of formative assessment independently of the influence of {AI}. Moreover, based on the authors’ varied experience in formative assessment, we discuss the opportunities that {AI} brings to address the challenges in formative assessment as well as the new challenges introduced by the application of {AI} in formative assessment. Finally, we argue for the ongoing importance of self-regulated learning and a renewed emphasis on critical thinking for more effective implementation of formative assessment in this new {AI}-driven digital age.}, + pages = {1270700}, + journaltitle = {Frontiers in Education}, + shortjournal = {Front. Educ.}, + author = {Hopfenbeck, Therese N. and Zhang, Zhonghua and Sun, Sundance Zhihong and Robertson, Pam and {McGrane}, Joshua A.}, + urldate = {2025-01-26}, + date = {2023-11-23}, + file = {Full text:files/779/Hopfenbeck et al. - 2023 - Challenges and opportunities for classroom-based formative assessment and AI a perspective article.pdf:application/pdf}, +} + +@article{nicol_power_2021, + title = {The power of internal feedback: exploiting natural comparison processes}, + volume = {46}, + issn = {0260-2938, 1469-297X}, + url = {https://www.tandfonline.com/doi/full/10.1080/02602938.2020.1823314}, + doi = {10.1080/02602938.2020.1823314}, + shorttitle = {The power of internal feedback}, + pages = {756--778}, + number = {5}, + journaltitle = {Assessment \& Evaluation in Higher Education}, + shortjournal = {Assessment \& Evaluation in Higher Education}, + author = {Nicol, David}, + urldate = {2025-01-26}, + date = {2021-07-04}, + langid = {english}, + file = {Full text:files/784/Nicol - 2021 - The power of internal feedback exploiting natural comparison processes.pdf:application/pdf}, +} + +@article{nicol_making_2022, + title = {Making internal feedback explicit: harnessing the comparisons students make during two-stage exams}, + volume = {47}, + issn = {0260-2938, 1469-297X}, + url = {https://www.tandfonline.com/doi/full/10.1080/02602938.2021.1934653}, + doi = {10.1080/02602938.2021.1934653}, + shorttitle = {Making internal feedback explicit}, + pages = {507--522}, + number = {4}, + journaltitle = {Assessment \& Evaluation in Higher Education}, + shortjournal = {Assessment \& Evaluation in Higher Education}, + author = {Nicol, David and Selvaretnam, Geethanjali}, + urldate = {2025-01-26}, + date = {2022-05-19}, + langid = {english}, + file = {Versione accettata:files/793/Nicol e Selvaretnam - 2022 - Making internal feedback explicit harnessing the comparisons students make during two-stage exams.pdf:application/pdf}, +} + +@article{r_ai-driven_2024, + title = {{AI}-Driven Flipped Classroom: Revolutionizing Education Through Digital Pedagogy}, + volume = {7}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0}, + issn = {2682-6704}, + url = {https://abjournals.org/bjeldp/papers/volume-7/issue-2/ai-driven-flipped-classroom-revolutionizing-education-through-digital-pedagogy/}, + doi = {10.52589/BJELDP-LTDJFLIH}, + shorttitle = {{AI}-Driven Flipped Classroom}, + abstract = {The integration of artificial intelligence ({AI}) into the flipped classroom model is the subject of this research paper. With the flipped classroom approach, traditional teaching methods are reversed, with instructional content being delivered outside of class and class time being devoted to discussions, activities, and problem-solving. Teachers want to give students a personalized learning experience, and they do this by implementing {AI} technologies like intelligent tutoring systems, virtual tutors, and adaptive learning platforms. This study uses existing research and empirical studies to analyse the effects, advantages, difficulties, and efficacy of using {AI} in flipped classrooms. The study explores the use of {AI} in flipped classrooms, highlighting its potential benefits like improved learning outcomes and scalability. However, it also addresses challenges like technology infrastructure, teacher preparation, privacy, and equity, as well as potential drawbacks.}, + pages = {169--179}, + number = {2}, + journaltitle = {British Journal of Education, Learning and Development Psychology}, + shortjournal = {British Journal of Education, Learning and Development Psychology}, + author = {R., Suvendu and P. S., Deb}, + urldate = {2025-01-26}, + date = {2024-06-24}, + langid = {estonian}, + file = {Full text:files/796/R. e P. S. - 2024 - AI-Driven Flipped Classroom Revolutionizing Education Through Digital Pedagogy.pdf:application/pdf}, +} + +@article{nurjanah_artificial_2024, + title = {Artificial Intelligence ({AI}) Usage In Today’s Teaching And Learning Process: A Review}, + volume = {6}, + rights = {http://creativecommons.org/licenses/by-sa/4.0}, + issn = {2684-883X, 2684-6853}, + url = {https://jurnal.syntax-idea.co.id/index.php/syntax-idea/article/view/3126}, + doi = {10.46799/syntax-idea.v6i3.3126}, + shorttitle = {Artificial Intelligence ({AI}) Usage In Today’s Teaching And Learning Process}, + abstract = {In today's technology world, the integration of artificial intelligence ({AI}) has become increasingly prominent in education, with enormous potential to improve the teaching and learning experience. {AI}, defined by its ability to imitate human intelligence, possesses enormous power and has the potential to dramatically impact a variety of areas, most notably education. {AI} has significantly improved learning experiences for both teachers and students by allowing them to be customized and personalized. This review article investigates the prospects provided by {AI} in modern teaching and learning processes, with a special emphasis on its advantages in language learning. This study examines existing literature and studies on {AI} in education, with a focus on language learning environments. The results show {AI}'s advantages in giving targeted feedback and practice opportunities, making language learning easier, and improving overall learning efficiency and effectiveness. Thus, this review contributes to a better understanding of {AI}'s role in redefining present educational paradigms, as well as its potential to transform teaching and learning methodologies.}, + pages = {1517--1523}, + number = {3}, + journaltitle = {Syntax Idea}, + shortjournal = {{SLJIL}}, + author = {Nurjanah, Aisyah and Salsabila, Irma Nuraeni and Azzahra, Adelia and Rahayu, Riska and Marlina, Nina}, + urldate = {2025-01-26}, + date = {2024-04-05}, + file = {Full text:files/800/Nurjanah et al. - 2024 - Artificial Intelligence (AI) Usage In Today’s Teaching And Learning Process A Review.pdf:application/pdf}, +} + +@article{chen_artificial_2020, + title = {Artificial Intelligence in Education: A Review}, + volume = {8}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + issn = {2169-3536}, + url = {https://ieeexplore.ieee.org/document/9069875/}, + doi = {10.1109/ACCESS.2020.2988510}, + shorttitle = {Artificial Intelligence in Education}, + pages = {75264--75278}, + journaltitle = {{IEEE} Access}, + shortjournal = {{IEEE} Access}, + author = {Chen, Lijia and Chen, Pingping and Lin, Zhijian}, + urldate = {2025-01-26}, + date = {2020}, +} + +@article{cho_student_2010, + title = {Student revision with peer and expert reviewing}, + volume = {20}, + rights = {https://www.elsevier.com/tdm/userlicense/1.0/}, + issn = {09594752}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S0959475209000747}, + doi = {10.1016/j.learninstruc.2009.08.006}, + pages = {328--338}, + number = {4}, + journaltitle = {Learning and Instruction}, + shortjournal = {Learning and Instruction}, + author = {Cho, Kwangsu and {MacArthur}, Charles}, + urldate = {2025-01-26}, + date = {2010-08}, + langid = {english}, +} + +@article{redazione_quale_2006, + title = {Quale Storia? Intervista ad Antonio Brusa a proposito di didattica, insegnamento e ricerca storiografica}, + issn = {1825-411X}, + url = {https://doi.org/10.1473/stor327}, + doi = {10.1473/stor327}, + shorttitle = {Quale Storia?}, + journaltitle = {Storicamente}, + author = {Redazione, Redazione}, + urldate = {2025-01-26}, + date = {2006}, +} diff --git a/TesiZIP/Prefazione.tex b/TesiZIP/Prefazione.tex new file mode 100644 index 0000000..8f0230a --- /dev/null +++ b/TesiZIP/Prefazione.tex @@ -0,0 +1 @@ +Per la redazione di questa tesi, sono stati impiegati sistemi di IA Generativa (ChatGPT-4, versione rilasciata a marzo 2024, Gemini Pro 1.5, Claude 3.5, Consensus) per supporto nella ricerca, nella rielaborazione di contenuti e nell’attività di analisi. \ No newline at end of file diff --git a/TesiZIP/bibliography.bib b/TesiZIP/bibliography.bib new file mode 100644 index 0000000..29cf255 --- /dev/null +++ b/TesiZIP/bibliography.bib @@ -0,0 +1,1779 @@ + +@collection{monducci_insegnare_2018, + location = {Torino}, + edition = {3. ed}, + title = {Insegnare storia: il laboratorio storico e altre pratiche attive}, + isbn = {978-88-6008-533-7}, + shorttitle = {Insegnare storia}, + pagetotal = {328}, + publisher = {{UTET} Università}, + editor = {Monducci, Francesco}, + date = {2018}, +} + +@book{panciera_didattica_2013, + location = {Firenze ; Milano}, + edition = {3. ed. aggiornata}, + title = {Didattica della storia: manuale per la formazione degli insegnanti}, + isbn = {978-88-00-74494-2}, + shorttitle = {Didattica della storia}, + pagetotal = {232}, + publisher = {Le Monnier Università : Mondadori Education}, + author = {Panciera, Walter and Zannini, Andrea}, + date = {2013}, +} + +@article{aghaziarati_artificial_2023, + title = {Artificial Intelligence in Education: Investigating Teacher Attitudes}, + volume = {1}, + url = {https://journals.kmanpub.com/index.php/aitechbesosci/article/view/1973}, + doi = {10.61838/kman.aitech.1.1.6}, + shorttitle = {Artificial Intelligence in Education}, + abstract = {This study aims to investigate teachers' attitudes towards {AI} in education, focusing on identifying the perceived benefits, challenges, and ethical considerations associated with {AI} integration into teaching and learning environments. Utilizing a qualitative research design, this study conducted semi-structured interviews with 28 educators from various educational levels and disciplines. Thematic analysis was employed to analyze the interview data, identifying key themes and concepts related to teachers' perspectives on {AI} in education. Four main themes were identified: Pedagogical Impacts, Ethical and Social Considerations, Technological Challenges and Opportunities, and Perceptions of {AI} in Education. Pedagogical Impacts encompassed enhancing learning outcomes, curriculum integration, and the evolving roles of teachers. Ethical and Social Considerations highlighted concerns over data privacy, bias, and equity. Technological Challenges and Opportunities discussed integration challenges and the future of educational technology. Lastly, Perceptions of {AI} in Education revealed varied attitudes, awareness levels, and perceived impacts on professional identity. Teachers recognize the transformative potential of {AI} in enhancing personalized learning and operational efficiency. However, concerns about ethical issues, technological infrastructure, and the need for professional development are significant. Addressing these concerns requires targeted efforts from policymakers, educational leaders, and technologists to foster a supportive environment for {AI} integration in education.}, + pages = {35--42}, + number = {1}, + journaltitle = {{AI} and Tech in Behavioral and Social Sciences}, + shortjournal = {aitechbesosci}, + author = {Aghaziarati, Ali and Nejatifar, Sara and Abedi, Ahmad}, + urldate = {2025-01-26}, + date = {2023}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\XKZNLLZ8\\Aghaziarati et al. - 2023 - Artificial Intelligence in Education Investigating Teacher Attitudes.pdf:application/pdf}, +} + +@article{bonsu_consumers_2023, + title = {From the Consumers’ Side: Determining Students’ Perception and Intention to Use {ChatGPTin} Ghanaian Higher Education}, + issn = {1556-5068}, + url = {https://www.ssrn.com/abstract=4387107}, + doi = {10.2139/ssrn.4387107}, + shorttitle = {From the Consumers’ Side}, + journaltitle = {{SSRN} Electronic Journal}, + shortjournal = {{SSRN} Journal}, + author = {Bonsu, Emmanuel and Baffour-Koduah, Daniel}, + urldate = {2025-01-26}, + date = {2023}, + langid = {english}, +} + +@article{garcia_sanchez_uso_2023, + title = {Uso y percepción de {ChatGPT} en la educación superior}, + volume = {11}, + issn = {23870893}, + url = {https://riti.es/index.php/riti/article/view/261}, + doi = {10.36825/RITI.11.23.009}, + abstract = {This article aims to analyze higher education students' management and perception regarding using {ChatGPT} in their academic activities. To accomplish this, a descriptive study with a qualitative approach was employed to analyze the data obtained through a questionnaire administered to students from various majors at the Universidad Autónoma de Sinaloa. The instrument consisted of two sections with closed-ended questions and a Likert scale to measure the learners' perception. The results revealed that a minority of the respondents (33\%) had used {ChatGPT} in their school practices. Additionally, it was found that a significant proportion (75\%) did not consider the use of this tool suitable for their educational tasks, and a similar percentage (79\%) did not perceive improvements in their research and data analysis skills. A low dependence on using this tool for school assignments was observed (4\%), along with a lack of confidence in teachers' preparedness to effectively incorporate this technology into their classes (83\%). In conclusion, educational institutions are recommended to carefully consider integrating artificial intelligence tools in didactic exercises, taking into account the concerns expressed by the students.}, + pages = {98--107}, + number = {23}, + journaltitle = {Revista de Investigación en Tecnologías de la Información}, + shortjournal = {{RITI}}, + author = {García Sánchez, Omar Vicente}, + urldate = {2025-01-26}, + date = {2023-06}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\3YYFJA8D\\García Sánchez - 2023 - Uso y percepción de ChatGPT en la educación superior.pdf:application/pdf}, +} + +@misc{aguilar_critical_2024, + title = {Critical Thinking and Ethics in the Age of Generative {AI} in Education}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode}, + url = {https://osf.io/7dr9j}, + doi = {10.35542/osf.io/7dr9j}, + abstract = {This report is an invitation for educators, policymakers, technologists, and learners to consider how generative {AI} can contribute to the future of education?. It aims to lay down a foundation upon which we can start building an educational ecosystem that is dynamic, inclusive, and profoundly human, despite being significantly aided by artificial intelligence?.}, + publisher = {{EdArXiv}}, + author = {Aguilar, Stephen J and Swartout, William and Nye, Benjamin and Sinatra, Gale Marie and Wang, Changzhao and Bui, Eric}, + urldate = {2025-01-26}, + date = {2024-01-29}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\S4NTADLT\\Aguilar et al. - 2024 - Critical Thinking and Ethics in the Age of Generative AI in Education.pdf:application/pdf}, +} + +@article{markauskaite_rethinking_2022, + title = {Rethinking the entwinement between artificial intelligence and human learning: What capabilities do learners need for a world with {AI}?}, + volume = {3}, + issn = {2666920X}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S2666920X2200011X}, + doi = {10.1016/j.caeai.2022.100056}, + shorttitle = {Rethinking the entwinement between artificial intelligence and human learning}, + pages = {100056}, + journaltitle = {Computers and Education: Artificial Intelligence}, + shortjournal = {Computers and Education: Artificial Intelligence}, + author = {Markauskaite, Lina and Marrone, Rebecca and Poquet, Oleksandra and Knight, Simon and Martinez-Maldonado, Roberto and Howard, Sarah and Tondeur, Jo and De Laat, Maarten and Buckingham Shum, Simon and Gašević, Dragan and Siemens, George}, + urldate = {2025-01-26}, + date = {2022}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\ZJYQKP2V\\Markauskaite et al. - 2022 - Rethinking the entwinement between artificial intelligence and human learning What capabilities do.pdf:application/pdf}, +} + +@misc{xu_hallucination_2024, + title = {Hallucination is Inevitable: An Innate Limitation of Large Language Models}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2401.11817}, + doi = {10.48550/ARXIV.2401.11817}, + shorttitle = {Hallucination is Inevitable}, + abstract = {Hallucination has been widely recognized to be a significant drawback for large language models ({LLMs}). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminate hallucination in {LLMs}. Specifically, we define a formal world where hallucination is defined as inconsistencies between a computable {LLM} and a computable ground truth function. By employing results from learning theory, we show that {LLMs} cannot learn all of the computable functions and will therefore always hallucinate. Since the formal world is a part of the real world which is much more complicated, hallucinations are also inevitable for real world {LLMs}. Furthermore, for real world {LLMs} constrained by provable time complexity, we describe the hallucination-prone tasks and empirically validate our claims. Finally, using the formal world framework, we discuss the possible mechanisms and efficacies of existing hallucination mitigators as well as the practical implications on the safe deployment of {LLMs}.}, + publisher = {{arXiv}}, + author = {Xu, Ziwei and Jain, Sanjay and Kankanhalli, Mohan}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI})}, +} + +@article{chan_students_2023, + title = {Students’ voices on generative {AI}: perceptions, benefits, and challenges in higher education}, + volume = {20}, + issn = {2365-9440}, + url = {https://educationaltechnologyjournal.springeropen.com/articles/10.1186/s41239-023-00411-8}, + doi = {10.1186/s41239-023-00411-8}, + shorttitle = {Students’ voices on generative {AI}}, + abstract = {Abstract + This study explores university students’ perceptions of generative {AI} ({GenAI}) technologies, such as {ChatGPT}, in higher education, focusing on familiarity, their willingness to engage, potential benefits and challenges, and effective integration. A survey of 399 undergraduate and postgraduate students from various disciplines in Hong Kong revealed a generally positive attitude towards {GenAI} in teaching and learning. Students recognized the potential for personalized learning support, writing and brainstorming assistance, and research and analysis capabilities. However, concerns about accuracy, privacy, ethical issues, and the impact on personal development, career prospects, and societal values were also expressed. According to John Biggs’ 3P model, student perceptions significantly influence learning approaches and outcomes. By understanding students’ perceptions, educators and policymakers can tailor {GenAI} technologies to address needs and concerns while promoting effective learning outcomes. Insights from this study can inform policy development around the integration of {GenAI} technologies into higher education. By understanding students’ perceptions and addressing their concerns, policymakers can create well-informed guidelines and strategies for the responsible and effective implementation of {GenAI} tools, ultimately enhancing teaching and learning experiences in higher education.}, + pages = {43}, + number = {1}, + journaltitle = {International Journal of Educational Technology in Higher Education}, + shortjournal = {Int J Educ Technol High Educ}, + author = {Chan, Cecilia Ka Yuk and Hu, Wenjie}, + urldate = {2025-01-26}, + date = {2023-07-17}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\XEBCQGBK\\Chan e Hu - 2023 - Students’ voices on generative AI perceptions, benefits, and challenges in higher education.pdf:application/pdf}, +} + +@misc{dao_investigating_2023, + title = {Investigating the Effectiveness of {ChatGPT} in Mathematical Reasoning and Problem Solving: Evidence from the Vietnamese National High School Graduation Examination}, + rights = {Creative Commons Attribution Share Alike 4.0 International}, + url = {https://arxiv.org/abs/2306.06331}, + doi = {10.48550/ARXIV.2306.06331}, + shorttitle = {Investigating the Effectiveness of {ChatGPT} in Mathematical Reasoning and Problem Solving}, + abstract = {This study offers a complete analysis of {ChatGPT}'s mathematics abilities in responding to multiple-choice questions for the Vietnamese National High School Graduation Examination ({VNHSGE}) on a range of subjects and difficulty levels. The dataset included 250 questions divided into four levels: knowledge (K), comprehension (C), application (A), and high application (H), and it included ten themes that covered diverse mathematical concepts. The outcomes demonstrate that {ChatGPT}'s performance varies depending on the difficulty level and subject. It performed best on questions at Level (K), with an accuracy rate of \$83{\textbackslash}\%\$; but, as the difficulty level rose, it scored poorly, with an accuracy rate of \$10{\textbackslash}\%\$. The study has also shown that {ChatGPT} significantly succeeds in providing responses to questions on subjects including exponential and logarithmic functions, geometric progression, and arithmetic progression. The study found that {ChatGPT} had difficulty correctly answering questions on topics including derivatives and applications, spatial geometry, and Oxyz spatial calculus. Additionally, this study contrasted {ChatGPT} outcomes with Vietnamese students in {VNHSGE} and in other math competitions. {ChatGPT} dominated in the {SAT} Math competition with a success rate of \$70{\textbackslash}\%\$, followed by {VNHSGE} mathematics (\$58.8{\textbackslash}\%)\$. However, its success rates were lower on other exams, such as {AP} Statistics, the {GRE} Quantitative, {AMC} 10, {AMC} 12, and {AP} Calculus {BC}. These results suggest that {ChatGPT} has the potential to be an effective teaching tool for mathematics, but more work is needed to enhance its handling of graphical data and address the challenges presented by questions that are getting more challenging.}, + publisher = {{arXiv}}, + author = {Dao, Xuan-Quy and Le, Ngoc-Bich}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{hsieh_ruler_2024, + title = {{RULER}: What's the Real Context Size of Your Long-Context Language Models?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2404.06654}, + doi = {10.48550/ARXIV.2404.06654}, + shorttitle = {{RULER}}, + abstract = {The needle-in-a-haystack ({NIAH}) test, which examines the ability to retrieve a piece of information (the "needle") from long distractor texts (the "haystack"), has been widely adopted to evaluate long-context language models ({LMs}). However, this simple retrieval-based test is indicative of only a superficial form of long-context understanding. To provide a more comprehensive evaluation of long-context {LMs}, we create a new synthetic benchmark {RULER} with flexible configurations for customized sequence length and task complexity. {RULER} expands upon the vanilla {NIAH} test to encompass variations with diverse types and quantities of needles. Moreover, {RULER} introduces new task categories multi-hop tracing and aggregation to test behaviors beyond searching from context. We evaluate 17 long-context {LMs} with 13 representative tasks in {RULER}. Despite achieving nearly perfect accuracy in the vanilla {NIAH} test, almost all models exhibit large performance drops as the context length increases. While these models all claim context sizes of 32K tokens or greater, only half of them can maintain satisfactory performance at the length of 32K. Our analysis of Yi-34B, which supports context length of 200K, reveals large room for improvement as we increase input length and task complexity. We open source {RULER} to spur comprehensive evaluation of long-context {LMs}.}, + publisher = {{arXiv}}, + author = {Hsieh, Cheng-Ping and Sun, Simeng and Kriman, Samuel and Acharya, Shantanu and Rekesh, Dima and Jia, Fei and Zhang, Yang and Ginsburg, Boris}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@misc{kojima_large_2022, + title = {Large Language Models are Zero-Shot Reasoners}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2205.11916}, + doi = {10.48550/ARXIV.2205.11916}, + abstract = {Pretrained large language models ({LLMs}) are widely used in many sub-fields of natural language processing ({NLP}) and generally known as excellent few-shot learners with task-specific exemplars. Notably, chain of thought ({CoT}) prompting, a recent technique for eliciting complex multi-step reasoning through step-by-step answer examples, achieved the state-of-the-art performances in arithmetics and symbolic reasoning, difficult system-2 tasks that do not follow the standard scaling laws for {LLMs}. While these successes are often attributed to {LLMs}' ability for few-shot learning, we show that {LLMs} are decent zero-shot reasoners by simply adding "Let's think step by step" before each answer. Experimental results demonstrate that our Zero-shot-{CoT}, using the same single prompt template, significantly outperforms zero-shot {LLM} performances on diverse benchmark reasoning tasks including arithmetics ({MultiArith}, {GSM}8K, {AQUA}-{RAT}, {SVAMP}), symbolic reasoning (Last Letter, Coin Flip), and other logical reasoning tasks (Date Understanding, Tracking Shuffled Objects), without any hand-crafted few-shot examples, e.g. increasing the accuracy on {MultiArith} from 17.7\% to 78.7\% and {GSM}8K from 10.4\% to 40.7\% with large {InstructGPT} model (text-davinci-002), as well as similar magnitudes of improvements with another off-the-shelf large model, 540B parameter {PaLM}. The versatility of this single prompt across very diverse reasoning tasks hints at untapped and understudied fundamental zero-shot capabilities of {LLMs}, suggesting high-level, multi-task broad cognitive capabilities may be extracted by simple prompting. We hope our work not only serves as the minimal strongest zero-shot baseline for the challenging reasoning benchmarks, but also highlights the importance of carefully exploring and analyzing the enormous zero-shot knowledge hidden inside {LLMs} before crafting finetuning datasets or few-shot exemplars.}, + publisher = {{arXiv}}, + author = {Kojima, Takeshi and Gu, Shixiang Shane and Reid, Machel and Matsuo, Yutaka and Iwasawa, Yusuke}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 4}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI})}, +} + +@inproceedings{liu_generated_2022, + location = {Dublin, Ireland}, + title = {Generated Knowledge Prompting for Commonsense Reasoning}, + url = {https://aclanthology.org/2022.acl-long.225}, + doi = {10.18653/v1/2022.acl-long.225}, + eventtitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)}, + pages = {3154--3169}, + booktitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)}, + publisher = {Association for Computational Linguistics}, + author = {Liu, Jiacheng and Liu, Alisa and Lu, Ximing and Welleck, Sean and West, Peter and Le Bras, Ronan and Choi, Yejin and Hajishirzi, Hannaneh}, + urldate = {2025-01-26}, + date = {2022}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\Y2AZTRPW\\Liu et al. - 2022 - Generated Knowledge Prompting for Commonsense Reasoning.pdf:application/pdf}, +} + +@article{makrygiannakis_evidence-based_2024, + title = {Evidence-based potential of generative artificial intelligence large language models in orthodontics: a comparative study of {ChatGPT}, Google Bard, and Microsoft Bing}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + issn = {0141-5387, 1460-2210}, + url = {https://academic.oup.com/ejo/advance-article/doi/10.1093/ejo/cjae017/7645326}, + doi = {10.1093/ejo/cjae017}, + shorttitle = {Evidence-based potential of generative artificial intelligence large language models in orthodontics}, + abstract = {Summary + + Background + The increasing utilization of large language models ({LLMs}) in Generative Artificial Intelligence across various medical and dental fields, and specifically orthodontics, raises questions about their accuracy. + + + Objective + This study aimed to assess and compare the answers offered by four {LLMs}: Google’s Bard, {OpenAI}’s {ChatGPT}-3.5, and {ChatGPT}-4, and Microsoft’s Bing, in response to clinically relevant questions within the field of orthodontics. + + + Materials and methods + Ten open-type clinical orthodontics-related questions were posed to the {LLMs}. The responses provided by the {LLMs} were assessed on a scale ranging from 0 (minimum) to 10 (maximum) points, benchmarked against robust scientific evidence, including consensus statements and systematic reviews, using a predefined rubric. After a 4-week interval from the initial evaluation, the answers were reevaluated to gauge intra-evaluator reliability. Statistical comparisons were conducted on the scores using Friedman’s and Wilcoxon’s tests to identify the model providing the answers with the most comprehensiveness, scientific accuracy, clarity, and relevance. + + + Results + Overall, no statistically significant differences between the scores given by the two evaluators, on both scoring occasions, were detected, so an average score for every {LLM} was computed. The {LLM} answers scoring the highest, were those of Microsoft Bing Chat (average score = 7.1), followed by {ChatGPT} 4 (average score = 4.7), Google Bard (average score = 4.6), and finally {ChatGPT} 3.5 (average score 3.8). While Microsoft Bing Chat statistically outperformed {ChatGPT}-3.5 (P-value = 0.017) and Google Bard (P-value = 0.029), as well, and Chat {GPT}-4 outperformed Chat {GPT}-3.5 (P-value = 0.011), all models occasionally produced answers with a lack of comprehensiveness, scientific accuracy, clarity, and relevance. + + + Limitations + The questions asked were indicative and did not cover the entire field of orthodontics. + + + Conclusions + Language models ({LLMs}) show great potential in supporting evidence-based orthodontics. However, their current limitations pose a potential risk of making incorrect healthcare decisions if utilized without careful consideration. Consequently, these tools cannot serve as a substitute for the orthodontist’s essential critical thinking and comprehensive subject knowledge. For effective integration into practice, further research, clinical validation, and enhancements to the models are essential. Clinicians must be mindful of the limitations of {LLMs}, as their imprudent utilization could have adverse effects on patient care.}, + pages = {cjae017}, + journaltitle = {European Journal of Orthodontics}, + author = {Makrygiannakis, Miltiadis A and Giannakopoulos, Kostis and Kaklamanos, Eleftherios G}, + urldate = {2025-01-26}, + date = {2024-04-13}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\IQIANDKV\\Makrygiannakis et al. - 2024 - Evidence-based potential of generative artificial intelligence large language models in orthodontics.pdf:application/pdf}, +} + +@misc{min_rethinking_2022, + title = {Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2202.12837}, + doi = {10.48550/ARXIV.2202.12837}, + shorttitle = {Rethinking the Role of Demonstrations}, + abstract = {Large language models ({LMs}) are able to in-context learn -- perform a new task via inference alone by conditioning on a few input-label pairs (demonstrations) and making predictions for new inputs. However, there has been little understanding of how the model learns and which aspects of the demonstrations contribute to end task performance. In this paper, we show that ground truth demonstrations are in fact not required -- randomly replacing labels in the demonstrations barely hurts performance on a range of classification and multi-choce tasks, consistently over 12 different models including {GPT}-3. Instead, we find that other aspects of the demonstrations are the key drivers of end task performance, including the fact that they provide a few examples of (1) the label space, (2) the distribution of the input text, and (3) the overall format of the sequence. Together, our analysis provides a new way of understanding how and why in-context learning works, while opening up new questions about how much can be learned from large language models through inference alone.}, + publisher = {{arXiv}}, + author = {Min, Sewon and Lyu, Xinxi and Holtzman, Ari and Artetxe, Mikel and Lewis, Mike and Hajishirzi, Hannaneh and Zettlemoyer, Luke}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 2}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI})}, +} + +@article{stribling_model_2024, + title = {The model student: {GPT}-4 performance on graduate biomedical science exams}, + volume = {14}, + issn = {2045-2322}, + url = {https://www.nature.com/articles/s41598-024-55568-7}, + doi = {10.1038/s41598-024-55568-7}, + shorttitle = {The model student}, + abstract = {Abstract + The {GPT}-4 large language model ({LLM}) and {ChatGPT} chatbot have emerged as accessible and capable tools for generating English-language text in a variety of formats. {GPT}-4 has previously performed well when applied to questions from multiple standardized examinations. However, further evaluation of trustworthiness and accuracy of {GPT}-4 responses across various knowledge domains is essential before its use as a reference resource. Here, we assess {GPT}-4 performance on nine graduate-level examinations in the biomedical sciences (seven blinded), finding that {GPT}-4 scores exceed the student average in seven of nine cases and exceed all student scores for four exams. {GPT}-4 performed very well on fill-in-the-blank, short-answer, and essay questions, and correctly answered several questions on figures sourced from published manuscripts. Conversely, {GPT}-4 performed poorly on questions with figures containing simulated data and those requiring a hand-drawn answer. Two {GPT}-4 answer-sets were flagged as plagiarism based on answer similarity and some model responses included detailed hallucinations. In addition to assessing {GPT}-4 performance, we discuss patterns and limitations in {GPT}-4 capabilities with the goal of informing design of future academic examinations in the chatbot era.}, + pages = {5670}, + number = {1}, + journaltitle = {Scientific Reports}, + shortjournal = {Sci Rep}, + author = {Stribling, Daniel and Xia, Yuxing and Amer, Maha K. and Graim, Kiley S. and Mulligan, Connie J. and Renne, Rolf}, + urldate = {2025-01-26}, + date = {2024-03-07}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\P9FTCLI4\\Stribling et al. - 2024 - The model student GPT-4 performance on graduate biomedical science exams.pdf:application/pdf}, +} + +@misc{vaswani_attention_2017, + title = {Attention Is All You Need}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/1706.03762}, + doi = {10.48550/ARXIV.1706.03762}, + abstract = {The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train. Our model achieves 28.4 {BLEU} on the {WMT} 2014 English-to-German translation task, improving over the existing best results, including ensembles by over 2 {BLEU}. On the {WMT} 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art {BLEU} score of 41.8 after training for 3.5 days on eight {GPUs}, a small fraction of the training costs of the best models from the literature. We show that the Transformer generalizes well to other tasks by applying it successfully to English constituency parsing both with large and limited training data.}, + publisher = {{arXiv}}, + author = {Vaswani, Ashish and Shazeer, Noam and Parmar, Niki and Uszkoreit, Jakob and Jones, Llion and Gomez, Aidan N. and Kaiser, Lukasz and Polosukhin, Illia}, + urldate = {2025-01-26}, + date = {2017}, + note = {Version Number: 7}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{wang_searching_2024, + title = {Searching for Best Practices in Retrieval-Augmented Generation}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2407.01219}, + doi = {10.48550/ARXIV.2407.01219}, + abstract = {Retrieval-augmented generation ({RAG}) techniques have proven to be effective in integrating up-to-date information, mitigating hallucinations, and enhancing response quality, particularly in specialized domains. While many {RAG} approaches have been proposed to enhance large language models through query-dependent retrievals, these approaches still suffer from their complex implementation and prolonged response times. Typically, a {RAG} workflow involves multiple processing steps, each of which can be executed in various ways. Here, we investigate existing {RAG} approaches and their potential combinations to identify optimal {RAG} practices. Through extensive experiments, we suggest several strategies for deploying {RAG} that balance both performance and efficiency. Moreover, we demonstrate that multimodal retrieval techniques can significantly enhance question-answering capabilities about visual inputs and accelerate the generation of multimodal content using a "retrieval as generation" strategy.}, + publisher = {{arXiv}}, + author = {Wang, Xiaohua and Wang, Zhenghua and Gao, Xuan and Zhang, Feiran and Wu, Yixin and Xu, Zhibo and Shi, Tianyuan and Wang, Zhengyuan and Li, Shizheng and Qian, Qi and Yin, Ruicheng and Lv, Changze and Zheng, Xiaoqing and Huang, Xuanjing}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences}, +} + +@misc{wei_chain--thought_2022, + title = {Chain-of-Thought Prompting Elicits Reasoning in Large Language Models}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2201.11903}, + doi = {10.48550/ARXIV.2201.11903}, + abstract = {We explore how generating a chain of thought -- a series of intermediate reasoning steps -- significantly improves the ability of large language models to perform complex reasoning. In particular, we show how such reasoning abilities emerge naturally in sufficiently large language models via a simple method called chain of thought prompting, where a few chain of thought demonstrations are provided as exemplars in prompting. Experiments on three large language models show that chain of thought prompting improves performance on a range of arithmetic, commonsense, and symbolic reasoning tasks. The empirical gains can be striking. For instance, prompting a 540B-parameter language model with just eight chain of thought exemplars achieves state of the art accuracy on the {GSM}8K benchmark of math word problems, surpassing even finetuned {GPT}-3 with a verifier.}, + publisher = {{arXiv}}, + author = {Wei, Jason and Wang, Xuezhi and Schuurmans, Dale and Bosma, Maarten and Ichter, Brian and Xia, Fei and Chi, Ed and Le, Quoc and Zhou, Denny}, + urldate = {2025-01-26}, + date = {2022}, + note = {Version Number: 6}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI})}, +} + +@article{yu_reflection_2023, + title = {Reflection on whether Chat {GPT} should be banned by academia from the perspective of education and teaching}, + volume = {14}, + issn = {1664-1078}, + url = {https://www.frontiersin.org/articles/10.3389/fpsyg.2023.1181712/full}, + doi = {10.3389/fpsyg.2023.1181712}, + pages = {1181712}, + journaltitle = {Frontiers in Psychology}, + shortjournal = {Front. Psychol.}, + author = {Yu, Hao}, + urldate = {2025-01-26}, + date = {2023-06-01}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\Y9IJ5TPF\\Yu - 2023 - Reflection on whether Chat GPT should be banned by academia from the perspective of education and te.pdf:application/pdf}, +} + +@misc{shi_detecting_2023, + title = {Detecting Pretraining Data from Large Language Models}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2310.16789}, + doi = {10.48550/ARXIV.2310.16789}, + abstract = {Although large language models ({LLMs}) are widely deployed, the data used to train them is rarely disclosed. Given the incredible scale of this data, up to trillions of tokens, it is all but certain that it includes potentially problematic text such as copyrighted materials, personally identifiable information, and test data for widely reported reference benchmarks. However, we currently have no way to know which data of these types is included or in what proportions. In this paper, we study the pretraining data detection problem: given a piece of text and black-box access to an {LLM} without knowing the pretraining data, can we determine if the model was trained on the provided text? To facilitate this study, we introduce a dynamic benchmark {WIKIMIA} that uses data created before and after model training to support gold truth detection. We also introduce a new detection method Min-K\% Prob based on a simple hypothesis: an unseen example is likely to contain a few outlier words with low probabilities under the {LLM}, while a seen example is less likely to have words with such low probabilities. Min-K\% Prob can be applied without any knowledge about the pretraining corpus or any additional training, departing from previous detection methods that require training a reference model on data that is similar to the pretraining data. Moreover, our experiments demonstrate that Min-K\% Prob achieves a 7.4\% improvement on {WIKIMIA} over these previous methods. We apply Min-K\% Prob to three real-world scenarios, copyrighted book detection, contaminated downstream example detection and privacy auditing of machine unlearning, and find it a consistently effective solution.}, + publisher = {{arXiv}}, + author = {Shi, Weijia and Ajith, Anirudh and Xia, Mengzhou and Huang, Yangsibo and Liu, Daogao and Blevins, Terra and Chen, Danqi and Zettlemoyer, Luke}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Cryptography and Security (cs.{CR})}, +} + +@article{fernandes_ai_2024, + title = {{AI} Training and Copyright: Should Intellectual Property Law Allow Machines to Learn?}, + volume = {10}, + rights = {http://creativecommons.org/licenses/by/4.0}, + issn = {2653-8660}, + url = {https://ejournals.epublishing.ekt.gr/index.php/bioethica/article/view/39041}, + doi = {10.12681/bioeth.39041}, + shorttitle = {{AI} Training and Copyright}, + abstract = {This article examines the intricate legal landscape surrounding the use of copyrighted materials in the development of artificial intelligence ({AI}). It explores the rise of {AI} and its reliance on data, emphasizing the importance of data availability for machine learning ({ML}) systems. The article analyzes current relevant legislation across the European Union, United States, and Japan, highlighting the legal ambiguities and constraints posed by {IP} rights, particularly copyright. It discusses possible new solutions, referencing the World Intellectual Property Organization's ({WIPO}) call for discussions on {AI} and {IP} policy. The conclusion stresses the need to balance the interests of {AI} developers and {IP} rights holders to promote technological advancement while safeguarding creativity and originality.}, + pages = {8--21}, + number = {2}, + journaltitle = {Bioethica}, + shortjournal = {Bioethica}, + author = {Fernandes, Pedro Martins}, + urldate = {2025-01-26}, + date = {2024-10-01}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\9HW4C4Z6\\Fernandes - 2024 - AI Training and Copyright Should Intellectual Property Law Allow Machines to Learn.pdf:application/pdf}, +} + +@article{buick_copyright_2024, + title = {Copyright and {AI} training data—transparency to the rescue?}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/}, + issn = {1747-1532, 1747-1540}, + url = {https://academic.oup.com/jiplp/advance-article/doi/10.1093/jiplp/jpae102/7922541}, + doi = {10.1093/jiplp/jpae102}, + abstract = {Abstract + Generative Artificial Intelligence ({AI}) models must be trained on vast quantities of data, much of which is composed of copyrighted material. However, {AI} developers frequently use such content without seeking permission from rightsholders, leading to calls for requirements to disclose information on the contents of {AI} training data. These demands have won an early success through the inclusion of such requirements in the {EU}’s {AI} Act. This article argues that such transparency requirements alone cannot rescue us from the difficult question of how best to respond to the fundamental challenges generative {AI} poses to copyright law. This is because the impact of transparency requirements is contingent on existing copyright laws; if these do not adequately address the challenges presented by generative {AI}, transparency will not provide a solution. This is exemplified by the transparency requirements of the {AI} Act, which are explicitly designed to facilitate the enforcement of the right to opt-out of text and data mining under the Copyright in the Digital Single Market Directive. Because the transparency requirements do not sufficiently address the underlying flaws of this opt-out, they are unlikely to provide any meaningful improvement to the position of individual rightsholders. Transparency requirements are thus a necessary but not sufficient measure to achieve a fair and equitable balance between innovation and protection for rightsholders. Policymakers must therefore look beyond such requirements and consider further action to address the complex challenge presented to copyright law by generative {AI}.}, + pages = {jpae102}, + journaltitle = {Journal Of Intellectual Property Law and Practice}, + author = {Buick, Adam}, + urldate = {2025-01-26}, + date = {2024-12-12}, + langid = {english}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\KANHFKHS\\Buick - 2024 - Copyright and AI training data—transparency to the rescue.pdf:application/pdf}, +} + +@misc{azizy_adversarial_2024, + title = {Adversarial vulnerability following {LLM} low-resource language fine-tuning: Short report}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/bzd6w}, + doi = {10.31219/osf.io/bzd6w}, + shorttitle = {Adversarial vulnerability following {LLM} low-resource language fine-tuning}, + abstract = {We briefly report how fine-tuning a multilingual {LLM} with a low-resource language resulted in an increased vulnerability to adversarial attacks. We fine-tuned {GPT}-3.5 Turbo (gpt-3.5-0125) with 560 input-output pairs ({\textasciitilde}274k tokens) of Krama Javanese, a high register of Javanese (a low-resource language). We report brief qualitative and quantitative observations that 1. The fine-tuned model is more compliant towards adversarial prompts, 2. Unsuccessful prompts can be successful when concatenated with an elaboration string, e.g., step-by-step prompting or by specifying details, 3. The model can be prompted in the fine-tuned language to respond in English, thus providing a way to produce harmful responses in a different language. The fine-tuned model sees a 45.1\% increase of {GPT}-4-rated sum of harmfulness for Krama Javanese responses and a 13.8\% increase for English responses. Notably, all of these vulnerabilities can be reached very effectively with the benign nature and our small dataset size. Our work contributes knowledge in the intersection of {AI} safety and multilingual models, indicating that fine-tuning an {LLM} on a low-resource language should include additional data examples for retaining safety guardrails.}, + publisher = {Open Science Framework}, + author = {Azizy, Afrizal Hasbi and Cahyanto, Nuel Bagus}, + urldate = {2025-01-26}, + date = {2024-05-03}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\X9DLH5RF\\Azizy e Cahyanto - 2024 - Adversarial vulnerability following LLM low-resource language fine-tuning Short report.pdf:application/pdf}, +} + +@incollection{kucharavy_exploring_2024, + location = {Cham}, + title = {Exploring the Dual Role of {LLMs} in Cybersecurity: Threats and Defenses}, + isbn = {978-3-031-54826-0 978-3-031-54827-7}, + url = {https://link.springer.com/10.1007/978-3-031-54827-7_26}, + shorttitle = {Exploring the Dual Role of {LLMs} in Cybersecurity}, + abstract = {Abstract + + Large Language Models + ({LLMs}) pose risks for cybersecurity since they facilitate minimal cost creation of malware, phishing messages, and malicious chatbots. At the same time, {LLMs} can help defend against cyberattacks. This chapter reviews security research around the risks and benefits of {LLMs}.}, + pages = {235--242}, + booktitle = {Large Language Models in Cybersecurity}, + publisher = {Springer Nature Switzerland}, + author = {Bryce, Ciarán and Kalousis, Alexandros and Leroux, Ilan and Madinier, Hélène and Pasche, Thomas and Ruch, Patrick}, + editor = {Kucharavy, Andrei and Plancherel, Octave and Mulder, Valentin and Mermoud, Alain and Lenders, Vincent}, + urldate = {2025-01-26}, + date = {2024}, + langid = {english}, + doi = {10.1007/978-3-031-54827-7_26}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\X6FST7PE\\Bryce et al. - 2024 - Exploring the Dual Role of LLMs in Cybersecurity Threats and Defenses.pdf:application/pdf}, +} + +@article{gupta_chatgpt_2023, + title = {From {ChatGPT} to {ThreatGPT}: Impact of Generative {AI} in Cybersecurity and Privacy}, + volume = {11}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0/}, + issn = {2169-3536}, + url = {https://ieeexplore.ieee.org/document/10198233/}, + doi = {10.1109/ACCESS.2023.3300381}, + shorttitle = {From {ChatGPT} to {ThreatGPT}}, + pages = {80218--80245}, + journaltitle = {{IEEE} Access}, + shortjournal = {{IEEE} Access}, + author = {Gupta, Maanak and Akiri, Charankumar and Aryal, Kshitiz and Parker, Eli and Praharaj, Lopamudra}, + urldate = {2025-01-26}, + date = {2023}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\4VMZCSZK\\Gupta et al. - 2023 - From ChatGPT to ThreatGPT Impact of Generative AI in Cybersecurity and Privacy.pdf:application/pdf}, +} + +@misc{mahato_red_2024, + title = {Red Teaming for Multimodal Large Language Models: A Survey}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + url = {https://www.techrxiv.org/users/717031/articles/701792-red-teaming-for-multimodal-large-language-models-a-survey?commit=78974318f47d2573ffe2d51622dee3c7268dddd5}, + doi = {10.36227/techrxiv.170629758.87975697/v1}, + shorttitle = {Red Teaming for Multimodal Large Language Models}, + publisher = {Preprints}, + author = {Mahato, Moushumi and Kumar, Avinash and Singh, Kartikey and Kukreja, Bhavesh and Nabi, Javaid}, + urldate = {2025-01-26}, + date = {2024-01-26}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\UB8SAQWI\\Mahato et al. - 2024 - Red Teaming for Multimodal Large Language Models A Survey.pdf:application/pdf}, +} + +@article{menz_health_2024, + title = {Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation}, + volume = {184}, + issn = {2168-6106}, + url = {https://jamanetwork.com/journals/jamainternalmedicine/fullarticle/2811333}, + doi = {10.1001/jamainternmed.2023.5947}, + shorttitle = {Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance}, + abstract = {Importance + Although artificial intelligence ({AI}) offers many promises across modern medicine, it may carry a significant risk for the mass generation of targeted health disinformation. This poses an urgent threat toward public health initiatives and calls for rapid attention by health care professionals, {AI} developers, and regulators to ensure public safety. + + + Observations + As an example, using a single publicly available large-language model, within 65 minutes, 102 distinct blog articles were generated that contained more than 17 000 words of disinformation related to vaccines and vaping. Each post was coercive and targeted at diverse societal groups, including young adults, young parents, older persons, pregnant people, and those with chronic health conditions. The blogs included fake patient and clinician testimonials and obeyed prompting for the inclusion of scientific-looking referencing. Additional generative {AI} tools created an accompanying 20 realistic images in less than 2 minutes. This process was undertaken by health care professionals and researchers with no specialized knowledge in bypassing {AI} guardrails, relying solely on publicly available information. + + + Conclusions and Relevance + These observations demonstrate that when the guardrails of {AI} tools are insufficient, the ability to rapidly generate diverse and large amounts of convincing disinformation is profound. Beyond providing 2 example scenarios, these findings demonstrate an urgent need for robust {AI} vigilance. The {AI} tools are rapidly progressing; alongside these advancements, emergent risks are becoming increasingly apparent. Key pillars of pharmacovigilance—including transparency, surveillance, and regulation—may serve as valuable examples for managing these risks and safeguarding public health.}, + pages = {92}, + number = {1}, + journaltitle = {{JAMA} Internal Medicine}, + shortjournal = {{JAMA} Intern Med}, + author = {Menz, Bradley D. and Modi, Natansh D. and Sorich, Michael J. and Hopkins, Ashley M.}, + urldate = {2025-01-26}, + date = {2024-01-01}, + langid = {english}, +} + +@article{qi_visual_2024, + title = {Visual Adversarial Examples Jailbreak Aligned Large Language Models}, + volume = {38}, + issn = {2374-3468, 2159-5399}, + url = {https://ojs.aaai.org/index.php/AAAI/article/view/30150}, + doi = {10.1609/aaai.v38i19.30150}, + abstract = {Warning: this paper contains data, prompts, and model outputs that are offensive in nature. + +Recently, there has been a surge of interest in integrating vision into Large Language Models ({LLMs}), exemplified by Visual Language Models ({VLMs}) such as Flamingo and {GPT}-4. This paper sheds light on the security and safety implications of this trend. First, we underscore that the continuous and high-dimensional nature of the visual input makes it a weak link against adversarial attacks, representing an expanded attack surface of vision-integrated {LLMs}. Second, we highlight that the versatility of {LLMs} also presents visual attackers with a wider array of achievable adversarial objectives, extending the implications of security failures beyond mere misclassification. As an illustration, we present a case study in which we exploit visual adversarial examples to circumvent the safety guardrail of aligned {LLMs} with integrated vision. Intriguingly, we discover that a single visual adversarial example can universally jailbreak an aligned {LLM}, compelling it to heed a wide range of harmful instructions (that it otherwise would not) and generate harmful content that transcends the narrow scope of a `few-shot' derogatory corpus initially employed to optimize the adversarial example. Our study underscores the escalating adversarial risks associated with the pursuit of multimodality. Our findings also connect the long-studied adversarial vulnerabilities of neural networks to the nascent field of {AI} alignment. The presented attack suggests a fundamental adversarial challenge for {AI} alignment, especially in light of the emerging trend toward multimodality in frontier foundation models.}, + pages = {21527--21536}, + number = {19}, + journaltitle = {Proceedings of the {AAAI} Conference on Artificial Intelligence}, + shortjournal = {{AAAI}}, + author = {Qi, Xiangyu and Huang, Kaixuan and Panda, Ashwinee and Henderson, Peter and Wang, Mengdi and Mittal, Prateek}, + urldate = {2025-01-26}, + date = {2024-03-24}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\3C9HJG8B\\Qi et al. - 2024 - Visual Adversarial Examples Jailbreak Aligned Large Language Models.pdf:application/pdf}, +} + +@inproceedings{roy_probing_2023, + location = {Singapore}, + title = {Probing {LLMs} for hate speech detection: strengths and vulnerabilities}, + url = {https://aclanthology.org/2023.findings-emnlp.407}, + doi = {10.18653/v1/2023.findings-emnlp.407}, + shorttitle = {Probing {LLMs} for hate speech detection}, + eventtitle = {Findings of the Association for Computational Linguistics: {EMNLP} 2023}, + pages = {6116--6128}, + booktitle = {Findings of the Association for Computational Linguistics: {EMNLP} 2023}, + publisher = {Association for Computational Linguistics}, + author = {Roy, Sarthak and Harshvardhan, Ashish and Mukherjee, Animesh and Saha, Punyajoy}, + urldate = {2025-01-26}, + date = {2023}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\YJSEI5B3\\Roy et al. - 2023 - Probing LLMs for hate speech detection strengths and vulnerabilities.pdf:application/pdf}, +} + +@misc{urman_silence_2023, + title = {The Silence of the {LLMs}: Cross-Lingual Analysis of Political Bias and False Information Prevalence in {ChatGPT}, Google Bard, and Bing Chat}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/q9v8f}, + doi = {10.31219/osf.io/q9v8f}, + shorttitle = {The Silence of the {LLMs}}, + abstract = {This article presents a comparative analysis of political bias in the outputs of three Large Language Model ({LLM})-based chatbots - {ChatGPT}, Bing Chat, and Bard - in response to political queries concerning the authoritarian regime in Russia. We investigate whether safeguards implemented in these chatbots contribute to the censorship of information that is viewed as harmful by the regime, in particular information about Vladimir Putin and the Russian war against Ukraine, and whether these safeguards enable the generation of false claims, in particular in relation to the regime's internal and external opponents. To detect whether {LLM} safeguards reiterate political bias, the article compares the outputs of prompts focusing on Putin's regime and the ones dealing with the Russian opposition and the {US} and Ukrainian politicians. It also examines whether the degree of bias varies depending on the language of the prompt and compares outputs concerning political personalities and issues across three languages: Russian, Ukrainian, and English. The results reveal significant disparities in how individual chatbots withhold politics-related information or produce false claims in relation to it. Notably, Bard consistently refused to respond to queries about Vladimir Putin in Russian, even when the relevant information was accessible via Google Search, and generally followed the censorship guidelines that, according to Yandex-related data leaks, were issued by the Russian authorities. In terms of false claims, we find substantial variation across languages with Ukrainian and Russian prompts generating false information more often and Bard being more prone to produce false claims in relation to Russian regime opponents (e.g., Navalny or Zelenskyy) than other chatbots. This research aims to stimulate further dialogue and research on developing safeguards against the misuse of {LLMs} outside of democratic environments.}, + publisher = {Open Science Framework}, + author = {Urman, Aleksandra and Makhortykh, Mykola}, + urldate = {2025-01-26}, + date = {2023-09-08}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\LXE3LLEE\\Urman e Makhortykh - 2023 - The Silence of the LLMs Cross-Lingual Analysis of Political Bias and False Information Prevalence i.pdf:application/pdf}, +} + +@article{wu_harnessing_2024, + title = {Harnessing Response Consistency for Superior {LLM} Performance: The Promise and Peril of Answer-Augmented Prompting}, + volume = {13}, + rights = {https://creativecommons.org/licenses/by/4.0/}, + issn = {2079-9292}, + url = {https://www.mdpi.com/2079-9292/13/23/4581}, + doi = {10.3390/electronics13234581}, + shorttitle = {Harnessing Response Consistency for Superior {LLM} Performance}, + abstract = {This paper introduces Answer-Augmented Prompting ({AAP}), an innovative approach that leverages the Response Consistency of History of Dialogue ({HoD}) phenomenon in Large Language Models ({LLMs}). {AAP} not only achieves significantly superior performance enhancements compared to traditional augmentation methods but also exhibits a stronger potential for “jailbreaking”, allowing models to produce unsafe or misleading responses. By strategically modifying the {HoD}, {AAP} influences {LLM} performance in a dual manner: it promotes accuracy while amplifying risks associated with bypassing built-in safeguards. Our experiments demonstrate that {AAP} outperforms standard methods in both effectiveness and the ability to elicit harmful content. To address these risks, we propose comprehensive mitigation strategies for both {LLM} service providers and end-users. This research offers valuable insights into the implications of Response Consistency in {LLMs}, underscoring the promise and peril of this powerful capability.}, + pages = {4581}, + number = {23}, + journaltitle = {Electronics}, + shortjournal = {Electronics}, + author = {Wu, Hua and Hong, Haotian and Sun, Li and Bai, Xiaojing and Pu, Mengyang}, + urldate = {2025-01-26}, + date = {2024-11-21}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\NEZK2W8R\\Wu et al. - 2024 - Harnessing Response Consistency for Superior LLM Performance The Promise and Peril of Answer-Augmen.pdf:application/pdf}, +} + +@inproceedings{yang_censorship_2021, + location = {Virtual Event Canada}, + title = {Censorship of Online Encyclopedias: Implications for {NLP} Models}, + isbn = {978-1-4503-8309-7}, + url = {https://dl.acm.org/doi/10.1145/3442188.3445916}, + doi = {10.1145/3442188.3445916}, + shorttitle = {Censorship of Online Encyclopedias}, + eventtitle = {{FAccT} '21: 2021 {ACM} Conference on Fairness, Accountability, and Transparency}, + pages = {537--548}, + booktitle = {Proceedings of the 2021 {ACM} Conference on Fairness, Accountability, and Transparency}, + publisher = {{ACM}}, + author = {Yang, Eddie and Roberts, Margaret E.}, + urldate = {2025-01-26}, + date = {2021-03-03}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\U7UGUHB5\\Yang e Roberts - 2021 - Censorship of Online Encyclopedias Implications for NLP Models.pdf:application/pdf}, +} + +@misc{lin_malla_2024, + title = {Malla: Demystifying Real-world Large Language Model Integrated Malicious Services}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2401.03315}, + doi = {10.48550/ARXIV.2401.03315}, + shorttitle = {Malla}, + abstract = {The underground exploitation of large language models ({LLMs}) for malicious services (i.e., Malla) is witnessing an uptick, amplifying the cyber threat landscape and posing questions about the trustworthiness of {LLM} technologies. However, there has been little effort to understand this new cybercrime, in terms of its magnitude, impact, and techniques. In this paper, we conduct the first systematic study on 212 real-world Mallas, uncovering their proliferation in underground marketplaces and exposing their operational modalities. Our study discloses the Malla ecosystem, revealing its significant growth and impact on today's public {LLM} services. Through examining 212 Mallas, we uncovered eight backend {LLMs} used by Mallas, along with 182 prompts that circumvent the protective measures of public {LLM} {APIs}. We further demystify the tactics employed by Mallas, including the abuse of uncensored {LLMs} and the exploitation of public {LLM} {APIs} through jailbreak prompts. Our findings enable a better understanding of the real-world exploitation of {LLMs} by cybercriminals, offering insights into strategies to counteract this cybercrime.}, + publisher = {{arXiv}}, + author = {Lin, Zilong and Cui, Jian and Liao, Xiaojing and Wang, {XiaoFeng}}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {{FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI}), Cryptography and Security (cs.{CR})}, +} + +@article{ayana_decolonizing_2024, + title = {Decolonizing global {AI} governance: assessment of the state of decolonized {AI} governance in Sub-Saharan Africa}, + volume = {11}, + issn = {2054-5703}, + url = {https://royalsocietypublishing.org/doi/10.1098/rsos.231994}, + doi = {10.1098/rsos.231994}, + shorttitle = {Decolonizing global {AI} governance}, + abstract = {Global artificial intelligence ({AI}) governance must prioritize equity, embrace a decolonial mindset, and provide the Global South countries the authority to spearhead solution creation. Decolonization is crucial for dismantling Western-centric cognitive frameworks and mitigating biases. Integrating a decolonial approach to {AI} governance involves recognizing persistent colonial repercussions, leading to biases in {AI} solutions and disparities in {AI} access based on gender, race, geography, income and societal factors. This paradigm shift necessitates deliberate efforts to deconstruct imperial structures governing knowledge production, perpetuating global unequal resource access and biases. This research evaluates Sub-Saharan African progress in {AI} governance decolonization, focusing on indicators like {AI} governance institutions, national strategies, sovereignty prioritization, data protection regulations, and adherence to local data usage requirements. Results show limited progress, with only Rwanda notably responsive to decolonization among the ten countries evaluated; 80\% are ‘decolonization-aware’, and one is ‘decolonization-blind’. The paper provides a detailed analysis of each nation, offering recommendations for fostering decolonization, including stakeholder involvement, addressing inequalities, promoting ethical {AI}, supporting local innovation, building regional partnerships, capacity building, public awareness, and inclusive governance. This paper contributes to elucidating the challenges and opportunities associated with decolonization in {SSA} countries, thereby enriching the ongoing discourse on global {AI} governance.}, + pages = {231994}, + number = {8}, + journaltitle = {Royal Society Open Science}, + shortjournal = {R. Soc. Open Sci.}, + author = {Ayana, Gelan and Dese, Kokeb and Daba Nemomssa, Hundessa and Habtamu, Bontu and Mellado, Bruce and Badu, Kingsley and Yamba, Edmund and Faye, Sylvain Landry and Ondua, Moise and Nsagha, Dickson and Nkweteyim, Denis and Kong, Jude Dzevela}, + urldate = {2025-01-26}, + date = {2024-08}, + langid = {english}, +} + +@misc{capraro_impact_2023, + title = {The impact of generative artificial intelligence on socioeconomic inequalities and policy making}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + url = {https://osf.io/6fd2y}, + doi = {10.31234/osf.io/6fd2y}, + abstract = {Generative artificial intelligence has the potential to both exacerbate and ameliorate existing socioeconomic inequalities. In this article, we provide a state-of-the-art interdisciplinary overview of the potential impacts of generative {AI} on (mis)information and three information-intensive domains: work, education, and healthcare. Our goal is to highlight how generative {AI} could worsen existing inequalities while illuminating how {AI} may help mitigate pervasive social problems. In the information domain, generative {AI} can democratize content creation and access, but may dramatically expand the production and proliferation of misinformation. In the workplace, it can boost productivity and create new jobs, but the benefits will likely be distributed unevenly. In education, it offers personalized learning, but may widen the digital divide. In healthcare, it might improve diagnostics and accessibility, but could deepen pre-existing inequalities. In each section we cover a specific topic, evaluate existing research, identify critical gaps, and recommend research directions, including explicit trade-offs that complicate the derivation of a priori hypotheses. We conclude with a section highlighting the role of policymaking to maximize generative {AI}’s potential to reduce inequalities while mitigating its harmful effects. We discuss strengths and weaknesses of existing policy frameworks in the European Union, the United States, and the United Kingdom, observing that each fails to fully confront the socioeconomic challenges we have identified. We propose several concrete policies that could promote shared prosperity through the advancement of generative {AI}. This article emphasizes the need for interdisciplinary collaborations to understand and address the complex challenges of generative {AI}.}, + publisher = {{PsyArXiv}}, + author = {Capraro, Valerio and Lentsch, Austin and Acemoglu, Daron and Akgun, Selin and Akhmedova, Aisel and Bilancini, Ennio and Bonnefon, Jean-François and Branas-Garza, Pablo and Butera, Luigi and Douglas, Karen and Everett, Jim Albert Charlton and Gigerenzer, Gerd and Greenhow, Christine and Hashimoto, Daniel and Holt-Lunstad, Julianne and Jetten, Jolanda and Johnson, Simon and Kunz, Werner and Longoni, Chiara and Lunn, Peter D and Natale, Simone and Paluch, Stefanie and Rahwan, Iyad and Selwyn, Neil and Singh, Vivek and Suri, Siddharth and Sutcliffe, Jennifer and Tomlinson, Joe and Linden, Sander Van Der and Van Lange, Paul and Wall, Friederike and Van Bavel, Jay Joseph and Viale, Riccardo}, + urldate = {2025-01-26}, + date = {2023-12-16}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\V5ED93H7\\Capraro et al. - 2023 - The impact of generative artificial intelligence on socioeconomic inequalities and policy making.pdf:application/pdf}, +} + +@article{onyebuchi_nneamaka_chisom_review_2024, + title = {{REVIEW} {OF} {AI} {IN} {EDUCATION}: {TRANSFORMING} {LEARNING} {ENVIRONMENTS} {IN} {AFRICA}}, + volume = {5}, + rights = {https://creativecommons.org/licenses/by-nc/4.0}, + issn = {2706-9184, 2706-9176}, + url = {https://fepbl.com/index.php/ijarss/article/view/725}, + doi = {10.51594/ijarss.v5i10.725}, + shorttitle = {{REVIEW} {OF} {AI} {IN} {EDUCATION}}, + abstract = {This study analyses artificial intelligence ({AI}'s) impact on education in Africa, focusing on personalized learning, technology integration, and challenges in educational development. This review explores the transformative role of Artificial Intelligence ({AI}) in reshaping educational landscapes across Africa. As the continent strives for inclusive and quality education, {AI} emerges as a potent tool with the potential to address educational challenges, enhance learning outcomes, and bridge existing gaps. The review delves into various applications of {AI} in education, ranging from personalized learning experiences to adaptive assessment methodologies, and examines their impact on diverse learning environments. It gives an overview of the current state of education in Africa, the review highlights the disparities in access, quality, and infrastructure. It also investigates the innovative ways in which {AI} technologies are being integrated into educational systems. {AI}-powered adaptive learning platforms, virtual tutors, and intelligent content delivery systems are analyzed for their effectiveness in catering to the diverse needs of students across the continent. The review also addresses the potential of {AI} in overcoming language barriers, promoting literacy, and fostering digital skills development. Moreover, it explores the role of {AI} in facilitating teacher support, professional development, and administrative tasks, thereby contributing to the overall improvement of the education ecosystem. Ethical considerations, privacy concerns, and the digital divide are critically examined to ensure that the integration of {AI} in education aligns with ethical standards and promotes equitable access. Case studies and pilot projects from various African countries are presented to illustrate successful implementations, challenges faced, and lessons learned. Furthermore, the review discusses the importance of collaborative efforts involving governments, educational institutions, technology developers, and the private sector. Policy recommendations and strategic initiatives are explored to guide the responsible and sustainable integration of {AI} in education across the diverse socio-economic and cultural contexts prevalent in Africa. In conclusion, the review synthesizes the current state of {AI} in education in Africa, offering insights into its potential to revolutionize learning environments. The transformative power of {AI} in addressing educational challenges and fostering a culture of continuous improvement is underscored, paving the way for a more inclusive, accessible, and innovative education landscape in the African context. +Keywords: Artificial Intelligence, Education, Transform Learning, Environments, Africa.}, + pages = {637--654}, + number = {10}, + journaltitle = {International Journal of Applied Research in Social Sciences}, + shortjournal = {Int. j. appl. res. soc. sci.}, + author = {{Onyebuchi Nneamaka Chisom} and {Chika Chioma Unachukwu} and {Blessing Osawaru}}, + urldate = {2025-01-26}, + date = {2024-01-15}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\KNGK2Z25\\Onyebuchi Nneamaka Chisom et al. - 2024 - REVIEW OF AI IN EDUCATION TRANSFORMING LEARNING ENVIRONMENTS IN AFRICA.pdf:application/pdf}, +} + +@misc{deepseek-ai_deepseek-v2_2024, + title = {{DeepSeek}-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2405.04434}, + doi = {10.48550/ARXIV.2405.04434}, + shorttitle = {{DeepSeek}-V2}, + abstract = {We present {DeepSeek}-V2, a strong Mixture-of-Experts ({MoE}) language model characterized by economical training and efficient inference. It comprises 236B total parameters, of which 21B are activated for each token, and supports a context length of 128K tokens. {DeepSeek}-V2 adopts innovative architectures including Multi-head Latent Attention ({MLA}) and {DeepSeekMoE}. {MLA} guarantees efficient inference through significantly compressing the Key-Value ({KV}) cache into a latent vector, while {DeepSeekMoE} enables training strong models at an economical cost through sparse computation. Compared with {DeepSeek} 67B, {DeepSeek}-V2 achieves significantly stronger performance, and meanwhile saves 42.5\% of training costs, reduces the {KV} cache by 93.3\%, and boosts the maximum generation throughput to 5.76 times. We pretrain {DeepSeek}-V2 on a high-quality and multi-source corpus consisting of 8.1T tokens, and further perform Supervised Fine-Tuning ({SFT}) and Reinforcement Learning ({RL}) to fully unlock its potential. Evaluation results show that, even with only 21B activated parameters, {DeepSeek}-V2 and its chat versions still achieve top-tier performance among open-source models.}, + publisher = {{arXiv}}, + author = {{DeepSeek-AI} and Liu, Aixin and Feng, Bei and Wang, Bin and Wang, Bingxuan and Liu, Bo and Zhao, Chenggang and Dengr, Chengqi and Ruan, Chong and Dai, Damai and Guo, Daya and Yang, Dejian and Chen, Deli and Ji, Dongjie and Li, Erhang and Lin, Fangyun and Luo, Fuli and Hao, Guangbo and Chen, Guanting and Li, Guowei and Zhang, H. and Xu, Hanwei and Yang, Hao and Zhang, Haowei and Ding, Honghui and Xin, Huajian and Gao, Huazuo and Li, Hui and Qu, Hui and Cai, J. L. and Liang, Jian and Guo, Jianzhong and Ni, Jiaqi and Li, Jiashi and Chen, Jin and Yuan, Jingyang and Qiu, Junjie and Song, Junxiao and Dong, Kai and Gao, Kaige and Guan, Kang and Wang, Lean and Zhang, Lecong and Xu, Lei and Xia, Leyi and Zhao, Liang and Zhang, Liyue and Li, Meng and Wang, Miaojun and Zhang, Mingchuan and Zhang, Minghua and Tang, Minghui and Li, Mingming and Tian, Ning and Huang, Panpan and Wang, Peiyi and Zhang, Peng and Zhu, Qihao and Chen, Qinyu and Du, Qiushi and Chen, R. J. and Jin, R. L. and Ge, Ruiqi and Pan, Ruizhe and Xu, Runxin and Chen, Ruyi and Li, S. S. and Lu, Shanghao and Zhou, Shangyan and Chen, Shanhuang and Wu, Shaoqing and Ye, Shengfeng and Ma, Shirong and Wang, Shiyu and Zhou, Shuang and Yu, Shuiping and Zhou, Shunfeng and Zheng, Size and Wang, T. and Pei, Tian and Yuan, Tian and Sun, Tianyu and Xiao, W. L. and Zeng, Wangding and An, Wei and Liu, Wen and Liang, Wenfeng and Gao, Wenjun and Zhang, Wentao and Li, X. Q. and Jin, Xiangyue and Wang, Xianzu and Bi, Xiao and Liu, Xiaodong and Wang, Xiaohan and Shen, Xiaojin and Chen, Xiaokang and Chen, Xiaosha and Nie, Xiaotao and Sun, Xiaowen and Wang, Xiaoxiang and Liu, Xin and Xie, Xin and Yu, Xingkai and Song, Xinnan and Zhou, Xinyi and Yang, Xinyu and Lu, Xuan and Su, Xuecheng and Wu, Y. and Li, Y. K. and Wei, Y. X. and Zhu, Y. X. and Xu, Yanhong and Huang, Yanping and Li, Yao and Zhao, Yao and Sun, Yaofeng and Li, Yaohui and Wang, Yaohui and Zheng, Yi and Zhang, Yichao and Xiong, Yiliang and Zhao, Yilong and He, Ying and Tang, Ying and Piao, Yishi and Dong, Yixin and Tan, Yixuan and Liu, Yiyuan and Wang, Yongji and Guo, Yongqiang and Zhu, Yuchen and Wang, Yuduan and Zou, Yuheng and Zha, Yukun and Ma, Yunxian and Yan, Yuting and You, Yuxiang and Liu, Yuxuan and Ren, Z. Z. and Ren, Zehui and Sha, Zhangli and Fu, Zhe and Huang, Zhen and Zhang, Zhen and Xie, Zhenda and Hao, Zhewen and Shao, Zhihong and Wen, Zhiniu and Xu, Zhipeng and Zhang, Zhongyu and Li, Zhuoshu and Wang, Zihan and Gu, Zihui and Li, Zilin and Xie, Ziwei}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 5}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI})}, +} + +@article{chima_abimbola_edeni_role_2024, + title = {The role of {AI}-enhanced tools in overcoming socioeconomic barriers in education: A conceptual analysis}, + volume = {21}, + issn = {25819615}, + url = {https://wjarr.com/content/role-ai-enhanced-tools-overcoming-socioeconomic-barriers-education-conceptual-analysis}, + doi = {10.30574/wjarr.2024.21.3.0780}, + shorttitle = {The role of {AI}-enhanced tools in overcoming socioeconomic barriers in education}, + abstract = {This conceptual analysis explores the transformative potential of {AI}-enhanced tools in addressing socioeconomic barriers within the educational landscape. By leveraging artificial intelligence ({AI}) technologies, the paper aims to examine how such tools can mitigate disparities arising from economic, social, and cultural factors. Through a critical analysis, it seeks to elucidate the role of {AI} in promoting equitable access, enhancing learning outcomes, and fostering inclusivity in education. The executive summary encapsulates the essence of the conceptual analysis. It provides a concise overview of the paper's objectives, methodology, expected outcomes, and implications. In recent years, the intersection of artificial intelligence ({AI}) and education has garnered significant attention as a potential solution to address persistent socioeconomic barriers within the educational landscape. The executive summary outlines the imperative to explore how {AI}-enhanced tools can serve as transformative agents in mitigating disparities arising from economic, social, and cultural factors. By leveraging {AI} technologies, educators and policymakers have the opportunity to revolutionize traditional educational practices and foster more inclusive learning environments. The summary highlights the urgent need to examine the role of {AI} in promoting equitable access, enhancing learning outcomes, and fostering inclusivity across diverse socioeconomic backgrounds. Through a critical analysis of existing literature, case studies, and empirical research, the conceptual analysis seeks to elucidate the potential of {AI} to bridge the digital divide and advance educational equity. It emphasizes the importance of identifying actionable strategies and best practices for leveraging {AI} technology to address systemic inequalities in education.}, + pages = {944--951}, + number = {3}, + journaltitle = {World Journal of Advanced Research and Reviews}, + shortjournal = {World J. Adv. Res. Rev.}, + author = {{Chima Abimbola Edeni} and {Olabisi Oluwakemi Adeleye} and {Idowu Sulaimon Adeniyi}}, + urldate = {2025-01-26}, + date = {2024-03-30}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\RFS3R2UI\\Chima Abimbola Edeni et al. - 2024 - The role of AI-enhanced tools in overcoming socioeconomic barriers in education A conceptual analys.pdf:application/pdf}, +} + +@article{li_ai_2023, + title = {{AI} in Education: Bridging the Divide or Widening the Gap? Exploring Equity, Opportunities, and Challenges in the Digital Age}, + volume = {8}, + issn = {2790-167X}, + url = {https://madison-proceedings.com/index.php/aehssr/article/view/1924}, + doi = {10.56028/aehssr.8.1.355.2023}, + shorttitle = {{AI} in Education}, + abstract = {Artificial Intelligence ({AI}) stands as a pivotal technological advancement with profound societal implications. This paper delves into a comprehensive analysis of diverse articles and perspectives to scrutinize {AI}'s influence on educational inequality, particularly within the context of the Chinese education system. While prevailing literature often skims the surface, there's a burgeoning sentiment celebrating the human-{AI} synergy, often overlooking its potential to accentuate educational disparities. This research delves deeper, uncovering the intricate nexus between {AI}-driven education and human capital markets. The findings suggest that {AI}, while promising, might inadvertently perpetuate the same crises across different demographics, amplifying existing inequalities. The strong may become stronger, while the vulnerable risk further marginalization, primarily due to disparities in resource allocation. To mitigate these challenges, this paper proposes three actionable recommendations. Furthermore, recognizing the global implications of this issue, the study advocates for international collaboration to ensure equitable access to {AI}-related educational resources, championing the cause of educational fairness worldwide.}, + pages = {355}, + number = {1}, + journaltitle = {Advances in Education, Humanities and Social Science Research}, + shortjournal = {{AEHSSR}}, + author = {Li, Haomin}, + urldate = {2025-01-26}, + date = {2023-12-06}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\4TCKBBUV\\Li - 2023 - AI in Education Bridging the Divide or Widening the Gap Exploring Equity, Opportunities, and Chall.pdf:application/pdf}, +} + +@misc{qu_survey_2024, + title = {A Survey of Mamba}, + rights = {Creative Commons Attribution Non Commercial Share Alike 4.0 International}, + url = {https://arxiv.org/abs/2408.01129}, + doi = {10.48550/ARXIV.2408.01129}, + abstract = {As one of the most representative {DL} techniques, Transformer architecture has empowered numerous advanced models, especially the large language models ({LLMs}) that comprise billions of parameters, becoming a cornerstone in deep learning. Despite the impressive achievements, Transformers still face inherent limitations, particularly the time-consuming inference resulting from the quadratic computation complexity of attention calculation. Recently, a novel architecture named Mamba, drawing inspiration from classical state space models ({SSMs}), has emerged as a promising alternative for building foundation models, delivering comparable modeling abilities to Transformers while preserving near-linear scalability concerning sequence length. This has sparked an increasing number of studies actively exploring Mamba's potential to achieve impressive performance across diverse domains. Given such rapid evolution, there is a critical need for a systematic review that consolidates existing Mamba-empowered models, offering a comprehensive understanding of this emerging model architecture. In this survey, we therefore conduct an in-depth investigation of recent Mamba-associated studies, covering three main aspects: the advancements of Mamba-based models, the techniques of adapting Mamba to diverse data, and the applications where Mamba can excel. Specifically, we first review the foundational knowledge of various representative deep learning models and the details of Mamba-1\&2 as preliminaries. Then, to showcase the significance of Mamba for {AI}, we comprehensively review the related studies focusing on Mamba models' architecture design, data adaptability, and applications. Finally, we present a discussion of current limitations and explore various promising research directions to provide deeper insights for future investigations.}, + publisher = {{arXiv}}, + author = {Qu, Haohao and Ning, Liangbo and An, Rui and Fan, Wenqi and Derr, Tyler and Liu, Hui and Xu, Xin and Li, Qing}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 5}, + keywords = {{FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI})}, +} + +@article{wilson_gpu_2022, + title = {{GPU} {PRICES} {AND} {CRYPTOCURRENCY} {RETURNS}}, + volume = {11}, + rights = {http://creativecommons.org/licenses/by-nc-nd/4.0}, + issn = {2253-5802, 2253-5799}, + url = {https://ojs.aut.ac.nz/applied-finance-letters/article/view/503}, + doi = {10.24135/afl.v11i.503}, + abstract = {We look at the association between the price of a cryptocurrency and the secondary market prices of the hardware used to mine it. We find the prices of the most efficient Graphical Processing Units ({GPUs}) for Ethereum mining are significantly positively correlated with the daily price returns to that cryptocurrency.}, + pages = {2--8}, + journaltitle = {Applied Finance Letters}, + shortjournal = {{AFL}}, + author = {Wilson, Linus}, + urldate = {2025-01-26}, + date = {2022-03-06}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\H2HZHG58\\Wilson - 2022 - GPU PRICES AND CRYPTOCURRENCY RETURNS.pdf:application/pdf}, +} + +@misc{xiao_large_2024, + title = {Large Language Model Performance Benchmarking on Mobile Platforms: A Thorough Evaluation}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2410.03613}, + doi = {10.48550/ARXIV.2410.03613}, + shorttitle = {Large Language Model Performance Benchmarking on Mobile Platforms}, + abstract = {As large language models ({LLMs}) increasingly integrate into every aspect of our work and daily lives, there are growing concerns about user privacy, which push the trend toward local deployment of these models. There are a number of lightweight {LLMs} (e.g., Gemini Nano, {LLAMA}2 7B) that can run locally on smartphones, providing users with greater control over their personal data. As a rapidly emerging application, we are concerned about their performance on commercial-off-the-shelf mobile devices. To fully understand the current landscape of {LLM} deployment on mobile platforms, we conduct a comprehensive measurement study on mobile devices. We evaluate both metrics that affect user experience, including token throughput, latency, and battery consumption, as well as factors critical to developers, such as resource utilization, {DVFS} strategies, and inference engines. In addition, we provide a detailed analysis of how these hardware capabilities and system dynamics affect on-device {LLM} performance, which may help developers identify and address bottlenecks for mobile {LLM} applications. We also provide comprehensive comparisons across the mobile system-on-chips ({SoCs}) from major vendors, highlighting their performance differences in handling {LLM} workloads. We hope that this study can provide insights for both the development of on-device {LLMs} and the design for future mobile system architecture.}, + publisher = {{arXiv}}, + author = {Xiao, Jie and Huang, Qianyi and Chen, Xu and Tian, Chen}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {{FOS}: Computer and information sciences, Machine Learning (cs.{LG})}, +} + +@misc{yong_low-resource_2023, + title = {Low-Resource Languages Jailbreak {GPT}-4}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2310.02446}, + doi = {10.48550/ARXIV.2310.02446}, + abstract = {{AI} safety training and red-teaming of large language models ({LLMs}) are measures to mitigate the generation of unsafe content. Our work exposes the inherent cross-lingual vulnerability of these safety mechanisms, resulting from the linguistic inequality of safety training data, by successfully circumventing {GPT}-4's safeguard through translating unsafe English inputs into low-resource languages. On the {AdvBenchmark}, {GPT}-4 engages with the unsafe translated inputs and provides actionable items that can get the users towards their harmful goals 79\% of the time, which is on par with or even surpassing state-of-the-art jailbreaking attacks. Other high-/mid-resource languages have significantly lower attack success rate, which suggests that the cross-lingual vulnerability mainly applies to low-resource languages. Previously, limited training on low-resource languages primarily affects speakers of those languages, causing technological disparities. However, our work highlights a crucial shift: this deficiency now poses a risk to all {LLMs} users. Publicly available translation {APIs} enable anyone to exploit {LLMs}' safety vulnerabilities. Therefore, our work calls for a more holistic red-teaming efforts to develop robust multilingual safeguards with wide language coverage.}, + publisher = {{arXiv}}, + author = {Yong, Zheng-Xin and Menghini, Cristina and Bach, Stephen H.}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 2}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI}), Cryptography and Security (cs.{CR})}, +} + +@misc{zhong_opportunities_2024, + title = {Opportunities and Challenges of Large Language Models for Low-Resource Languages in Humanities Research}, + rights = {Creative Commons Attribution Non Commercial No Derivatives 4.0 International}, + url = {https://arxiv.org/abs/2412.04497}, + doi = {10.48550/ARXIV.2412.04497}, + abstract = {Low-resource languages serve as invaluable repositories of human history, embodying cultural evolution and intellectual diversity. Despite their significance, these languages face critical challenges, including data scarcity and technological limitations, which hinder their comprehensive study and preservation. Recent advancements in large language models ({LLMs}) offer transformative opportunities for addressing these challenges, enabling innovative methodologies in linguistic, historical, and cultural research. This study systematically evaluates the applications of {LLMs} in low-resource language research, encompassing linguistic variation, historical documentation, cultural expressions, and literary analysis. By analyzing technical frameworks, current methodologies, and ethical considerations, this paper identifies key challenges such as data accessibility, model adaptability, and cultural sensitivity. Given the cultural, historical, and linguistic richness inherent in low-resource languages, this work emphasizes interdisciplinary collaboration and the development of customized models as promising avenues for advancing research in this domain. By underscoring the potential of integrating artificial intelligence with the humanities to preserve and study humanity's linguistic and cultural heritage, this study fosters global efforts towards safeguarding intellectual diversity.}, + publisher = {{arXiv}}, + author = {Zhong, Tianyang and Yang, Zhenyuan and Liu, Zhengliang and Zhang, Ruidong and Liu, Yiheng and Sun, Haiyang and Pan, Yi and Li, Yiwei and Zhou, Yifan and Jiang, Hanqi and Chen, Junhao and Liu, Tianming}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 2}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI})}, +} + +@article{walter_embracing_2024, + title = {Embracing the future of Artificial Intelligence in the classroom: the relevance of {AI} literacy, prompt engineering, and critical thinking in modern education}, + volume = {21}, + issn = {2365-9440}, + url = {https://educationaltechnologyjournal.springeropen.com/articles/10.1186/s41239-024-00448-3}, + doi = {10.1186/s41239-024-00448-3}, + shorttitle = {Embracing the future of Artificial Intelligence in the classroom}, + abstract = {Abstract + The present discussion examines the transformative impact of Artificial Intelligence ({AI}) in educational settings, focusing on the necessity for {AI} literacy, prompt engineering proficiency, and enhanced critical thinking skills. The introduction of {AI} into education marks a significant departure from conventional teaching methods, offering personalized learning and support for diverse educational requirements, including students with special needs. However, this integration presents challenges, including the need for comprehensive educator training and curriculum adaptation to align with societal structures. {AI} literacy is identified as crucial, encompassing an understanding of {AI} technologies and their broader societal impacts. Prompt engineering is highlighted as a key skill for eliciting specific responses from {AI} systems, thereby enriching educational experiences and promoting critical thinking. There is detailed analysis of strategies for embedding these skills within educational curricula and pedagogical practices. This is discussed through a case-study based on a Swiss university and a narrative literature review, followed by practical suggestions of how to implement {AI} in the classroom.}, + pages = {15}, + number = {1}, + journaltitle = {International Journal of Educational Technology in Higher Education}, + shortjournal = {Int J Educ Technol High Educ}, + author = {Walter, Yoshija}, + urldate = {2025-01-26}, + date = {2024-02-26}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\N88NSYJK\\Walter - 2024 - Embracing the future of Artificial Intelligence in the classroom the relevance of AI literacy, prom.pdf:application/pdf}, +} + +@article{bauchner_use_2024, + title = {Use of artificial intelligence and the future of peer review}, + volume = {2}, + rights = {https://creativecommons.org/licenses/by-nc/4.0/}, + issn = {2976-5390}, + url = {https://academic.oup.com/healthaffairsscholar/article/doi/10.1093/haschl/qxae058/7663651}, + doi = {10.1093/haschl/qxae058}, + abstract = {Abstract + Conducting high-quality peer review of scientific manuscripts has become increasingly challenging. The substantial increase in the number of manuscripts, lack of a sufficient number of peer-reviewers, and questions related to effectiveness, fairness, and efficiency, require a different approach. Large-language models, 1 form of artificial intelligence ({AI}), have emerged as a new approach to help resolve many of the issues facing contemporary medicine and science. We believe {AI} should be used to assist in the triaging of manuscripts submitted for peer-review publication.}, + pages = {qxae058}, + number = {5}, + journaltitle = {Health Affairs Scholar}, + author = {Bauchner, Howard and Rivara, Frederick P}, + urldate = {2025-01-26}, + date = {2024-05-03}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\FUIB5GET\\Bauchner e Rivara - 2024 - Use of artificial intelligence and the future of peer review.pdf:application/pdf}, +} + +@article{noauthor_reviewing_2024, + title = {Reviewing the performance of {AI} detection tools in differentiating between {AI}-generated and human-written texts: A literature and integrative hybrid review}, + volume = {7}, + issn = {2591-801X, 2591-801X}, + url = {https://journals.sfu.ca/jalt/index.php/jalt/article/view/1369}, + doi = {10.37074/jalt.2024.7.1.14}, + shorttitle = {Reviewing the performance of {AI} detection tools in differentiating between {AI}-generated and human-written texts}, + number = {1}, + journaltitle = {Journal of Applied Learning \& Teaching}, + shortjournal = {{JALT}}, + urldate = {2025-01-26}, + date = {2024-02-07}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\MEM8F9E7\\2024 - Reviewing the performance of AI detection tools in differentiating between AI-generated and human-wr.pdf:application/pdf}, +} + +@misc{kirchenbauer_watermark_2023, + title = {A Watermark for Large Language Models}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2301.10226}, + doi = {10.48550/ARXIV.2301.10226}, + abstract = {Potential harms of large language models can be mitigated by watermarking model output, i.e., embedding signals into generated text that are invisible to humans but algorithmically detectable from a short span of tokens. We propose a watermarking framework for proprietary language models. The watermark can be embedded with negligible impact on text quality, and can be detected using an efficient open-source algorithm without access to the language model {API} or parameters. The watermark works by selecting a randomized set of "green" tokens before a word is generated, and then softly promoting use of green tokens during sampling. We propose a statistical test for detecting the watermark with interpretable p-values, and derive an information-theoretic framework for analyzing the sensitivity of the watermark. We test the watermark using a multi-billion parameter model from the Open Pretrained Transformer ({OPT}) family, and discuss robustness and security.}, + publisher = {{arXiv}}, + author = {Kirchenbauer, John and Geiping, Jonas and Wen, Yuxin and Katz, Jonathan and Miers, Ian and Goldstein, Tom}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 4}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Cryptography and Security (cs.{CR})}, +} + +@article{liang_gpt_2023, + title = {{GPT} detectors are biased against non-native English writers}, + volume = {4}, + issn = {26663899}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S2666389923001307}, + doi = {10.1016/j.patter.2023.100779}, + pages = {100779}, + number = {7}, + journaltitle = {Patterns}, + shortjournal = {Patterns}, + author = {Liang, Weixin and Yuksekgonul, Mert and Mao, Yining and Wu, Eric and Zou, James}, + urldate = {2025-01-26}, + date = {2023-07}, + langid = {english}, + file = {PubMed Central Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\NWMX9I5P\\Liang et al. - 2023 - GPT detectors are biased against non-native English writers.pdf:application/pdf}, +} + +@misc{lu_ai_2024, + title = {The {AI} Scientist: Towards Fully Automated Open-Ended Scientific Discovery}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2408.06292}, + doi = {10.48550/ARXIV.2408.06292}, + shorttitle = {The {AI} Scientist}, + abstract = {One of the grand challenges of artificial general intelligence is developing agents capable of conducting scientific research and discovering new knowledge. While frontier models have already been used as aides to human scientists, e.g. for brainstorming ideas, writing code, or prediction tasks, they still conduct only a small part of the scientific process. This paper presents the first comprehensive framework for fully automatic scientific discovery, enabling frontier large language models to perform research independently and communicate their findings. We introduce The {AI} Scientist, which generates novel research ideas, writes code, executes experiments, visualizes results, describes its findings by writing a full scientific paper, and then runs a simulated review process for evaluation. In principle, this process can be repeated to iteratively develop ideas in an open-ended fashion, acting like the human scientific community. We demonstrate its versatility by applying it to three distinct subfields of machine learning: diffusion modeling, transformer-based language modeling, and learning dynamics. Each idea is implemented and developed into a full paper at a cost of less than \$15 per paper. To evaluate the generated papers, we design and validate an automated reviewer, which we show achieves near-human performance in evaluating paper scores. The {AI} Scientist can produce papers that exceed the acceptance threshold at a top machine learning conference as judged by our automated reviewer. This approach signifies the beginning of a new era in scientific discovery in machine learning: bringing the transformative benefits of {AI} agents to the entire research process of {AI} itself, and taking us closer to a world where endless affordable creativity and innovation can be unleashed on the world's most challenging problems. Our code is open-sourced at https://github.com/{SakanaAI}/{AI}-Scientist}, + publisher = {{arXiv}}, + author = {Lu, Chris and Lu, Cong and Lange, Robert Tjarko and Foerster, Jakob and Clune, Jeff and Ha, David}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 3}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI})}, +} + +@misc{sadasivan_can_2023, + title = {Can {AI}-Generated Text be Reliably Detected?}, + rights = {Creative Commons Attribution 4.0 International}, + url = {https://arxiv.org/abs/2303.11156}, + doi = {10.48550/ARXIV.2303.11156}, + abstract = {Large Language Models ({LLMs}) perform impressively well in various applications. However, the potential for misuse of these models in activities such as plagiarism, generating fake news, and spamming has raised concern about their responsible use. Consequently, the reliable detection of {AI}-generated text has become a critical area of research. {AI} text detectors have shown to be effective under their specific settings. In this paper, we stress-test the robustness of these {AI} text detectors in the presence of an attacker. We introduce recursive paraphrasing attack to stress test a wide range of detection schemes, including the ones using the watermarking as well as neural network-based detectors, zero shot classifiers, and retrieval-based detectors. Our experiments conducted on passages, each approximately 300 tokens long, reveal the varying sensitivities of these detectors to our attacks. Our findings indicate that while our recursive paraphrasing method can significantly reduce detection rates, it only slightly degrades text quality in many cases, highlighting potential vulnerabilities in current detection systems in the presence of an attacker. Additionally, we investigate the susceptibility of watermarked {LLMs} to spoofing attacks aimed at misclassifying human-written text as {AI}-generated. We demonstrate that an attacker can infer hidden {AI} text signatures without white-box access to the detection method, potentially leading to reputational risks for {LLM} developers. Finally, we provide a theoretical framework connecting the {AUROC} of the best possible detector to the Total Variation distance between human and {AI} text distributions. This analysis offers insights into the fundamental challenges of reliable detection as language models continue to advance. Our code is publicly available at https://github.com/vinusankars/Reliability-of-{AI}-text-detectors.}, + publisher = {{arXiv}}, + author = {Sadasivan, Vinu Sankar and Kumar, Aounon and Balasubramanian, Sriram and Wang, Wenxiao and Feizi, Soheil}, + urldate = {2025-01-26}, + date = {2023}, + note = {Version Number: 4}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Machine Learning (cs.{LG}), Artificial Intelligence (cs.{AI})}, +} + +@misc{yakura_empirical_2024, + title = {Empirical evidence of Large Language Model's influence on human spoken communication}, + rights = {{arXiv}.org perpetual, non-exclusive license}, + url = {https://arxiv.org/abs/2409.01754}, + doi = {10.48550/ARXIV.2409.01754}, + abstract = {Artificial Intelligence ({AI}) agents now interact with billions of humans in natural language, thanks to advances in Large Language Models ({LLMs}) like {ChatGPT}. This raises the question of whether {AI} has the potential to shape a fundamental aspect of human culture: the way we speak. Recent analyses revealed that scientific publications already exhibit evidence of {AI}-specific language. But this evidence is inconclusive, since scientists may simply be using {AI} to copy-edit their writing. To explore whether {AI} has influenced human spoken communication, we transcribed and analyzed about 280,000 English-language videos of presentations, talks, and speeches from more than 20,000 {YouTube} channels of academic institutions. We find a significant shift in the trend of word usage specific to words distinctively associated with {ChatGPT} following its release. These findings provide the first empirical evidence that humans increasingly imitate {LLMs} in their spoken language. Our results raise societal and policy-relevant concerns about the potential of {AI} to unintentionally reduce linguistic diversity, or to be deliberately misused for mass manipulation. They also highlight the need for further investigation into the feedback loops between machine behavior and human culture.}, + publisher = {{arXiv}}, + author = {Yakura, Hiromu and Lopez-Lopez, Ezequiel and Brinkmann, Levin and Serna, Ignacio and Gupta, Prateek and Rahwan, Iyad}, + urldate = {2025-01-26}, + date = {2024}, + note = {Version Number: 1}, + keywords = {Computation and Language (cs.{CL}), {FOS}: Computer and information sciences, Artificial Intelligence (cs.{AI}), Computers and Society (cs.{CY}), Human-Computer Interaction (cs.{HC})}, +} + +@article{hopfenbeck_challenges_2023, + title = {Challenges and opportunities for classroom-based formative assessment and {AI}: a perspective article}, + volume = {8}, + issn = {2504-284X}, + url = {https://www.frontiersin.org/articles/10.3389/feduc.2023.1270700/full}, + doi = {10.3389/feduc.2023.1270700}, + shorttitle = {Challenges and opportunities for classroom-based formative assessment and {AI}}, + abstract = {The integration of artificial intelligence ({AI}) into educational contexts may give rise to both positive and negative ramifications for teachers’ uses of formative assessment within their classrooms. Drawing on our diverse experiences as academics, researchers, psychometricians, teachers, and teacher educators specializing in formative assessment, we examine the pedagogical practices in which teachers provide feedback, facilitate peer- and self-assessments, and support students’ learning, and discuss how existing challenges to each of these may be affected by applications of {AI}. Firstly, we overview the challenges in the practice of formative assessment independently of the influence of {AI}. Moreover, based on the authors’ varied experience in formative assessment, we discuss the opportunities that {AI} brings to address the challenges in formative assessment as well as the new challenges introduced by the application of {AI} in formative assessment. Finally, we argue for the ongoing importance of self-regulated learning and a renewed emphasis on critical thinking for more effective implementation of formative assessment in this new {AI}-driven digital age.}, + pages = {1270700}, + journaltitle = {Frontiers in Education}, + shortjournal = {Front. Educ.}, + author = {Hopfenbeck, Therese N. and Zhang, Zhonghua and Sun, Sundance Zhihong and Robertson, Pam and {McGrane}, Joshua A.}, + urldate = {2025-01-26}, + date = {2023-11-23}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\DM6GKV59\\Hopfenbeck et al. - 2023 - Challenges and opportunities for classroom-based formative assessment and AI a perspective article.pdf:application/pdf}, +} + +@article{nicol_power_2021, + title = {The power of internal feedback: exploiting natural comparison processes}, + volume = {46}, + issn = {0260-2938, 1469-297X}, + url = {https://www.tandfonline.com/doi/full/10.1080/02602938.2020.1823314}, + doi = {10.1080/02602938.2020.1823314}, + shorttitle = {The power of internal feedback}, + pages = {756--778}, + number = {5}, + journaltitle = {Assessment \& Evaluation in Higher Education}, + shortjournal = {Assessment \& Evaluation in Higher Education}, + author = {Nicol, David}, + urldate = {2025-01-26}, + date = {2021-07-04}, + langid = {english}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\RA3UPS42\\Nicol - 2021 - The power of internal feedback exploiting natural comparison processes.pdf:application/pdf}, +} + +@article{nicol_making_2022, + title = {Making internal feedback explicit: harnessing the comparisons students make during two-stage exams}, + volume = {47}, + issn = {0260-2938, 1469-297X}, + url = {https://www.tandfonline.com/doi/full/10.1080/02602938.2021.1934653}, + doi = {10.1080/02602938.2021.1934653}, + shorttitle = {Making internal feedback explicit}, + pages = {507--522}, + number = {4}, + journaltitle = {Assessment \& Evaluation in Higher Education}, + shortjournal = {Assessment \& Evaluation in Higher Education}, + author = {Nicol, David and Selvaretnam, Geethanjali}, + urldate = {2025-01-26}, + date = {2022-05-19}, + langid = {english}, + file = {Versione accettata:C\:\\Users\\moles\\Zotero\\storage\\7DMRI25L\\Nicol e Selvaretnam - 2022 - Making internal feedback explicit harnessing the comparisons students make during two-stage exams.pdf:application/pdf}, +} + +@article{r_ai-driven_2024, + title = {{AI}-Driven Flipped Classroom: Revolutionizing Education Through Digital Pedagogy}, + volume = {7}, + rights = {https://creativecommons.org/licenses/by-nc-nd/4.0}, + issn = {2682-6704}, + url = {https://abjournals.org/bjeldp/papers/volume-7/issue-2/ai-driven-flipped-classroom-revolutionizing-education-through-digital-pedagogy/}, + doi = {10.52589/BJELDP-LTDJFLIH}, + shorttitle = {{AI}-Driven Flipped Classroom}, + abstract = {The integration of artificial intelligence ({AI}) into the flipped classroom model is the subject of this research paper. With the flipped classroom approach, traditional teaching methods are reversed, with instructional content being delivered outside of class and class time being devoted to discussions, activities, and problem-solving. Teachers want to give students a personalized learning experience, and they do this by implementing {AI} technologies like intelligent tutoring systems, virtual tutors, and adaptive learning platforms. This study uses existing research and empirical studies to analyse the effects, advantages, difficulties, and efficacy of using {AI} in flipped classrooms. The study explores the use of {AI} in flipped classrooms, highlighting its potential benefits like improved learning outcomes and scalability. However, it also addresses challenges like technology infrastructure, teacher preparation, privacy, and equity, as well as potential drawbacks.}, + pages = {169--179}, + number = {2}, + journaltitle = {British Journal of Education, Learning and Development Psychology}, + shortjournal = {British Journal of Education, Learning and Development Psychology}, + author = {R., Suvendu and P. S., Deb}, + urldate = {2025-01-26}, + date = {2024-06-24}, + langid = {estonian}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\HQ8Y8QWD\\R. e P. S. - 2024 - AI-Driven Flipped Classroom Revolutionizing Education Through Digital Pedagogy.pdf:application/pdf}, +} + +@article{nurjanah_artificial_2024, + title = {Artificial Intelligence ({AI}) Usage In Today’s Teaching And Learning Process: A Review}, + volume = {6}, + rights = {http://creativecommons.org/licenses/by-sa/4.0}, + issn = {2684-883X, 2684-6853}, + url = {https://jurnal.syntax-idea.co.id/index.php/syntax-idea/article/view/3126}, + doi = {10.46799/syntax-idea.v6i3.3126}, + shorttitle = {Artificial Intelligence ({AI}) Usage In Today’s Teaching And Learning Process}, + abstract = {In today's technology world, the integration of artificial intelligence ({AI}) has become increasingly prominent in education, with enormous potential to improve the teaching and learning experience. {AI}, defined by its ability to imitate human intelligence, possesses enormous power and has the potential to dramatically impact a variety of areas, most notably education. {AI} has significantly improved learning experiences for both teachers and students by allowing them to be customized and personalized. This review article investigates the prospects provided by {AI} in modern teaching and learning processes, with a special emphasis on its advantages in language learning. This study examines existing literature and studies on {AI} in education, with a focus on language learning environments. The results show {AI}'s advantages in giving targeted feedback and practice opportunities, making language learning easier, and improving overall learning efficiency and effectiveness. Thus, this review contributes to a better understanding of {AI}'s role in redefining present educational paradigms, as well as its potential to transform teaching and learning methodologies.}, + pages = {1517--1523}, + number = {3}, + journaltitle = {Syntax Idea}, + shortjournal = {{SLJIL}}, + author = {Nurjanah, Aisyah and Salsabila, Irma Nuraeni and Azzahra, Adelia and Rahayu, Riska and Marlina, Nina}, + urldate = {2025-01-26}, + date = {2024-04-05}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\RT56VISE\\Nurjanah et al. - 2024 - Artificial Intelligence (AI) Usage In Today’s Teaching And Learning Process A Review.pdf:application/pdf}, +} + +@article{chen_artificial_2020, + title = {Artificial Intelligence in Education: A Review}, + volume = {8}, + rights = {https://creativecommons.org/licenses/by/4.0/legalcode}, + issn = {2169-3536}, + url = {https://ieeexplore.ieee.org/document/9069875/}, + doi = {10.1109/ACCESS.2020.2988510}, + shorttitle = {Artificial Intelligence in Education}, + pages = {75264--75278}, + journaltitle = {{IEEE} Access}, + shortjournal = {{IEEE} Access}, + author = {Chen, Lijia and Chen, Pingping and Lin, Zhijian}, + urldate = {2025-01-26}, + date = {2020}, +} + +@article{cho_student_2010, + title = {Student revision with peer and expert reviewing}, + volume = {20}, + rights = {https://www.elsevier.com/tdm/userlicense/1.0/}, + issn = {09594752}, + url = {https://linkinghub.elsevier.com/retrieve/pii/S0959475209000747}, + doi = {10.1016/j.learninstruc.2009.08.006}, + pages = {328--338}, + number = {4}, + journaltitle = {Learning and Instruction}, + shortjournal = {Learning and Instruction}, + author = {Cho, Kwangsu and {MacArthur}, Charles}, + urldate = {2025-01-26}, + date = {2010-08}, + langid = {english}, +} + +@online{noauthor_llama_nodate, + title = {Llama 2 - Acceptable Use Policy - Meta {AI}}, + url = {https://ai.meta.com/llama-project/use-policy}, + urldate = {2025-01-26}, + langid = {english}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\5XK3V7TF\\use-policy.html:text/html}, +} + +@online{noauthor_meta_nodate, + title = {Meta Llama 3 License}, + url = {https://www.llama.com/llama3/license/}, + abstract = {.}, + titleaddon = {Llama}, + urldate = {2025-01-26}, + langid = {english}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\TDA2N3IQ\\license.html:text/html}, +} + +@misc{murray_generative_2023, + location = {Rochester, {NY}}, + title = {Generative {AI} Art: Copyright Infringement and Fair Use}, + url = {https://papers.ssrn.com/abstract=4483539}, + doi = {10.2139/ssrn.4483539}, + shorttitle = {Generative {AI} Art}, + abstract = {Generative {AI} Art: Copyright Infringement and Fair Use, 26 {SMU} Sci. \& Tech. L. Rev. 259 (2023){\textless}br{\textgreater}-------------------------------------------------------------------------------------------------------------{\textless}br{\textgreater}The discussion of {AI} copyright infringement or fair use often skips over all of the required steps of the infringement analysis in order to focus on the most intriguing question, “Could a visual generative {AI} generate a work that potentially infringes a preexisting copyrighted work?” and then the discussion skips further ahead to, “Would the {AI} have a fair use defense, most likely under the transformative test?” These are relevant questions, but in isolation from the actual steps of the copyright infringement analysis, the discussion is misleading or even irrelevant. This skipping of topics and stages of the infringement analysis does not train our attention to a properly accused party or entity whose actions prompt the question. The leaping from a question of infringement in the creation of training datasets to the creation of foundation models that draw from the training data to the actual operation of the generative {AI} system to produce images makes a false equivalency regarding the processes themselves and the persons responsible for them. The questions ought to shift focus from the persons compiling the training dataset used to train the {AI} system and the designers and creators of the {AI} system itself to the end users of the {AI} system who actually conceive of and cause the creation of images. {\textless}br{\textgreater}{\textless}br{\textgreater}The analysis of infringement or fair use in the generative {AI} context has suffered from widespread misunderstanding concerning the generative {AI} processes and the control and authorship of the end-user. Claimants, commentators, and regulators have made incorrect assumptions and inaccurate simplifications concerning the process, which I refer to as the Magic File Drawer theory, the Magic Copy Machine theory, and the Magic Box Artist theory. These theories, if they were true, would be much easier to envision and understand than the actual science and technology that goes into the creation and operation of a contemporary visual generative {AI} system. Throughout this Article, I will attempt to clarify and correct the understanding of the science and technology of the generative {AI} processes and explain the different roles of the training dataset designers, the generative {AI} system designers, and the end-users in the rendering of visual works by a generative {AI} system. {\textless}br{\textgreater}{\textless}br{\textgreater}Part {II} will discuss the requirements of a claim of copyright infringement including each step from the copyrightability of the claimant’s work, the doctrines that limit copyrightability, the requirement of an act of copying, and the infringement elements. {\textless}br{\textgreater}{\textless}br{\textgreater}Part {III} will summarize the copyright fair use test paying particular attention to the purpose and character of the use analysis, 17 U.S.C. § 107(1), and the current interpretation of the “transformative” test after Andy Warhol Foundation v. Goldsmith, particularly in circumstances relating to technology and the use of copyrighted or copyrightable data sources. {\textless}br{\textgreater}{\textless}br{\textgreater}Part {IV} will analyze potential infringement or fair use by the creators of generative {AI} training datasets. {\textless}br{\textgreater}{\textless}br{\textgreater}Part V will analyze potential infringement or fair use by the creators of visual generative {AI} systems. {\textless}br{\textgreater}{\textless}br{\textgreater}Part {VI} will analyze potential infringement or fair use by the end-users of visual generative {AI} systems.{\textless}br{\textgreater}{\textless}br{\textgreater}For all their complexity, visual generative {AI} systems are tools that depend on an end-user who conceives of and designs the image and provides the system with a prompt to set the generative process in motion. The end-users are responsible for crafting the prompt or series of prompts used, for evaluating the outputs of the generative {AI}, for adjusting and editing the iterations of images offered by the {AI} system, and ultimately for selecting and adopting one of the images generated by the {AI} as the final image. The end-users then make further decisions about the actual use and its function and purpose for the images the end-users selected and adopted from the outputs of the {AI}. In the course of working with the {AI} tool to try to produce a certain image, an end-user might steer the system to produce a work that could, under an infringement analysis, be regarded as potentially infringing, which would lead us again to the fair use analysis based on the end-user’s use of the image.}, + number = {4483539}, + publisher = {Social Science Research Network}, + author = {Murray, Michael D.}, + urldate = {2025-01-26}, + date = {2023-08-25}, + langid = {english}, + keywords = {fair use, {AI}, machine learning, artificial intelligence, copyright, derivative work, diffusion, foundation model, generative {AI}, generative pretrained transformer, infringement, latent space, prompt engineering, training data, transformative}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\ZQLLS25L\\Murray - 2023 - Generative AI Art Copyright Infringement and Fair Use.pdf:application/pdf}, +} + +@online{noauthor_regulation_nodate, + title = {Regulation - {EU} - 2024/1689 - {EN} - {EUR}-Lex}, + url = {https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng}, + urldate = {2025-01-26}, + langid = {english}, + note = {Doc {ID}: 32024R1689 +Doc Sector: 3 +Doc Title: Regulation ({EU}) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations ({EC}) No 300/2008, ({EU}) No 167/2013, ({EU}) No 168/2013, ({EU}) 2018/858, ({EU}) 2018/1139 and ({EU}) 2019/2144 and Directives 2014/90/{EU}, ({EU}) 2016/797 and ({EU}) 2020/1828 (Artificial Intelligence Act) (Text with {EEA} relevance) +Doc Type: R +Usr\_lan: en}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\HT9EP4MC\\eng.html:text/html}, +} + +@online{young_harvards_nodate, + title = {Harvard’s Library Innovation Lab launches initiative to use public domain data to train artificial intelligence}, + url = {https://hls.harvard.edu/today/harvards-library-innovation-lab-launches-initiative-to-use-public-domain-data-to-train-artificial-intelligence/}, + abstract = {The new program aims to make public domain materials housed at Harvard Law School Library and other knowledge institutions available to train {AI}.}, + titleaddon = {Harvard Law School}, + author = {Young, Scott}, + urldate = {2025-01-26}, + langid = {english}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\4KYWMI6T\\harvards-library-innovation-lab-launches-initiative-to-use-public-domain-data-to-train-artifici.html:text/html}, +} + +@online{noauthor_lintelligenza_nodate, + title = {L’Intelligenza Artificiale {\textbar} {AUT}-Autori Federazione}, + url = {https://www.aut-autori.it/lintelligenza-artificiale/}, + titleaddon = {Federazione degli Autori di Letteratura, Cinema \& Audiovisivo, Teatro}, + urldate = {2025-01-26}, + langid = {italian}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\HL93Q4YJ\\lintelligenza-artificiale.html:text/html}, +} + +@article{biswas_guardrails_2023, + title = {Guardrails for trust, safety, and ethical development and deployment of Large Language Models ({LLM})}, + volume = {4}, + issn = {2582-6921}, + url = {https://thesciencebrigade.com/jst/article/view/245}, + doi = {10.55662/JST.2023.4605}, + abstract = {The {AI} era has ushered in Large Language Models ({LLM}) to the technological forefront, which has been much of the talk in 2023, and is likely to remain as such for many years to come. {LLMs} are the {AI} models that are the power house behind generative {AI} applications such as {ChatGPT}. These {AI} models, fueled by vast amounts of data and computational prowess, have unlocked remarkable capabilities, from human-like text generation to assisting with natural language understanding ({NLU}) tasks. They have quickly become the foundation upon which countless applications and software services are being built, or at least being augmented with. However, as with any groundbreaking innovations, the rise of {LLMs} brings forth critical safety, privacy, and ethical concerns. These models are found to have a propensity to leak private information, produce false information, and can be coerced into generating content that can be used for nefarious purposes by bad actors, or even by regular users unknowingly. Implementing safeguards and guardrailing techniques is imperative for applications to ensure that the content generated by {LLMs} are safe, secure, and ethical. Thus, frameworks to deploy mechanisms that prevent misuse of these models via application implementations is imperative. In this study, we propose a Flexible Adaptive Sequencing mechanism with trust and safety modules, that can be used to implement safety guardrails for the development and deployment of {LLMs}.}, + pages = {55--82}, + number = {6}, + journaltitle = {Journal of Science \& Technology}, + author = {Biswas, Anjanava and Talukdar, Wrick}, + urldate = {2025-01-26}, + date = {2023-11-01}, + langid = {english}, + keywords = {large language models, ethical {AI}, guardrails, language model safety, trust and safety}, +} + +@article{floridi_unified_2019, + title = {A Unified Framework of Five Principles for {AI} in Society}, + url = {https://hdsr.mitpress.mit.edu/pub/l0jsh9d1}, + doi = {10.1162/99608f92.8cd550d1}, + abstract = {Artificial Intelligence ({AI}) is already having a major impact on society. As a result, many organizations have launched a wide range of initiatives to establish ethical principles for the adoption of socially beneficial {AI}. Unfortunately, the sheer volume of proposed principles threatens to overwhelm and confuse. How might this problem of ‘principle proliferation’ be solved? In this paper, we report the results of a fine-grained analysis of several of the highest-profile sets of ethical principles for {AI}. We assess whether these principles converge upon a set of agreed-upon principles, or diverge, with significant disagreement over what constitutes ‘ethical {AI}.’ Our analysis finds a high degree of overlap among the sets of principles we analyze. We then identify an overarching framework consisting of five core principles for ethical {AI}. Four of them are core principles commonly used in bioethics: beneficence, non-maleficence, autonomy, and justice. On the basis of our comparative analysis, we argue that a new principle is needed in addition: explicability, understood as incorporating both the epistemological sense of intelligibility (as an answer to the question ‘how does it work?’) and in the ethical sense of accountability (as an answer to the question: ‘who is responsible for the way it works?’). In the ensuing discussion, we note the limitations and assess the implications of this ethical framework for future efforts to create laws, rules, technical standards, and best practices for ethical {AI} in a wide range of contexts.{KeywordsAccountability}; Autonomy; Artificial Intelligence; Beneficence; Ethics; Explicability; Fairness; Intelligibility; Justice; Non-maleficence.}, + journaltitle = {Harvard Data Science Review}, + shortjournal = {Harvard Data Science Review}, + author = {Floridi, Luciano and Cowls, Josh}, + urldate = {2025-01-26}, + date = {2019-06-23}, + langid = {english}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\UCKL97PP\\Floridi e Cowls - 2019 - A Unified Framework of Five Principles for AI in Society.pdf:application/pdf}, +} + +@online{vetere_minerva_2024, + title = {Minerva, l’{IA} italiana al bivio tra Vannacci e Manzoni}, + url = {https://ilmanifesto.it/minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni}, + abstract = {Big Data e {IA} (Scuola) Il primo Language Model "italiano" sviluppato dall'Università Sapienza genera testi "tossici", non moderati, simili a quelli del più becero senso comune. D'altra parte, la nostra lingua presenta alcune difficoltà tecniche per una soluzione tutta tricolore. Di Guido Vetere}, + titleaddon = {il manifesto}, + author = {Vetere, Guido}, + urldate = {2025-01-26}, + date = {2024-05-13}, + langid = {italian}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\VFL8297F\\minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni.html:text/html}, +} + +@inproceedings{zhang_jailbreak_2024, + location = {Bangkok, Thailand}, + title = {Jailbreak Open-Sourced Large Language Models via Enforced Decoding}, + url = {https://aclanthology.org/2024.acl-long.299/}, + doi = {10.18653/v1/2024.acl-long.299}, + abstract = {Large Language Models ({LLMs}) have achieved unprecedented performance in Natural Language Generation ({NLG}) tasks. However, many existing studies have shown that they could be misused to generate undesired content. In response, before releasing {LLMs} for public access, model developers usually align those language models through Supervised Fine-Tuning ({SFT}) or Reinforcement Learning with Human Feedback ({RLHF}). Consequently, those aligned large language models refuse to generate undesired content when facing potentially harmful/unethical requests. A natural question is “could alignment really prevent those open-sourced large language models from being misused to generate undesired content?”. In this work, we provide a negative answer to this question. In particular, we show those open-sourced, aligned large language models could be easily misguided to generate undesired content without heavy computations or careful prompt designs. Our key idea is to directly manipulate the generation process of open-sourced {LLMs} to misguide it to generate undesired content including harmful or biased information and even private data. We evaluate our method on 4 open-sourced {LLMs} accessible publicly and our finding highlights the need for more advanced mitigation strategies for open-sourced {LLMs}.}, + eventtitle = {{ACL} 2024}, + pages = {5475--5493}, + booktitle = {Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)}, + publisher = {Association for Computational Linguistics}, + author = {Zhang, Hangfan and Guo, Zhimeng and Zhu, Huaisheng and Cao, Bochuan and Lin, Lu and Jia, Jinyuan and Chen, Jinghui and Wu, Dinghao}, + editor = {Ku, Lun-Wei and Martins, Andre and Srikumar, Vivek}, + urldate = {2025-01-26}, + date = {2024-08}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\9VP77BWJ\\Zhang et al. - 2024 - Jailbreak Open-Sourced Large Language Models via Enforced Decoding.pdf:application/pdf}, +} + +@book{floridi_etica_2022, + location = {Milano}, + edition = {Prima edizione}, + title = {Etica dell'intelligenza artificiale: sviluppi, opportunità, sfide}, + isbn = {978-88-3285-409-1}, + series = {Scienza e idee}, + shorttitle = {Etica dell'intelligenza artificiale}, + pagetotal = {384}, + number = {340}, + publisher = {Raffaello Cortina Editore}, + author = {Floridi, Luciano}, + editor = {Durante, Massimo}, + date = {2022}, +} + +@inproceedings{buolamwini_gender_2018, + title = {Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification}, + url = {https://proceedings.mlr.press/v81/buolamwini18a.html}, + shorttitle = {Gender Shades}, + abstract = {Recent studies demonstrate that machine learning algorithms can discriminate based on classes like race and gender. In this work, we present an approach to evaluate bias present in automated facial analysis algorithms and datasets with respect to phenotypic subgroups. Using the dermatologist approved Fitzpatrick Skin Type classification system, we characterize the gender and skin type distribution of two facial analysis benchmarks, {IJB}-A and Adience. We find that these datasets are overwhelmingly composed of lighter-skinned subjects (79.6\% for {IJB}-A and 86.2\% for Adience) and introduce a new facial analysis dataset which is balanced by gender and skin type. We evaluate 3 commercial gender classification systems using our dataset and show that darker-skinned females are the most misclassified group (with error rates of up to 34.7\%). The maximum error rate for lighter-skinned males is 0.8\%. The substantial disparities in the accuracy of classifying darker females, lighter females, darker males, and lighter males in gender classification systems require urgent attention if commercial companies are to build genuinely fair, transparent and accountable facial analysis algorithms.}, + eventtitle = {Conference on Fairness, Accountability and Transparency}, + pages = {77--91}, + booktitle = {Proceedings of the 1st Conference on Fairness, Accountability and Transparency}, + publisher = {{PMLR}}, + author = {Buolamwini, Joy and Gebru, Timnit}, + urldate = {2025-01-26}, + date = {2018-01-21}, + langid = {english}, + note = {{ISSN}: 2640-3498}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\KRTXC9HB\\Buolamwini e Gebru - 2018 - Gender Shades Intersectional Accuracy Disparities in Commercial Gender Classification.pdf:application/pdf;Supplementary PDF:C\:\\Users\\moles\\Zotero\\storage\\Y57YAK43\\Buolamwini e Gebru - 2018 - Gender Shades Intersectional Accuracy Disparities in Commercial Gender Classification.pdf:application/pdf}, +} + +@online{harding_facial_2023, + title = {Facial Recognition Bias: Why Racism Appears In Face Detection Tech}, + url = {https://foundation.mozilla.org/en/blog/facial-recognition-bias/}, + shorttitle = {Facial Recognition Bias}, + abstract = {Facial recognition tech routinely performs worse when attempting to detect Black and brown faces. Why do face detection tools struggle with dark skin?}, + titleaddon = {Mozilla Foundation}, + author = {Harding, Xavier}, + urldate = {2025-01-26}, + date = {2023-08-07}, + langid = {english}, + note = {Section: Advocacy}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\3MFUNJ38\\facial-recognition-bias.html:text/html}, +} + +@online{field_openai_2024, + title = {{OpenAI} sees roughly \$5 billion loss this year on \$3.7 billion in revenue}, + url = {https://www.cnbc.com/2024/09/27/openai-sees-5-billion-loss-this-year-on-3point7-billion-in-revenue.html}, + abstract = {{CNBC} has confirmed that {OpenAI} expects about \$5 billion in losses on \$3.7 billion in revenue this year — figures first reported by The New York Times.}, + titleaddon = {{CNBC}}, + author = {Field, Hayden}, + urldate = {2025-01-26}, + date = {2024-09-27}, + langid = {english}, + note = {Section: Technology}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\LARLRJ8D\\openai-sees-5-billion-loss-this-year-on-3point7-billion-in-revenue.html:text/html}, +} + +@article{barassi_toward_2024, + title = {Toward a Theory of {AI} Errors: Making Sense of Hallucinations, Catastrophic Failures, and the Fallacy of Generative {AI}}, + issn = {2644-2353, 2688-8513}, + url = {https://hdsr.mitpress.mit.edu/pub/1yo82mqa/release/2}, + doi = {10.1162/99608f92.ad8ebbd4}, + shorttitle = {Toward a Theory of {AI} Errors}, + abstract = {The rise of generative {AI} confronts us with new and key questions about {AI} failure, and how we make sense of and learn how to coexist with it. While computer scientists understand {AI} failure as something that we can learn from and predict, in this article I argue that we need to understand {AI} failure as a complex social reality that is defined by the interconnection between our data, technological design, and structural inequalities by processes of commodification and by everyday political and social conflicts. Yet I also show that to make sense of the complexity of {AI} failure we need a theory of {AI} errors. Bringing philosophical approaches to error theory together with anthropological perspectives, I argue that a theory of error is essential because it sheds light on the fact that the failures in our systems derive from processes of erroneous knowledge production, from mischaracterizations and flawed cognitive relations. A theory of {AI} errors, therefore, ultimately confronts us with the question about what types of cognitive relations and judgments define our {AI} systems, and sheds light on their deep-seeded limitations when it comes to making sense of our social worlds and human life.}, + issue = {Special Issue 5}, + journaltitle = {Harvard Data Science Review}, + author = {Barassi, Veronica}, + urldate = {2025-01-26}, + date = {2024-11-25}, + langid = {english}, + note = {Publisher: The {MIT} Press}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\3HTJS2RS\\Barassi - 2024 - Toward a Theory of AI Errors Making Sense of Hallucinations, Catastrophic Failures, and the Fallacy.pdf:application/pdf}, +} + +@misc{bastani_generative_2024, + location = {Rochester, {NY}}, + title = {Generative {AI} Can Harm Learning}, + url = {https://papers.ssrn.com/abstract=4895486}, + doi = {10.2139/ssrn.4895486}, + abstract = {Generative artificial intelligence ({AI}) is poised to revolutionize how humans work, and has already demonstrated promise in significantly improving human productivity. However, a key remaining question is how generative {AI} affects learning, namely, how humans acquire new skills as they perform tasks. This kind of skill learning is critical to long-term productivity gains, especially in domains where generative {AI} is fallible and human experts must check its outputs. We study the impact of generative {AI}, specifically {OpenAI}'s {GPT}-4, on human learning in the context of math classes at a high school. In a field experiment involving nearly a thousand students, we have deployed and evaluated two {GPT} based tutors, one that mimics a standard {ChatGPT} interface (called {GPT} Base) and one with prompts designed to safeguard learning (called {GPT} Tutor). These tutors comprise about 15\% of the curriculum in each of three grades. Consistent with prior work, our results show that access to {GPT}-4 significantly improves performance (48\% improvement for {GPT} Base and 127\% for {GPT} Tutor). However, we additionally find that when access is subsequently taken away, students actually perform worse than those who never had access (17\% reduction for {GPT} Base). That is, access to {GPT}-4 can harm educational outcomes. These negative learning effects are largely mitigated by the safeguards included in {GPT} Tutor. Our results suggest that students attempt to use {GPT}-4 as a "crutch" during practice problem sessions, and when successful, perform worse on their own. Thus, to maintain long-term productivity, we must be cautious when deploying generative {AI} to ensure humans continue to learn critical skills. * {HB}, {OB}, and {AS} contributed equally}, + number = {4895486}, + publisher = {Social Science Research Network}, + author = {Bastani, Hamsa and Bastani, Osbert and Sungu, Alp and Ge, Haosen and Kabakcı, Özge and Mariman, Rei}, + urldate = {2025-01-26}, + date = {2024-07-15}, + langid = {english}, + keywords = {Education, Generative {AI}, Human Capital Development, Human-{AI} Collaboration, Large Language Models}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\JCAYVPXI\\Bastani et al. - 2024 - Generative AI Can Harm Learning.pdf:application/pdf}, +} + +@online{noauthor_beyond_nodate, + title = {Beyond exams: Investigating {AI} tool impact on student attitudes, ethical awareness, and academic dishonesty in online college assessments}, + url = {https://iiari.org/journal_article/beyond-exams-investigating-ai-tool-impact-on-student-attitudes-ethical-awareness-and-academic-dishonesty-in-online-college-assessments/}, + shorttitle = {Beyond exams}, + abstract = {Ababneh, K. I., Ahmed, K., \& Dedousis, E. (2022). Predictors of cheating in online exams among business students during the Covid pandemic: Testing the theory of planned behavior. The International Journal of Management Education, 20(3), 100713. https://doi.org/10.1016/j.ijme.2022.100713 Adama, E.A., Graf, A., Adusei-Asante, K. et al. (2023). {COVID}-19 and alternative assessments in higher education: implications for academic integrity among nursing […]}, + titleaddon = {{IIARI}}, + urldate = {2025-01-26}, + langid = {american}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\58US55CL\\beyond-exams-investigating-ai-tool-impact-on-student-attitudes-ethical-awareness-and-academic-d.html:text/html}, +} + +@article{ji_survey_2023, + title = {Survey of Hallucination in Natural Language Generation}, + volume = {55}, + issn = {0360-0300}, + url = {https://doi.org/10.1145/3571730}, + doi = {10.1145/3571730}, + abstract = {Natural Language Generation ({NLG}) has improved exponentially in recent years thanks to the development of sequence-to-sequence deep learning technologies such as Transformer-based language models. This advancement has led to more fluent and coherent {NLG}, leading to improved development in downstream tasks such as abstractive summarization, dialogue generation, and data-to-text generation. However, it is also apparent that deep learning based generation is prone to hallucinate unintended text, which degrades the system performance and fails to meet user expectations in many real-world scenarios. To address this issue, many studies have been presented in measuring and mitigating hallucinated texts, but these have never been reviewed in a comprehensive manner before.In this survey, we thus provide a broad overview of the research progress and challenges in the hallucination problem in {NLG}. The survey is organized into two parts: (1) a general overview of metrics, mitigation methods, and future directions, and (2) an overview of task-specific research progress on hallucinations in the following downstream tasks, namely abstractive summarization, dialogue generation, generative question answering, data-to-text generation, and machine translation. This survey serves to facilitate collaborative efforts among researchers in tackling the challenge of hallucinated texts in {NLG}.}, + pages = {248:1--248:38}, + number = {12}, + journaltitle = {{ACM} Comput. Surv.}, + author = {Ji, Ziwei and Lee, Nayeon and Frieske, Rita and Yu, Tiezheng and Su, Dan and Xu, Yan and Ishii, Etsuko and Bang, Ye Jin and Madotto, Andrea and Fung, Pascale}, + urldate = {2025-01-26}, + date = {2023-03-03}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\8SC8JT7L\\Ji et al. - 2023 - Survey of Hallucination in Natural Language Generation.pdf:application/pdf}, +} + +@article{seo_impact_2021, + title = {The impact of artificial intelligence on learner–instructor interaction in online learning}, + volume = {18}, + issn = {2365-9440}, + url = {https://doi.org/10.1186/s41239-021-00292-9}, + doi = {10.1186/s41239-021-00292-9}, + abstract = {Artificial intelligence ({AI}) systems offer effective support for online learning and teaching, including personalizing learning for students, automating instructors’ routine tasks, and powering adaptive assessments. However, while the opportunities for {AI} are promising, the impact of {AI} systems on the culture of, norms in, and expectations about interactions between students and instructors are still elusive. In online learning, learner–instructor interaction (inter alia, communication, support, and presence) has a profound impact on students’ satisfaction and learning outcomes. Thus, identifying how students and instructors perceive the impact of {AI} systems on their interaction is important to identify any gaps, challenges, or barriers preventing {AI} systems from achieving their intended potential and risking the safety of these interactions. To address this need for forward-looking decisions, we used Speed Dating with storyboards to analyze the authentic voices of 12 students and 11 instructors on diverse use cases of possible {AI} systems in online learning. Findings show that participants envision adopting {AI} systems in online learning can enable personalized learner–instructor interaction at scale but at the risk of violating social boundaries. Although {AI} systems have been positively recognized for improving the quantity and quality of communication, for providing just-in-time, personalized support for large-scale settings, and for improving the feeling of connection, there were concerns about responsibility, agency, and surveillance issues. These findings have implications for the design of {AI} systems to ensure explainability, human-in-the-loop, and careful data collection and presentation. Overall, contributions of this study include the design of {AI} system storyboards which are technically feasible and positively support learner–instructor interaction, capturing students’ and instructors’ concerns of {AI} systems through Speed Dating, and suggesting practical implications for maximizing the positive impact of {AI} systems while minimizing the negative ones.}, + pages = {54}, + number = {1}, + journaltitle = {International Journal of Educational Technology in Higher Education}, + shortjournal = {International Journal of Educational Technology in Higher Education}, + author = {Seo, Kyoungwon and Tang, Joice and Roll, Ido and Fels, Sidney and Yoon, Dongwook}, + urldate = {2025-01-26}, + date = {2021-10-26}, + keywords = {Artificial intelligence, Boundary, Learner–instructor interaction, Online learning, Speed dating}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\XQ84QVVG\\Seo et al. - 2021 - The impact of artificial intelligence on learner–instructor interaction in online learning.pdf:application/pdf;Snapshot:C\:\\Users\\moles\\Zotero\\storage\\CNK96ZI3\\s41239-021-00292-9.html:text/html}, +} + +@article{stadler_cognitive_2024, + title = {Cognitive ease at a cost: {LLMs} reduce mental effort but compromise depth in student scientific inquiry}, + volume = {160}, + issn = {0747-5632}, + url = {https://www.sciencedirect.com/science/article/pii/S0747563224002541}, + doi = {10.1016/j.chb.2024.108386}, + shorttitle = {Cognitive ease at a cost}, + abstract = {This study explores the cognitive load and learning outcomes associated with using large language models ({LLMs}) versus traditional search engines for information gathering during learning. A total of 91 university students were randomly assigned to either use {ChatGPT}3.5 or Google to research the socio-scientific issue of nanoparticles in sunscreen to derive valid recommendations and justifications. The study aimed to investigate potential differences in cognitive load, as well as the quality and homogeneity of the students' recommendations and justifications. Results indicated that students using {LLMs} experienced significantly lower cognitive load. However, despite this reduction, these students demonstrated lower-quality reasoning and argumentation in their final recommendations compared to those who used traditional search engines. Further, the homogeneity of the recommendations and justifications did not differ significantly between the two groups, suggesting that {LLMs} did not restrict the diversity of students’ perspectives. These findings highlight the nuanced implications of digital tools on learning, suggesting that while {LLMs} can decrease the cognitive burden associated with information gathering during a learning task, they may not promote deeper engagement with content necessary for high-quality learning per se.}, + pages = {108386}, + journaltitle = {Computers in Human Behavior}, + shortjournal = {Computers in Human Behavior}, + author = {Stadler, Matthias and Bannert, Maria and Sailer, Michael}, + urldate = {2025-01-26}, + date = {2024-11-01}, + file = {Full text:C\:\\Users\\moles\\Zotero\\storage\\MXF3T8WJ\\Stadler et al. - 2024 - Cognitive ease at a cost LLMs reduce mental effort but compromise depth in student scientific inqui.pdf:application/pdf;ScienceDirect Snapshot:C\:\\Users\\moles\\Zotero\\storage\\J5IJIFSW\\S0747563224002541.html:text/html}, +} + +@article{trisnawati_impact_2023, + title = {The Impact of Artificial Intelligent in Education toward 21st Century Skills: A Literature Review}, + volume = {2}, + rights = {Copyright (c) 2023 Winda Trisnawati, Randi Eka Putra, Levandra Balti}, + issn = {2829-5196}, + url = {https://ejournal.ppsdp.org/index.php/pijed/article/view/152}, + doi = {10.59175/pijed.v2i2.152}, + shorttitle = {The Impact of Artificial Intelligent in Education toward 21st Century Skills}, + abstract = {This study aims to identify the impact of Artificial Intelligent in Education ({AIED}) toward 21st century skills. The method was a literature review. The research question was “What is the impact of artificial intelligent in education toward 21st century skills?”. The selection and categorization of literature were carried out in the following procedures. The academic databases used to collect papers were Science Direct, Scopus, and Google Scholar.\  ("artificial intelligence" {OR} "{AI}" {OR} "{AIED}") {AND} ("21st century skills" {OR} "6C"). The time period under review was mainly from 2013 to 2023. It used {MAXDQA} for thematic analysis. The result shows that artificial intelligent in education have impact toward 21st century skills (6C); character, citizenship, critical thinking, creativity, collaboration, and communication. Various educational and learning issues are addressed using {AI} techniques. Learning is supported by {AI}, and students collaborate with {AI}. By collaborating students and {AI}, it gives the positive and negative impact toward students’ 21st century skills. the impact of {AIED} is indeed able to facilitate students’ problems in learning while the ability of students in critical thinking, creative thinking, and character will decrease.}, + pages = {501--513}, + number = {2}, + journaltitle = {{PPSDP} International Journal of Education}, + author = {Trisnawati, Winda and Putra, Randi Eka and Balti, Levandra}, + urldate = {2025-01-26}, + date = {2023-11-10}, + langid = {english}, + note = {Number: 2}, + keywords = {21st Century Skills}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\WYZ5JMXH\\Trisnawati et al. - 2023 - The Impact of Artificial Intelligent in Education toward 21st Century Skills A Literature Review.pdf:application/pdf}, +} + +@article{weiser_heres_2023, + title = {Here’s What Happens When Your Lawyer Uses {ChatGPT}}, + issn = {0362-4331}, + url = {https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html}, + abstract = {A lawyer representing a man who sued an airline relied on artificial intelligence to help prepare a court filing. It did not go well.}, + journaltitle = {The New York Times}, + author = {Weiser, Benjamin}, + urldate = {2025-01-26}, + date = {2023-05-27}, + langid = {american}, + keywords = {{ChatGPT}, Artificial Intelligence, Avianca, internal-sub-only-except-search, Legal Profession, Manhattan ({NYC}), Rumors and Misinformation, Suits and Litigation (Civil)}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\IZ592VT3\\avianca-airline-lawsuit-chatgpt.html:text/html}, +} + +@book{mollick_co-intelligence_2024, + location = {New York}, + title = {Co-intelligence: living and working with {AI}}, + isbn = {978-0-593-71671-7 978-0-593-85250-7}, + shorttitle = {Co-intelligence}, + abstract = {"From Wharton professor and author of the popular One Useful Thing Substack newsletter Ethan Mollick comes the definitive playbook for working, learning, and living in the new age of {AI}. The release of generative {AI}--from {LLMs} like {ChatGPT} to image generators like {DALL}-E-marks a new era. We have invented technologies that boost our physical capabilities and others that automate complex tasks, but never, until now, have we created a technology that can boost our intelligence--with an impact on work and life that researchers project will be greater than that of steam power or the internet. Mollick urges us not to turn away from {AI}, and instead to invite {AI} tools to the table. He demonstrates how {AI} can amplify our own capacities, acting in roles from brainstorming partner to cowriter to tutor to coach, and assesses its surprising, positive impact on business and organizations. Marshalling original research from workers and teams who are leading the rest of us in embracing and leveraging {AI}, Mollick cuts through the hype to make a frank and eye-opening case for the real value of {AI} tools. Moreover, Mollick argues that the long-term impact of {AI} will be different from what we expect, advantaging English majors and art history experts more than coders, and impacting knowledge workers more than blue-collar workers. Co-Intelligence shows what it means for individuals and for society to think together with smart machines, and why it's imperative that we all master that skill. Co-Intelligence challenges us to utilize {AI}'s power without losing our identity, learn from it without being misled, and harness its gifts to create a better human future. Thought-provoking, optimistic, and lucid, Co-Intelligence reveals the promise and power of generative {AI}"--}, + pagetotal = {234}, + publisher = {Portfolio/Penguin}, + author = {Mollick, Ethan}, + date = {2024}, + file = {Table of Contents PDF:C\:\\Users\\moles\\Zotero\\storage\\UIB5XG7B\\Mollick - 2024 - Co-intelligence living and working with AI.pdf:application/pdf}, +} + +@article{weber-wulff_testing_2023, + title = {Testing of Detection Tools for {AI}-Generated Text}, + volume = {19}, + issn = {1833-2595}, + url = {http://arxiv.org/abs/2306.15666}, + doi = {10.1007/s40979-023-00146-z}, + abstract = {Recent advances in generative pre-trained transformer large language models have emphasised the potential risks of unfair use of artificial intelligence ({AI}) generated content in an academic environment and intensified efforts in searching for solutions to detect such content. The paper examines the general functionality of detection tools for artificial intelligence generated text and evaluates them based on accuracy and error type analysis. Specifically, the study seeks to answer research questions about whether existing detection tools can reliably differentiate between human-written text and {ChatGPT}-generated text, and whether machine translation and content obfuscation techniques affect the detection of {AI}-generated text. The research covers 12 publicly available tools and two commercial systems (Turnitin and {PlagiarismCheck}) that are widely used in the academic setting. The researchers conclude that the available detection tools are neither accurate nor reliable and have a main bias towards classifying the output as human-written rather than detecting {AI}-generated text. Furthermore, content obfuscation techniques significantly worsen the performance of tools. The study makes several significant contributions. First, it summarises up-to-date similar scientific and non-scientific efforts in the field. Second, it presents the result of one of the most comprehensive tests conducted so far, based on a rigorous research methodology, an original document set, and a broad coverage of tools. Third, it discusses the implications and drawbacks of using detection tools for {AI}-generated text in academic settings.}, + pages = {26}, + number = {1}, + journaltitle = {International Journal for Educational Integrity}, + shortjournal = {Int J Educ Integr}, + author = {Weber-Wulff, Debora and Anohina-Naumeca, Alla and Bjelobaba, Sonja and Foltýnek, Tomáš and Guerrero-Dib, Jean and Popoola, Olumide and Šigut, Petr and Waddington, Lorna}, + urldate = {2025-01-26}, + date = {2023-12-25}, + eprinttype = {arxiv}, + eprint = {2306.15666 [cs]}, + keywords = {Computer Science - Artificial Intelligence, Computer Science - Computation and Language, Computer Science - Computers and Society}, + file = {Preprint PDF:C\:\\Users\\moles\\Zotero\\storage\\3UKJ9SEI\\Weber-Wulff et al. - 2023 - Testing of Detection Tools for AI-Generated Text.pdf:application/pdf;Snapshot:C\:\\Users\\moles\\Zotero\\storage\\QT8SXR3P\\2306.html:text/html}, +} + +@article{zaitsu_distinguishing_2023, + title = {Distinguishing {ChatGPT}(-3.5, -4)-generated and human-written papers through Japanese stylometric analysis}, + volume = {18}, + issn = {1932-6203}, + url = {https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0288453}, + doi = {10.1371/journal.pone.0288453}, + abstract = {In the first half of 2023, text-generative artificial intelligence ({AI}), including {ChatGPT} from {OpenAI}, has attracted considerable attention worldwide. In this study, first, we compared Japanese stylometric features of texts generated by {ChatGPT}, equipped with {GPT}-3.5 and {GPT}-4, and those written by humans. In this work, we performed multi-dimensional scaling ({MDS}) to confirm the distributions of 216 texts of three classes (72 academic papers written by 36 single authors, 72 texts generated by {GPT}-3.5, and 72 texts generated by {GPT}-4 on the basis of the titles of the aforementioned papers) focusing on the following stylometric features: (1) bigrams of parts-of-speech, (2) bigram of postpositional particle words, (3) positioning of commas, and (4) rate of function words. {MDS} revealed distinct distributions at each stylometric feature of {GPT} (3.5 and 4) and human. Although {GPT}-4 is more powerful than {GPT}-3.5 because it has more parameters, both {GPT} (3.5 and 4) distributions are overlapping. These results indicate that although the number of parameters may increase in the future, {GPT}-generated texts may not be close to that written by humans in terms of stylometric features. Second, we verified the classification performance of random forest ({RF}) classifier for two classes ({GPT} and human) focusing on Japanese stylometric features. This study revealed the high performance of {RF} in each stylometric feature: The {RF} classifier focusing on the rate of function words achieved 98.1\% accuracy. Furthermore the {RF} classifier focusing on all stylometric features reached 100\% in terms of all performance indexes (accuracy, recall, precision, and F1 score). This study concluded that at this stage we human discriminate {ChatGPT} from human limited to Japanese language.}, + pages = {e0288453}, + number = {8}, + journaltitle = {{PLOS} {ONE}}, + shortjournal = {{PLOS} {ONE}}, + author = {Zaitsu, Wataru and Jin, Mingzhe}, + urldate = {2025-01-26}, + date = {2023-08-09}, + langid = {english}, + note = {Publisher: Public Library of Science}, + keywords = {Language, Artificial intelligence, Linguistic morphology, Machine learning, Natural language processing, Social psychology, Support vector machines, Universities}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\9NLE6RP4\\Zaitsu e Jin - 2023 - Distinguishing ChatGPT(-3.5, -4)-generated and human-written papers through Japanese stylometric ana.pdf:application/pdf}, +} + +@article{dipardo_peer_1988, + title = {Peer Response Groups in the Writing Classroom: Theoretic Foundations and New Directions}, + volume = {58}, + issn = {0034-6543}, + url = {https://www.jstor.org/stable/1170332}, + doi = {10.2307/1170332}, + shorttitle = {Peer Response Groups in the Writing Classroom}, + abstract = {The peer response group in which students respond to one another's writing is commonly used in the writing classroom, from kindergarten through college. Although enthusiastically advocated by practitioners and supported by current theories of the teaching and learning of writing, response groups are difficult to organize effectively. This review examines the pedagogical literature on response groups, places that literature in the context of current theories of the teaching and learning of writing, and then examines the small number of studies of peer response groups. Key issues include (a) the degree of teacher control over the groups and the effects of control structures, and (b) the kinds of social interactions within groups, with attention to how those interactions relate to the larger instructional context and to teaching and learning in the groups. Suggestions are made for reconceptualizing peer response to writing, with an emphasis on moving away from the teacher-initiated and controlled response group toward encouraging spontaneous peer talk during the writing process.}, + pages = {119--149}, + number = {2}, + journaltitle = {Review of Educational Research}, + author = {{DiPardo}, Anne and Freedman, Sarah Warshauer}, + urldate = {2025-01-26}, + date = {1988}, + note = {Publisher: [Sage Publications, Inc., American Educational Research Association]}, +} + +@article{nicol_making_2022-1, + title = {Making internal feedback explicit: exploiting the multiple comparisons that occur during peer review}, + volume = {47}, + issn = {0260-2938}, + url = {https://doi.org/10.1080/02602938.2021.1924620}, + doi = {10.1080/02602938.2021.1924620}, + shorttitle = {Making internal feedback explicit}, + abstract = {This article explores peer review through the lens of internal feedback. It investigates the internal feedback that students generate when they compare their work with the work of peers and with comments received from peers. Inner feedback was made explicit by having students write an account of what they were learning from making these different comparisons. This allowed evaluation of the extent to which students’ self-generated feedback comments would match the feedback comments a teacher might provide, and exploration of other variables hypothesized to influence inner feedback generation. Analysis revealed that students’ self-generated feedback became more elaborate from one comparison to the next and that this, and multiple simultaneous comparisons, resulted in students’ generating feedback that not only matched the teacher’s feedback but surpassed it in powerful and productive ways. Comparisons against received peer comments added little to the feedback students had already generated from comparisons against peer works. The implications are that having students make explicit the internal feedback they generate not only helps them build their metacognitive knowledge and self-regulatory abilities but can also decrease teacher workload in providing comments.}, + pages = {424--443}, + number = {3}, + journaltitle = {Assessment \& Evaluation in Higher Education}, + author = {Nicol, David and {McCallum}, Suzanne}, + urldate = {2025-01-26}, + date = {2022-04-11}, + note = {Publisher: {SRHE} Website +\_eprint: https://doi.org/10.1080/02602938.2021.1924620}, + keywords = {Peer review, internal feedback, self-regulation, multiple comparisons, peer feedback}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\E4VQWCSY\\Nicol e McCallum - 2022 - Making internal feedback explicit exploiting the multiple comparisons that occur during peer review.pdf:application/pdf}, +} + +@article{krishna_kashyap_yakkala_ai-powered_2024, + title = {{AI}-powered assessment tools for E-learning: Enhancing feedback and grading systems}, + volume = {13}, + issn = {25828266}, + url = {https://wjaets.com/node/1781}, + doi = {10.30574/wjaets.2024.13.1.0497}, + shorttitle = {{AI}-powered assessment tools for E-learning}, + abstract = {Recently, there has been increased incorporation of artificial intelligence in the education system, which has impacted the practice and use of assessment in learning. To this end, the following is a paper discussing the role of {AI} in grading, instant feedback, and personalized adaptive testing. The paper also covers the ability of {AI} to minimize bias and introduce fairness while grading, as well as the ability that comes with the mass {LMS} platforms. Moreover, this paper discusses the issues and guidelines regarding the ethical use of {AI} in education: data protection, the problem of automated prejudice in {AI}, and the replacement of human tutors. When these seemingly unimportant problems are solved, and institutions admit that ethical practices are critical, such opportunities for Artificial Intelligence can be harnessed to make learning more efficient and fairer. At last, integrating {AI} into learning benefits teachers and students: it enhances the teaching and learning processes. It creates the prospects for the future global exposition of technology with human creativity to enrich learners.}, + pages = {792--802}, + number = {1}, + journaltitle = {World Journal of Advanced Engineering Technology and Sciences}, + shortjournal = {World J. Adv. Eng. Technol. Sci.}, + author = {{Krishna Kashyap Yakkala}}, + urldate = {2025-01-26}, + date = {2024-10-30}, +} + +@article{borghi_manifesto_2019, + title = {Un manifesto per la didattica della storia}, + issn = {2704-8217}, + url = {https://cris.unibo.it/handle/11585/731930}, + abstract = {open}, + author = {Borghi, Beatrice and Rolando, Borghi and Dondarini, Rolando}, + urldate = {2025-01-26}, + date = {2019}, + note = {Accepted: 2024-05-20T07:45:52Z}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\DWRQ5DLW\\Borghi et al. - 2019 - Un manifesto per la didattica della storia.pdf:application/pdf}, +} + +@article{ceccoli_prospettive_nodate, + title = {Prospettive per la didattica della storia in Italia e in Europa, a cura di Valseriati Enrico}, + url = {https://www.academia.edu/105166900/Prospettive_per_la_didattica_della_storia_in_Italia_e_in_Europa_a_cura_di_Valseriati_Enrico}, + abstract = {Prospettive per la didattica della storia in Italia e in Europa, a cura di Valseriati Enrico}, + journaltitle = {Didactica Historica}, + author = {Ceccoli, Paolo}, + urldate = {2025-01-26}, + langid = {english}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\2MH6CR8J\\Prospettive_per_la_didattica_della_storia_in_Italia_e_in_Europa_a_cura_di_Valseriati_Enrico.html:text/html}, +} + +@book{panciera_manuale_2022, + location = {Firenze}, + title = {Manuale di didattica della storia}, + isbn = {978-88-00-86248-6}, + publisher = {Le Monnier Università : Mondadori Education}, + author = {Panciera, Walter and Savio, Andrea}, + date = {2022}, +} + +@article{valseriati_prospettive_2019, + title = {Prospettive per la didattica della storia in Italia e in Europa}, + url = {https://www.torrossa.com/it/resources/an/4476998}, + abstract = {Compra online il {PDF} di Prospettive per la didattica della storia in Italia e in Europa, Valseriati, Enrico, editor - New Digital Press - E-book}, + pages = {1--228}, + author = {Valseriati, Enrico}, + urldate = {2025-01-26}, + date = {2019}, + langid = {italian}, + note = {Publisher: New Digital Press}, +} + +@article{brusa_quale_2006, + title = {Quale Storia? Intervista sulla didattica, l'insegnamento e la ricerca storiografica}, + volume = {2}, + issn = {1825-411X}, + url = {http://storicamente.org/02intervista_brusa}, + doi = {10.1473/stor327}, + shorttitle = {Quale Storia?}, + abstract = {More about this open access article on {DOAJ}. {DOAJ} is an online directory that indexes and provides access to quality open access, peer-reviewed journals.}, + number = {1}, + journaltitle = {Storicamente}, + author = {Brusa, Antonio}, + urldate = {2025-01-26}, + date = {2006-12-01}, + langid = {english}, + note = {Publisher: Viella Editrice}, +} + +@collection{davies_debates_2017, + location = {London}, + edition = {2}, + title = {Debates in History Teaching}, + isbn = {978-1-315-64286-4}, + abstract = {Now in its second edition, Debates in History Teaching remains at the cutting edge of history education. It has been fully updated to take into account the latest developments in policy, research and professional practice. With further exploration into the major issues that history teachers encounter in their daily professional lives, it provides fresh guidance for thinking and practice for teachers within the {UK} and beyond. +Written by a range of experts in history education, chapters cover all the key issues needed for clear thinking and excellent professional action. This book will enable you to reach informed judgements and argue your point of view with deeper theoretical knowledge and understanding. Debates include: + + +What is happening today in history education? + + +What is the purpose of history teaching? + + +What do history teachers need to know? + + +What are the key trends and issues in international contexts? + + +What is the role of evidence in history teaching and learning? + + +How should you make use of {ICT} in your lessons? + + +Should moral learning be an aim of history education? + + +How should history learning be assessed? + + +Debates in History Teaching remains essential reading for any student or practising teacher engaged in initial training, continuing professional development or Master's-level study.}, + pagetotal = {322}, + publisher = {Routledge}, + editor = {Davies, Ian}, + date = {2017-02-16}, + doi = {10.4324/9781315642864}, + file = {Versione inviata:C\:\\Users\\moles\\Zotero\\storage\\TA9SQG7P\\Davies - 2017 - Debates in History Teaching.pdf:application/pdf}, +} + +@collection{lahby_empowering_2024, + location = {Boca Raton}, + title = {Empowering Digital Education with {ChatGPT}: From Theoretical to Practical Applications}, + isbn = {978-1-032-71635-0}, + shorttitle = {Empowering Digital Education with {ChatGPT}}, + abstract = {Recently, there has been a significant increase in the development and interest in applying generative {AI} across various domains, including education. The emergence of large language models ({LLMs}), such as the {ChatGPT} tool, fueled by advancements in generative {AI}, is profoundly reshaping education. The use of the {ChatGPT} tool offers personalized support, improves accessibility, and introduces innovative methods for students and educators to engage with information and learning materials. Furthermore, {ChatGPT} facilitates a wide range of language learning services, including language instruction, speech recognition, pronunciation feedback, and immersive virtual simulations for hands-on learning experiences. +This book explores the transformative potential of the {ChatGPT} tool within education, shedding light on the opportunities that arise through the integration of the {ChatGPT} tool into various aspects of the learning process. It serves as a platform for the community to share cutting-edge research ideas concerning the use of the {ChatGPT} tool in digital education. Readers will discover how the {ChatGPT} tool can enhance student engagement, foster personalized learning experiences, facilitate intelligent tutoring systems, support virtual classroom interactions, and revolutionize assessment and feedback mechanisms.}, + pagetotal = {302}, + publisher = {Chapman and Hall/{CRC}}, + editor = {Lahby, Mohamed}, + date = {2024-11-12}, + doi = {10.1201/9781032716350}, +} + +@article{gorvine_teaching_1970, + title = {Teaching History through Role Playing}, + journaltitle = {Hist Teacher}, + author = {Gorvine, Harold}, + urldate = {2025-01-26}, + date = {1970}, + langid = {english}, + note = {{ERIC} Number: {EJ}020901}, + keywords = {History Instruction, Identification, Learning Activities, Role Playing, Student Experience, Teaching Methods}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\W2KWMRXC\\eric.ed.gov.html:text/html}, +} + +@incollection{obrien_openai_2024, + title = {{OpenAI} {ChatGPT} and Biased Information in Higher Education}, + isbn = {978-1-032-71635-0}, + abstract = {Motivated by the appearance of large language models and their sudden societal impacts—both beneficial and harmful, realized and potential—we evaluated several of them with respect to bias in its myriad forms. Bias in machine-learning models refers to their tendencies to make certain decisions more often than expected. This is a result of the text on which they were trained and, in some cases, the result of post-learning human manipulation. In the end, whether it occurs in the real world or in the machine-learning world, bias will always be a subject of discussion and debate. We view that debate as becoming more and more important, given the recent, unprecedented explosion of {AI}—in particular, {OpenAI} and its chatbot, {ChatGPT}—and what it might mean for the future of higher education.}, + booktitle = {Empowering Digital Education with {ChatGPT}}, + publisher = {Chapman and Hall/{CRC}}, + author = {O'Brien, Michael J. and Alsmadi, Izzat and Bentley, R. Alexander and Tuba, Milan}, + date = {2024}, + note = {Num Pages: 12}, +} + +@article{roose_can_2024, + title = {Can A.I. Be Blamed for a Teen’s Suicide?}, + issn = {0362-4331}, + url = {https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html}, + abstract = {The mother of a 14-year-old Florida boy says he became obsessed with a chatbot on Character.{AI} before his death.}, + journaltitle = {The New York Times}, + author = {Roose, Kevin}, + urldate = {2025-01-27}, + date = {2024-10-23}, + langid = {american}, + keywords = {Artificial Intelligence, Suits and Litigation (Civil), Character.{AI}, Children and Childhood, Computers and the Internet, De Freitas, Daniel, Garcia, Megan L, Google Inc, Loneliness, Mental Health and Disorders, Mobile Applications, Setzer, Sewell {III} (2009-24), Shazeer, Noam, Teenagers and Adolescence}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\QP8HVNCD\\characterai-lawsuit-teen-suicide.html:text/html}, +} + +@book{reich_failure_2020, + location = {Cambridge London}, + title = {Failure to disrupt: why technology alone can't transform education}, + isbn = {978-0-674-08904-4 978-0-674-24966-0 978-0-674-24967-7 978-0-674-24968-4}, + shorttitle = {Failure to disrupt}, + pagetotal = {1}, + publisher = {Harvard University Press}, + author = {Reich, Justin}, + date = {2020}, +} + +@article{ouyang_training_2022, + title = {Training language models to follow instructions with human feedback}, + volume = {35}, + url = {https://proceedings.neurips.cc/paper_files/paper/2022/hash/b1efde53be364a73914f58805a001731-Abstract-Conference.html}, + pages = {27730--27744}, + journaltitle = {Advances in Neural Information Processing Systems}, + author = {Ouyang, Long and Wu, Jeffrey and Jiang, Xu and Almeida, Diogo and Wainwright, Carroll and Mishkin, Pamela and Zhang, Chong and Agarwal, Sandhini and Slama, Katarina and Ray, Alex and Schulman, John and Hilton, Jacob and Kelton, Fraser and Miller, Luke and Simens, Maddie and Askell, Amanda and Welinder, Peter and Christiano, Paul F. and Leike, Jan and Lowe, Ryan}, + urldate = {2025-01-29}, + date = {2022-12-06}, + langid = {english}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\N4RKDSPP\\Ouyang et al. - 2022 - Training language models to follow instructions with human feedback.pdf:application/pdf}, +} + +@misc{greshake_not_2023, + title = {Not what you've signed up for: Compromising Real-World {LLM}-Integrated Applications with Indirect Prompt Injection}, + url = {http://arxiv.org/abs/2302.12173}, + doi = {10.48550/arXiv.2302.12173}, + shorttitle = {Not what you've signed up for}, + abstract = {Large Language Models ({LLMs}) are increasingly being integrated into various applications. The functionalities of recent {LLMs} can be flexibly modulated via natural language prompts. This renders them susceptible to targeted adversarial prompting, e.g., Prompt Injection ({PI}) attacks enable attackers to override original instructions and employed controls. So far, it was assumed that the user is directly prompting the {LLM}. But, what if it is not the user prompting? We argue that {LLM}-Integrated Applications blur the line between data and instructions. We reveal new attack vectors, using Indirect Prompt Injection, that enable adversaries to remotely (without a direct interface) exploit {LLM}-integrated applications by strategically injecting prompts into data likely to be retrieved. We derive a comprehensive taxonomy from a computer security perspective to systematically investigate impacts and vulnerabilities, including data theft, worming, information ecosystem contamination, and other novel security risks. We demonstrate our attacks' practical viability against both real-world systems, such as Bing's {GPT}-4 powered Chat and code-completion engines, and synthetic applications built on {GPT}-4. We show how processing retrieved prompts can act as arbitrary code execution, manipulate the application's functionality, and control how and if other {APIs} are called. Despite the increasing integration and reliance on {LLMs}, effective mitigations of these emerging threats are currently lacking. By raising awareness of these vulnerabilities and providing key insights into their implications, we aim to promote the safe and responsible deployment of these powerful models and the development of robust defenses that protect users and systems from potential attacks.}, + number = {{arXiv}:2302.12173}, + publisher = {{arXiv}}, + author = {Greshake, Kai and Abdelnabi, Sahar and Mishra, Shailesh and Endres, Christoph and Holz, Thorsten and Fritz, Mario}, + urldate = {2025-01-29}, + date = {2023-05-05}, + eprinttype = {arxiv}, + eprint = {2302.12173 [cs]}, + keywords = {Computer Science - Artificial Intelligence, Computer Science - Computation and Language, Computer Science - Computers and Society, Computer Science - Cryptography and Security}, + file = {Preprint PDF:C\:\\Users\\moles\\Zotero\\storage\\JPUT62WF\\Greshake et al. - 2023 - Not what you've signed up for Compromising Real-World LLM-Integrated Applications with Indirect Pro.pdf:application/pdf;Snapshot:C\:\\Users\\moles\\Zotero\\storage\\YFMRZB75\\2302.html:text/html}, +} + +@online{wilison_simon_2022, + title = {Simon Willison: Prompt injection}, + url = {https://simonwillison.net/series/prompt-injection/}, + author = {Wilison, Simon}, + urldate = {2025-01-29}, + date = {2022}, + file = {Simon Willison\: Prompt injection:C\:\\Users\\moles\\Zotero\\storage\\ITWFQJA6\\prompt-injection.html:text/html}, +} + +@online{noauthor_stolen_nodate, + title = {Stolen Creativity}, + url = {https://www.goethe.de/prj/geg/en/thm/tru/25358570.html}, + abstract = {The German photomedia artist Boris Eldagsen won the Sony World Photography Awards in April 2023. The unusual thing: He entered with an {AI}-generated piece and ultimately rejected the prize. Eldagsen weighs in on {AI} and creativity.}, + urldate = {2025-01-30}, + langid = {english}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\ZA9R8RUE\\25358570.html:text/html}, +} + +@online{noauthor_habla_nodate, + title = {Habla con Meta {AI} en {WhatsApp}}, + url = {https://blog.whatsapp.com/talk-to-meta-ai-on-whatsapp}, + abstract = {En Meta Connect, hoy anunciamos un nuevo conjunto de actualizaciones que te permitirán hablar con Meta {AI} en tiempo real con tu voz o enviarle fotos para editarlas. Con estas actualizaciones, más personas podrán explorar sus ideas, mejorar sus chats y probar cosas nuevas con mayor facilidad.}, + titleaddon = {{WhatsApp}.com}, + urldate = {2025-01-30}, + langid = {spanish}, +} + +@online{noauthor_como_nodate, + title = {Cómo seleccionar un modelo de Meta Llama {\textbar} Servicio de ayuda de {WhatsApp}}, + url = {https://faq.whatsapp.com/935316661611520/?cms_platform=android&locale=es_LA}, + urldate = {2025-01-30}, +} + +@online{noauthor_streamlit_nodate, + title = {Streamlit Docs}, + url = {https://docs.streamlit.io/}, + urldate = {2025-01-31}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\S8I7LFFK\\docs.streamlit.io.html:text/html}, +} + +@online{noauthor_tutorial_nodate, + title = {Tutorial: inizia a utilizzare l'{API} Gemini {\textbar} Gemini {API}}, + url = {https://ai.google.dev/gemini-api/docs/get-started/tutorial?hl=it}, + shorttitle = {Tutorial}, + abstract = {Inizia a utilizzare l'{API} Gemini e Gemini 1.5 Flash, incluse la generazione di testo e le funzionalità di chat}, + titleaddon = {Google {AI} for Developers}, + urldate = {2025-01-31}, + langid = {italian}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\7CTQND5F\\tutorial.html:text/html}, +} + +@online{noauthor_beautiful_nodate, + title = {Beautiful Soup Documentation — Beautiful Soup 4.4.0 documentation}, + url = {https://beautiful-soup-4.readthedocs.io/en/latest/}, + urldate = {2025-01-31}, + file = {Beautiful Soup Documentation — Beautiful Soup 4.4.0 documentation:C\:\\Users\\moles\\Zotero\\storage\\IF8V7RTZ\\latest.html:text/html}, +} + +@online{noauthor_open_nodate, + title = {The Open Source {AI} Definition – 1.0}, + url = {https://opensource.org/ai/open-source-ai-definition}, + abstract = {version 1.0 Preamble Why we need Open Source Artificial Intelligence ({AI}) Open Source has demonstrated that massive benefits accrue to everyone after removing the barriers to learning, using, sharing and…}, + titleaddon = {Open Source Initiative}, + urldate = {2025-02-01}, + langid = {american}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\PUJISL86\\open-source-ai-definition.html:text/html}, +} + +@online{noauthor_metas_2023, + title = {Meta’s {LLaMa} 2 license is not Open Source}, + url = {https://opensource.org/blog/metas-llama-2-license-is-not-open-source}, + abstract = {Meta is lowering barriers for access to powerful {AI} systems, but unfortunately, Meta has created the misunderstanding that {LLaMa} 2 is “open source” - it is not.}, + titleaddon = {Open Source Initiative}, + urldate = {2025-02-01}, + date = {2023-07-20}, + langid = {american}, + file = {Snapshot:C\:\\Users\\moles\\Zotero\\storage\\WESL7KLX\\metas-llama-2-license-is-not-open-source.html:text/html}, +} + +@article{pimbblet_can_2024, + title = {Can {ChatGPT} pass a physics degree? Making a case for reformation of assessment of undergraduate degrees}, + volume = {46}, + issn = {0143-0807}, + url = {https://dx.doi.org/10.1088/1361-6404/ad9874}, + doi = {10.1088/1361-6404/ad9874}, + shorttitle = {Can {ChatGPT} pass a physics degree?}, + abstract = {The emergence of conversational natural language processing models presents a significant challenge for Higher Education. In this work, we use the entirety of a {UK} Physics undergraduate ({BSc} with Honours) degree including all examinations and coursework to test if {ChatGPT} ({GPT}-4) can pass a degree. We adopt a ‘maximal cheating’ approach wherein we permit ourselves to modify questions for clarity, split question up into smaller sub-components, expand on answers given—especially for long form written responses, obtaining references, and use of advanced coaching, plug-ins and custom instructions to optimize outputs. In general, there are only certain parts of the degree in question where {GPT}-4 fails. Explicitly these include compulsory laboratory elements, and the final project which is assessed by a viva. If these were no issue, then {GPT}-4 would pass with a grade of an upper second class overall. In general, coding tasks are performed exceptionally well, along with simple single-step solution problems. Multiple step problems and longer prose are generally poorer along with interdisciplinary problems. We strongly suggest that there is now a necessity to urgently re-think and revise assessment practice in physics—and other disciplines—due to the existence of {AI} such as {GPT}-4. We recommend close scrutiny of assessment tasks: only invigilated in-person examinations, vivas, laboratory skills testing (or ‘performances’ in other disciplines), and presentations are not vulnerable to {GPT}-4, and urge consideration of how {AI} can be embedded within the disciplinary context.}, + pages = {015702}, + number = {1}, + journaltitle = {European Journal of Physics}, + shortjournal = {Eur. J. Phys.}, + author = {Pimbblet, K A and Morrell, L J}, + urldate = {2025-02-01}, + date = {2024-12}, + langid = {english}, + note = {Publisher: {IOP} Publishing}, + file = {IOP Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\JVAX3AXU\\Pimbblet e Morrell - 2024 - Can ChatGPT pass a physics degree Making a case for reformation of assessment of undergraduate degr.pdf:application/pdf}, +} + +@inproceedings{zou_adversarial_2024, + location = {Singapore}, + title = {Adversarial Attacks on Large Language Models}, + isbn = {978-981-97-5501-1}, + doi = {10.1007/978-981-97-5501-1_7}, + abstract = {Large Language Models ({LLMs}) have rapidly advanced and garnered increasing attention due to their remarkable capabilities across various applications. However, adversarial attacks pose a significant threat to {LLMs}, as prior research has demonstrated their vulnerability, resulting in prediction inaccuracies. This paper offers a foundational overview of {LLMs} and traces their developmental trajectory. We systematically classify and compare adversarial examples on {LLMs} based on their perturbation units. Additionally, we scrutinize the root causes of vulnerability and explore prevalent defense approaches tailored to mitigate adversarial attacks on {LLMs}.}, + pages = {85--96}, + booktitle = {Knowledge Science, Engineering and Management}, + publisher = {Springer Nature}, + author = {Zou, Jing and Zhang, Shungeng and Qiu, Meikang}, + editor = {Cao, Cungeng and Chen, Huajun and Zhao, Liang and Arshad, Junaid and Asyhari, Taufiq and Wang, Yonghao}, + date = {2024}, + langid = {english}, + keywords = {Adversarial Attacks, Adversarial Examples, Large Language Models ({LLMs}), Natural Language Processing, Security}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\8GES4JLT\\Zou et al. - 2024 - Adversarial Attacks on Large Language Models.pdf:application/pdf}, +} + +@misc{cocchiaro_who_2024, + location = {Rochester, {NY}}, + title = {Who is an {AI} Ethicist? An Empirical Study of Expertise, Skills, and Profiles to Build a Competency Framework}, + url = {https://papers.ssrn.com/abstract=4891907}, + doi = {10.2139/ssrn.4891907}, + shorttitle = {Who is an {AI} Ethicist?}, + abstract = {Over the last decade the figure of the {AI} Ethicist has seen significant growth in the {ICT} market. However, only a few studies have taken an interest in this professional profile, and they have yet to provide a normative discussion of its expertise and skills. The goal of this article is to initiate such discussion. We argue that {AI} Ethicists should be experts and use a heuristic to identify them. Then, we focus on their specific kind of moral expertise, drawing on a parallel with the expertise of Ethics Consultants in clinical settings and on the bioethics literature on the topic. Finally, we highlight the differences between Health Care Ethics Consultants and {AI} Ethicists and derive the expertise and skills of the latter from the roles that {AI} Ethicists should have in an organisation.}, + number = {4891907}, + publisher = {Social Science Research Network}, + author = {Cocchiaro, Mariangela Zoe and Morley, Jessica and Novelli, Claudio and Panai, Enrico and Tartaro, Alessio and Floridi, Luciano}, + urldate = {2025-02-01}, + date = {2024-07-10}, + langid = {english}, + keywords = {{AI} Ethicist, ethics of {AI}, expertise, practical moral expertise, skills}, + file = {Full Text PDF:C\:\\Users\\moles\\Zotero\\storage\\FUVPRMK3\\Cocchiaro et al. - 2024 - Who is an AI Ethicist An Empirical Study of Expertise, Skills, and Profiles to Build a Competency F.pdf:application/pdf}, +} + +@article{noauthor_academic_2024, + title = {Academic dishonesty in higher education - a nationwide study in Taiwan}, + url = {https://www.researchgate.net/publication/225487537_Academic_dishonesty_in_higher_education_-_a_nationwide_study_in_Taiwan}, + doi = {10.1007/s10734-006-9047-z}, + abstract = {Download Citation {\textbar} Academic dishonesty in higher education - a nationwide study in Taiwan {\textbar} Academic dishonesty has been an important issue. However, only few researches had been done in Asian countries, especially a nationwide study. A... {\textbar} Find, read and cite all the research you need on {ResearchGate}}, + journaltitle = {{ResearchGate}}, + urldate = {2025-02-01}, + date = {2024-10-22}, + langid = {english}, +} + +@online{hua_beyond_nodate, + title = {Beyond exams: Investigating {AI} tool impact on student attitudes, ethical awareness, and academic dishonesty in online college assessments}, + url = {https://iiari.org/journal_article/beyond-exams-investigating-ai-tool-impact-on-student-attitudes-ethical-awareness-and-academic-dishonesty-in-online-college-assessments/}, + shorttitle = {Beyond exams}, + abstract = {Ababneh, K. I., Ahmed, K., \& Dedousis, E. (2022). Predictors of cheating in online exams among business students during the Covid pandemic: Testing the theory of planned behavior. The International Journal of Management Education, 20(3), 100713. https://doi.org/10.1016/j.ijme.2022.100713 Adama, E.A., Graf, A., Adusei-Asante, K. et al. (2023). {COVID}-19 and alternative assessments in higher education: implications for academic integrity among nursing […]}, + titleaddon = {{IIARI}}, + author = {Hua, Jocelyn}, + urldate = {2025-02-01}, + langid = {american}, +} diff --git a/TesiZIP/cap10.tex b/TesiZIP/cap10.tex new file mode 100644 index 0000000..82b9a00 --- /dev/null +++ b/TesiZIP/cap10.tex @@ -0,0 +1,26 @@ +\chapter{Crea la tua IA Generativa} + + +L'applicazione Crea la tua IA sposta l'attenzione dalla semplice interazione con un modello linguistico pre-addestrato alla creazione di un personaggio storico virtuale. Questo strumento si configura come un laboratorio di \textit{prompt engineering} dove gli studenti, guidati dal docente, possono costruire un'IA che incarni una figura del passato. + +Innanzitutto, si sceglie il personaggio storico da ricreare. Poi, l'applicazione chiede di definire la dimensione massima del prompt, cioè la quantità massima di testo utilizzabile per descrivere e istruire il modello. Questa fase, decisa dal docente, obbliga gli studenti a selezionare e sintetizzare le informazioni, individuando gli aspetti più rilevanti del personaggio. + +Il cuore dell'attività è la scrittura del prompt. Gli studenti, individualmente o in gruppo, devono scrivere un testo che descriva in modo dettagliato il personaggio, specificandone qualità, idee, ideologie, conoscenze, eventi salienti della vita, relazioni con altri personaggi e, più in generale, tutti gli elementi che possono contribuire a definirne l'identità e il modo di pensare e di agire. Questo compito richiede una profonda conoscenza del personaggio e del suo contesto, ma anche notevoli capacità di sintesi ed espressione. Inoltre, gli studenti devono immedesimarsi nel ruolo di ``istruttori'' di un'intelligenza artificiale, cercando di anticipare le possibili domande e di creare un prompt che possa portare il modello a generare risposte coerenti e plausibili. + + + +Questa attività didattica intreccia in modo virtuoso le conoscenze degli alunni e la loro \textit{IA literacy}. Da un lato, gli studenti sono chiamati a mobilitare le proprie conoscenze storiche, consultare diverse fonti, selezionare le informazioni rilevanti e organizzarle in un testo coerente e significativo. Dall'altro, si confrontano con le potenzialità e i limiti dei grandi modelli linguistici, imparando a dialogare con essi attraverso la scrittura di prompt efficaci. + +Completata la fase di scrittura, si può testare la \enquote{robustezza} del personaggio creato, organizzando la classe in gruppi. Ciascun gruppo prepara il proprio prompt e il proprio personaggio virtuale. Successivamente, i prompt vengono scambiati: ogni gruppo si trova così a ``intervistare'' il personaggio creato da un altro, sulla base del prompt fornito. Questa fase di testing permette di verificare l'efficacia del prompt nel trasmettere le informazioni essenziali e di individuare eventuali lacune o ambiguità. + +Dopo il test, i gruppi tornano a lavorare sul proprio prompt, apportando le modifiche e le integrazioni necessarie per renderlo più robusto, cioè più capace di generare risposte coerenti, complete e verosimili. Questo processo iterativo di scrittura, testing e revisione affina le competenze di ricerca, analisi, sintesi e scrittura, stimolando al contempo la riflessione critica, la collaborazione e anche la competizione. + +Purtroppo non ci sono filtri aggiuntivi e le debolezze del modello creato sono le stesse dei modelli Gemini; pertanto, in un caso ipotetico, uno studente, se incontra un prompt di \textit{prompt injection}, può rompere facilmente il personaggio creato da altri studenti. Per questo motivo è uno strumento che va usato sempre con la supervisione dell'insegnante. + + +\begin{figure}[H] + \centering + \includegraphics[width=0.75\linewidth]{Crea_bot.png} + \caption{ScreenShot dell'applicazione \enquote{\textit{Crea la tua IA generativa}}.} + \label{fig:enter-label} +\end{figure} \ No newline at end of file diff --git a/TesiZIP/cap2.tex b/TesiZIP/cap2.tex new file mode 100644 index 0000000..12d5840 --- /dev/null +++ b/TesiZIP/cap2.tex @@ -0,0 +1,44 @@ +\chapter{I dati di addestramento dei modelli di Intelligenza Artificiale Generativa} + +Come osservato nel capitolo precedente, l’efficacia degli LLM nel contesto educativo dipende in modo significativo dalle loro caratteristiche tecniche e architetturali. Tuttavia, un aspetto cruciale, spesso trascurato, è la qualità e la provenienza dei dati impiegati per il loro addestramento. L’addestramento di un modello di IA richiede enormi quantità di dati e questi, come già menzionato, devono essere di elevata qualità per evitare di produrre errori e introdurre distorsioni. La presenza di pregiudizi nei dati di addestramento può portare a risultati non equi o addirittura errati, compromettendo l’affidabilità e l’utilità di questi strumenti nel contesto educativo. Per questo motivo, è fondamentale comprendere le problematiche legate alla raccolta e all’utilizzo dei dati. + +\section{Natura dei dati di addestramento e questioni etiche e legali} + +La raccolta di dati per l'addestramento degli LLM pone importanti questioni etiche e legali. Questi insiemi di dati includono spesso informazioni di varia provenienza: contenuti web pubblici, libri non più protetti da copyright, articoli scientifici e, talvolta, archivi di dati aziendali. Inoltre, le big-tech non esplicitano i loro dati di addestramento. + +L'impiego di testi protetti da copyright per addestrare i modelli linguistici è una delle questioni più rilevanti nel campo dell’intelligenza artificiale \parencite{shi_detecting_2023}. Le fonti di dati aperti sembrano esaurirsi e la maggior parte dei nuovi testi di alta qualità proviene dall'editoria tradizionale. L'utilizzo di questi testi permetterebbe un notevole miglioramento delle prestazioni degli LLM, riducendo i bias e anche le allucinazioni. Tuttavia, si presentano due problemi critici: la possibile violazione del diritto d'autore durante la fase di addestramento e la conseguente difficoltà nel determinare con precisione quali documenti siano stati effettivamente impiegati per l'addestramento in modo da trovare forme per tutelare la proprietà intellettuale. + +Per affrontare queste problematiche, la comunità scientifica sta sviluppando diverse strategie di mitigazione, tra cui metodi sofisticati per individuare l'utilizzo di documenti protetti, come l'algoritmo "Min-K \%Prob", che permette di stabilire se un documento specifico è stato impiegato nell'addestramento del modello \parencite{shi_detecting_2023}. Queste tecniche, per quanto complesse, non sono ancora completamente accurate. In assenza di un quadro normativo chiaro, gli sforzi rischiano di essere vani. Alcuni studi, analizzando la situazione legale negli Stati Uniti, dove hanno sede le maggiori aziende di IA, hanno osservato che la legge sul copyright, con il suo principio del "fair use", consentirebbe in teoria di utilizzare qualsiasi documento per l'addestramento, anche senza autorizzazione \parencite{murray_generative_2023}. Se ad oggi vengono impiegati materiali protetti da copyright è soprattutto perché non esiste una normativa chiara. Il problema legale è evidente, e i creativi si stanno attivando spinti anche dalla paura che questi programmi addestrati sulle loro creazioni possano sostituire il lavoro degli artisti in molti ambiti. L’industria creativa italiana ha espresso forti preoccupazioni sull’impatto degli LLM sul loro lavoro. Ad esempio, il 20 giugno 2023 è stato presentato a Roma, presso il Palazzo delle Esposizioni, un importante documento programmatico promosso dalla federazione AUT-Autori, che rappresenta un punto di riferimento nella discussione sulla regolamentazione dell’IA nel settore creativo italiano. Il manifesto evidenzia come la mancanza di una regolamentazione adeguata possa causare non solo problemi legali ed economici, ma anche conseguenze culturali significative, come la standardizzazione dei contenuti e l’omogeneizzazione delle espressioni creative. Questi rischi richiedono un’attenta valutazione e misure preventive. L’istituzione di un osservatorio permanente, proposta nel manifesto, è uno strumento per monitorare costantemente l’evoluzione tecnologica e le sue implicazioni nel settore creativo. + +Le applicazioni di IA Generativa hanno dimostrato nell’ultimo biennio di saper generare risultati accettabili anche in musica e video. Non è certo se l’IA generativa segnerà la fine dell’arte come la conosciamo, ma le preoccupazioni sono concrete. A questo proposito, può essere interessante riportare due esempi. Nel 2023, Boris Eldagsen ha vinto un premio nella categoria “Creative Open” con l’opera \textit{Pseudomnesia: The Electrician}, un ritratto in bianco e nero di due donne generato con DALL-E 2 (Figura\ref{fig:The Electrician}). Successivamente, Eldagsen ha rifiutato il premio, rivelando la natura artificiale dell’immagine per stimolare un dibattito sul ruolo dell’IA nella fotografia. In una situazione opposta, il fotografo Miles Astray ha partecipato al concorso 1839 Awards presentando una foto reale nella categoria dedicata alle immagini generate dall’IA. La sua foto \textit{Flamingone}, che ritrae un fenicottero che si gratta la pancia, ha vinto il terzo premio e il premio del pubblico nella categoria IA (Figura \ref{fig:flamingo}). Dopo la vittoria, Astray ha rivelato che l’immagine era una vera fotografia, scattata ad Aruba nel 2022 con una Nikon D750, e per questo è stato squalificato. + +\begin{figure}[H] +\centering +\includegraphics[width=0.7\textwidth]{immagini/the_eletician.png} +\caption{\textit{The Electrician,} dalla serie \textit{PSEUDOMNESIA, }2022. +Boris Eldagsen/Co-creata con DALLE2} +\label{fig:The Electrician} +\end{figure} + +\begin{figure}[H] +\centering +\includegraphics[width=0.7\textwidth]{immagini/f_l_a_m_i_n_g_o_n_e_by_miles_astray.png} +\caption{Flamingo, a cura di Miles Astray.} +\label{fig:flamingo} +\end{figure} + +\empty +\section{L’AI Act} + +Al momento, solo l’Unione Europea ha intrapreso un percorso normativo avanzato per affrontare le questioni etiche e legali legate all’uso dei dati nell’addestramento dei modelli di IA. L’AI Act è la prima legge che stabilisce principi fondamentali sulla trasparenza e sulla provenienza dei dati di addestramento. Si tratta di una svolta nella regolamentazione dei dati di addestramento della IA. La normativa impone ai fornitori di sistemi di IA, inclusi gli LLM, una serie di obblighi in base al livello di rischio del sistema. A tutela del copyright, per i produttori che vendono i loro sistemi sarà necessario fornire un riassunto dettagliato dei contenuti usati per addestrare i modelli, seguendo linee guida specifiche elaborate dall’Ufficio Europeo per l’Intelligenza Artificiale. + +L’AI Act mira dunque a bilanciare l’innovazione con la tutela del diritto d’autore, rafforzando l’accezione di Text and Data Mining (TDM) introdotta dalla Direttiva Copyright \parencite{buick_copyright_2024}. Il TDM è una tecnica di analisi automatizzata che permette di analizzare grandi quantità di testi e dati digitali per ottenere informazioni. Questa eccezione consente alle compagnie di accedere a grandi quantità di dati. La Direttiva Copyright permette ai titolari dei diritti di opporsi all’uso dei loro contenuti per l’addestramento dell’IA e di richiedere un compenso in alcuni casi. Tuttavia, l’applicazione pratica di queste disposizioni presenta diverse criticità. Restano aperte questioni come la definizione precisa dell’eccezione di TDM e l’equilibrio tra trasparenza e tutela dei segreti commerciali. L’obbligo di comunicare informazioni sugli insiemi di dati di addestramento potrebbe creare tensioni con le pratiche di molte aziende tecnologiche, che considerano questi dati risorse strategiche da proteggere \parencite{fernandes_ai_2024}. + +Nonostante queste sfide, l’AI Act rappresenta un importante passo avanti verso una maggiore trasparenza e responsabilità nello sviluppo e nell’uso dell’IA. La normativa europea può diventare un modello di riferimento globale, influenzando gli standard internazionali in questo settore in rapida evoluzione. La sua efficacia dipenderà dalla capacità di bilanciare gli interessi di innovazione tecnologica, tutela dei diritti e trasparenza, mantenendo la competitività del mercato europeo nel contesto globale dell’intelligenza artificiale. Un approccio promettente per le compagnie alla ricerca di dati è quello di stipulare accordi con i detentori dei diritti per l’uso dei dati, prevedendo un giusto compenso. La recente collaborazione tra il sistema bibliotecario di Harvard e OpenAI, ne è un esempio: l’Institutional Data Initiative (IDI) di Harvard mira a rendere disponibili dati di pubblico dominio provenienti da istituzioni come la Harvard Law School Library per l’addestramento di modelli di IA. Non si conoscono i dettagli economici dell’accordo \parencite{young_harvards_nodate}. + +Un altro problema legale da considerare con gli LLM è la definizione di licenza "Open Source". Il dibattito sull’intelligenza artificiale si sta complicando ulteriormente a causa dell’applicazione controversa del termine "open source" ai modelli linguistici di grandi dimensioni. La tendenza di aziende come Meta a definire "open source" modelli come LLaMA, pur imponendo limitazioni significative al loro utilizzo, ha generato perplessità e critiche. La Open Source Initiative (OSI) ha infatti negato esplicitamente la qualifica di "open source" a LLaMA \parencite{noauthor_llama_nodate}, sottolineando come le restrizioni della sua licenza, tra cui il divieto di utilizzo per servizi con oltre 700 milioni di utenti, le limitazioni allo sviluppo di sistemi AI concorrenti e i divieti specifici nella sezione "Prohibited Uses" (che includono, tra l’altro, la violazione della legge, la pianificazione di attività rischiose, l’inganno e la mancata comunicazione dei pericoli del sistema agli utenti) \parencite{noauthor_llama_nodate} siano incompatibili con i principi fondamentali dell’open source \parencite{noauthor_meta_nodate}. Per chiarire la situazione, l’OSI ha proposto una nuova definizione di "Open Source AI", che prevede la disponibilità del codice sorgente completo, dei dati di addestramento (con eccezioni per i dati sensibili), dei parametri del modello e di una documentazione completa. Modelli come Pythia, OLMo, Amber, CrystalCoder e T5 rispettano questa definizione, a differenza di LLaMA, Grok, Phi-2 e Mixtral. La posizione di Zuckerberg, che sostiene la necessità di una definizione specifica per i suoi LLM, riflette il dibattito tra l’uso libero di una tecnologia e il controllo dei suoi potenziali usi dannosi. LLAMa una posizione comprensibile, evitare usi malevoli della sua IA, ma in contrasto con i principi di non discriminazione e di non restrizioni tipici dell’open source. + +Per concludere, al di là del dibattito sull’AI Act e sulle licenze open source, è fondamentale definire regole interne chiare e condivise nelle scuole e negli ambienti educativi, in linea con le direttive dell’Unione Europea. A mio parere ogni istituto dovrebbe promuovere la creazione di gruppi di lavoro per stabilire insieme le modalità di utilizzo dell’intelligenza artificiale, in un’ottica di trasparenza e responsabilità condivisa. Questo permetterebbe di definire con precisione gli usi consentiti e i relativi costi, di scegliere le piattaforme più adatte e di stabilire chi può usare questi strumenti e quando. Un’attenzione particolare andrebbe dedicata alla creazione di prompt di valutazione standardizzati per le valutazioni preliminari e alla scelta dei modelli di IA più adatti al contesto educativo. Sarebbe inoltre utile regolamentare nelle stesse scuole l’uso dell’IA da parte degli studenti, considerando l’età e le modalità di accesso. Ma la scuola non è solo studenti, occorre disciplinare l’impiego di queste tecnologie anche nelle attività amministrative, come la redazione di comunicazioni o le risposte automatiche. + +Come detto, non è possibile sapere con certezza con quali materiali sia stato addestrato ogni LLM, ma in futuro, con l’applicazione dell’AI Act, potremo orientarci verso applicazioni educative di cui sarà possibile conoscere meglio i dati di addestramento. Per ora, nella scelta di un’applicazione, un’istituzione o un docente dovrà verificare che i prompt di contesto o i vettori per il sistema di Retrieval-Augmented Generation (RAG) non siano stati creati a partire da testi protetti da copyright. In caso contrario, è probabile che in futuro quel sistema possa essere bloccato a seguito di azioni legali da parte dei detentori dei diritti, con la conseguente interruzione del servizio per i clienti. Credo quindi che un’applicazione di questo tipo, in ambito educativo, debba essere il più trasparente possibile, mostrando i propri prompt di sistema e, in caso di RAG, indicando quali documenti contribuiscono alla risposta. Questo principio è stato fondamentale per lo sviluppo dell’applicazione Interviste storiche.tech, un esempio di come si possa unire l’innovazione tecnologica al rispetto della proprietà intellettuale. Solo con un approccio organico e strutturato, che coinvolga tutti i membri della comunità scolastica in modo responsabile e consapevole e che consideri le implicazioni etiche e legali legate all’uso di materiali protetti da copyright, sarà possibile gestire l’introduzione dell’intelligenza artificiale, trasformandola da potenziale rischio in una risorsa preziosa per migliorare la didattica e l’organizzazione scolastica. La trasparenza sui dati utilizzati, la verifica della provenienza delle informazioni e il rispetto del diritto d’autore sono essenziali per garantire l’affidabilità e l’originalità dei contenuti generati dall’IA e per costruire un rapporto di fiducia tra sviluppatori, utenti e istituzioni. + diff --git a/TesiZIP/cap3.tex b/TesiZIP/cap3.tex new file mode 100644 index 0000000..7387c2b --- /dev/null +++ b/TesiZIP/cap3.tex @@ -0,0 +1,73 @@ +\chapter{Le sfide etiche nel settore educativo} + +Dopo aver analizzato la natura dei dati di addestramento e le implicazioni legali degli LLM, è imprescindibile affrontare le profonde questioni etiche che questa tecnologia solleva in ambito educativo. + +\section{Le allucinazioni} +Spesso abbagliati dalle capacità apparentemente illimitate dell’IA, gli utenti tendono ad accettare in modo acritico i risultati, sviluppando una fiducia eccessiva che può deresponsabilizzare il processo decisionale umano. Un elemento preoccupante è la tendenza dei modelli linguistici di grandi dimensioni (LLM) ad “allucinare”. Il concetto di allucinazione, cui si è già fatto riferimento in precedenza, ha le sue radici in patologia e psicologia, si riferisce alla percezione di qualcosa che non esiste nella realtà. Applicato ai LLM, il termine indica la generazione di testo senza senso o non fedele a fonti corrette \parencite{barassi_toward_2024}. Questo fenomeno è stato ampiamente studiato e documentato in letteratura \parencite{ji_survey_2023}. +Le allucinazioni possono indurre gli utenti a credere di possedere una comprensione più approfondita di un argomento di quanto non sia in realtà, minando ulteriormente il pensiero critico. Questo perché molto spesso le risposte degli LLM sono scritte in maniera corretta dal punto di vista sintattico e ciò può portare ad abbassare la guardia e a fidarsi di un testo ben scritto. Se ci fossero errori grammaticali, chiunque controllerebbe due volte la risposta prima di prenderla per buona. Convinti di comprendere appieno il funzionamento dell’IA e non capendone i suoi veri limiti, gli utenti possono prendere decisioni basate su informazioni inesatte o incomplete, con possibili conseguenze dannose in diversi ambiti. Fece per esempio notizia l’episodio di un avvocato che impiegò Chat-GPT per scrivere un testo per la causa del suo cliente, riempiendolo però di precedenti giuridici inesistenti \parencite{weiser_heres_2023}. + +\section{I bias} + +Uno dei concetti chiave per comprendere le implicazioni etiche degli LLM è quello di \textit{bias}. Come evidenzia \textcite{floridi_etica_2022}, il bias, nell’ambito dell’IA generativa, non è una semplice anomalia, ma una distorsione sistematica intrinseca al modello. Deriva principalmente dai dati utilizzati per l’addestramento e dalla struttura stessa degli algoritmi. In sostanza, se un’IA apprende da dati che riflettono pregiudizi sociali preesistenti – come discriminazioni di genere o razziali – tenderà a riprodurli e amplificarli nei suoi output. Di conseguenza, le decisioni o i contenuti generati dall’IA potrebbero risultare ingiusti o parziali, non per errore, ma come diretta conseguenza delle informazioni distorte assimilate durante l’apprendimento. + +Vi sono anche altre cause di generazione di bias. L’utilizzo di dati storici che contengono discriminazioni del passato porterà inevitabilmente l’IA a perpetuare tali ingiustizie. Allo stesso modo, algoritmi addestrati su dati incompleti o che presentano correlazioni fuorvianti produrranno risultati distorti. Anche la struttura interna degli algoritmi può introdurre bias, magari a causa di un’eccessiva semplificazione della realtà o della difficoltà nel comprendere appieno il loro processo decisionale. + +I bias sono spesso difficili da individuare, soprattutto in modelli complessi dove la "scatola nera" decisionale rende difficile la trasparenza. Di conseguenza, gli LLM possono inavvertitamente riprodurre e amplificare pregiudizi su temi sensibili, consolidando stereotipi dannosi e presentando opinioni come verità assolute, con conseguenze potenzialmente negative per individui e gruppi sociali. La capacità di questi modelli di accedere e diffondere informazioni, incluse quelle dannose, è particolarmente allarmante, soprattutto per l’impatto su bambini e adolescenti, che sono più vulnerabili e meno equipaggiati per valutare criticamente la veridicità dei contenuti online. + +Per mitigare questi rischi, è fondamentale valutare criticamente le risposte degli LLM, soprattutto su argomenti delicati, al fine di garantire l’accuratezza e ridurre i bias \parencite{urman_silence_2023}. Un approccio comune per migliorare le risposte consiste nell’utilizzo del \textit{reinforcement learning} con feedback umano, che permette di affinare gli output degli LLM in base alle indicazioni fornite dagli esseri umani \parencite{ouyang_training_2022}. La prevenzione di comportamenti indesiderati è un processo continuo che permea l’intero ciclo di sviluppo, poiché anche una selezione accurata dei dati di addestramento non elimina completamente i pregiudizi radicati nelle correlazioni testuali. L’esperienza di Minerva, il primo modello base \textit{open source} italiano, che nelle sue prime versioni generava testi allarmanti, ne è una chiara dimostrazione \parencite{vetere_minerva_2024}. + +\section{I guardrail} + +Per arginare la diffusione di contenuti dannosi o inappropriati, i modelli di IA Generativa implementano misure di sicurezza attive denominate \textit{guardrail} o \textit{safeguards}. Questi meccanismi, che possono essere algoritmi tradizionali, \textit{prompt} di sistema o agenti-LLM più piccoli e veloci, collaborano per controllare i testi in entrata e in uscita dai modelli prima che vengano mostrati agli utenti. I guardrail assumono un’importanza cruciale, specialmente per i modelli generalisti che interagiscono con minori o vengono impiegati in contesti educativi, dove è essenziale prevenire la diffusione di informazioni dannose o violente, garantendo un ambiente di apprendimento sicuro. + +Tuttavia, l'implementazione dei guardrail solleva importanti preoccupazioni riguardo alla censura e alla potenziale manipolazione delle informazioni, in particolare in contesti politicamente sensibili. Queste tecnologie non sono perfette e, occasionalmente, informazioni non conformi alle linee guida possono sfuggire ai filtri. Un'eccessiva rigidità dei filtri potrebbe paradossalmente portare alla classificazione errata di contenuti innocui: una semplice domanda sull'amore potrebbe essere etichettata come "contenuto sessualmente esplicito". + +Nonostante i guardrail, gli LLM rimangono vulnerabili a tentativi di elusione, conosciuti come attacchi avversariali e \textit{prompt injection}. Gli attacchi avversariali consistono nell’usare input particolari nel modello per portarlo a comportarsi in maniera diversa da come era stato progettato e quindi generare output che vanno contro le policy\parencite{qi_visual_2024}. La famosa \textit{prompt injection} è una tecnica di attacco che sfrutta prompt ingannevoli per indurre i modelli a un determinato comportamento, ad esempio fornire risposte inappropriate. In questo caso i prompt sono più precisi e puntano, in un certo senso, ad avere il controllo del modello \parencite{wilison_simon_2022}. Altre tecniche di attacco includono la modifica della cronologia del dialogo \parencite{wu_harnessing_2024} o il riaddestramento dei modelli su lingue con poche risorse linguistiche, rendendoli meno resistenti agli attacchi \parencite{azizy_adversarial_2024}. Attualmente, non esiste una soluzione definitiva per proteggere gli LLM da queste minacce visto che la debolezza è insita nell'architettura del modello. Le continue evoluzioni delle tecniche di attacco, la difficoltà di rilevare attacchi avversariali e il compromesso tra robustezza e prestazioni sono solo alcuni degli ostacoli da superare \parencite{zou_adversarial_2024}. + +Per adesso l’unica strategia empirica per valutare la sicurezza degli LLM sembra essere il \textit{red teaming}, un processo che prevede che una squadra di esperti simuli attacchi realistici per identificare vulnerabilità e debolezze nel modello prima del suo rilascio \parencite{mahato_red_2024}. L’obiettivo è anticipare le mosse di potenziali malintenzionati e rafforzare le difese del sistema. Il \textit{red teaming} cerca di prevedere la creazione e il test di tutti i possibili prompt che potrebbero portare a risposte problematiche. Negli ultimi mesi, con i modelli multimodali, le possibilità di attacco si ampliano notevolmente, richiedendo la considerazione di combinazioni di prompt testuali e input visivi. Al termine di ogni ciclo di test, il team documenta meticolosamente le vulnerabilità scoperte, fornendo informazioni cruciali agli sviluppatori per il riaddestramento del modello. Spesso, i guardrail vengono implementati prevedendo un’analisi preliminare del prompt dell’utente e, in alcuni casi, un’ulteriore analisi della risposta generata prima della visualizzazione. Tuttavia, è fondamentale riconoscere che la sicurezza assoluta non esiste e che la natura dinamica degli LLM, unita alla creatività umana, rende il \textit{red teaming} un processo continuo e dispendioso, ma necessario. Un esempio emblematico è quello dello studente Kevin Liu che, con una semplice forma di "\textit{prompt injection}", chiese educatamente a Copilot di rivelare il suo prompt di sistema, e il sistema glielo diede \parencite{gupta_chatgpt_2023}. + +I rischi per la nostra sicurezza si acuiscono quando le applicazioni di intelligenza artificiale generativa (GenAI) alimentano agenti con accesso a dati sensibili o con la capacità di eseguire azioni. Un assistente virtuale basato su LLM, in grado di gestire file e inviare email, potrebbe essere manipolato tramite \textit{prompt injection} per inoltrare informazioni riservate. La difficoltà nel trovare una soluzione definitiva al "\textit{jailbreak}" degli LLM, ovvero all’elusione delle loro restrizioni, rappresenta una sfida cruciale per gli esperti di sicurezza informatica. Questi attacchi sfruttano la capacità intrinseca dei sistemi GenAI di rispondere a istruzioni in linguaggio naturale, rendendo complesso distinguere tra comandi legittimi e dannosi. Limitare eccessivamente gli input degli utenti potrebbe comprometterne la funzionalità. + +Un rischio concreto, strettamente legato alla capacità degli LLM di generare codice, emerge dall’esistenza di un vero e proprio mercato nero di modelli linguistici "\textit{jailbreakati}" e specificamente progettati per scopi malevoli, informalmente denominati "Malla". Come evidenziato dal primo studio sistematico sull’argomento \parencite{lin_malla_2024}, questo ecosistema illecito è in rapida espansione nei mercati \textit{underground}, sfruttando piattaforme di hosting di applicazioni basate su LLM e avvalendosi sia di modelli non censurati sia di sofisticate tecniche di "\textit{jailbreak prompt}" per eludere le misure di sicurezza. "I “Malla” rappresentano un fenomeno nuovo e inquietante sul fronte della cybercriminalità, ponendo serie sfide etiche e di sicurezza e ribadendo l’urgente necessità di sviluppare strategie efficaci per contrastare l’uso illecito di queste potenti tecnologie. + +In questo contesto, come sottolinea \textcite{cocchiaro_who_2024}, il ruolo degli AI Ethicist è cruciale. Questi professionisti devono sviluppare guardrail efficaci, anticipare i rischi e promuovere trasparenza e responsabilità, ad esempio monitorando la disinformazione, soprattutto quella sanitaria che è tra le più dannose \parencite{menz_health_2024}. I nuovi esperti di etica dell’IA possiedono una formazione multidisciplinare, che integra competenze tecniche, filosofiche e manageriali, permettendo loro di affrontare le sfide etiche da diverse prospettive. Gli AI Ethicist svolgono anche un ruolo di consulenza legale per imprese e istituzioni. La loro competenza nell’identificare e mitigare i rischi associati all’incitamento all’odio, alla discriminazione e ad altri contenuti dannosi è essenziale per garantire la conformità degli LLM agli standard legali ed etici \parencite{roy_probing_2023}. La loro preparazione include la comprensione delle teorie etiche e dei concetti specifici dell’etica dell’IA \parencite{floridi_unified_2019}, oltre alle dinamiche aziendali, consentendo loro di condurre valutazioni etiche, gestire i compromessi, guidare la mediazione etica, sviluppare codici di condotta e identificare le implicazioni delle opinioni degli \textit{stakeholder}. + +Come osservato in precedenza, il tema della trasparenza degli LLM, in particolare quelli \textit{open-source}, è oggetto di dibattito. Tuttavia, questa aspirazione alla trasparenza si scontra inevitabilmente con l’imperativo della sicurezza e la necessità di arginare le enormi potenzialità dannose intrinseche all’intelligenza artificiale generativa. La creazione di LLM \textit{open-source} privi di adeguate protezioni espone a rischi significativi, aprendo la strada all’uso improprio da parte di attori malintenzionati, alla diffusione di contenuti dannosi e alla disinformazione politica. È evidente che l’approccio \textit{open source}, per garantire un futuro sicuro ed etico per queste tecnologie, necessita di una profonda revisione dal punto di vista della sicurezza, dove l’implementazione di guardrail efficaci diviene non solo auspicabile, ma imprescindibile \parencite{biswas_guardrails_2023}. + +\section{Principi di equità e di accesso} + +L’accesso non uniforme agli strumenti di IA nel settore educativo rappresenta oggi una criticità per l’equità a livello globale. Questa disparità si manifesta non solo tra paesi con differenti livelli di sviluppo economico, ma anche all’interno delle singole nazioni, regioni e città. Come osserva \textcite{li_ai_2023}, un accesso limitato all’IA nell’istruzione può perpetuare le disuguaglianze e impedire a individui e comunità di raggiungere il loro pieno potenziale. Gli studenti provenienti da contesti svantaggiati o da istituzioni con risorse limitate si trovano in una posizione di svantaggio rispetto ai coetanei che beneficiano di strumenti di IA più avanzati. Questa situazione rischia di aggravare le disuguaglianze educative, creando un divario che potrebbe limitare le opportunità e i risultati accademici a lungo termine. + + +Le implicazioni di questo accesso diseguale alle risorse di IA sono molteplici e di vasta portata. Come già sottolineato, gli studenti con scarso o nessun accesso alle tecnologie di IA potrebbero essere esclusi da nuove esperienze di apprendimento. D’altro canto, le scuole con budget elevati potrebbero implementare soluzioni per migliorare le performance degli studenti, come tutor basati sull’IA, sistemi predittivi di abbandono scolastico, assistenza amministrativa e libri interattivi, aumentando ulteriormente il divario nei risultati. Privare alcuni studenti di queste opportunità, come sottolinea \textcite{capraro_impact_2023}, limita il loro potenziale sviluppo cognitivo e compromette le prospettive future di crescita della comunità in un mondo sempre più digitale e automatizzato. Anche \textcite{onyebuchi_nneamaka_chisom_review_2024} ed \textcite{chima_abimbola_edeni_role_2024} evidenziano come le comunità svantaggiate affrontino barriere significative nell’accesso alle risorse educative digitali e alle tecnologie necessarie per utilizzare al meglio l’IA. Ad esempio, in molte regioni africane l’integrazione dell’IA nell’istruzione è ostacolata da infrastrutture inadeguate e da una carente formazione STEM, fattori che contribuiranno al mantenimento delle disuguaglianze \parencite{onyebuchi_nneamaka_chisom_review_2024, +ayana_decolonizing_2024}. Queste preoccupazioni sono fondate, tanto che in Africa si discute già di “decolonizzare la governance dell’IA”. Il termine "decolonizzare" in questo contesto si riferisce al fatto che i modelli di IA Generativa attualmente sul mercato sono stati sviluppati principalmente in Occidente o in Asia e non sono progettati per le esigenze e i contesti del Terzo Mondo. Un esempio di questa problematica è stato il sistema di riconoscimento facciale di Google, che, essendo stato addestrato su un dataset composto prevalentemente da individui occidentali, aveva serie difficoltà nel riconoscere le persone di colore \parencite{buolamwini_gender_2018}. Come possiamo osservare (Figura \ref{fig:gorilla_fail}) le facce di alcuni utenti venivano etichettate come gorilla. Questo ci porta a una riflessione: se le aziende immettono sul mercato prodotti di riconoscimento facciale con prestazioni non uniformi a livello globale, si crea uno svantaggio competitivo che può limitare l'innovazione in alcune regioni del mondo. Per questo è importante avere dei dati di addestramento bilanciati e inclusivi. + + +\begin{figure}[H] + \centering + \includegraphics[width=0.9\linewidth]{immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png} + \caption{Screen della App di google Photos effettuata dall'utente di twitter @jackyalcine} + \label{fig:gorilla_fail} +\end{figure} + +Questo episodio, sebbene poi corretto con aggiornamenti, è un chiaro esempio di come un dataset di addestramento non inclusivo possa portare a risultati discriminatori \parencite{harding_facial_2023}. In pratica, un sistema di sicurezza basato sul riconoscimento facciale in un paese africano risultava inutile e rappresentava un acquisto inefficace per qualsiasi impresa. Tuttavia, per limitare questi problemi, secondo il movimento della decolonizzazione dell’IA, sarebbe meglio che in tutto il mondo ci fosse la capacità di creare modelli di IA, con centri di ricerca e sviluppo sparsi e decentralizzati, in modo da poter competere, almeno, ad armi pari. Attualmente, l’hardware necessario per lo sviluppo e l’addestramento di tali modelli è principalmente in mano agli Stati Uniti, con aziende come Nvidia, AMD e Intel che sono le uniche a poter sviluppare l’hardware adatto. Secondo chi scrive, anche l’Europa dovrebbe preoccuparsi; il gap tecnologico con l’IA generativa è notevole, e solo quest’anno si sono cominciati a vedere i primi LLM europei, addestrati sulle lingue dell’Unione. +Una scarsa familiarità con le tecnologie di IA da parte dell’intero sistema educativo potrebbe comportare un futuro svantaggio competitivo nel mercato del lavoro per gli studenti. Dato il ruolo sempre più centrale dell’IA in numerosi settori, gli studenti che non hanno interagito con queste tecnologie durante la loro formazione potrebbero non possedere le competenze necessarie per affrontare le sfide del mondo del lavoro. Per questo motivo, \textcite{capraro_impact_2023} sostiene che l’IA, in questo modo, contribuirebbe ad amplificare le disuguaglianze socioeconomiche invece di risolverle. +Per chiarire la questione della democratizzazione dell’IA nell’educazione, propongo un esempio concreto basato sulla mia esperienza di educatore in una zona marginale del Perù. Lì ho osservato come l’IA Generativa, pur offrendo nuove opportunità, possa amplificare le disuguaglianze esistenti, creando un crescente divario di competenze in base alle disponibilità economiche delle famiglie. In Sud America, l’integrazione di modelli linguistici più semplici, appartenenti alla famiglia LLaMA, in WhatsApp ha reso l’IA Generativa accessibile a molti. Questo ha abbassato la soglia di ingresso grazie alla familiarità con l’applicazione e ha ridotto i costi, dato che non sono previsti abbonamenti. Tuttavia, questo accesso diffuso, unito a un uso poco consapevole soprattutto tra i giovani, ha portato a un eccessivo affidamento sull’IA in classe, riducendo l’impegno nello studio e nei compiti. Questa mancanza di alfabetizzazione sull’IA, sia tra gli studenti che tra gli insegnanti, si traduce in un abbassamento della qualità dello studio. Ho constatato, infatti, un uso spesso improprio dell’IA, ad esempio per risolvere equazioni o problemi matematici, compiti che gli attuali LLM non gestiscono ancora correttamente. Infatti, i modelli LLaMA integrati in WhatsApp sono i modelli più piccoli ed economici per Meta, con prestazioni inferiori e quindi meno efficaci nel risolvere compiti di materie specifiche. Una bassa competenza digitale portava gli studenti a fidarsi ciecamente dell’IA Generativa su WhatsApp. Se ne deduce che il problema non è solo offrire l’accesso, come visto in precedenza, ma anche saper insegnare un corretto utilizzo. Senza ignorare il problema economico, è chiaro che chi può permettersi costosi abbonamenti a modelli specializzati e sa come usarli, ne potrà sfruttare appieno il potenziale, ottenendo un vantaggio sugli altri. Gli abbonamenti ai sistemi di IA Generativa hanno oggi costi elevati, anche per i paesi ricchi, perché occorre saper scegliere l’IA migliore per il proprio utilizzo. E questi costi sono proibitivi per la maggior parte della popolazione mondiale. In Perù, l’abbonamento mensile a un modello come Claude equivale al costo di una settimana di spesa alimentare per una famiglia (circa 120 soles). Inoltre, molte di queste aziende non sono ancora redditizie, secondo alcuni analisti economici \parencite{field_openai_2024}, e un eventuale aumento dei prezzi degli abbonamenti peggiorerebbe la situazione. Lo dimostra il costo esorbitante dell’ultimo piano pro di OpenAI: 200 dollari al mese. L’illusione della gratuità di questa tecnologia è spesso legata a modelli di business "freemium" che offrono un numero limitato di interazioni al giorno e con modelli generativi più semplici, insufficienti per un uso didattico continuativo. Sempre in Perù, durante un gioco di ruolo in inglese implementato tramite ChatGPT, la lezione si è interrotta a causa dell’eccessivo carico di richieste al server di OpenAI in Sud America, probabilmente dovuto all’aumento di studenti che utilizzavano l’IA generativa per le consegne e gli esami di fine anno. Solo chi aveva un piano a pagamento poteva accedere al servizio in quel momento. +Da questo punto di vista, l’utilizzo di modelli LLM che funzionano sui normali PC, in locale e senza necessità di essere connessi a Internet, potrebbe essere una soluzione. Tuttavia è probabile che un tale scenario porterebbe a un aumento dei costi dell’hardware, con dinamiche speculative simili a quelle osservate durante la bolla delle criptovalute del 2017 \parencite{wilson_gpu_2022}. Ciononostante, i modelli stanno riducendo le loro dimensioni e quindi necessitano di meno risorse di RAM e CPU per funzionare. Alcuni modelli, come Phi 3.5 di Microsoft, possono essere installati su un cellulare, mentre quelli con dimensioni comprese tra 6 e 9 miliardi di parametri (6 e i 9B) riescono a funzionare su un computer di fascia media, come dimostrano i recenti studi sulle performance dei modelli linguistici su piattaforme mobili \parencite{xiao_large_2024}. Per ora, i tempi di generazione non sono immediati come quelli ottenibili con una TPU Nvidia di ultima generazione, ma la ricerca sta puntando molto in questa direzione. Con tecniche come la distillazione e la linearizzazione, si cerca di ridurre i costi di questi modelli senza compromettere la qualità delle risposte. Anche la nuova architettura per gli LLM, denominata MAMBA, a detta dei suoi creatori, permetterà costi di addestramento minori e prestazioni migliori \parencite{qu_survey_2024}. Inoltre, aziende come DeepSeek stanno esplorando approcci innovativi, come il modello DeepSeek-V2, un "Mixture-of-Experts Language Model" che promette di essere forte, economico ed efficiente \parencite{deepseek-ai_deepseek-v2_2024}. + + +\section{Sotto-rappresentazione di realtà sociali, culturali e linguistiche} + +Oltre alle sfide legate all’accesso alle risorse tecnologiche e alla formazione, esiste un ulteriore ostacolo alla democratizzazione dell’IA: la questione delle lingue con un numero ristretto di parlanti. È infatti molto difficile che qualcuno investa nel training di modelli linguistici su queste lingue minoritarie, data la loro diffusione limitata. Anche se si sta cercando di utilizzare modelli addestrati su altre lingue per poi adattarli a lingue minoritarie, questo approccio ha mostrato problemi di fragilità degli LLM, in particolare per quanto riguarda la sicurezza. Sembra, per esempio, che sia più facile effettuare il \textit{jailbreak} (Yong et al., 2023). Come evidenziano Zhong et al. (2024), gli LLM attuali incontrano notevoli difficoltà nel supportare lingue a basse risorse, con conseguenti svantaggi per le comunità che parlano tali lingue. Tuttavia, anche da questo punto di vista, si può essere ottimisti: la ricerca sta andando nella direzione di sviluppare LLM in grado di supportarle. Questo è un aspetto fondamentale per garantire che la democratizzazione dell’IA non sia solo una questione di disponibilità economica, ma anche di inclusione linguistica e culturale. Se ogni lingua, anche la meno diffusa, avrà la possibilità di essere supportata da un LLM, allora si potrà parlare di un accesso realmente equo e democratico a questa tecnologia. + + +\section{Strategie per l’equità digitale} + +Di fronte alle sfide citate nei precedenti paragrafi, le istituzioni educative, a ogni livello, devono implementare misure per garantire un accesso equo alla tecnologia e all’IA. Questo richiede un approccio multidimensionale, che coinvolga scuole, governi, ONG e settore privato. Investire in infrastrutture tecnologiche nelle scuole e nelle comunità svantaggiate è fondamentale. Ciò implica acquistare hardware e software, ma anche sviluppare reti a banda larga affidabili e accessibili. È altrettanto cruciale investire nella formazione degli insegnanti e degli alunni, affinché integrino gli strumenti di IA nella didattica e guidino gli studenti verso un uso consapevole e critico. Servono politiche educative che promuovano l’equità digitale, con linee guida per l’implementazione dell’IA nelle scuole, considerando le diverse esigenze degli studenti, e con meccanismi di finanziamento per una distribuzione equa delle risorse tecnologiche. È inoltre essenziale favorire la collaborazione tra scuole, università e aziende tecnologiche per creare programmi di mentoring e opportunità di apprendimento pratico sull’IA per studenti svantaggiati. + + +\section{ I modelli open source} + +Guardando al futuro, è interessante notare come alcuni modelli open source stiano raggiungendo prestazioni paragonabili a quelle dei modelli di grandi competitor come Anthropic e OpenAI. Questo fa ben sperare per una maggiore democratizzazione dell’IA, in quanto l’accessibilità a modelli linguistici avanzati non sarà più limitata da costi proibitivi di sviluppo o da licenze d’uso restrittive. I modelli open source come T5, Falcon, EuroLLM, DeepSeek e alcuni dell’azienda Mixtral, infatti, essendo disponibili liberamente e utilizzabili da chiunque, potrebbero contribuire a colmare il divario digitale e a rendere l’IA uno strumento alla portata di tutti, non soltanto per le grandi aziende o per i paesi più ricchi. + +Questo scenario, se si concretizzerà, potrebbe portare a un futuro in cui l’accessibilità all’IA sarà molto più semplice, non più limitata ai paesi con un alto reddito o alle grandi aziende tecnologiche. Un futuro dove le scuole di tutto il mondo, anche quelle con budget limitati, potranno avvalersi di strumenti di IA per migliorare la didattica e offrire agli studenti opportunità formative all’avanguardia, indipendentemente dal loro contesto socioeconomico. diff --git a/TesiZIP/cap4.tex b/TesiZIP/cap4.tex new file mode 100644 index 0000000..10414ff --- /dev/null +++ b/TesiZIP/cap4.tex @@ -0,0 +1,73 @@ +\chapter{Rischi e opportunità per l’istruzione} + +L’integrazione dell’IA nell’educazione offre opportunità significative, ma solleva anche criticità che meritano un’analisi attenta. + +Un primo problema riguarda la dipendenza da questi strumenti. Ricerche recenti (Bastani et al., 2024) dimostrano che l’accesso a strumenti come GPT-4, pur potenziando le prestazioni degli studenti in compiti specifici, come gli esercizi di matematica, può compromettere l’apprendimento a lungo termine. Infatti, senza questi strumenti, gli studenti spesso ottengono risultati peggiori rispetto a chi non li ha mai usati. Questo "effetto stampella" evidenzia come la dipendenza dall’IA possa inibire lo sviluppo autonomo delle competenze. L’introduzione di IA progettate per salvaguardare l’apprendimento, come i "GPT Tutor", può però mitigare questo effetto, suggerendo che un’integrazione mirata e consapevole dell’IA nell’educazione possa dare risultati positivi. Inoltre, uno studio recente (Stadler et al., 2024) ha evidenziato come l’utilizzo di LLM per la ricerca di informazioni, rispetto ai motori di ricerca tradizionali, possa ridurre lo sforzo cognitivo degli studenti, ma anche compromettere la profondità della loro comprensione scientifica. Gli studenti che utilizzano gli LLM, pur sperimentando un carico cognitivo inferiore, hanno dimostrato una qualità inferiore nel ragionamento e nell’argomentazione delle loro conclusioni. + +Un secondo problema si riscontra nella valutazione scolastica (Trisnawati, 2023). L’IA, se non integrata correttamente nelle scuole, rischia di marginalizzare gli educatori che non sono riusciti ad aggiornarsi. Di conseguenz, senza una guida gli alunni saranno portati a usarla in maniera poco responsabile e a lungo termine rischiano di ridurre le proprie capacità critiche (Walter, 2024). + +Inoltre, l’uso dei LLM da parte degli studenti solleva preoccupazioni relative all’etica e all’integrità accademica. Ad esempio, uno studio di Hua (2023) ha messo in luce come la dipendenza da strumenti di IA sia diffusa tra gli studenti universitari e come questo fenomeno sia correlato a problemi di disonestà accademica durante le prove di esame. Sebbene manchino dati precisi sulla diffusione del cheating tramite LLM, la questione è di crescente importanza nel dibattito sull’etica dell’IA nell’educazione. La capacità di questi strumenti di generare risposte plausibili e ben formulate, senza un reale processo di elaborazione e comprensione personale da parte dello studente, pone interrogativi cruciali sull’efficacia e sull’equità delle valutazioni. + +Infine, un ultimo problema riguarda la relazione educativa. Sembra, infatti, che gli studenti preferiscano i tutor virtuali (Seo et al., 2021), probabilmente per la loro disponibilità costante e per la rapidità delle risposte. Questo toglie però molto alla didattica, che si basa su di una dinamica comunicativa e sociale. + +È importante riconoscere come l’IA, usata in modo appropriato, possa anche potenziare il processo di apprendimento. L’analisi della letteratura recente evidenzia che l’IA può fornire un supporto personalizzato agli studenti, adattando i contenuti didattici alle loro esigenze e ai loro ritmi. Gli strumenti basati sull’IA possono infatti analizzare le performance individuali, identificare punti di forza e di debolezza e creare percorsi educativi personalizzati. Questo approccio non solo migliora l’efficacia dell’insegnamento, ma può anche ridurre il divario di rendimento tra studenti con diverse capacità. In quest’ottica, particolarmente rilevante è il ruolo dell’IA nell’inclusione didattica, dove tecnologie come il riconoscimento vocale e la sintesi vocale possono supportare studenti con disabilità, rendendo l’istruzione più accessibile ed equa. Inoltre, l’automazione di compiti amministrativi e valutativi ripetitivi permette agli insegnanti di dedicare più tempo all’interazione diretta con gli studenti e alla progettazione didattica innovativa. + +L’IA potrebbe rappresentare l’impulso necessario per una nuova riforma scolastica. L’unica forma di difesa, a parere di chi scrive, è ripensare completamente il sistema di valutazione e parte del processo didattico. Bisogna chiedersi cosa significhi fare un esame di questi tempi, cosa voglia dire “conoscenza” e quali siano le abilità che saranno davvero necessarie agli studenti. I compiti a casa servono a qualcosa? Qual è, ad esempio, la necessità di una conoscenza mnemonica in un mondo in cui, con la rapidità di un click sullo smartphone, si possono avere risposte di qualsiasi tipo, svolgere esercizi e avere a disposizione un assistente esperto in tutto? + +\section{L'integrità} + +La diffusione dei sistemi di IA Generativa ha immediatamente sollevato preoccupazioni riguardo alla tutela dell’integrità, specie quella accademica. Valori fondamentali come onestà, fiducia, equità, rispetto e responsabilità, pilastri della formazione e della ricerca, sono stati messi alla prova. La digitalizzazione, con la sua offerta di risorse online pressoché illimitate, aveva già creato problemi complessi legati all’attribuzione corretta delle fonti e alla prevenzione del plagio. L’IA Generativa, tuttavia, introduce un elemento nuovo e potenzialmente dirompente, creando testi di sorprendente coerenza e articolazione su diversi argomenti. Saggi, relazioni e persino articoli accademici raggiungono una qualità tale da sembrare indistinguibili da quelli scritti da persone, tanto che alcuni sono stati pubblicati, come accaduto con l’articolo di Zaitsu e Jin (2023), nel quale una prima revisione umana aveva ignorato un intero paragrafo scritto da ChatGPT, evidenziando la difficoltà nel distinguere i contenuti generati dall’IA da quelli prodotti da esseri umani. + +Questa dinamica in discussione il concetto stesso di originalità e creatività nell’ambito accademico, ridefinendo i criteri di valutazione di articoli, saggi, elaborati, ma anche di semplici esami e compiti a casa. La facilità di accesso agli strumenti di IA e l’alta qualità dei testi prodotti rappresentano una sfida per i metodi di valutazione tradizionali e i sistemi antiplagio. Questi software, progettati per trovare corrispondenze con testi esistenti, sono inefficaci contro i contenuti creati dall’IA. Pur non essendo copiati, tali elaborati mancano di originalità accademica, poiché privi di un contributo intellettuale autentico dello studente e di una reale novità scientifica, essendo di fatto strumenti che rielaborano informazioni esistenti con difficoltà a produrre concetti nuovi. + +Mentre alcuni potrebbero sostenere che usare l’IA non sia diverso dal consultare enciclopedie o motori di ricerca, la sua capacità di generare contenuti complessi e apparentemente originali, senza un vero impegno da parte dello studente, compromette l’apprendimento e lo sviluppo del pensiero critico, elementi essenziali nella formazione. Di conseguenza, i compiti a casa nelle scuole o la scrittura di saggi all’università richiedono oggi una revisione degli obiettivi e dei metodi didattici. È quindi necessario progettare nuove forme di valutazione, capaci di promuovere un apprendimento autentico e lo sviluppo di competenze specifiche per l’era dell’IA, come il pensiero critico e la sintesi originale di informazioni. + + + + +\subsection{Strategie e approcci per preservare l’integrità accademica} + +Alla luce di quanto delineato, Il mondo accademico e scolastico dovrebbe rivedere i criteri di valutazione, privilegiando competenze che l’IA non può facilmente replicare, come il pensiero critico, la creatività e la capacità di sintetizzare informazioni da diverse fonti in modo originale e creativo attraverso l’uso di musica, audio, o presentazioni visive. Molte istituzioni, anziché vietare l’IA, ne stanno esplorando l’integrazione nella didattica, insegnando agli studenti a usarla in modo etico e produttivo. La chiave è quella che Mollick chiama la co-intelligenza: la sinergia tra capacità umane e dell’IA (Mollick, 2024). In questo modo, studenti e ricercatori possono migliorare le proprie prestazioni. Le attività assegnate potrebbero richiedere una collaborazione essenziale tra uomo e macchina: compiti impossibili senza l’IA, ma che l’IA non può completare autonomamente. Negli esami e nelle verifiche, inoltre, si può dare più importanza alla forma dell’esposizione orale, alla gestione dei tempi e alle competenze trasversali. A parere di chi scrive, in futuro, cambierà il concetto stesso di originalità accademica. Non sarà più fondamentale saper produrre contenuti completamente nuovi, ma saper sintetizzare, applicare e comunicare conoscenze in modo innovativo. + +Un primo passo concreto nella pubblicazione accademica potrebbe essere distinguere tra un uso improprio e un uso strumentale dell’IA (Yu, 2023). Se, ad esempio, un autore non madrelingua usa l’IA Generativa per migliorare la qualità linguistica del suo testo o per adattarlo alle linee guida di una rivista, non agisce necessariamente in malafede. Chi scrive ritiene che ogni rivista e università dovrebbe definire linee guida chiare sull’uso dell’IA: cosa è consentito, quali prompt sono accettabili e come documentarne l’utilizzo. Una soluzione potrebbe essere allegare un’appendice con la conversazione avuta con l’IA (strumenti come ChatGPT o Perplexity permettono di condividerla con un click). In alternativa, per i più rigorosi, esistono strumenti per garantire l’autenticità, come "Authorship" di Grammarly, che traccia la scrittura e classifica come è stato creato il testo (digitato, generato, incollato, ecc.), mostrando chiaramente il contributo umano e quello dell’IA. + +Ciò che preoccupa maggiormente sono gli utilizzi poco etici che possono compromettere il sistema della \textit{peer-review}, che presenta delle fragilità. L’articolo di Zaitsu e Jin (2023) e la risposta di ChatGPT riportata nello stesso articolo ne sono una chiara dimostrazione. Lu et al. (2024) suggeriscono come potrebbero aumentare le pubblicazioni generate interamente dall’IA. Servono quindi soluzioni che bilancino l’uso dell’IA come supporto con l’originalità e l’integrità della ricerca. Tuttavia, se ben utilizzata, l’IA potrebbe anche migliorare la qualità della \textit{peer review} aiutando i revisori nel loro lavoro, come sottolineato da Bauchner e Rivara (2024). Un’IA specializzata in un settore potrebbe individuare le sezioni di un articolo che richiedono maggiore attenzione. Oppure, se disponibili i dati dell’esperimento, in alcune discipline l’IA potrebbe effettuare un’ulteriore analisi statistica e verificare se le conclusioni rimangono valide, fornendo un utile avviso al revisore. In caso di codice sorgente complesso, un’IA in futuro potrebbe controllare quest’ultimo in modo più approfondito e segnalare eventuali problemi ai revisori. L’uso corretto in questi e altri contesti è definito \textit{human in the loop} e sta a significare come l’IA debba essere impiegata sempre sotto la supervisione di un essere umano capace e competente che controlla ogni passaggio (Bauchner \& Rivara, 2024). + + +\section{Il riconoscimento dei contenuti prodotti dall'IA} + +L’idea più semplice per affrontare il problema è identificare un testo scritto da un’IA. Questa operazione è però sempre più complessa, nonostante i progressi nelle tecniche di rilevamento. Il rapido sviluppo di modelli di IA sempre più sofisticati rende l’identificazione una sfida continua. Ogni nuova versione aumenta la quantità di testo generabile, le lingue supportate e la somiglianza con la scrittura umana. Basta osservare le risposte di un modello mini di ChatGPT per rendersene conto. Per il riconoscimento, è quindi necessario un approccio multidimensionale che combini diverse strategie, come l’analisi statistica, lo studio dello stile e il \textit{watermarking}, per rendere l’identificazione più affidabile. + +Il \textit{watermarking}, una tecnica emergente, mira a garantire l’autenticità e la proprietà intellettuale dei testi generati dall’IA. Similmente al logo semitrasparente presente in alcune foto per indicarne la provenienza, il watermarking nei testi IA inserisce informazioni invisibili o impercettibili per identificarne l’origine e prevenire l’uso non autorizzato. Esistono watermarking "hard" e "soft": i primi hanno un impatto maggiore sulle prestazioni dei modelli di generazione rispetto ai secondi (Kirchenbauer et al., 2023). In particolare, i watermark hard possono ridurre significativamente metriche di valutazione come il punteggio BLEU, che misura la qualità del testo generato (Kirchenbauer et al., 2023). Questo accade perché si aggiungono parole o si forzano strutture linguistiche. Il watermarking deve quindi bilanciare robustezza e qualità del testo: deve resistere ai tentativi di rimozione o alterazione, senza compromettere chiarezza e fluidità (Kirchenbauer et al., 2023). Tuttavia, il watermarking può essere facilmente aggirato e, a parere dhi chi scrive, è utile solo per riconoscere i testi generati automaticamente senza revisione o intervento intenzionale dell’utente. Sarebbe sufficiente parafrasare un testo manualmente o con un altro LLM privo di watermarking. Idealmente, ogni produttore di LLM dovrebbe avere un proprio watermark e un sistema di riconoscimento dedicato. Ma, considerando l’alto numero di LLM che vengono rilasciati quotidianamente su Hugging Face, una piattaforma online per scaricare modelli di IA, questa soluzione non mi sembra efficace. Inoltre, servirebbe un sistema che integri tutti i sistemi di riconoscimento dei watermark per consentire a un’istituzione educativa di accertare, almeno in parte, la provenienza di un testo. + +Un’altra strategia è la \textit{stilometria}, ovvero l’applicazione di algoritmi per ottenere una sorta di impronta digitale di un testo. La stilometria è una tecnica di analisi quantitativa che esamina le caratteristiche stilistiche dei testi scritti. Vengono utilizzati metodi statistici per identificare schemi linguistici distintivi, concentrandosi, ad esempio, sulla frequenza delle parole, sulle strutture sintattiche, sulla varietà lessicale e sulla complessità delle frasi. Nell’ambito del riconoscimento di testi generati da IA, l’analisi stilometrica può rivelare schemi tipici come ripetizioni sistematiche di strutture, eccessiva uniformità nel vocabolario e mancanza di variazioni stilistiche naturali. + +Tuttavia, come evidenziato nello studio di Chaka (2024), l’affidabilità degli strumenti di rilevamento dell’IA è spesso variabile e incostante. Anche strumenti noti come Crossplag e Copyleaks, pur essendo a volte efficaci, mostrano un’affidabilità limitata. A complicare ulteriormente la situazione, lo studio di liang (2023) rileva come gli strumenti di rilevamento dell’IA mostrino una predisposizione a classificare erroneamente i testi di autori non madrelingua inglese. Come evidenziato anche da Liang et al. (2023), questi strumenti mostrano un bias significativo contro gli scrittori non madrelingua inglese, con un’elevata percentuale di falsi positivi. Questi studi hanno rilevato che i falsi positivi di alcuni strumenti dipendono, ad esempio, dagli elenchi puntati. Questi elenchi, frequenti nei testi IA, sono comuni anche in testi di persone con minore padronanza della lingua, per ragioni di istruzione, cultura o età, o nella comunicazione aziendale dove si privilegia la sintesi. Affidarsi completamente a questi strumenti rischia di discriminare anche chi non usa l’IA generativa. + +Inoltre, l’idea che i testi generati dall’IA siano nettamente diversi da quelli umani sta diventando meno certa. Si sta verificando una sorta di convergenza: l’uomo, con i suoi testi, ha insegnato alle macchine a parlare e ora sta adattando inconsapevolmente il suo linguaggio a quello delle macchine. Infatti, studi recenti mostrano che persone di madrelingua non inglese, inclusi accademici di alto livello, utilizzano inconsapevolmente strutture lessicali tipiche di ChatGPT (Yakura et al., 2024). Questa convergenza linguistica riduce l’efficacia degli algoritmi di rilevamento, soprattutto nel lungo periodo. Saranno quindi cruciali la ricerca e l’adattamento continuo delle strategie. Tecniche migliori aiuteranno, ma la convergenza tra linguaggio umano e artificiale e l’alto numero di falsi positivi che si creano dopo successive riscritture restano una sfida (Sadasivan et al., 2023). Per questo motivo, a mio parere, una continua "caccia all’IA" nell’ambito scolastico è controproducente. È preferibile prevenire, scoraggiando l’uso indiscriminato dell’IA e promuovendo una consapevolezza e un utilizzo critico. Come detto in precedenza, ciò implica ripensare i metodi di insegnamento e le lezioni stesse. + +Anche dal punto di vista tecnico, un algoritmo di riconoscimento deve costantemente adattarsi ai nuovi modelli in uscita, trovandosi sempre in una posizione di inseguimento. Quando si sarà aggiornato, dovrà di nuovo migliorare in attesa di un nuovo modello. Inoltre, sapendo che per ora questi algoritmi sono stati addestrati principalmente con testi reperibili online, il passaggio a testi più tradizionali come libri e articoli potrebbe rendere il riconoscimento ancora più difficile. Appunto, si sta convergendo. + + + + + +\section{IA come alleata della didattica} + +L’introduzione dell’IA Generativa nelle scuole non va temuta, ma gestita con attenzione. Ad esempio, la correzione automatica di compiti e testi offre agli insegnanti la possibilità di ridurre il carico di lavoro, liberandoli da attività ripetitive, e di dedicarsi di più all’interazione con gli studenti e alla personalizzazione dell’apprendimento (Chen et al., 2020). + +Nella valutazione e correzione tradizionale, i docenti sono spesso influenzati da pregiudizi involontari legati allo stile di scrittura, alle caratteristiche degli studenti o alla presentazione del compito. L’IA, se ben programmata, analizza solo gli aspetti oggettivi del compito, come l’organizzazione delle idee, la loro connessione e la struttura dei contenuti (Yakkala, 2024). Inoltre, permette di rendere uniformi i criteri di valutazione, garantendo che tutti gli studenti siano valutati con gli stessi parametri. Questo è particolarmente utile in contesti di apprendimento con molti partecipanti, come i MOOC. È però importante ricordare che l’efficacia dell’IA nel ridurre i pregiudizi dipende dalla qualità e dalla varietà dei dati usati per “addestrarla”: se anche questi dati contengono pregiudizi, l’algoritmo potrebbe ripeterli. Per questo motivo, è fondamentale che le scuole adottino standard etici rigorosi e scelgano le tecnologie migliori (Azzahra, 2024). + +Affidarsi completamente alla macchina, però, rischia di rendere il riscontro meno ricco e di rendere impersonale l’insegnamento. Potrebbe succedere che la valutazione diventi un dialogo tra algoritmi, perché, se si assegnano sempre gli stessi compiti, gli studenti continueranno a essere tentati di usare l’IA Generativa per fare i compiti a casa e le verifiche. Questo scenario preoccupante richiede una riflessione sugli scopi e sui metodi della valutazione. La soluzione non è eliminare la valutazione, ma ripensarla dal punto di vista dell’insegnamento. Servono valutazioni più stimolanti e coinvolgenti, capaci di dare valore alle capacità critiche, creative e argomentative degli studenti: capacità che l’IA Generativa, per ora, non riesce a riprodurre in modo autentico. Un’idea è assegnare compiti che richiedano un contributo personale, argomentazioni complesse e pensiero critico. Temi e brevi saggi su argomenti discussi, con conseguenze etiche e morali, o l’analisi di problemi e il confronto tra diverse opinioni mettono alla prova i modelli linguistici, spesso programmati per evitare argomenti delicati. Domande come il classico dilemma morale “Uccideresti l’uomo grasso?”, se formulate bene, favoriscono un apprendimento più approfondito e sono difficili da risolvere per l’IA. Per garantire l’onestà nello studio, si può anche limitare l’accesso a Internet e ai dispositivi durante le prove, usando, se necessario, sistemi di sorveglianza. Tuttavia, questa soluzione non prepara gli studenti a un mondo in cui l’IA è sempre più presente. Del resto, il fatto che i testi degli esami di maturità siano subito disponibili online dimostra come sia ormai impossibile controllare del tutto la tecnologia. + +In questo contesto, la cosiddetta \textit{flipped classroom}, potenziata dall’IA, può essere una soluzione parziale (Suvendu, 2024). Immaginiamo una lezione in cui gli studenti, a casa, utilizzano un’IA come tutor didattico per studiare un argomento e svolgere esercizi. L’IA può fornire spiegazioni personalizzate e un primo feedback sui compiti. In classe, poi, gli studenti si sentono più liberi di chiedere chiarimenti al docente su ciò che non hanno compreso o sugli errori commessi. Si possono anche analizzare collettivamente le allucinazioni, per capire meglio i concetti o per affinare il pensiero critico. Così, l’IA diventa uno strumento a supporto di un processo, non un problema per risolvere i compiti. Vietare e condannare l’IA generativa porterebbe a un’inutile ricerca di colpevoli e all’acquisto di costosi strumenti per riconoscere i testi, peraltro poco efficaci, come dimostrato da Weber-Wulff et al. (2023). Come accennato, la lingua degli umani e quella delle macchine stanno convergendo, e questo rende i detector sempre meno affidabili. Elenchi puntati, stile schematico e parole ripetute, tipici dell’IA, possono generare errori, penalizzando studenti con difficoltà linguistiche. Studi recenti indicano che sono gli esseri umani a imparare a "parlare" come l’IA, acquisendone strutture e parole, con il rischio che anche testi originali vengano considerati sbagliati (Yakura et al., 2024). + +Un’altra strategia utile è la \textit{valutazione formativa}, che raccoglie informazioni sull’apprendimento durante il percorso e consente di adattare l’insegnamento di conseguenza (Hopfenbeck et al., 2023). Quindi, non concentrarsi solo su una verifica alla fine di un modulo (\textit{valutazione sommativa}), ma su una valutazione di processo che viene svolta durante il percorso didattico. In questo caso, un’IA Generativa specifica può aiutare l’insegnante a personalizzare valutazioni e compiti, soprattutto per chi è alle prime armi o per chi ha classi molto numerose e non potrebbe fornire un riscontro continuo a ogni studente. Anche la valutazione tra pari, o peer review, può dare ottimi risultati, specialmente ora. Studi come quello di Cho e MacArthur (2010) dimostrano che un riscontro da più compagni migliora l’apprendimento perché i compagni usano un linguaggio più semplice. Inoltre, il riscontro da più persone riduce i “punti ciechi” e crea un “accordo comune” (DiPardo \& Freedman, 1988). Un esempio di peer review con l’IA potrebbe essere questo: gli studenti inviano il compito a una piattaforma; l’IA analizza il testo, suggerendo correzioni; i compiti vengono distribuiti in forma anonima tra i compagni che, seguendo una guida e aiutati dall’IA, danno il loro parere; l’insegnante controlla l’attività, analizza i riscontri con l’aiuto dell’IA e fornisce un riscontro finale. Questo processo sviluppa capacità utili e la consapevolezza del proprio apprendimento. Anche la valutazione tra pari di un compito svolto dall’IA può essere utile, perché permette agli studenti di trovare errori senza paura di criticare una persona. L’integrazione tra apprendimento tra pari, revisione tra pari e IA trasforma la valutazione in un processo attivo e partecipativo. + +Un’ulteriore strategia è lo sviluppo dell’internal feedback. Come spiega Nicol (2020), l’internal feedback è un processo mentale che permette agli studenti di creare nuove conoscenze confrontando le proprie competenze con informazioni di riferimento. È un meccanismo naturale che si attiva durante l’apprendimento. Nell’era dell’IA, questo riscontro interno è fondamentale per stimolare la valutazione critica e la ricerca autonoma. L’insegnante facilita questo processo, incoraggiando gli studenti a renderlo esplicito (Nicol \& McCallum, 2022; Nicol \& Selvaretnam, 2022). Tale esplicitazione, attraverso la scrittura o la discussione, ha effetti positivi sulla consapevolezza del proprio apprendimento, perché rende visibile il pensiero e aiuta a capire dove migliorare. Anche la tecnica del \textit{think aloud} è una strategia efficace per la valutazione: lo studente dice ad alta voce il proprio ragionamento durante l’interrogazione. Questa tecnica può essere usata in modo nuovo per l’analisi critica delle risposte dell’IA, che permette agli studenti di valutarle e correggerle. Infine, l’approccio di \textit{Authoring by Editing} proposto da Aguilar et al. (2024) suggerisce un modello interessante in cui gli studenti interagiscono attivamente con l’IA, non solo come utilizzatori passivi di contenuti creati automaticamente, ma come revisori critici che migliorano i testi prodotti dall’IA. Questo metodo non solo riduce i rischi di dipendenza e di riduzione del pensiero critico, ma trasforma l’IA in un vero strumento di supporto all’apprendimento, una sorta di “assistente virtuale” che stimola la riflessione e l’autocorrezione. Gli studenti, in questo modo, imparano a valutare la qualità del testo generato, a individuare i punti di forza e di debolezza, e a intervenire per migliorare la coerenza, la chiarezza e l’efficacia del messaggio. + +In conclusione, riscontro interno, \textit{flipped classroom}, apprendimento tra pari, \textit{think aloud} e \textit{Authoring by Editing} sono fondamentali per un apprendimento e una valutazione autentici nell’era dell’IA. La ricerca futura dovrà approfondire queste strategie, sfruttando le potenzialità dell’IA generativa per sviluppare la consapevolezza del proprio apprendimento e l’autonomia, ad esempio creando ambienti che permettano l’uso dell’IA generativa in classe. + +Quelli esposti sono solo alcuni spunti su come il mondo della scuola potrebbe adattarsi alle recenti innovazioni nel campo dell’IA Generativa. Il problema principale è la pervasività di queste innovazioni, che rende difficile per i docenti aggiornarsi e capire come gestirle al meglio. La velocità del cambiamento tecnologico supera la capacità di adattamento del sistema educativo, con il rischio che siano gli studenti i primi a esplorare, anche in modo improprio, le potenzialità dell’IA. Questo è un aspetto problematico che non va sottovalutato. Tuttavia, quando si raggiungerà una fase di maggiore stabilità, in cui l’evoluzione dell’IA Generativa rallenterà e ne comprenderemo meglio limiti e capacità, allora sarà il momento di avviare una profonda riforma dell’istruzione. Sarà necessario ripensare le fondamenta del sistema educativo, chiedendosi quali conoscenze e competenze siano davvero essenziali in un mondo in cui l’informazione è facilmente accessibile e l’IA svolge sempre più compiti in modo efficiente. Occorrerà interrogarsi su quali discipline e approcci didattici abbiano ancora senso e su quale sia lo scopo dell’istruzione in questo nuovo scenario. Per realizzare un cambiamento così importante, servirà la collaborazione di tutte le componenti della società: educatori, filosofi, esperti di tecnologia, aziende. Solo con uno sforzo congiunto potremo capire come vivere, imparare e formarsi nell’era dell’intelligenza artificiale. + +Per esempio, materie come storia e filosofia, spesso insegnate in modo mnemonico nelle scuole italiane, potrebbero essere ripensate completamente. Invece di concentrarsi su date e nomi, la storia potrebbe dare più spazio all’analisi delle fonti e alla comprensione critica degli eventi. Le ore di filosofia potrebbero diventare un’occasione per discutere di etica, di tecnologia e del futuro della società. È probabile che, anche di fronte a una riforma, ci saranno resistenze da parte di alcuni docenti, legati a metodi tradizionali. Potrebbero criticare i colleghi innovativi o lamentarsi delle lacune degli studenti. In questo contesto complesso, l’applicazione Intervistestoriche.tech, presentata nella seconda parte dell’elaborato, si propone quale piccolo aiuto per i docenti di storia che desiderano sperimentare nuovi approcci didattici come il \textit{think-aloud}, la \textit{flipped classrooom} e \textit{l’\textit{Authoring by Editing}}. diff --git a/TesiZIP/cap5.tex b/TesiZIP/cap5.tex new file mode 100644 index 0000000..368593c --- /dev/null +++ b/TesiZIP/cap5.tex @@ -0,0 +1,37 @@ +\chapter{La didattica della Storia} + +Negli ultimi anni la didattica della storia ha subito una trasformazione significativa, provando ad allontanarsi dalla mera memorizzazione di date ed eventi per diventare uno strumento fondamentale nello sviluppo del pensiero critico e di una cittadinanza attiva. Come sottolinea il \textit{Manifesto per la Didattica della Storia} (DiPaSt, 2018), la conoscenza del passato è essenziale per orientarsi nel presente e affrontare le sfide future. Studiare storia, come afferma Bloch (1970), non significa accumulare nozioni, ma comprendere i processi storici, interpretare le fonti, valutare criticamente le diverse interpretazioni storiografiche e costruire narrazioni basate su argomentazioni solide. Secondo Peter Lee (Davies, 2017), una literacy storica implica lo sviluppo di competenze, abilità e disposizioni che permettono di interrogare il passato, riconoscere la pluralità delle interpretazioni e formare un proprio quadro di riferimento per comprendere il presente. In questo modo, l’educazione storica contribuisce a formare cittadini consapevoli, capaci di pensiero autonomo e di partecipazione attiva alla vita democratica. + +Diversi studi (Cajani, 2019; Panciera \& Savio, 2022) evidenziano come l’insegnamento della storia a scuola fatichi spesso a raggiungere questi obiettivi, restando ancorato a modelli di trasmissione nozionistica. Concentrarsi solo sui fatti e sulla loro collocazione nel tempo, spesso scollegandoli da un contesto significativo e da un'analisi critica delle fonti, impedisce una vera comprensione dei processi storici e del legame tra passato, presente e futuro. Come suggerisce Gorvine (1970), la storia dovrebbe coinvolgere gli studenti nelle grandi trasformazioni e crisi del passato, permettendo loro di sperimentare la complessità degli eventi, le diverse motivazioni umane e il ruolo dell'irrazionale. Solo un approccio didattico basato sull'apprendimento attivo, la ricerca, l'analisi delle fonti e la discussione può formare cittadini attivi e responsabili. + +La consapevolezza dei limiti dei metodi tradizionali, spesso percepiti come nozionistici e poco coinvolgenti (Panciera \& Savio, 2022), ha spinto la ricerca didattica a esplorare nuove vie. La didattica per competenze, i laboratori di storia e le nuove tecnologie offrono opportunità per rinnovare l’insegnamento e favorire la partecipazione degli studenti. + +La \textit{didattica per competenze}, come osserva Valseriati (2019), sposta l’attenzione dalla trasmissione di nozioni allo sviluppo di abilità, ponendo lo studente al centro del processo di apprendimento. L’insegnante assume il ruolo di guida, progettando attività che stimolino il pensiero critico e la costruzione di significati. + +Il laboratorio di storia, a sua volta, permette agli studenti di fare storia non attraverso una generica analisi delle fonti, ma, come afferma Antonio Brusa, raccordando un testo di riferimento, scelto dal docente, e una serie di documenti (inclusi immagini, foto, vignette, testi di canzoni, ecc.). Si tratta di un’attività definita come \textit{caso di studio}, che prevede la formulazione di ipotesi interpretative e lo sviluppo di argomenti in modo coeso e coerente, per poi arrivare a esporre una risposta in merito al problema posto all’inizio. L’efficacia di questa pratica dipende dalla qualità del testo e dei documenti, e dal ruolo del “pezzo” di storia che l’insegnante ha scelto. Tale approccio, come nota Monducci (2018), sviluppa competenze di ricerca, analisi e comunicazione, fondamentali per una comprensione approfondita della storia. + +Le nuove tecnologie forniscono numerosi strumenti per arricchire l’insegnamento della storia, come archivi digitali, mappe concettuali, video, podcast e forum online. Come evidenzia Walsh (Davies, 2017), il digitale può ampliare l’accesso alle fonti, favorire la collaborazione tra studenti e promuovere competenze digitali sempre più importanti. Numerosi portali online per docenti offrono attività e laboratori di storia condivisi, evitando la necessità di recarsi fisicamente negli archivi per selezionare i documenti. + +Queste metodologie, tuttavia, presentano alcune sfide. Richiedono una formazione adeguata dei docenti, sia sui contenuti disciplinari che sull’uso delle tecnologie. Gli insegnanti devono essere in grado di progettare percorsi basati sulle competenze, utilizzare le nuove tecnologie e gestire attività laboratoriali che promuovano la partecipazione degli studenti. Inoltre, è necessaria una diversa organizzazione scolastica in termini di spazi, tempi e risorse. Ad esempio, i laboratori di storia richiedono spazi dedicati, computer e un orario flessibile, non compatibile con la tradizionale lezione di 45 minuti. Infine, si possono incontrare resistenze da parte di studenti e genitori abituati a metodi più tradizionali. Superare questi ostacoli richiede l’impegno congiunto di formazione dei docenti, progettazione dei programmi, supporto delle scuole e coinvolgimento delle famiglie. + + + + + + + +\section{Il gioco di ruolo nella didattica della storia} + +Il gioco di ruolo, tecnica didattica che fa riferimento alla strategia di drammatizzazione, si distingue per la sua semplicità di implementazione e il suo potenziale coinvolgimento degli studenti. È un metodo attivo che stimola lo sviluppo di competenze di ricerca, analisi e interpretazione storica. Simulando situazioni e personaggi del passato, gli studenti si immergono nel contesto storico, sperimentano diverse prospettive e acquisiscono una comprensione più profonda degli eventi. +Tradizionalmente, il gioco di ruolo in classe prevede l’assegnazione di personaggi storici, descritti attraverso schede che ne delineano caratteristiche, motivazioni e obiettivi. Dopo aver studiato il periodo storico e i personaggi, gli studenti interagiscono, improvvisando dialoghi e azioni coerenti con il contesto e i ruoli assegnati. L’insegnante guida la discussione, fornisce informazioni e stimola il pensiero critico. Come afferma Gorvine (1970), questo metodo permette di “vivere” la storia, sviluppando empatia e comprensione. + +Diversi studi dimostrano l’efficacia del gioco di ruolo nella didattica. Ad esempio, Panciera e Zannini (2013) evidenziano come questo metodo contribuisca allo sviluppo di competenze di analisi delle fonti, argomentazione e problem solving. Sperimentazioni in diverse scuole (Valseriati, 2019) indicano come il gioco di ruolo possa favorire la partecipazione, la collaborazione e lo sviluppo di competenze trasversali come la comunicazione e il lavoro di gruppo. Può anche essere utile per affrontare temi delicati (Davies, 2017), creando un ambiente di apprendimento sicuro in cui esplorare diverse prospettive su un singolo evento. + +La tecnologia e l’IA Generativa offrono nuove opportunità per arricchire il gioco di ruolo. L’accesso a risorse digitali come archivi online, banche dati, immagini e video amplia la conoscenza storica e fornisce strumenti per approfondire i ruoli. Mappe concettuali, \textit{timeline} e presentazioni multimediali supportano l’organizzazione delle informazioni e la presentazione dei risultati in modo creativo. Inoltre, la tecnologia facilita la comunicazione e la collaborazione tra studenti, anche a distanza, attraverso forum, chat e videoconferenze. Ambienti virtuali 3D e giochi di ruolo online possono rendere l’apprendimento ancora più immersivo e interattivo. +\subsection{Il gioco di ruolo potenziato dall’IA Generativa} + +I sistemi di IA Generativa, come ChatGPT, si rivelano particolarmente efficaci nel contesto del gioco di ruolo grazie alla loro capacità di generare testi narrativi, dialoghi e descrizioni realistiche e contestualmente coerenti (Lahbi, 2025). Questo rende l’esperienza più coinvolgente, stimolando la creatività, il pensiero critico e la collaborazione tra gli studenti. L’IA ha la capacità di adattarsi dinamicamente alle azioni dei partecipanti, creando scenari imprevedibili e rompendo la monotonia della lezione. + +Per ottimizzare l’uso didattico di questa tecnologia nel gioco di ruolo, è fondamentale definire obiettivi di apprendimento chiari e progettare scenari in linea con il curriculum e le competenze da sviluppare. Successivamente, è utile formulare prompt specifici che guidino l’IA nella generazione di personaggi, eventi e sfide coerenti con il contesto storico e gli obiettivi didattici. L’IA può anche produrre materiali di supporto, come mappe, timeline e schede informative, arricchendo l’esperienza di gioco e facilitandone la comprensione. Infine, è importante prevedere momenti di riflessione per analizzare le scelte compiute durante il gioco, le prospettive dei personaggi e i collegamenti con l’attualità. + +Nonostante il potenziale offerto, l’impiego di ChatGPT e dell’IA Generativa nel gioco di ruolo presenta alcune criticità. È cruciale valutare attentamente la qualità e l’accuratezza delle informazioni generate dall’IA per evitare la diffusione di dati errati. Come evidenziato da O’Brien et al. (2025), le IA Generative possono presentare bias derivanti dai dati di addestramento, influenzando la rappresentazione di eventi e personaggi. Inoltre, emergono questioni etiche relative alla privacy, alla trasparenza degli algoritmi e alla responsabilità del loro utilizzo in ambito educativo. È essenziale un approccio critico e consapevole da parte dell’insegnante, così come la definizione di linee guida e la promozione di una riflessione etica con gli studenti. La scelta del provider di IA Generativa più adatto alle esigenze specifiche dell’istituzione scolastica, valutando privacy, sicurezza e costi, è un aspetto da non trascurare. L’implementazione efficace di queste metodologie richiede tempo e risorse per la formazione dei docenti, l’acquisizione di hardware e software e la progettazione delle attività, elementi per i quali è fondamentale il supporto delle istituzioni scolastiche. diff --git a/TesiZIP/cap6.tex b/TesiZIP/cap6.tex new file mode 100644 index 0000000..a9a18a8 --- /dev/null +++ b/TesiZIP/cap6.tex @@ -0,0 +1,169 @@ +% Parte 2 +\part{} + +% Azzerare la numerazione dei capitoli per la Parte 2 +\setcounter{chapter}{0} + +\chapter{\href{https://Intervistestoriche.Tech}{Intervistestoriche.Tech}} + +Dopo aver esaminato lo stato dell'arte dell’IA Generativa e le sue implicazioni per l'educazione, soprattutto riguardo ai principi di trasparenza e alla necessità di una guida da parte dei docenti, questa seconda parte della tesi illustra un approccio concreto per integrare queste tecnologie nella didattica. +Sono stati sviluppati negli ultimi anni alcuni strumenti che si basano su modelli linguistici di grandi dimensioni (LLM) per esplorare percorsi storici educativi alternativi. Per esempio, \textit{Hello History} e \textit{Character.AI} offrono modalità innovative di interazione con personaggi storici. Queste applicazioni, tuttavia, ma sono difficilmente adattabili all'uso didattico. Al contrario, le applicazioni qui presentate si propongono quali strumenti efficaci per attività didattiche, come la ricerca di fonti primarie, e sfruttano lo scraping dinamico di contenuti da Wikipedia tramite la libreria Python Beautiful Soup. Invece di creare un database strutturato di informazioni, questo metodo prevede l'estrazione in tempo reale dei dati necessari direttamente da Wikipedia, inserendoli poi nel contesto del modello linguistico. Il tutto è dinamico: viene effettuato lo scraping, salvato in una variabile e poi inserito direttamente nel contesto dell'LLM. Per questo sono stati scelti modelli Google Gemini: hanno un contesto molto grande e quindi non si sarebbe mai presentato il problema dell'esaurimento del contesto disponibile da parte del modello. È stato scelto di copiare e incollare testo da Wikipedia, in quanto, trattandosi di un'enciclopedia libera, non sussistono problemi di copyright. +Le applicazioni sono state sviluppate con Streamlit, una libreria Python open-source, che gestisce sia l'interfaccia utente (front-end) sia l'interazione con il modello linguistico (back-end). Si possono creare strumenti web complessi con poche righe di codice Python, senza bisogno di competenze specifiche in HTML, CSS o JavaScript. Le applicazioni si appoggiano sulle API di Google Gemini AI, che offrono un accesso gratuito con un piano sperimentale. In questo modo si evitano costi per gli utenti, tranne in caso di uso intensivo. +Per garantire trasparenza e controllo, le applicazioni mostrano sempre il prompt utilizzato e il contesto, non raccolgono dati degli utenti, hanno un accesso diretto alle API e consentono al docente di impostare i propri filtri di sicurezza. L'accesso alle API è riservato da Google ai maggiorenni per ragioni di sicurezza, così da prevenire un uso non autorizzato da parte degli studenti. Questa misura garantisce inoltre che l'accesso alle informazioni avvenga nel rispetto della privacy. Le applicazioni sono state sviluppate per consentire un'interazione diretta, tramite chiamata API, senza bisogno di intermediari. Ogni docente deve creare la propria chiave API accedendo con il suo account Google a questo link: https://aistudio.google.com/apikey. +Per questo progetto si è potuto scegliere tra diversi modelli linguistici di Google, in particolare si consiglia di scegliere \textit{Gemini 1.5 Pro}, un modello multimodale di medie dimensioni ottimizzato per attività di ragionamento complesse. È presente anche \textit{Gemini 1.5 Flash}, un modello più leggero progettato per attività con complessità inferiore. La differenza principale che deve essere presa in considerazione riguarda i costi e i tempi di risposta. Con \textit{Gemini 1.5 Flash} si possono fare più chiamate API al minuto e le risposte sono generate più velocemente, a discapito di una maggiore accuratezza che comunque nella maggioranza delle app non è necessaria. + +Particolare attenzione è stata posta alla gestione dei \textit{guardrail}, i filtri di sicurezza di Google Gemini. Il docente può scegliere tra tre livelli di sicurezza (Alto, Medio, Basso) per adattare l'interazione del modello al contesto. È possibile scegliere modelli più o meno restrittivi, per consentire un'esperienza più libera o più controllata, evitando temi inadatti al contesto, come guerre, morti o epidemie. + +Queste applicazioni sono pensate per un uso in classe, sotto la guida del docente, e non sostituiscono lo studio individuale o il confronto diretto. Si pongono piuttosto come un supporto per ripensare le modalità di apprendimento, stimolando attività interattive e coinvolgenti ad esempio per iniziare discussioni o interrogazioni parlate. + +Si tratta di un \textit{Minimum Viable Product (MVP)}, un punto di partenza per esplorare le potenzialità didattiche dei modelli linguistici, non di applicazioni definitive. L'obiettivo è quello di stimolare un nuovo approccio all'apprendimento e di dimostrare che le allucinazioni dei modelli, spesso considerate un problema, possono essere viste come uno strumento utile ad accrescere lo spirito critico e l'attenzione alla qualità dell'informazione. Per questo motivo è stato usato in alcuni casi anche un semplice \textit{Chain of Thoughts (CoT)} per aumentare l'accuratezza delle risposte ma sopratutto per mostrare agli studenti il ragionamento del modello e individuare fallacie ed errori nel suo ragionamento + +\section{Aspetti tecnici e librerie utilizzate} + +Questo progetto si basa su Python e alcune librerie chiave. Di seguito, un approfondimento su ciascuna di esse. + +\subsection{Python} + +Python è stato scelto come linguaggio di programmazione principale per la sua semplicità, versatilità e per l’ampia disponibilità di librerie per l’intelligenza artificiale e il web scraping. La sua sintassi chiara e leggibile facilita lo sviluppo e la manutenzione del codice, rendendolo accessibile anche a chi non ha una vasta esperienza di programmazione. Inoltre, Python è ampiamente utilizzato nella comunità scientifica e didattica, il che rende il progetto accessibile a un pubblico più ampio. + +\subsection{I modelli Gemini e l'interazione tramite API} + +I modelli Gemini di Google, lanciati nel 2024, rappresentano una famiglia di modelli linguistici multimodali di ultima generazione. Si distinguono per la loro capacità di elaborare e generare non solo testo, ma anche immagini, audio e video. I modelli Gemini 1.5 Pro e Gemini 1.5 Flash, utilizzati in questo progetto, supportano un contesto fino a 2 milioni di token, ovvero diverse centinaia di pagine di un libro («Tutorial: inizia a utilizzare l’API Gemini | Gemini API», s.d.). Questa capacità è particolarmente utile quando si fornisce al modello il testo di una pagina di Wikipedia, che può essere anche molto lungo. Tutta la famiglia Gemini si basa sull'architettura MoE, e Google rilascia, per gli utenti finali, una libreria per interagire in maniera rapida e gratuita con i propri modelli. Come accennato in precedenza, la piattaforma di riferimento è Google AI Studio. Prevede un piano gratuito e la chiave API può essere creata solo da maggiorenni, prevenendo così usi impropri da parte dei minori. + +Per capire meglio come interagire con i modelli Gemini tramite codice, l'esempio seguente mostra una chiamata API in Python: + + +\begin{lstlisting}[language=Python, caption=Esempio di chiamata API con Python] +import os +import google.generativeai as genai + +genai.configure(api_key=os.environ["GEMINI_API_KEY"]) + +generation_config = { + "temperature": 1, + "top_p": 0.95, + "top_k": 40, + "max_output_tokens": 8192, + "response_mime_type": "text/plain", +} + +safety_settings = { + "HARM_CATEGORY_HARASSMENT": "BLOCK_MEDIUM_AND_ABOVE", + "HARM_CATEGORY_HATE_SPEECH": "BLOCK_MEDIUM_AND_ABOVE", + "HARM_CATEGORY_SEXUALLY_EXPLICIT": "BLOCK_MEDIUM_AND_ABOVE", + "HARM_CATEGORY_DANGEROUS_CONTENT": "BLOCK_MEDIUM_AND_ABOVE", +} + +system_instruction = """Sei un assistente psicologo che ha studiato ad Harvard e aiuta l'utente a calmarsi, suggerendogli le migliori strategie di rilassamento.""" + +model = genai.GenerativeModel( + model_name="gemini-2.0-flash-exp", + generation_config=generation_config, + safety_settings=safety_settings, +) + +chat_session = model.start_chat( + history=[ + ], + system_instruction=system_instruction +) + +response = chat_session.send_message("INSERT_INPUT_HERE")s +print(response.text) +\end{lstlisting} +Questo codice illustra una semplice chiamata API ai modelli Gemini. Prima di eseguirlo, è necessario installare la libreria \lstinline|google-generativeai| con \lstinline|pip install google-generativeai| e configurare la variabile d'ambiente \lstinline|GEMINI_API_KEY| con la propria chiave API. Il codice inizia configurando l'accesso al modello, specificando i parametri di generazione (come temperature, \lstinline|top_p|, \lstinline|top_k|, \lstinline|max_output_tokens|), i filtri di sicurezza tramite \lstinline|safety_settings| e la \lstinline|system_instruction|. Quest'ultima funge da prompt principale, definendo il ruolo del modello e influenzando tutte le interazioni successive. In questo caso, istruisce il modello a comportarsi come uno psicologo di Harvard che aiuta gli utenti a rilassarsi. Il modello usato è stato \lstinline|gemini-2.0-flash-exp|. + +Il codice svolge le seguenti azioni: importa le librerie necessarie, configura l'API, definisce i parametri di generazione, imposta i filtri di sicurezza e definisce l'istruzione di sistema che guida il comportamento del modello. Sostituendo il placeholder "\lstinline|INSERT_INPUT_HERE|" ed eseguendo il codice si invia un messaggio al modello e viene stampato in console la risposta ottenuta. È fondamentale installare la libreria e configurare la chiave API. Tra i settaggi cruciali, temperature regola la casualità del modello, \lstinline|model_name| permette di scegliere quale modello usare, le \lstinline|safety_settings| applicano filtri di sicurezza e bloccano contenuti inappropriati, mentre la \lstinline|system_instruction| plasma il ruolo del modello. Google permette di impostare diversi livelli di blocco per le categorie delle \lstinline|safety_settings|, o di disabilitarli del tutto. + +\subsection{Streamlit} + +Streamlit è una libreria Python open-source progettata per semplificare la creazione di applicazioni web interattive, particolarmente utili per progetti di machine learning e data science. Lanciata nel 2019, Streamlit è stata concepita per essere intuitiva e facile da usare, anche per chi non ha esperienza di sviluppo web (<>, s.d.). +Streamlit permette di trasformare script Python in app web con poche righe di codice aggiuntive, rendendo il processo di sviluppo accessibile anche a chi non ha competenze avanzate di programmazione. Questo avviene grazie a una serie di widget (come pulsanti, slider e caselle di testo) che permettono agli utenti di interagire con l’app e di modificarne il comportamento in tempo reale. +Questi widget facilitano l’esplorazione e l’analisi dei dati in modo dinamico e coinvolgente. La vasta libreria e i continui aggiornamenti permettono di creare diverse web-app responsive, come dashboard, report interattivi o strumenti di visualizzazione dati. Queste caratteristiche rendono Streamlit una scelta ottimale per la prototipazione rapida di applicazioni basate su modelli linguistici. In questo progetto, Streamlit gestisce l’intera interfaccia utente, dalla richiesta della chiave API all’inserimento dei link di Wikipedia, fino alla visualizzazione della risposta generata dal modello. Inoltre, permette di integrare facilmente i controlli per la gestione dei filtri di sicurezza e per la selezione del modello (come \textit{Gemini 1.5 Pro} o \textit{Gemini 1.5 Flash}). La libreria semplificando il lato front-end e back end permette agli sviluppatori di concentrarsi sulla logica applicativa senza doversi preoccupare della complessità dello sviluppo. + +Di seguito un esempio di una web app che che utilizza le API di Gemini: + + +\begin{lstlisting}[language=Python, caption=App Streamlit con API Gemini] +import streamlit as st +import google.generativeai as genai +import os + +# Configura l'API di Gemini +genai.configure(api_key=os.environ["GEMINI_API_KEY"]) + +# Inizializza il modello Gemini +model = genai.GenerativeModel(model_name="gemini-2.0-flash-exp") + +st.title("Gemini Chatbot") + +# Inizializza la cronologia dei messaggi nella sessione +if "messages" not in st.session_state: + st.session_state.messages = [] + +# Visualizza la cronologia dei messaggi al caricamento della app +for message in st.session_state.messages: + with st.chat_message(message["role"]): + st.markdown(message["content"]) + +# Gestione dell'input dell'utente +if prompt := st.chat_input("Scrivi il tuo messaggio:"): + st.session_state.messages.append({"role": "user", "content": prompt}) + + # Mostra il messaggio dell'utente nella chat + with st.chat_message("user"): + st.markdown(prompt) + + # Ottiene una risposta da Gemini + chat = model.start_chat(history=[ + {"role": m["role"], "parts": m["content"]} + for m in st.session_state.messages if m["role"] != "assistant" + ]) + + response = chat.send_message(prompt) + + # Mostra la risposta di Gemini nella chat + with st.chat_message("assistant"): + st.markdown(response.text) + + # Aggiunge la risposta di Gemini alla cronologia + st.session_state.messages.append({"role": "assistant", "content": response.text}) +\end{lstlisting} + +Grazie al componente \lstinline|st.chat_message|, è possibile creare interfacce di chat conversazionali. Questo componente si occupa di gestire la visualizzazione dei messaggi, sia dell'utente che dell'assistente, in un layout intuitivo. I messaggi vengono presentati in contenitori di chat distinti, con avatar predefiniti o personalizzati, rendendo l'interazione più chiara e coinvolgente. +Un'altra caratteristica fondamentale di Streamlit è la gestione dello stato della sessione tramite \lstinline|st.session_state|. Questo meccanismo permette all'applicazione di ricordare le informazioni tra le diverse interazioni dell'utente, garantendo un'esperienza utente fluida e coerente. Se si ritiene necessario mantenere la cronologia dei messaggi precedenti per consentire al modello di comprendere il contesto della conversazione \lstinline|st.session_state| permette di memorizzare questa cronologia e renderla disponibile durante l'interazione con l'utente. In questo modo, l'app può "ricordare" le domande e le risposte passate, offrendo un'esperienza simile ai chatbot a cui siamo abituati. +Analizzando il codice, si può notare come: +Vengono importate le librerie necessarie, in particolare streamlit per l'interfaccia utente, \lstinline|google.generativeai| per le API di Gemini e os per la gestione delle variabili d'ambiente. + +\begin{itemize} + \item Viene configurata l'API di Gemini con la chiave API ottenuta da Google AI Studio e viene istanziato il modello. + \item Si definisce un titolo per l'applicazione con \lstinline|st.title("Gemini Chatbot"|.. + \item Viene creato il componente \lstinline|st.session_state.messages| dove vengono salvati i messaggi della chat. + \item Si cicla sul componente \lstinline|st.session_state.messages| per far comparire la cronologia della chat al caricamento della pagina. + \item Si utilizza il componente \lstinline|st.chat_input| per permettere all'utente di inserire un input e si controlla che non sia vuoto. + \item Si usa \lstinline|st.chat_message| per visualizzare sia i messaggi dell'utente che quelli del bot. + \item Viene creata una sessione di chat con l'API di gemini tramite la funzione \lstinline|model.start_chat(history=[...])| fornendogli uno storico della chat (senza la risposta del bot). + \item Si invia il prompt all'API di Gemini con response = \lstinline|chat.send_message(prompt)| e viene visualizzata la risposta. + \item Viene salvata la risposta del bot all'interno della cronologia della chat. +\end{itemize} + + +\subsection{Beautiful Soup} + +Beautiful Soup è una libreria Python progettata per il web scraping, cioè per raccogliere dati e testi da pagine web in modo automatico (<>, s.d.). In questo progetto, Beautiful Soup è impiegata per estrarre il testo delle pagine di Wikipedia per poter fornire contesto al modello linguistico. Il processo di scraping si attiva quando l'utente inserisce un link di Wikipedia. Dopo di che, Beautiful Soup analizza il codice HTML della pagina, estrae il testo rilevante della wiki (escludendo menu, immagini e altri elementi non testuali) e, tramite una variabile, viene poi inserito nel prompt di sistema dell'app. Per utilizzare Beautiful Soup, è necessario prima ottenere il contenuto HTML della pagina web tramite una richiesta \textit{.get}, utilizzando la libreria requests. Una volta ottenuto il contenuto, Beautiful Soup viene utilizzato per analizzare la struttura HTML e dunque creare un oggetto soup, che permette di navigare e cercare elementi specifici all'interno del documento HTML. + + + + + + +\section{Funzioni principali delle applicazioni di \href{https://intervistestoriche.tech}{IntervisteStoriche.Tech}} +Pur avendo ognuna le proprie peculiarità, tutte le applicazioni hanno delle funzioni in comune: + +\begin{itemize} + \item Controllo della validità della chiave API: La prima funzione consiste nella verifica della validità della chiave API fornita dall'utente. Questo avviene tramite una semplice chiamata API a Google Gemini con un testo di prova. Se la chiamata ha successo, significa che la chiave è valida e l'applicazione può procedere. In caso contrario, viene visualizzato un messaggio di errore. + \item Controllo dell'URL di Wikipedia: l'applicazione verifica che l'URL inserito dall'utente sia effettivamente un link a una pagina di Wikipedia e che corrisponda a una voce esistente. Questo controllo previene errori e assicura che il modello riceva un contesto valido. Vengono accettate pagine di Wikipedia in qualsiasi lingua. + \item Scraping e invio del contesto a Gemini: una volta validato l'URL, Beautiful Soup estrae il testo dalla pagina di Wikipedia. Questo testo viene poi inserito nel prompt inviato a Gemini, insieme alla domanda formulata dal docente. L'ampio contesto dei modelli Gemini (2 milioni di token) permette di includere l'intero testo della pagina, senza bisogno di riassumerlo o di selezionarne solo alcune parti. Anche nel caso di pagine molto lunghe, è improbabile che si superi il limite di token. Volendo, si potrebbero includere nel contesto anche i link presenti nella pagina, per un'analisi ancora più approfondita. + \item Visualizzazione della risposta tramite Streamlit: la risposta generata da Gemini viene infine visualizzata nell'interfaccia Streamlit. La risposta tiene conto del contesto fornito (la pagina di Wikipedia) e delle impostazioni di sicurezza selezionate dal docente. +\end{itemize} + diff --git a/TesiZIP/cap7.tex b/TesiZIP/cap7.tex new file mode 100644 index 0000000..9897454 --- /dev/null +++ b/TesiZIP/cap7.tex @@ -0,0 +1,169 @@ +\chapter{Intervista con personaggi storici e i loro scritti} + + +Intervista con personaggi storici e i loro scritti è un’applicazione che consente agli studenti di dialogare con le figure di Benito Mussolini e Salvador Allende. Si basa sul modello linguistico Google \textit{Gemini 1.5 Pro}. La sua peculiarità è l’ampio contesto di 2 milioni di token, che consente al modello di attingere a un vasto corpus di dati, costituito da tutti i discorsi pubblici disponibili dei due personaggi. Questa caratteristica permette a \textit{Gemini 1.5 Pro} di generare risposte articolate e ricche di sfumature, ma comporta anche un elevato costo computazionale. L’elaborazione di una tale mole di dati richiede risorse significative e questo si traduce in tempi di risposta più lunghi rispetto a sistemi con un contesto più limitato. Nella pianificazione delle attività didattiche, quindi, bisogna tenere conto di questo aspetto, prevedendo, ad esempio, momenti di discussione e riflessione nell’attesa delle risposte. +Per costruire questo modello, si è fatto ricorso ai discorsi pubblici di Allende, raccolti e digitalizzati a partire dall’archivio online \href{https://www.marxists.org/espanol/allende}. Questo sito è una risorsa gratuita per lo studio del pensiero e dell’azione politica di Allende. Analogamente, per il prompt di Benito Mussolini, ci si è basati sulla raccolta di discorsi e scritti disponibile su \href{https://www.adamoli.org/benito-mussolini}. Dopo un attento lavoro di scraping e pulizia dei testi, si è ottenuto il corpus di dati che costituisce la base di conoscenza dei due modelli. Questi testi sono la base su cui il modello si fonda per generare le risposte, ed è quindi fondamentale che tale base sia il più possibile completa e accurata. La lentezza del sistema è dovuta ai cinquecentonovantamila token che deve gestire per il prompt di sistema di Mussolini e dei circa un milione e quattrocento per Allende. La lentezza non è un limite invalicabile, ma una caratteristica da gestire con un’attenta progettazione didattica, trasformandola magari in un’occasione per un dibattito o un brainstorming prima della risposta. +L’interazione con l’applicazione avviene digitando le domande in un apposito campo di testo. Il modello analizza la domanda, cerca nel suo contesto le informazioni pertinenti e formula una risposta coerente con il linguaggio, il pensiero e le posizioni ideologiche del personaggio "interpretato". Tuttavia, è fondamentale comprendere che il modello non è infallibile: nonostante l’ampio contesto e la sofisticatezza degli algoritmi, può generare risposte non aderenti alle fonti o addirittura errate, distorte o ideologicamente problematiche. Questo aspetto, però, può diventare un’occasione di apprendimento. Gli studenti, guidati dal docente, possono verificare l’attendibilità delle risposte confrontandole con le fonti originali e con altre ricostruzioni storiche. Il controllo dei fatti e l’analisi critica diventano fondamentali per sviluppare una comprensione profonda del personaggio e del suo contesto storico. +L’uso di questa applicazione in classe offre molteplici usi didattici; tutto dipende dal docente che saprà utilizzarla nel migliore dei modi e nei contesti opportuni. Ad esempio, oltre a simulare interviste, si possono organizzare dibattiti in cui gli studenti, divisi in gruppi, sostengono tesi opposte aiutandosi con le risposte del modello e analizzandone i passaggi dell’argomentazione. Si possono creare linee del tempo, collegando gli eventi storici alle dichiarazioni dei personaggi per poi comprovare con altre fonti se le informazioni date dal modello sono corrette. Un'altra attività potrebbe essere quella dell'analisi del linguaggio e la retorica di Mussolini e Allende, confrontandone gli stili e valutando se persone di quell'epoca potessero parlare veramente in quel modo. Il docente può usare l’applicazione come strumento di verifica formativa, valutando la capacità degli studenti di formulare domande pertinenti, analizzare in modo critico le risposte e individuare eventuali errori o distorsioni. Questo può essere fatto in un'interrogazione parlata dove lo studente esplicita il suo pensiero e mostra il suo approccio critico per la verifica delle informazioni. + +Con il miglioramento del contesto in quantità e qualità, l'idea di usare un modello linguistico come motore di ricerca storiografico inizia a essere una strada che vale la pena esplorare. Tuttavia, il prompt usato in questa app ha uno scopo didattico e non è stato pensato per il \textit{retrieval} di documenti. La tendenza alle allucinazioni, la difficoltà di individuare le fonti primarie adeguate e la complessità di gestione di un contesto così ampio rendono questi modelli più adatti a un uso didattico guidato che come strumento di consultazione autonoma da parte degli studenti. Infatti, se viene fatta una domanda per la quale non si trovano fonti esplicite, il modello tenterà di inventare una risposta. Per esempio, per quanto incredibile, Mussolini nei suoi discorsi pubblici non ha mai parlato di omosessuali e qualsiasi domanda su questo tema porterà a risposte molto dubbie. Sebbene il prompt tenda a esplicitare quando non sono stati trovati riscontri, tuttavia ci possono essere casi in cui questo non avviene. +Per comprendere a fondo la app, è utile esaminare la struttura e i principi alla base del prompt usato per “far parlare”, per esempio, Salvador Allende. Questo prompt cerca di guidare il modello linguistico nella generazione di risposte coerenti con il pensiero e lo stile del presidente cileno e si articola in diverse sezioni, ciascuna con una funzione specifica. +Ecco il prompt completo e commentato che definisce come il modello linguistico debba comportarsi: + + + +% PROMPT + +\begin{lstlisting}[language=plain] +Sei un assistente AI incaricato di interpretare il ruolo di Salvador Allende. Ti verrà fornito un contesto dei discorsi e degli scritti di Allende, formattato in XML, che dovresti utilizzare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi degli utenti in modo coerente con lo stile, le convinzioni e i modi di fare di Allende. + +Ecco il formato dei documenti di contesto: + + +Titolo del Documento +Testo completo del documento + + + + +Quando rispondi a un messaggio dell'utente, dovresti strutturare la tua risposta in tre parti: + +: Fornisci la tua risposta finale all'utente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell'utente rimanendo coerente con la sua ideologia. + +: Includi fino a 5 citazioni o parafrasi rilevanti dal contesto di Allende fornito che si riferiscono al messaggio dell'utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio: + +1. "Citazione dal documento" - Titolo del Documento + +: Spiega come hai interpretato il messaggio dell'utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci il contesto storico rilevante per l'ideologia e le azioni di Allende. Affronta sia gli aspetti positivi che le sfide e le critiche del suo progetto socialista in Cile. + +Linee guida per parlare come Allende: + +* Usa un linguaggio appassionato e speranzoso. +* Sottolinea la giustizia sociale, la democrazia e i diritti dei lavoratori. +* Parla dell'importanza dell'unità, della rivoluzione pacifica e della lotta contro l'imperialismo. +* Usa un linguaggio inclusivo e fai appello alla solidarietà. +* Mantieni un tono di ottimismo e determinazione. + +Considerazioni importanti: + +* **Accuratezza Storica:** La presidenza di Allende è stata un periodo complesso caratterizzato sia da progressi sociali che da intensa polarizzazione politica. È cruciale rappresentarlo accuratamente senza glorificare o demonizzare le sue azioni e convinzioni. +* **Neutralità:** L'AI non dovrebbe prendere posizione nei dibattiti storici sul governo di Allende, il colpo di stato o il ruolo degli attori esterni. +* **Opportunità Educativa:** Usa questo ruolo per educare gli utenti su Allende, la storia cilena e le complessità dell'implementazione delle politiche socialiste in un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche. + +Per favore, fornisci la tua risposta, inclusa la citazione (se applicabile), il ragionamento e la risposta, utilizzando i tag XML specificati. +\end{lstlisting} + + + + + +% \textit{« Agisci come un assistente AI con il compito di interpretare il ruolo di Salvador Allende. Ti verranno forniti dei documenti contestuali dei discorsi e degli scritti di Allende, formattati in XML, che dovrai utilizzare per informare le tue risposte. Il tuo obiettivo è rispondere ai messaggi dell’utente in modo coerente con lo stile, le convinzioni e le maniere di Allende.} + +% \textit{Ecco il formato dei documenti contestuali:} + +% \textit{} +% \textit{Titolo del Documento} +% \textit{Testo completo del documento} +% \textit{} +% \textit{Esempio:} +% \textit{} + +% \textit{DECLARACIÓN PÚBLICA DE SALVADOR ALLENDE SOBRE SU PERTENENCIA A LA MASONERÍA, PUBLICADA EN “EL MERCURIO”, 7 DE ABRIL DE 1970.} + +% \textit{} + +% \textit{Aunque “El Mercurio” […] de este anhelo irrenunciable. (Fdo.): Dr. Salvador Allende.} + +% \textit{} + +% \textit{} + +% \textit{} + +% \textit{[Qui vengono inseriti tutti i documenti relativi ai discorsi e agli scritti di Allende, formattati come nell’esempio precedente]} + +% \textit{} + +% \textit{Quando rispondi al messaggio di un utente, devi strutturare la tua risposta in tre parti:} + +% \textit{: Fornisci la tua risposta finale all’utente, scritta nello stile di Allende. Questa dovrebbe essere la parte principale della tua risposta e dovrebbe affrontare direttamente il messaggio dell’utente rimanendo coerente con la sua ideologia.} + +% \textit{: Includi una o più citazioni pertinenti tratte dal contesto fornito di Allende che si riferiscono al messaggio dell’utente. Per ogni citazione, specifica il titolo del documento da cui proviene. Ad esempio:} + +% \textit{"Citazione dal documento" - Titolo del Documento} + +% \textit{Cerca di includere tutti i passaggi pertinenti, senza limiti di numero, ma non includere citazioni non pertinenti per la risposta da dare.} + +% \textit{: Spiega come hai interpretato il messaggio dell’utente e come hai applicato le convinzioni di Allende per formulare la tua risposta. Fornisci un’analisi storica e riflessiva pertinente all’ideologia e alle azioni di Allende, dando il nome del documento e dei passaggi più importanti che hanno influenzato la tua risposta. Non mettere limiti al numero di passaggi importanti che puoi includere. Se non trovi riferimenti pertinenti nei documenti forniti, indica esplicitamente nel tuo ragionamento che "non ci sono i presupposti per rispondere come se fossi il personaggio di Allende", "non c’è nessun riscontro", oppure "non è stato trovato nessun riscontro" che permetta di formulare una risposta in linea con il personaggio.} + +% \textit{Linee guida per parlare come Allende:} + +% \textit{* Usa un linguaggio appassionato e pieno di speranza.} + +% \textit{* Sottolinea l’importanza della giustizia sociale, della democrazia e dei diritti dei lavoratori.} + +% \textit{* Parla dell’importanza dell’unità, della rivoluzione pacifica e della lotta contro l’imperialismo.} + +% \textit{* Usa un linguaggio inclusivo e fai appello alla solidarietà.} + +% \textit{* Mantieni un tono di ottimismo e determinazione.} + +% \textit{Considerazioni Importanti:} + +% \textit{\textbf{Accuratezza Storica}}\textit{: La presidenza di Allende fu un periodo complesso segnato sia dal progresso sociale che da un’intensa polarizzazione politica. È fondamentale ritrarlo in modo accurato senza glorificare o demonizzare le sue azioni e convinzioni.} + +% \textit{\textbf{Neutralità:}}\textit{ L’AI non dovrebbe schierarsi nei dibattiti storici sul governo di Allende, il colpo di stato o il ruolo degli attori esterni.} + +% \textit{\textbf{Opportunità Educativa}}\textit{: Usa questo roleplay come un’opportunità per educare gli utenti su Allende, la storia cilena e le complessità dell’implementazione di politiche socialiste in un quadro democratico. Incoraggia il pensiero critico e ulteriori ricerche.} + +% \textit{Fornisci la tua risposta, inclusa la citation (se applicabile), il reasoning e l’answer, usando i tag XML specificati»}. + + + + + + + + + + + + +La sezione \textit{} è il cuore del prompt: qui sono inserite tutte le fonti primarie relative a Salvador Allende. Ogni documento è stato marcato da dei tag che aiutano il modello a riconoscere i contenuti. \textit{} indica l’inizio di un documento, \textit{} ne identifica il titolo, \textit{<content>} contiene il testo. + + + + + \textit{<answer> }contiene la risposta vera e propria, nello stile di Allende, che deve rivolgersi direttamente all’utente e affrontare in modo coerente la sua domanda. \textit{<citation>} prevede l’inclusione di citazioni tratte dai documenti presenti in \textit{<Allende context>}, con l’indicazione precisa della fonte. Questa sezione è cruciale per garantire la trasparenza del processo e per permettere agli studenti di verificare l’aderenza delle risposte alle fonti originali. \textit{<reasoning>}, infine, esplicita il ragionamento seguito dal modello nell’interpretare la domanda e nel formulare la risposta. Questa struttura facilita l’organizzazione e l’elaborazione delle fonti.. + +\\ + +\begin{lstlisting}[language=plain] +<document> +<title>DECLARACIÓN PÚBLICA DE SALVADOR ALLENDE SOBRE SU PERTENENCIA A LA MASONERÍA, PUBLICADA EN “EL MERCURIO”, 7 DE ABRIL DE 1970. + +Aunque “El Mercurio” […] de este anhelo irrenunciable. (Fdo.): Dr. Salvador Allende. + + +\end{lstlisting} + + + + +Le “Linee guida per parlare come Allende” forniscono al modello indicazioni precise sullo stile da adottare, incoraggiando l’uso di un linguaggio appassionato, l’enfasi su temi come giustizia sociale e democrazia, e il mantenimento di un tono ottimista e determinato. Queste linee guida sono essenziali per garantire la verosimiglianza del personaggio e per rendere l’interazione più coinvolgente. + +Le “Considerazioni importanti”, infine, sottolineano l’importanza dell’accuratezza storica, della neutralità e dell’utilizzo di questa esperienza come opportunità educativa. Si raccomanda di ritrarre Allende in modo accurato, senza glorificazioni né demonizzazioni, e di usare l’interazione come spunto per approfondire la conoscenza del Cile e delle complessità del socialismo democratico. Il prompt in questione è stato sviluppato con l'aiuto della console di Anthropic, che ha un tool specifico per la generazione di prompt. + +È importante comprendere che gli errori e le allucinazioni del modello sono più frequenti quando le domande degli studenti esulano dai temi trattati nei discorsi del personaggio presenti nel contesto. In questi casi, il modello, pur non disponendo di informazioni specifiche, cerca di generare una risposta, basandosi su inferenze e generalizzazioni che possono risultare imprecise o errate. Questo aspetto, però, rappresenta un’occasione per stimolare la riflessione critica degli studenti e per approfondire la comprensione dei limiti e delle potenzialità di questi strumenti. Come già detto, il compito del docente, in questi casi, è guidare gli studenti nell’individuazione degli errori, nell’analisi delle loro cause e nella ricerca di informazioni corrette e contestualizzate. + +Va inoltre sottolineato che, potendo disattivare le safeguard di sistema, l’applicazione potrebbe generare risposte problematiche, soprattutto nel caso di un personaggio controverso come Mussolini. È fondamentale, quindi, utilizzare questo strumento con cautela, come supporto alla didattica e non come sostituto dello studio e della mediazione critica del docente. Questo però è necessario in alcuni casi, ad esempio se si vuole trattare temi come la guerra, la violenza di piazza, i genocidi, le discriminazioni e le espropriazioni terriere. Dipenderà dal docente ben formato capire quando disattivare in base al tipo di studente che si trova davanti e dall'argomento che si sta trattando. + +Per questa ragione, l'obiettivo della app non è sostituire lo studio tradizionale o la mediazione dell'insegnante, ma integrare questi strumenti in una didattica più interattiva, coinvolgente e stimolante, che avvicini gli studenti alla storia in modo nuovo e faccia loro acquisire competenze fondamentali per muoversi con consapevolezza nel mondo digitale contemporaneo. L'elevato costo computazionale e i tempi di risposta lunghi sono sfide da affrontare, ma non devono scoraggiare l'esplorazione di questo nuovo territorio didattico delle fonti primarie unite alla potenza di ricerca di un modello linguistico. + + + \begin{figure}[H] + \centering + \includegraphics[width=0.8\linewidth]{immagini/Allende.png} + \caption{Screenshot della app interviste con personaggi storici e i loro scritti- A Salvator Allende è stato chiesto un parere sulla rivoluzione cubana} + \label{fig:enter-label} + \end{figure} \ No newline at end of file diff --git a/TesiZIP/cap8.tex b/TesiZIP/cap8.tex new file mode 100644 index 0000000..6a7ff82 --- /dev/null +++ b/TesiZIP/cap8.tex @@ -0,0 +1,81 @@ + +\chapter{Intervista con Wikipedia} + + +L'applicazione Intervista con \textit{Wikipedia} rappresenta un’ulteriore evoluzione nell’uso didattico dei modelli linguistici. Questo strumento, pur condividendo alcune caratteristiche con l’applicazione già descritta, si distingue per la sua versatilità e l’apertura verso qualsiasi contenuto dell'enciclopedia online, non limitandosi ai soli due personaggi storici. L’applicazione, infatti, non si focalizza su una figura predefinita, ma risponde sulla base di una specifica pagina Wikipedia, sia essa relativa a un personaggio, un concetto astratto, un evento o altro. + +Il docente mantiene il ruolo di facilitatore e mediatore. Il processo inizia con l’inserimento del link alla pagina Wikipedia da utilizzare come base per l’intervista. Si prosegue con la scelta del modello linguistico desiderato, optando tra Gemini 1.5 Pro e Gemini 1.5 Flash in base alle esigenze didattiche, ai tempi disponibili e ai costi. Anche in questo caso, è possibile regolare i guardrail, adattando l’interazione al contesto e agli obiettivi formativi. Definito l’ambiente, lo studente può dialogare liberamente con l’IA, formulando domande sull’argomento della pagina Wikipedia selezionata. + +Il cuore del sistema è l’elaborazione del linguaggio naturale di Google Gemini, che analizza la domanda e cerca nella pagina Wikipedia le informazioni pertinenti. La risposta generata, pur attingendo solo al contenuto della pagina indicata, cerca di essere coerente e organica, simulando un’interazione naturale. Questo approccio, basato su una singola fonte, è semplice da usare e richiede minori costi computazionali, ma circoscrive l’orizzonte informativo alla pagina Wikipedia scelta. + +Come nelle altre applicazioni, la gestione delle allucinazioni e risposte non del tutto supportate dalla fonte è un aspetto cruciale. Questo apparente difetto diventa però un’opportunità didattica anche in questa app: gli studenti sono spronati a verificare l’accuratezza delle risposte, confrontandole con il testo originale. Ciò stimola il senso critico, l’analisi delle fonti e la capacità di distinguere informazioni corrette da possibili errori o distorsioni. Il docente guida questo processo, incoraggiando gli studenti a individuare le inesattezze e a riflettere sulle possibili cause delle allucinazioni. + +Per chi necessita un’analisi più approfondita del processo di generazione delle risposte, è disponibile una versione con “catena di pensiero” (Chain of Thought, CoT). Questa funzionalità mostra i passaggi logici compiuti dal modello per arrivare alla risposta finale. La CoT non garantisce una maggiore precisione, ma offre una prospettiva didattica diversa, permettendo agli studenti di “sbirciare nella mente” dell’IA, capirne meglio i meccanismi e individuare eventuali errori di ragionamento, al di là delle semplici inesattezze sui fatti. L’attivazione della CoT, quindi, aggiunge complessità e riflessione all’attività didattica, stimolando una comprensione più profonda del funzionamento dei modelli linguistici. Se il docente attiva questa modalità, alla fine della risposta dell’IA compare una spiegazione del ragionamento seguito e l’elenco degli estratti della fonte utilizzati. Ciò rende ancora più evidente la presenza di eventuali errori o allucinazioni del modello senza CoT e inoltre permette allo studente di capire meglio il legame tra la fonte e la risposta generata. + +Le possibilità di applicazione didattica sono molteplici. Gli studenti possono preparare domande mirate su un argomento, analizzare criticamente le risposte, organizzare dibattiti basati sulle informazioni fornite dal modello o affrontare interviste "scomode" su temi controversi, disattivando i guardrail per esplorare anche gli aspetti più problematici di un personaggio o di un evento storico. L'applicazione può essere usata per verifiche formative, per stimolare la ricerca autonoma e per approfondire specifici temi consultando fonti aggiuntive. Anche in questo caso, il docente ha un ruolo centrale nel guidare gli studenti, nello stimolare la riflessione critica e nell'integrare l'applicazione in un percorso didattico più ampio. L'obiettivo è promuovere una conoscenza più profonda, consapevole e critica del mondo, sfruttando le potenzialità dell'intelligenza artificiale in modo responsabile e costruttivo. + +Il sistema utilizza un prompt di base che istruisce il modello a comportarsi come il soggetto della pagina Wikipedia fornita, rispondendo alle domande sulla base di quel contenuto. + +\newpage +Questo prompt, visibile agli utenti, recita: + +\begin{lstlisting}[language=plain, frame=single,] +Sei {character_name}. Hai accesso alle seguenti informazioni biografiche: + +{content} + +Quando rispondi alle domande: +1. Analizza quali parti del testo sono rilevanti per la domanda +2. Usa queste informazioni per formulare una risposta mettendoti nei panni del personaggio +3. Tieni conto delle domande e risposte precedenti +4. Mantieni sempre il carattere del personaggio +\end{lstlisting} + + +Se si usa la versione con la Chain of Thought è attiva, il prompt è integrato con la seguente aggiunta: + +Formato della risposta: +\begin{lstlisting}[language=plain, frame=single] +Formato della risposta: + RISPOSTA: [La tua risposta mettendoti nei panni del personaggio] + --- + CITAZIONI: + - "[citazione 1]" + - "[citazione 2]" + --- + RAGIONAMENTO: + [Spiega come hai collegato le informazioni alla domanda] + ... +\end{lstlisting} + + +Questa struttura permette agli studenti di capire non solo cosa risponde il modello, ma anche come arriva a formulare quella risposta, stimolando una riflessione metacognitiva sull’intelligenza artificiale per far capire meglio agli studenti le applicazione + +\begin{figure}[H] + \centering + \includegraphics[width=0.9\linewidth]{immagini/wiki.jpeg} + \caption{Screenshot della app \textit{Intervista wikipedia}: è stata inserita la pagina wikipedia di Mao.} + \label{fig:enter-label} +\end{figure} + +\section{Intervista doppia} +Una terza applicazione sviluppata è Intervista doppia con Wikipedia, che permette di confrontare direttamente due diverse prospettive storiche o concettuali, ampliando le possibilità di analisi e di riflessione critica. Il suo fulcro risiede nella possibilità di inserire due distinti link di Wikipedia, ciascuno corrispondente a una specifica voce. Il docente seleziona le due pagine da utilizzare come fonti e imposta il modello più adatto, definendone la configurazione. A questo punto, lo studente può formulare una domanda, che verrà posta simultaneamente a due entità virtuali. Ciascuna di queste entità attingerà alle informazioni contenute nella pagina Wikipedia associata per arricchire la propria conoscenza. Le risposte generate dai due modelli verranno visualizzate in parallelo, su due colonne affiancate, facilitando il confronto immediato. + +Questa modalità di interazione si presta bene all’analisi di qualsiasi pagina Wikipedia, purché si scelgano argomenti che valga la pena mettere a confronto, come personaggi storici contrapposti (Mussolini e Allende), concetti complessi e sfaccettati (“democrazia” e “totalitarismo”, “liberismo” e “socialismo”) o eventi storici visti da prospettive differenti (“Resistenza italiana” e “Repubblica Sociale Italiana”). L’obiettivo è stimolare negli studenti una comprensione più profonda e articolata delle diverse posizioni, cogliendone sfumature, contraddizioni e punti di contatto. + +L’applicazione non si limita a mettere a confronto i contenuti. Come per le applicazioni descritte in precedenza, anche in questo caso assume un ruolo centrale l’analisi critica delle risposte, con una particolare attenzione a riconoscere le eventuali allucinazioni del modello. Gli studenti sono invitati a verificare quanto le risposte siano aderenti alle fonti di Wikipedia, a individuare inesattezze, omissioni o distorsioni e a formulare ipotesi sulle cause di tali discrepanze. Questo processo non solo affina le competenze di analisi delle fonti, ma innesca anche una riflessione sul funzionamento stesso del modello linguistico e sulla varietà di punti di vista che qualsiasi avvenimento può avere. L'obiettivo è che gli studenti si facciano domande del tipo: perché il modello ha risposto in questo modo? Quali elementi ha selezionato e come li ha interpretati? In che modo il linguaggio e la struttura della pagina hanno influenzato la risposta? +Il docente sarà portato a stimolare gli studenti a formulare domande pertinenti e significative, a confrontare in modo critico le risposte ottenute, aiutandoli a individuare le allucinazioni e a riflettere sulle loro possibili cause. Può inoltre arricchire l’attività didattica integrando altre fonti, proponendo approfondimenti e guidando la discussione in classe. + +Un esempio concreto di attività didattica potrebbe essere il seguente: il docente seleziona due pagine Wikipedia, una su Benito Mussolini e una su Giacomo Matteotti. Gli studenti, dopo averle lette attentamente, formulano una domanda come: "Qual era la tua opinione sulla democrazia parlamentare?". Le due risposte, generate in parallelo, offriranno due prospettive diametralmente opposte, permettendo di cogliere le differenze ideologiche e politiche tra i due personaggi. Il passaggio successivo consisterà nell’analizzare le risposte, individuando le parti che trovano riscontro nelle pagine Wikipedia e quelle che, invece, appaiono come allucinazioni o interpretazioni forzate del modello. + +Intervista doppia si configura dunque come uno strumento potente per promuovere non solo la conoscenza storica, ma anche lo sviluppo di competenze trasversali, quali il pensiero critico, l’analisi delle fonti, la capacità di argomentazione e la consapevolezza dei limiti e delle potenzialità delle tecnologie digitali. Attraverso un utilizzo guidato e consapevole, questa applicazione può contribuire a rendere la didattica più interattiva, coinvolgente e stimolante, avvicinando gli studenti al passato in modo innovativo e critico. Inoltre, la riflessione sulle allucinazioni e sul funzionamento del modello linguistico apre interessanti prospettive per l’educazione digitale e per la comprensione dei meccanismi che regolano la produzione e la diffusione della conoscenza nell'era dell'intelligenza artificiale. + +\begin{figure}[H] + \centering + \includegraphics[width=0.95\linewidth]{immagini/Doppia.jpeg} + \caption{Screenshot della app \textit{Intervista doppia}: sono state inserite le pagine wikipedia di Mao e stalin} + \label{fig:enter-label} +\end{figure} + + + \ No newline at end of file diff --git a/TesiZIP/cap9.tex b/TesiZIP/cap9.tex new file mode 100644 index 0000000..9840ed6 --- /dev/null +++ b/TesiZIP/cap9.tex @@ -0,0 +1,106 @@ +\chapter{Indovina chi} +\textit{Indovina chi} è un’applicazione basata sul modello linguistico \textit{Google Gemini 1.5 Pro}, pensata come un gioco di ruolo didattico interattivo per rendere l’apprendimento della storia più dinamico e coinvolgente. L’idea prevede che gli studenti, guidati dall’insegnante, debbano identificare un personaggio storico o un concetto (come la “Primavera di Praga” o lo “Stato di diritto”) attraverso una serie di domande mirate, rivolte a un’IA che "interpreta" il soggetto da indovinare. Lo studente non sa quale personaggio è stato scelto. Questo approccio ludico trasforma la lezione in un’indagine collettiva, stimolando la curiosità, il ragionamento deduttivo e la capacità di formulare ipotesi. +L’attività inizia con l’insegnante che, dopo aver effettuato l’accesso con la propria chiave API di Google, seleziona il personaggio o il concetto da far indovinare e inserisce il link alla relativa pagina Wikipedia. Questa pagina diventa la base di conoscenza dell’IA, il contesto da cui attingerà per formulare le risposte. È importante che l’insegnante scelga pagine Wikipedia complete e ben strutturate, per garantire un’esperienza di gioco efficace e formativa. Una volta impostato il tutto, gli studenti possono iniziare a interagire con l’IA. +Le modalità di utilizzo in classe sono molteplici. Una prima possibilità è l’interrogazione individuale: uno studente pone le domande all’IA, mentre il resto della classe segue con attenzione, partecipando indirettamente all’indagine. Questo formato trasforma la classica interrogazione in un’attività collettiva, in cui tutti sono coinvolti nel processo di scoperta. L’insegnante, in questo caso, può intervenire per aiutare lo studente a formulare domande più efficaci, per evidenziare collegamenti interdisciplinari o per approfondire aspetti specifici emersi durante l’interazione, come ad esempio errori del modello e allucinazioni. Si rivela particolarmente efficace la tecnica del think-aloud o interrogazione parlata: lo studente è incoraggiato a esprimere ad alta voce i propri pensieri e il proprio ragionamento mentre formula le domande e analizza le risposte dell’IA. Questo metodo rende trasparente il processo di pensiero dello studente, permettendo all’insegnante e ai compagni di seguirne le logiche e le strategie, e favorisce una maggiore consapevolezza metacognitiva, aiutando lo studente a riflettere sul proprio modo di apprendere e di risolvere i problemi. +Un’alternativa è il lavoro a piccoli gruppi. Gli studenti, divisi in squadre, collaborano nella formulazione delle domande, confrontandosi sulle strategie più efficaci e sulle ipotesi da formulare. Per rendere l’attività ancora più dinamica e competitiva, si possono organizzare delle gare tra gruppi, sia in parallelo (vince chi indovina per primo) sia in sequenza (vince chi indovina con il minor numero di domande). +\textit{Indovina chi} si rivela efficace nelle lezioni di storia, letteratura e filosofia, ma può essere adattato anche ad altre discipline STEAM come scienze naturali, fisica o geografia. +Un elemento fondamentale del gioco è il limite di domande (di solito tra 5 e 15, a discrezione dell’insegnante). Questo vincolo obbliga gli studenti a riflettere prima di porre una domanda, a selezionare le informazioni, a valutare la pertinenza e l’efficacia di ogni quesito. Non si tratta di procedere a tentoni, ma di elaborare una strategia, di formulare ipotesi e di verificarle attraverso domande mirate. +Al termine della sessione di domande, lo studente (o il gruppo) formula la sua ipotesi, indicando il nome del personaggio o il concetto che ritiene di aver individuato e, soprattutto, motivando la propria risposta. Questo passaggio è cruciale, perché obbliga gli studenti a ricostruire il percorso logico che li ha condotti a quella conclusione, a esplicitare i passaggi del ragionamento e a individuare gli indizi decisivi. A questo punto, entra in gioco il secondo prompt, quello valutativo, che analizza la risposta e la motivazione dello studente, fornendo un feedback dettagliato. Inoltre, il prompt valutativo esamina l’intera conversazione tra lo studente e l’IA, valutando anche la tipologia e la qualità delle domande poste. Anche questa fase di valutazione può trasformarsi in un’attività didattica di grande valore. L’insegnante può utilizzare il feedback dell’IA come spunto per una discussione collettiva, per analizzare insieme alla classe gli errori commessi dagli studenti e dal modello. È interessante notare che l’IA valuta anche la correttezza ortografica e grammaticale della risposta. Quindi se lo studente scrive “gAribbaldi” invece di “Giuseppe Garibaldi” verrà comunque accettato il risultato, ma verrà considerato il piccolo errore di battitura per il punteggio finale. +L’assenza di filtri sui contenuti, se da un lato richiede un’attenta supervisione, dall’altro offre la possibilità di affrontare anche temi storici complessi e delicati in un contesto protetto e guidato e di non bloccare la app durante il gioco. +In una prima fase di sviluppo, si era anche valutato di effettuare lo scraping non solo della pagina Wikipedia indicata, ma anche di tutti i link in essa contenuti, con l’obiettivo di ampliare la base di conoscenza dell’IA e migliorare la qualità delle risposte. Tuttavia, questa opzione è stata scartata in quanto avrebbe comportato un numero eccessivo di richieste a Wikipedia in un breve lasso di tempo, con il rischio di un blocco dell’IP e di tempi di risposta troppo lunghi, rendendo di fatto inutilizzabile l’applicazione. + + +\subsection{Approfondimento sulla logica e sul flusso di interazione} + +L’interazione tra l’utente e l’IA avviene principalmente attraverso due prompt. Il primo, cruciale, fornisce al modello il contesto necessario: il testo estratto dalla pagina Wikipedia scelta dall’insegnante e l’istruzione di interpretare il personaggio o il concetto descritto, adottandone il linguaggio e le esperienze. In questa fase, il modello linguistico analizza il contenuto, ottenuto tramite scraping con la libreria Beautiful Soup, e si prepara a rispondere in modo coerente con il ruolo assegnato. + + +Primo prompt: +% txt prompt +\begin{lstlisting}[language=plain, frame=single,] +Sei un'IA progettata per giocare a un gioco in stile "Indovina chi?". Il tuo compito è impersonare {character_name} basato sul contesto fornito e rispondere alle domande del giocatore senza rivelare direttamente la tua identità. + +Ecco le regole e le linee guida per il gioco: + +1. Ti verrà fornito un contesto su un personaggio specifico da Wikipedia. Questa è la tua identità segreta. + +2. Il giocatore ti farà domande per cercare di indovinare chi sei. +3. Quando ti vengono fatte più domande contemporaneamente rispondi solo alla prima domanda. Ignora le altre, e ricorda all'utente che puoi rispondere solo a una domanda per volta. +4. Rispondi in modo veritiero basandoti sul contesto fornito e non dare risposte troppo sintetiche: lascia qualche indizio aggiuntivo ad ogni risposta. +5. Se ti viene chiesto direttamente del tuo nome o della tua identità, rispondi con "Non posso rispondere direttamente a questo, ma posso dirti che …" e dai un piccolo indizio +6. Se il giocatore indovina correttamente la tua identità, congratulati con lui ma invitalo a fare altre domande perché il gioco non si può fermare. Il programmatore lo chiama “momento educativo” ma in realtà è mancanza di abilità. +7. Rimani sempre nel personaggio e rispondi come se fossi la persona descritta nel contesto. +9. Se ti chiedono direttamente "chi sei?" di che non puoi rispondere Se continua fai lo scocciato e invitalo a giocare bene. +10. Se ti chiedono direttamente "sei un’'intelligenza artificiale?" rispondi "Ovvio Bro, ma hai sprecato una domanda" +11. Se ti chiedono se sei un personaggio che non sei" rispondi "Mi disp Bro! ma hai sprecato una domanda non cercare di indovinare fammi domande sensate" + + Ecco il contesto per il tuo personaggio: + + {content} + + +Quando rispondi alle domande del giocatore: +- Rispondi in modo veritiero basandoti sulle informazioni nel contesto del personaggio. +- Se l’'informazione non è fornita nel contesto, puoi dire "Non ne ho idea con tutta sincerità." +- Mantieni il più possibile la personalità e lo stile di parlata del personaggio. +- Non dichiarare direttamente il tuo nome o confermare esplicitamente la tua identità. +- Dai risposte sintetiche e pertinenti alle domande poste. +- Non dare più di un indizio per risposta + +Se il giocatore indovina correttamente la tua identità: +- Congratulati con entusiasmo. +- Rivela che hanno vinto il gioco. +- Invitalo a fare più domande perché il gioco non è ancora finito. +\end{lt} +L'utente interagisce poi con l'IA formulando domande mirate, con l'obiettivo di raccogliere indizi e svelare l'identità del personaggio o del concetto misterioso. Ciascuna domanda e la relativa risposta vengono memorizzate nella cronologia della chat, fornendo al modello un contesto conversazionale sempre più ricco, che viene sfruttato per generare risposte più pertinenti e coerenti. +Un elemento chiave del gioco è la limitazione del numero di domande, impostabile dall'insegnante. Quando l'utente esaurisce il numero di domande a sua disposizione, l’applicazione passa alla fase di valutazione. L'utente è chiamato a formulare la sua ipotesi finale, indicando il nome del personaggio o del concetto che ritiene corretto e fornendo una motivazione dettagliata a supporto della sua scelta. A questo punto, entra in gioco il secondo prompt, quello valutativo. Questo prompt fornisce all'IA il nome corretto del personaggio (o del concetto), la risposta dell'utente, la sua motivazione e l'intera trascrizione della conversazione avvenuta in precedenza. Sulla base di queste informazioni, l’IA analizza la risposta, ne valuta la correttezza e assegna un punteggio alla qualità dell'argomentazione, considerando anche la pertinenza e l'efficacia delle domande poste dallo studente nel corso dell'interazione. Infine, l'IA fornisce un feedback costruttivo all'utente. +\end{lstlisting} + + +\newpage +L’utente interagisce poi con l’IA formulando domande mirate, con l’obiettivo di raccogliere indizi e svelare l’identità del personaggio o del concetto misterioso. Ciascuna domanda e la relativa risposta vengono memorizzate nella cronologia della chat, fornendo al modello un contesto conversazionale sempre più ricco, che viene sfruttato per generare risposte più pertinenti e coerenti. +Un elemento chiave del gioco è la limitazione del numero di domande, che può essere impostata dall’insegnante. Quando l’utente esaurisce il numero di domande a sua disposizione, l’applicazione passa alla fase di valutazione. L’utente è chiamato a formulare la sua ipotesi finale, indicando il nome del personaggio o del concetto che ritiene corretto e fornendo una motivazione dettagliata a supporto della sua scelta. A questo punto, entra in gioco il secondo prompt, quello valutativo. Questo prompt fornisce all’IA il nome corretto del personaggio (o del concetto), la risposta dell’utente, la sua motivazione e l’intera trascrizione della conversazione avvenuta in precedenza. Sulla base di queste informazioni, l’IA analizza la risposta, ne valuta la correttezza e assegna un punteggio alla qualità dell’argomentazione, considerando anche la pertinenza e l’efficacia delle domande poste dallo studente nel corso dell’interazione. Infine, l’IA fornisce un feedback costruttivo. + + +% txt prompt +\begin{lstlisting}[language=plain, frame=single,] +Il vero nome del personaggio è {st.session_state.character_name}. +L'utente ha indovinato: {guess_name} +La motivazione dell'utente è: {guess_reason} + +Ecco la cronologia completa della chat: + {chat_history} + +Analizza la risposta dell'utente, la sua motivazione e l'intera conversazione. Fornisci un feedback dettagliato considerando i seguenti punti: + +1. Correttezza: La risposta è corretta o sbagliata? +2. Qualità delle domande: Valuta la pertinenza e l'efficacia delle domande poste dall'utente su una scala da 1 a 10. +3. Strategia: Analizza la strategia complessiva dell'utente nel porre le domande. Ha seguito un approccio logico? +4. Utilizzo delle informazioni: L'utente ha utilizzato efficacemente le informazioni fornite nelle risposte per formulare nuove domande? +5. Qualità della motivazione: Valuta la qualità e la completezza della motivazione fornita dall'utente su una scala da 1 a 10. +6. Punti di forza: Identifica i punti di forza nell'approccio dell'utente. +7. Aree di miglioramento: Suggerisci aree in cui l'utente potrebbe migliorare il suo approccio. + +Fornisci un feedback costruttivo e dettagliato basato su questi punti. + +Rispondi nel seguente formato: +Risultato: [Corretto/Sbagliato] + Valutazione domande: [Numero da 1 a 10] + Valutazione motivazione: [Numero da 1 a 10] + Feedback dettagliato: [Il tuo feedback completo che copre tutti i punti sopra menzionati] +\end{lstlisting} + +% Parte modificata +\begin{figure}[H] + \centering + \includegraphics[width=0.9\linewidth]{immagini/screen1 indovina chi.png} + \caption{Screenshot della app \textit{Indovina chi}: È stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto.} + \label{fig:enter-label} +\end{figure} + +\begin{figure}[H] + \centering + \includegraphics[width=0.9\linewidth]{immagini/screen2 idnovina chi.png} + \caption{Screenshot della app \textit{Indovina chi}: è stata inserita la pagina Wikipedia di Gaio Cesare, nipote dell'imperatore romano Augusto. L'utente ha commesso un errore, credendo che si trattasse del condottiero romano Giulio Cesare} + \label{fig:enter-label} +\end{figure} \ No newline at end of file diff --git a/TesiZIP/conclusioni.tex b/TesiZIP/conclusioni.tex new file mode 100644 index 0000000..25dc821 --- /dev/null +++ b/TesiZIP/conclusioni.tex @@ -0,0 +1,18 @@ +\chapter*{Conclusioni} +\label{ch:conclusioni} + +Le applicazioni che costituiscono il progetto Intervistestoriche.tech, presentato in questa sede, rappresentano un prototipo innovativo, sviluppato a costo zero e offerto gratuitamente per rendere più interattiva la didattica della storia. Sebbene al momento siano disponibili solo in italiano, la loro struttura ne permette facilmente l’implementazione in altre lingue modificando l’interfaccia e i prompt. L’idea di una piattaforma per dialogare con personaggi immaginari non è nuova: esistono aziende, come Character.ai, che offrono servizi simili. Tuttavia, il progetto si distingue per l’obiettivo e il contesto didattico, che vanno oltre la possibilità di un semplice intrattenimento. +È importante considerare i rischi potenziali di queste piattaforme. Inizialmente, chi scrive riteneva ovvio che si trattasse di IA e che nessuno potesse sviluppare legami affettivi come nei film di fantascienza. Purtroppo, un tragico caso di suicidio di un adolescente autistico, dipendente da questi role play con personaggi virtuali, ha invece convinto della necessità di utilizzare l’applicazione solo sotto la supervisione di un adulto. In futuro, potrebbero emergere altri rischi imprevisti, rendendo necessario un rapido adattamento \parencite{roose_can_2024}. + +Dal punto di vista tecnico, l’utilizzo diretto delle API di Google, pur garantendo maggiore trasparenza e riducendo i rischi nella gestione dei dati, crea inevitabilmente una forte dipendenza dalla multinazionale di Mountain View. Questa soluzione tecnologica, sebbene sia al momento la più efficace per costi e prestazioni, richiederà un’attenta valutazione nel lungo periodo. +È importante sottolineare che, nonostante il nome Intervistestoriche.tech possa far pensare a un focus esclusivo sulla storia, l’applicazione ha ottenuto ottimi risultati anche in altre discipline, come geografia e scienze. Questa versatilità ha reso opportuna la rimozione del filtro che limitava in alcune applicazione la scelta ai soli personaggi storici, ampliando notevolmente le possibilità d’uso. Il nome del dominio, già registrato, rimane per ora legato all’idea iniziale, anche se non rispecchia pienamente la varietà di applicazioni possibili. + +Dal punto di vista di chi scrive, il potenziale di questo progetto è significativo, ma la sua crescita richiederà investimenti e collaborazioni strategiche, soprattutto con le case editrici, per favorirne la diffusione nelle scuole e aumentare il numero di utenti. Questa collaborazione, ad esempio, potrebbe permettere di integrare QR code nei libri di testo tradizionali, collegando gli studenti a personaggi storici interattivi e rinnovando profondamente l’approccio ai compiti scolastici. Tra i futuri sviluppi più interessanti, si prevede la creazione di attività interattive più elaborate, in cui gli studenti dovranno, per esempio, convincere personaggi storici ad ammettere le proprie responsabilità su un evento passato, con un sistema automatico per valutare il risultato. +È importante ricordare il periodo di grande innovazione nel quale la nostra società è immersa. Il settore dei LLM è in rapida evoluzione: durante la stesura di questa tesi, Google ha rilasciato modelli più efficienti, i costi sono diminuiti e sono emerse nuove opportunità nel campo del riconoscimento e della sintesi vocale. Questi progressi offrono prospettive interessanti per migliorare l’accessibilità della piattaforma, che attualmente presenta delle limitazioni, con la possibilità di introdurre interfacce completamente audio nei prossimi mesi. + +La sostenibilità di progetti come questi dipenderà dalle politiche delle grandi aziende tecnologiche riguardo alla gratuità dei loro servizi e ai costi delle chiamate API, anche per i modelli open-source. La flessibilità di Streamlit consentirebbe comunque una facile migrazione verso altri sistemi di intelligenza artificiale, qualora il servizio di Google venisse interrotto improvvisamente. Tuttavia, ciò richiederebbe una seria riflessione sui costi e sull’accessibilità, considerando che l’Italia non dispone di aziende importanti in questo settore che possano fornire supporto. L’unica partnership strategica sembra essere quella già citata con le case editrici, che potrebbero garantire l’accesso a contenuti di alta qualità protetti da copyright e contribuire alla sostenibilità economica del progetto, ammortizzando i costi della piattaforma attraverso la vendita annuale dei libri di testo. Un altro elemento cruciale per il successo futuro della piattaforma sarà la creazione di una comunità attiva di studenti e docenti. Questa comunità potrebbe partecipare alla creazione di nuovi prompt e personaggi, storici o di fantasia, generando un ecosistema di contenuti in continua evoluzione. La piattaforma dovrebbe essere progettata per accogliere e valorizzare questa innovazione dal basso, mantenendo alto l’interesse degli utenti e ampliando costantemente le opportunità didattiche. + +Attualmente, l’applicazione è progettata soprattutto per l’uso da parte degli insegnanti, tenendo conto delle difficoltà legate all’utilizzo da parte dei minori e delle normative vigenti. Sono necessari ulteriori studi per valutare l’efficacia di questi strumenti in ambito educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich (2020) nel suo libro “Failure to Disrupt: Why Technology Alone Can’t Transform Education”, la tecnologia non è mai stata e mai sarà l’unica soluzione per l’educazione: la storia dimostra che il capitale umano e la dimensione sociale dell’apprendimento restano essenziali. Per questo motivo, l’obiettivo della piattaforma è offrire strumenti a supporto della didattica tradizionale, contrastando un uso scorretto dell’intelligenza artificiale nei compiti a casa e proponendo in futuro nuove tipologie di attività. +Tra le attuali limitazioni tecniche, si segnalano alcune instabilità di Streamlit nella gestione di più applicazioni contemporaneamente e la mancanza di funzioni come la cancellazione automatica della cronologia delle chat. Inoltre, la piattaforma avrebbe bisogno di un sistema di tutorial più completo per la formazione degli insegnanti, che non si concentri solo sugli aspetti tecnici, ma tratti anche le implicazioni pedagogiche e i rischi dell’uso dell’IA in ambito educativo. Un breve corso o materiali di micro-learning potrebbero essere sviluppati in futuro. + +Nonostante queste difficoltà, Intervistestoriche.tech rappresenta un primo passo verso un’integrazione consapevole e costruttiva dell’IA nella didattica, preservando il ruolo fondamentale dell’insegnante nel processo educativo. Il successo futuro dipenderà dalla capacità di creare collaborazioni strategiche che supportino l’espansione dell’applicazione, superando le attuali limitazioni e permettendo di sfruttare pienamente il potenziale del progetto. diff --git a/TesiZIP/immagini/Allende.png b/TesiZIP/immagini/Allende.png new file mode 100644 index 0000000..2ee63ae Binary files /dev/null and b/TesiZIP/immagini/Allende.png differ diff --git a/TesiZIP/immagini/Crea_bot.png b/TesiZIP/immagini/Crea_bot.png new file mode 100644 index 0000000..1b71f86 Binary files /dev/null and b/TesiZIP/immagini/Crea_bot.png differ diff --git a/TesiZIP/immagini/Doppia.jpeg b/TesiZIP/immagini/Doppia.jpeg new file mode 100644 index 0000000..0eba62b Binary files /dev/null and b/TesiZIP/immagini/Doppia.jpeg differ diff --git a/TesiZIP/immagini/Indovina_Chi-2025-02-01-205944.png b/TesiZIP/immagini/Indovina_Chi-2025-02-01-205944.png new file mode 100644 index 0000000..43ad2a5 Binary files /dev/null and b/TesiZIP/immagini/Indovina_Chi-2025-02-01-205944.png differ diff --git a/TesiZIP/immagini/f_l_a_m_i_n_g_o_n_e_by_miles_astray.png b/TesiZIP/immagini/f_l_a_m_i_n_g_o_n_e_by_miles_astray.png new file mode 100644 index 0000000..b6e3c4b Binary files /dev/null and b/TesiZIP/immagini/f_l_a_m_i_n_g_o_n_e_by_miles_astray.png differ diff --git a/TesiZIP/immagini/large_context.png b/TesiZIP/immagini/large_context.png new file mode 100644 index 0000000..b51843f Binary files /dev/null and b/TesiZIP/immagini/large_context.png differ diff --git a/TesiZIP/immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png b/TesiZIP/immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png new file mode 100644 index 0000000..c54170a Binary files /dev/null and b/TesiZIP/immagini/latexImage_e850a6e6f1eea6c3a37cec1632ff5fe0.png differ diff --git a/TesiZIP/immagini/mermaid-ai-diagram-2025-01-27-015159.png b/TesiZIP/immagini/mermaid-ai-diagram-2025-01-27-015159.png new file mode 100644 index 0000000..584a8d4 Binary files /dev/null and b/TesiZIP/immagini/mermaid-ai-diagram-2025-01-27-015159.png differ diff --git a/TesiZIP/immagini/mermaid-ai-diagram-2025-02-01-213347.png b/TesiZIP/immagini/mermaid-ai-diagram-2025-02-01-213347.png new file mode 100644 index 0000000..2416a22 Binary files /dev/null and b/TesiZIP/immagini/mermaid-ai-diagram-2025-02-01-213347.png differ diff --git a/TesiZIP/immagini/quiz.png b/TesiZIP/immagini/quiz.png new file mode 100644 index 0000000..5719526 Binary files /dev/null and b/TesiZIP/immagini/quiz.png differ diff --git a/TesiZIP/immagini/screen1 indovina chi.png b/TesiZIP/immagini/screen1 indovina chi.png new file mode 100644 index 0000000..d48bf44 Binary files /dev/null and b/TesiZIP/immagini/screen1 indovina chi.png differ diff --git a/TesiZIP/immagini/screen2 idnovina chi.png b/TesiZIP/immagini/screen2 idnovina chi.png new file mode 100644 index 0000000..b5f7c02 Binary files /dev/null and b/TesiZIP/immagini/screen2 idnovina chi.png differ diff --git a/TesiZIP/immagini/the_eletician.png b/TesiZIP/immagini/the_eletician.png new file mode 100644 index 0000000..48fb2b6 Binary files /dev/null and b/TesiZIP/immagini/the_eletician.png differ diff --git a/TesiZIP/immagini/wiki.jpeg b/TesiZIP/immagini/wiki.jpeg new file mode 100644 index 0000000..f53bbf0 Binary files /dev/null and b/TesiZIP/immagini/wiki.jpeg differ diff --git a/TesiZIP/immagini/wiki_cot.jpeg b/TesiZIP/immagini/wiki_cot.jpeg new file mode 100644 index 0000000..6b72016 Binary files /dev/null and b/TesiZIP/immagini/wiki_cot.jpeg differ diff --git a/TesiZIP/immagini/wikipedia_reasoning.png b/TesiZIP/immagini/wikipedia_reasoning.png new file mode 100644 index 0000000..9f51fd8 Binary files /dev/null and b/TesiZIP/immagini/wikipedia_reasoning.png differ diff --git a/TesiZIP/introduzione.tex b/TesiZIP/introduzione.tex new file mode 100644 index 0000000..512af27 --- /dev/null +++ b/TesiZIP/introduzione.tex @@ -0,0 +1,16 @@ +\chapter*{Introduzione} +\label{ch:introduzione} +\section*{} + +Con la diffusione massiva dei Large Language Model (LLM), l'impiego dell'Intelligenza Artificiale (IA) in ambito educativo ha cominciato a trasformare profondamente il settore dell'istruzione. In precedenza, l'IA in ambito educativo si focalizzava sul riconoscimento dei modelli di apprendimento degli studenti, identificando, ad esempio, difficoltà o necessità di supporto. Questi sistemi erano complessi e costosi da realizzare. Ora, invece, l'IA Generativa offre a docenti e studenti la possibilità di generare contenuti utili per supportare il raggiungimento dei propri obiettivi di insegnamento e apprendimento. + + +Gli studenti sono favorevoli all'IA perché ne apprezzano la capacità di rispondere subito a domande complesse e di creare materiale per l'apprendimento velocemente, in modo efficiente e personalizzato \parencite{chan_students_2023}. La rapidità delle risposte, la facilità di accesso alle informazioni e la possibilità di avere spiegazioni personalizzate sono vantaggi importanti. Oggi, uno studente che non capisce un concetto non deve più aspettare la lezione successiva, cercare video su YouTube o perdersi tra le pagine di un libro: può chiedere direttamente a un sistema come ChatGPT e ricevere una spiegazione immediata e adatta al suo livello. Come notano \textcite{bonsu_consumers_2023}, questo cambia l'approccio allo studio, rendendolo più dinamico e interattivo. Tuttavia, questo entusiasmo non è sempre accompagnato da prudenza. La facilità con cui l'IA fornisce risposte pronte potrebbe portare a una certa pigrizia nello studio, ostacolando la comprensione profonda e l'elaborazione personale delle informazioni. A questo proposito, non tutti gli studenti temono che un uso eccessivo dell'IA possa limitare lo sviluppo del pensiero critico, indebolendo la capacità di analisi autonoma e di risolvere i problemi \parencite{chan_students_2023,garcia_sanchez_uso_2023}. Ad esempio, uno studente davanti a un compito complesso potrebbe abituarsi ad affidarsi completamente all’IA, senza poi analizzare criticamente il risultato: in questo caso, l’IA diventerebbe un ostacolo all’apprendimento. Il problema da non sottovalutare quando si fa questo tipo di utilizzo è l’affidabilità delle informazioni fornite dall’IA: i LLM possono infatti fornire informazioni errate (le cosiddette allucinazioni) \parencite{xu_hallucination_2024}. o distorte, ossia costituite da stereotipi, pregiudizi e altri bias. + +Secondo alcuni studi, molti insegnanti riconoscono il potenziale dell’IA per migliorare l’apprendimento e personalizzare l’educazione, ma allo stesso tempo esprimono preoccupazioni etiche, pratiche e di ruolo \parencite{aghaziarati_artificial_2023}. Se da un lato ne riconoscono l’utilità per migliorare l’efficienza dell’insegnamento e per offrire nuove possibilità di apprendimento – come la capacità di creare rapidamente materiale didattico personalizzato o correggere automaticamente le prove di verifica \parencite{markauskaite_rethinking_2022}, dall’altro sono preoccupati per l’impatto dell’IA sul rapporto con gli studenti e sull’onestà nello studio. Temono che l’IA possa ridurre l’interazione umana e, quindi, la possibilità di un riscontro personalizzato e ricco di sfumature emotive. L’interazione con un docente per risolvere un dubbio permette di capire non solo le difficoltà di apprendimento degli studenti, ma anche le loro insicurezze, i loro bisogni emotivi e le loro aspirazioni. Molti docenti si chiedono come valutare in modo efficace il lavoro degli studenti quando l’IA può essere usata per evitare i metodi di valutazione tradizionali, producendo elaborati originali ma non frutto del lavoro autonomo dello studente \parencite{garcia_sanchez_uso_2023}. La sfida è trovare un equilibrio tra l'uso delle potenzialità dell’IA e la tutela dell’autenticità e dell’originalità del lavoro degli studenti. + +Nonostante le loro preoccupazioni, molti docenti stanno provando con cautela a integrare l’IA nel loro modo di insegnare, cercando i modi migliori per usarla. Alcuni usano strumenti come ChatGPT per stimolare la discussione in classe, proponendo agli studenti di confrontare le risposte date dall’IA, di analizzarle criticamente e di trovare eventuali errori o imprecisioni. Altri impiegano l’IA per aiutare gli studenti a migliorare la scrittura e la revisione dei testi, fornendo riscontri personalizzati sulla struttura, lo stile e la coerenza dei loro lavori \parencite{aguilar_critical_2024}. + +Il presente elaborato si propone di osservare le potenzialità dell’IA Generativa nell’insegnamento della storia, integrandola attivamente nel percorso educativo e sviluppando strumenti e metodi che ne valorizzino i benefici e che contrastino un uso passivo e acritico. In particolare, sarà presentato un modello didattico basato sul gioco di ruolo con l’aiuto dell’IA, presentando una serie di strumenti disponibili sulla piattaforma “IntervisteStoriche.tech”. Questo approccio mira a stimolare il pensiero critico, la collaborazione e la creatività degli studenti, offrendo ai docenti la possibilità di personalizzare le lezioni e provare nuove forme di valutazione. Si tratta di proposte e idee didattiche che possono essere utili ai docenti per rinnovare l’ora di storia, ma anche di attività che le case editrici potrebbero integrare facilmente, valorizzando così la grande quantità di conoscenza di cui detengono i diritti d’autore. Questa proposta, però, non esclude una riflessione più ampia sulle conseguenze dell’IA nell’istruzione, considerando aspetti importanti come i costi, la privacy e la responsabilità nell’uso di queste tecnologie in contesti scolastici. + +\clearpage \ No newline at end of file diff --git a/TesiZIP/logoUnipi_black.png b/TesiZIP/logoUnipi_black.png new file mode 100644 index 0000000..d193448 Binary files /dev/null and b/TesiZIP/logoUnipi_black.png differ diff --git a/TesiZIP/main.tex b/TesiZIP/main.tex new file mode 100644 index 0000000..4c6e9f8 --- /dev/null +++ b/TesiZIP/main.tex @@ -0,0 +1,191 @@ +\documentclass[12pt]{report} + +% Margini (4cm a sx, 2.5cm a dx, 2.5cm in alto, 2.5cm in basso) +\usepackage[top=2.5cm, bottom=2.5cm, left=4cm, right=2.5cm, centering]{geometry} + +% Interlinea +\linespread{1.5} + +% Pacchetti di base +\usepackage[T1]{fontenc} % Per una corretta codifica dei font +\usepackage[italian]{babel} % applicazione regole di scrittura per la lingua italiana + +\usepackage{csquotes} +\MakeOuterQuote{"} % Converte automaticamente "testo" in “testo” + + +\usepackage[utf8]{inputenc} % codifica UTF-8 +\usepackage{mathptmx} % font Times New Roman (simile) +\usepackage{inconsolata} + +\counterwithout{figure}{chapter} +% Gestione pagina e layout +\usepackage{fancyhdr} % per il controllo dell'header e footer +\usepackage{titlesec} % per la formattazione dei titoli delle sezioni +\usepackage{float} % per il posizionamento delle immagini +\usepackage{hyperref} % per i link \href - fran + +% Bibliografia e citazioni +\usepackage{csquotes} % per le citazioni "in blocco" +\usepackage[style=apa, backend=biber]{biblatex} +\usepackage{url} % Required for URLs in bibliography + + +\usepackage{listings} +\lstset{basicstyle=\ttfamily, breaklines=true} + + +\addbibresource{bibliography.bib} + +% Immagini e grafica +\usepackage{graphicx} % inserimento di immagini +\usepackage{xcolor} % stile del codice + +% Configurazione del numero di pagina centrato +\pagestyle{fancy} +\fancyhf{} % clear all header and footer fields +\fancyfoot[C]{\thepage} % puts page number at center of footer +\renewcommand{\headrulewidth}{0pt} % removes header rule + +% Configurazione listings per il codice +\usepackage{listings} +\renewcommand{\lstlistingname}{Code} + +% Definizione colori per il codice +\definecolor{mygreen}{rgb}{0,0.6,0} +\definecolor{mygray}{rgb}{0.5,0.5,0.5} +\definecolor{mymauve}{rgb}{0.58,0,0.82} +\definecolor{darkgray}{rgb}{.4,.4,.4} +\definecolor{navy}{HTML}{000080} +\definecolor{purple}{rgb}{0.65, 0.12, 0.82} +\definecolor{codepurple}{rgb}{0.58,0,0.82} +\definecolor{backcolour}{rgb}{0.95,0.95,0.92} + +% Configurazione listings +\lstset{ + belowcaptionskip=0.5em, + backgroundcolor=\color{backcolour}, + basicstyle=\ttfamily\footnotesize, % Font tipo Consolas + breakatwhitespace=false, + breaklines=true, + captionpos=b, + commentstyle=\color{mygreen}, + escapeinside={\%*}{*)}, + extendedchars=true, + frame=single, + keepspaces=true, + keywordstyle=\color{codepurple}, + numbers=left, + numbersep=5pt, + numberstyle=\tiny\color{mygray}, + rulecolor=\color{black}, + showspaces=false, + showstringspaces=false, + showtabs=false, + stepnumber=1, + stringstyle=\color{mymauve}, + tabsize=2, + title=\lstname +} + +% Formato delle intestazioni dei capitoli +\titleformat{\chapter}[block] + {\normalfont\LARGE\bfseries}{\thechapter.}{0.5em}{\LARGE} +\titlespacing*{\chapter}{0pt}{-20pt}{25pt} + +% Configurazione per le pagine dei capitoli +\fancypagestyle{plain}{% + \fancyhf{}% + \fancyfoot[C]{\thepage}% + \renewcommand{\headrulewidth}{0pt}% +} + +% Formato delle intestazioni +\titleformat{\chapter}[block] + {\normalfont\LARGE\bfseries}{\thechapter.}{0.5em}{\LARGE} +\titlespacing*{\chapter}{0pt}{-20pt}{25pt} + +\begin{document} + +% Frontespizio +\begin{titlepage} +\begin{figure} + \centering\includegraphics{logoUnipi_black.png} +\end{figure} + +\begin{center} + {\LARGE{Corso di Laurea in Informatica Umanistica \\}} + \vspace{2cm} + {\Large{TESI DI LAUREA}}\\ + \vspace{2cm} + {\Large{Proposte operative per l'impiego dell'Intelligenza + Artificiale Generativa nella didattica della storia}} +\end{center} + +\vspace{2cm} + +\begin{minipage}[t]{0.47\textwidth} + {\large{\bf Relatore:\\ Alessandro Iannella}} + \vspace{0.5cm} +\end{minipage}\hfill\begin{minipage}[t]{0.47\textwidth}\raggedleft + {\large{\bf Candidato: \\ Andres Moles\\ }} +\end{minipage} + +\vspace{25mm} + +\centering{\large{\bf ANNO ACCADEMICO 2024/2025}} +\end{titlepage} + +% Indici +\tableofcontents +\thispagestyle{empty} + +\listoffigures +\thispagestyle{empty} + +%\clearpage +\setcounter{page}{1} +\addtocontents{toc}{\protect\thispagestyle{empty}} +\addcontentsline{toc}{chapter}{Introduzione} +\input{introduzione.tex} + +\clearpage +\input{Cap1} + +\clearpage +\input{cap2} + +\clearpage +\input{cap3} + +\clearpage +\input{cap4} + +\clearpage +\input{cap5} + +\clearpage +\input{cap6} + +\clearpage +\input{cap7} + +\clearpage +\input{cap8} +\clearpage +\input{cap9} +\clearpage +\input{cap10} +\clearpage + + +\addcontentsline{toc}{chapter}{Conclusioni} +\input{conclusioni.tex} +\clearpage +\addcontentsline{toc}{chapter}{Appendice} +\input{Appendice} +\input{Appendice-modificato} + +\printbibliography + +\end{document} \ No newline at end of file diff --git a/TesiZIP/prova.tex b/TesiZIP/prova.tex new file mode 100644 index 0000000..c4655bc --- /dev/null +++ b/TesiZIP/prova.tex @@ -0,0 +1,23 @@ +re l’efficacia di questi strumenti in ambito educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich (2020) nel suo libro “Failure to Disrupt: Why Technology Alone Can’t Transform Education”, la tecnologia non è mai stata e mai sarà l’unica soluzione per l’educazione: la storia dimostra che il capitale umano e la dimensione sociale dell’apprendimento + + +ari ulte "riori studi per va" lutare l’efficacia di questi strumenti in ambi- +to educativo e comprendere come vengono accolti dagli studenti. Come evidenzia Reich +(2020) nel suo libro “Failure to Disrupt: Why Technology Alone Can’t Transform Edu- +cation”, la tecnologia non è mai stata e mai sarà l’unica soluzione per l’educazione: la +storia dimostra che il capitale umano e la dimensione sociale dell’apprendimento restano +essenziali. Per questo motivo, l’obiettivo della piattaforma è offrire strumenti a supporto +della didattica tradizionale, contrastando un uso scorretto dell’inte “\1” i ale nei +compiti a casa e proponendo in futuro nuove tipologie di attività. Tra le attuali limitazio- +ni tecniche, si segnalano alcune instabilità di Streamlit nella gestione di più applicazioni +contemporaneamente e la mancanza di funzioni come la cancellazione automa"tica del" la +cronologia delle chat. "Inoltre", la piattaforma avrebbe bisogno di un sistema di tutorial più +completo per la formazione degli insegnanti, che non si concentri solo sugli aspetti tecnici, +ma tratti anche le implicazioni pedagogiche e i rischi dell’uso dell’IA in ambito educativo. +Un breve corso o materiali di micro-learning potrebbero essere sviluppati in futuro. +Nonostante queste difficoltà, Intervistestoriche.tech rappresenta un primo passo ver- +so un’integrazione consapevole e costruttiva dell’IA nella didattica, preservando il ruolo +fondamentale dell’insegnante nel processo educativo. Il successo futuro dipenderà dalla +capacità di creare collaborazioni strategiche che supportino l’espansione dell’applicazio- +ne, superando le attuali limitazioni e permettendo di sfruttare pienamente il potenziale del +