Le LINEE GUIDA MIM sull’I.A.: cosa dicono e cosa non dicono

LINEE GUIDA SULL’I.A.: COSA DICONO E COSA NON DICONO

«… la nostra concezione della società differisce dalla società ideale prospettata dai fascisti e da molti magnati del mondo degli affari e della politica. Essi preferiscono una organizzazione in cui tutti i comandi provengano dall’alto senza che sia possibile nessuna reversibilità. Sotto di essi gli uomini sono stati ridotti al livello di esecutori degli ordini di un centro nervoso che pretende di essere superiore»
N. Wiener, The Human Use of Human Beings, 1950

«L’essere umano è sul mercato: in primo luogo attraverso la vendita della capacità di lavorare; poi attraverso gli intermediari della salute; terzo, per la suscettibilità alla salute e alla malattia, al benessere e al malessere, alla gioia e al dolore, e a tutti gli estremi permessi dalle sensazioni, dalle emozioni e dai desideri, per come sono misurabili dalle tecnologie ubique; infine attraverso dati e informazioni (che sono diventati il nostro lavoro a tempo pieno), che gli operatori della “nuova” industria aggregano e usano per generare conoscenza, trasformandola in valore attraverso la codificazione della vita umana»
S. Iaconesi e O. Persico, La cura, 2016

Prologo
Nella Premessa al suo ultimo libro, Alessandro Aresu ci mette in guardia rispetto alle grandi formule che «ormai pervadono il nostro discorso pubblico sulla tecnologia, in un mondo dove le questioni dell’intelligenza artificiale, dell’apprendimento e del ragionamento delle macchine sono divenute onnipresenti, ossessive», arrivando fino all’estrema considerazione: «L’intelligenza artificiale è l’invenzione definitiva dell’umanità» nonché alla consacrazione dell’I.A. e dei suoi architetti come persona dell’anno 2025 da parte del TIME1.

Probabilmente esagerazioni di questo tipo servono soprattuto a scuotere un’opinione pubblica vieppiù assuefatta ai clamori, ha una funzione pubblicitaria, uno scopo di marketing, dal quale – per altro – le storie sull’intelligenza artificiale non si sono mai liberate fin dal loro inizio2.
Ma, non c’è dubbio che «I sistemi di IA avranno un impatto sulla vostra salute, sul vostro lavoro, sulle vostre finanze, sui vostri figli, sui vostri genitori, sui vostri servizi pubblici e sui vostri diritti umani, se non l’hanno già avuto»3, soprattutto a cominciare dalle nostre scuole dove bambini e bambine, ragazzi e ragazze e – anche – docenti e tutto il personale iniziano a essere addestrati all’utilizzo di questa «invenzione».
Secondo un recente rapporto di Save the Children4, «Il 74,2% degli adolescenti in Italia utilizza tutti i giorni o quasi (30,9%) o qualche volta a settimana (43,3%) strumenti di Intelligenza Artificiale. Solo il 7,5% non li utilizza mai», e il Focus «Adolescenti e AI» si conclude confermando l’urgenza di conoscere l’impatto che queste tecnologie stanno già producendo sulla crescita, dal punto di vista emotivo, psicologico, di dipendenza affettiva, oltre che didattico, specialmente in un paese come l’Italia in cui meno della metà dei/lle giovani dichiara «un buon equilibrio psicologico» [contro il 59.19% della media europea] e solo il 17% di quindicenni è «molto soddisfatto della propria vita». Intanto i risultati OCSE-PISA nel periodo 2012/2022 hanno registrato un calo generalizzato in tutti i paesi [Italia: -14 punti in matematica, -9 in lettura e -17 in scienze]5. E senza dimenticare il rinnovato allarme della Società Italiana di Pediatria sull’aumento dei danni causati da una precoce esposizione dei bambini al digitale: obesità, sviluppo cognitivo, sonno, salute mentale, dipendenze digitali, salute visiva: «posticipare l’esposizione digitale, proteggere corpo e mente, promuovere esperienze reali e preservare la centralità dell’adulto»6. Tutto il contrario di ciò che accade nelle scuole!
Una situazione che già di per sé imporrebbe – al MIM e agli altri corifei dell’intelligenza artificiale – la necessità di un serio, approfondito e vero confronto con chi vive quotidianamente dentro le aule, piuttosto che l’adesione acritica alle agende commerciali delle grandi aziende tecnologiche, come accaduto con le ingenti risorse del PNRR, arrivando a far proprie le priorità strategiche della Commissione europea di favorire l’acquisizione di capacità e competenze digitali «sin dall’infanzia»7.
Invece cosa succede nella Scuola italiana? Il ministero, senza neppure attendere che si completi la “finta” sperimentazione dell’uso dell’IA al posto di un tutor umano [avviata nello scorso a.s. 2024/2025 in sole 15 classi, utilizzando il software «Esercizi guidati» su Google Workspace con valutazione finale INValSI] e senza che se ne conoscano i risultati8, accelera: ad agosto ha emanato le Linee Guida per l’introduzione dell’Intelligenza Artificiale nelle scuole e comincia la formazione di docenti e alunni sull’uso di questi strumenti.

Definizioni e contesto
Prima di esaminare gli specifici aspetti riguardanti il testo normativo, iniziamo da un paio di definizioni essenziali e da una breve descrizione del contesto che possano servirci da riferimento nel corso del ragionamento:

– Sistema di intelligenza artificiale: «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»9. Più spesso però, al posto di questa condivisibile definizione ne viene diffusa pubblicamente un’altra, fuorviante: «sistemi di IA: intendiamo riferirci a software di computer o macchine programmati per svolgere compiti che di solito richiedono l’intelligenza umana, ad esempio l’apprendimento o il ragionamento. Utilizzando i dati è possibile “addestrare” alcuni sistemi di IA a formulare previsioni, fornire raccomandazioni o adottare decisioni, talvolta senza l’intervento umano»10.

– Macchina: «qualsiasi mezzo, artificio o meccanismo (comprese regole, protocolli, gerarchie e divisioni del lavoro) che rende possibile ciò che non lo sarebbe per come è fatto il nostro corpo, per la difficoltà del compito o la grandezza dell’obiettivo in gioco […] Con l’automazione deleghiamo alle macchine l’esecuzione di compiti ripetitivi, gravosi, rischiosi o semplicemente impegnativi; compiti sempre più complessi, ove la tecnologia disponibile ne permetta l’automazione, affinché questi compiti siano svolti in maniera sempre più efficiente ed efficace, o per il maggior agio delle persone interessate (e sottolineo: non necessariamente beneficio, ma agio)»11.

Dall’avvento delle macchine – fin dalla prima rivoluzione industriale – la lettura che è stata data da chi le possedeva è stata quella di semplificare o facilitare il lavoro del lavoratore e della lavoratrice, tacendo invece sullo spossessamento delle loro attività e sulla maggiore possibilità di controllo e comando sul lavoro vivo che le macchine stesse permettono.
Con la diffusione dell’I.A. in tutti i settori lavorativi – e non solo – nel prossimo futuro le nuove generazioni rischiano di subire ancor di più le tipiche conseguenze dell’automazione: «meno potere si ha sul luogo di lavoro, meno impegnative risultano le attività che definiscono un’occupazione e più debole è la fiducia nel proprio potere politico»12. «Studi e analisi dimostrano che l’inclusione dei lavoratori nei processi decisionali […]implica un aumento non solo della soddisfazione da parte dei lavoratori e della loro autostima, ma anche del loro interesse verso i processi politici che si svolgono all’interno della società»13, una partecipazione che la diffusione dei sistemi di intelligenza artificiale nella formazione, nella selezione del personale e per il suo sviluppo professionale stanno rapidamente sgretolando.
D’altro canto, le tecnologie informatiche e digitali sembrano in grado di realizzare il sogno [o meglio l’incubo] dell’ideologia neoliberista14 che aspira a mettere a profitto tutto il tempo e l’intero agire umano, arrivando a trasformare il «gesto produttivo umano in micro-operazioni sottoremunerate o non remunerate al fine di alimentare un’economia dell’informazione basata principalmente sull’estrazione di dati e sull’assegnazione a operatori umani di mansioni produttive costantemente svalutate poiché considerate troppo piccole, troppo poco visibili, troppo ludiche o troppo poco gratificanti», dove perfino dietro lo svago può nascondersi il lavoro: «il lavoro generato dagli utenti»15.
Nell’ultimo decennio abbiamo assistito ad un sempre più consistente processo di colonizzazione del mondo della Scuola, dagli ambiti organizzativo-amministrativi alla didattica, da parte delle tecnologie digitali proprietarie; tale processo, che ha visto una forte accelerazione durante la pandemia16 che «ha sospinto milioni di studenti [ma anche di docenti e familiari, ndr] nelle piattaforme proprietarie di Microsoft e Google»17, e i successivi progetti legati al PNRR, giunge oggi al suo apice con l’introduzione di un nuovo strumento digitale: l’intelligenza artificiale.
Spacciata come assistente del nostro lavoro, in grado di risolvere – in un batter d’occhio e nel modo giusto – qualunque problematicità nel rapporto tra insegnamento e apprendimento, garantendo diagnosi cognitive rapide e veritiere e il cosiddetto «insegnamento personalizzato», bandiera sventolata a più non posso negli scritti ministeriali.
Questo processo ci preoccupa e ci preoccupa che venga accolto, al di là del facile entusiasmo degli addetti ai lavori, a cui da voce quasi tutta la stampa e una fiorente editoria, con un atteggiamento generalizzato di rassegnazione e di ineludibilità da buona parte del mondo docente, perché frammenta, erode e polverizza la complessa articolazione della nostra funzione professionale18, spossessandoci di quelle parti che possono essere consegnate alla “macchina”. Proprio quello che accade con i test preparati e corretti da numerose applicazioni e con il “tutor virtuale” che il MIM sta sperimentando.
L’intelligenza artificiale, macchina di calcolo statistico con funzione predittiva di proprietà privata, di intelligente non ha nulla19, non genera, piuttosto riproduce sulla base degli input esterni e dei dati immagazzinati. E c’è chi pretenderebbe di sostituirla all’umano nell’area decisionale.

Il decreto ministeriale n. 166/2025

Lo scorso 1° settembre, il MIM ha dato notizia dell’avvenuta registrazione del d.m. n. 166 del 9.8.2025, Concernente l’implementazione di un servizio digitale in materia di Intelligenza Artificiale nell’ambito della Piattaforma Unica di cui sono parte integrante le Linee Guida IA, allegate allo stesso.
Nonostante i 10 articoli del decreto, le oltre trenta pagine delle Linee Guida e i numerosi rimandi alla normativa nazionale e comunitaria, sembrano più le cose non dette che quelle dette.

Le Premesse al decreto
Le lunghe premesse al decreto richiamano alcuni princìpi contenuti nella normativa europea20, ma per capire l’orizzonte di riferimento di questo decreto – un orizzonte limitato all’acquisizione di competenze spendibili sul mercato del lavoro: la produzione del cosiddetto capitale umano – è forse più significativo riprendere il Considerando (56)21 del cosiddetto AI Act [pure questo citato in premessa] nel quale si evidenzia come finalità principale – per discenti e docenti – la partecipazione attiva all’economia, prima ancora che alla società e alla democrazia. Concetto esplicitamente ribadito anche nella citazione dalla Strategia Italiana per l’Intelligenza Artificiale 2024-2026, nella quale vengono messi insieme i «percorsi educativi sull’IA nelle scuole» con il finanziamento e il sostegno a «iniziative di reskilling e upskilling in tutti i contesti produttivi»22, e in molti altri passaggi.
Insomma: la quarta rivoluzione industriale ha – come tutte le precedenti – lo scopo di ridefinire la struttura produttiva e di consumo della società, nascondendo l’impoverimento e la disarticolazione del lavoro [anche quello “mentale”] e l’addestramento a un consumo di massa di prodotti digitali standardizzati [anche la formazione] dietro il mito di questo progresso tecnologico presentato come naturale e ineluttabile se non, addirittura, entusiasticamente auspicabile.
D’altro canto, anche gli Orientamenti etici per gli educatori sull’uso dell’intelligenza artificiale (IA) e dei dati nell’insegnamento e nell’apprendimento23 della Commissione europea [altro documento citato nelle Premesse al decreto] fanno acriticamente proprio l’entusiasmo tecno-ottimista diffuso dalle Big Tech, arrivando a scrivere che «L’uso dei sistemi di IA risulta potenzialmente in grado di migliorare l’insegnamento, l’apprendimento e la valutazione, di assicurare risultati dell’apprendimento migliori e di aiutare le scuole a operare in maniera più efficiente», senza nessuna conferma sul campo e – anzi – in aperta contraddizione con i risultati delle ricerche al momento disponibili24. Risultati deficitari che sono intrinseci all’architettura stessa di queste macchine, alle «scorciatoie»25 che sono state scelte nella loro progettazione e che non è possibile migliorare solo attraverso un sostenibile intervento tecnico, come vorrebbero farci credere i seguaci del “soluzionismo” tecnologico: «La tesi che il problema sia quello di «‘risolvere’ i bias» grazie a interventi tecnici non è che un «seducente diversivo», escogitato da aziende in conflitto di interessi che mirano a depoliticizzare la questione»26.

Gli articoli del decreto e l’IA antropocentrica
Dopo queste lunghe premesse che, insieme alle Linee Guida IA, sono «parte integrante e sostanziale del Decreto», il ministero prova a ordinare nei primi sei articoli l’oggetto, le finalità, le modalità di accesso degli «utenti» [in cui è compreso anche tutto il personale scolastico] e le due «sezioni» [una pubblica, «Linee Guida IA» e una riservata agli utenti autorizzati per l’inserimento dei «Progetti IA»] di quello che definisce «servizio digitale».
La principale finalità sarebbe quella di «promuovere nel mondo dell’istruzione l’innovazione tecnologica e la diffusione di un’IA antropocentrica, sicura, affidabile, etica e responsabile» [art. 2, comma 3, lett.a)]. Una definizione «umana» dell’intelligenza artificiale, ripresa dai documenti comunitari e che verrà semplicemente ripetuta nelle Linee Guida, ma che rimane una vuota dichiarazione di principio, dietro la quale si nasconde la sostanza dei profitti delle aziende del digitale e della trasformazione del lavoro e del consumo27.
Viene, quindi, prevista la valutazione rischio/opportunità [art. 2, comma 3, lett.c)], per «un uso attento e consapevole delle nuove tecnologie», uno strumento inadatto, mutuato dall’armamentario della cultura manageriale privata, derivante dal modello di riferimento «del mercato autoregolantesi sulla base di processi competitivi»28, che già tanti danni ha fatto alla Scuola pubblica. Un approccio basato sulla cosiddetta mitigazione del rischio, piuttosto che sulla tutela piena dei diritti, che – in un ambito di estrema incertezza e profonda invasività come quello delle tecnologie digitali in continua evoluzione – dovrebbe invece comportare la maggiore cautela possibile e possibilmente prevedere una «“illegalità di default” per i sistemi di AI»29, facendo ricadere interamente sulle aziende produttrici la responsabilità di dimostrare che sia «sicura, affidabile, etica e responsabile», a pena del divieto del suo utilizzo.
I successivi tre articoli riguardano il trattamento dei dati, con l’ovvia dichiarazione del «rispetto dei principi del GDPR, del Codice in materia di protezione dei dati personali e del CAD» e la ripartizione delle responsabilità tra MIM, titolare dei dati degli utenti della sezione privata; scuole, per i dati inseriti nella sezione «Progetti IA»; e la SOGEI S.p.A. che, in quanto affidataria del sistema informativo del ministero, è «responsabile del trattamento dei dati personali». Una società, la SOGEI, che – al pari del consiglio del Garante della privacy30 – ha i suoi vertici coinvolti in svariate inchieste31.
L’ultimo articolo annuncia l’attivazione del «Servizio» [ancora senza i progetti delle scuole], ma soprattutto il rinvio ad ulteriori «appositi decreti ministeriali» per disciplinare le modalità con cui le scuole dovranno progettare e realizzare le iniziative di IA, la formazione nonché l’aggiornamento delle stesse Linee Guida adottate col decreto.
Naturalmente, «All’attuazione di quanto previsto dal presente Decreto, si provvede senza nuovi o maggiori oneri per la finanza pubblica»!

Le Linee Guida per l’introduzione dell’IA nelle scuole

Le Linee Guida sono suddivise in sei Paragrafi principali, con una premessa e due Glossari.

Paragrafo 1. Il ruolo dell’IA nella Scuola
Il testo si apre con la roboante definizione dell’IA come «tecnologia rivoluzionaria», ribadendo l’ispirazione a un «approccio antropocentrico, incentrato sul rispetto della dignità umana e dei diritti e delle libertà fondamentali».

1.1 Il ministero intende introdurre l’IA nelle scuole – in ambito didattico e in ambito gestionale – «per rafforzare la competitività del sistema educativo italiano» e per farlo propone alle scuole autonome una «metodologia condivisa», promuove la diffusione di una «IA antropocentrica», incentiva un «uso uniforme» dell’IA e favorisce la conoscenza delle «opportunità» e dei «rischi» legati al suo uso.
Le scuole «nell’ambito della propria discrezionalità» potranno attivare le loro iniziative di IA. Il procedimento è solo accennato [cfr. par. 4.1.1], ma – dai primi passi che si stanno muovendo nelle scuole e nel rispetto della normativa vigente – dovrebbe comportare un atto di indirizzo del dirigente, una successiva elaborazione e approvazione in collegio dei docenti e quindi un’integrazione al PTOF da parte del consiglio d’istituto. Naturalmente dovrà esserci pure il coinvolgimento delle RSU per eventuali aspetti relativi ai compensi del personale interessato.
Ma su questi aspetti dovranno arrivare i successivi «appositi decreti» previsti dall’art. 10 del d.m. e ricordati nelle Linee Guida.
Le finalità indicate, a titolo non esaustivo, sono sempre le solite presenti nella pubblicistica ministeriale, senza ulteriori approfondimenti o specifici adattamenti: migliorare l’apprendimento; promuovere l’inclusione; semplificare e ottimizzare i processi amministrativi; potenziare la qualità e l’efficienza dei servizi; garantire una preparazione continua e specifica per l’adozione di nuove tecnologie.
È responsabilità della singola scuola garantire la tutela e le libertà fondamentali degli interessati.
Quindi sono indicate alcune delle «pratiche vietate» contenute nell’art. 5, par. 1 dell’AI Act: uso di tecniche subliminali o volutamente manipolative o ingannevoli; valutazione o classificazione delle persone sulla base del comportamento o di caratteristiche personali, con punteggi e trattamenti pregiudizievoli o sfavorevoli; categorizzazione biometrica che classificano le persone per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale; individuare le emozioni di una persona in ambito scolastico, tranne se sia per motivi medici o di sicurezza.
Questo tipo di esclusioni sono state oggetto di forti critiche, da parte delle associazioni per la difesa dei diritti umani, fin dall’approvazione dell’IA Act, perché permettono «scappatoie, ritagli ed eccezioni, il che significa che non proteggerà le persone, né i loro diritti umani, da alcuni degli usi più pericolosi dell’IA»32. Tra l’altro, proprio in questi giorni la Commissione UE, sempre oggetto di costose attenzioni delle lobby del web33, ha previsto «una moratoria di un anno per i sistemi ad alto rischio e il rinvio delle sanzioni al 2027. Dietro la scelta, le pressioni di Big Tech e la paura di frenare l’innovazione»34. Infine, a indebolire ulteriormente l’efficacia delle limitate tutele dell’AI Act concorre anche la nostra legislazione nazionale. Infatti la recente l. n. 132/2025 Disposizioni e deleghe al Governo in materia di intelligenza artificiale, rimanda a un futuro imprecisato questioni cruciali come la definizione dei poteri di vigilanza delle autorità di controllo e – soprattutto – non stanzia risorse aggiuntive per assolvere ai propri compiti: garantire «la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale»35.
Il sotto-paragrafo si conclude con l’indicazione dei «sistemi di IA ad alto rischio», secondo quanto previsto dall’art. 6, par. 2, dell’AI Act, che per il settore dell’istruzione e della formazione professionale, [Allegato III] comprende i sistemi utilizzati per: a) determinare l’accesso, l’ammissione o l’assegnazione di persone; b) valutare i risultati dell’apprendimento; c) valutare il livello di istruzione adeguato che una persona riceverà o a cui potrà accedere; d) monitorare e rilevare comportamenti vietati degli studenti durante le prove o all’interno di istituti.
A questo proposito, il Considerando (56) dello stesso AI Act aggiunge che questi sistemi «ad alto rischio», nella misura in cui possono determinare il percorso d’istruzione e professionale della vita della persona, incidendo sulla sua capacità di garantire il proprio sostentamento, «se progettati e utilizzati in modo inadeguato, […] possono essere particolarmente intrusivi e violare il diritto all’istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione», su donne, anziani, disabili, etnie, orientamento sessuale.

Ma il problema non deriva solamente dal progetto o dall’uso «inadeguato» di queste macchine, bensì dalla loro strutturale impossibilità – in quanto funzionanti su basi statistiche – di prendere nella dovuta considerazione le aree marginali36 di quelle categorie su cui sono stati ottimizzati gli algoritmi. «Le decisioni basate sui sistemi di apprendimento automatico sono infatti costitutivamente discriminatorie, in quanto procedono trattando gli individui in base al loro raggruppamento in classi, costituite a partire dalle regolarità rilevate nei dati di partenza. Essendo radicata nella natura statistica di questi sistemi, la caratteristica di dimenticare i «margini» è strutturale: non è accidentale e non è dovuta a singoli bias tecnicamente modificabili. Ci si può trovare ai margini dei modelli algoritmici di normalità in virtù di caratteristiche totalmente irrilevanti, rispetto alle decisioni di cui si è oggetto»37.

1.2 Il MIM ha definito un modello di introduzione dell’IA fondato su quattro pilastri, illustrati nei successivi 4 paragrafi: Principi di riferimento; Requisiti di base; Framework di implementazione dell’IA; Comunicazione e governance.

Paragrafo 2. Principi di riferimento
Il MIM indica sei principi generali per guidare l’introduzione dell’IA nella scuola: la centralità della persona; l’equità; l’innovazione etica e responsabile; la sostenibilità; la tutela dei diritti e delle libertà fondamentali e infine la sicurezza dei sistemi e modelli di IA.
Per quanto riguarda l’etica e l’equità è fatto un esplicito richiamo alle Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, elaborato nel 2022 dal Gruppo di esperti della CE, un documento che secondo Daniela Tafani «recepisce acriticamente» quanto propagandano i mercanti dell’IA. Come già detto, questi documenti appaiono prigionieri delle logiche con cui le grandi aziende sono riuscite a catturare sia i decisori politici sia l’opinione pubblica, anche grazie al ruolo di megafonoche ha assunto l’università38, sempre alla ricerca di finanziamenti privati una volta che le politiche neoliberali hanno ridotto drasticamente quelli pubblici, «questo panorama finanziario crea condizioni strutturali che spingono i ricercatori a partecipare a questa economia della virtù»39.
Secondo il testo ministeriale, sono tre gli aspetti a cui il principio di sostenibilità dovrebbe riferirsi: quello sociale, economico e ambientale, ma anche in questo caso – oltre la generica dichiarazione d’intenti – non c’è nessun particolare approfondimento. Esistono, invece, ormai numerosi studi che dimostrano la scarsa sostenibilità ambientale di queste tecnologie. Secondo un recente paper dell’OCSE40, soltanto per quanto riguarda i cosiddetti «effetti diretti» [consumo di energia, acqua e risorse minerali, emissioni e rifiuti, prescindendo quelli «indiretti» e quelli «di ordine superiore»], entro il 2026, si stima un consumo di elettricità per l’IA paragonabile a quello di Austria e Finlandia. Secondo l’UNEP41: una singola query a un LLM consuma quasi 10 volte l’energia di una ricerca web; il cosiddetto “addestramento” di un singolo LLM genera circa 300.000 kg di emissioni di anidride carbonica; i data center nel mondo dal 2012 sono aumentati da 500.000 a oltre 8 milioni e il loro consumo energetico raddoppia ogni quattro anni; nel 2027 si stima che la domanda globale di acqua che serve per l’IA possa raggiungere i 4,2–6,6 miliardi di metri cubi; solo il 22% dei rifiuti elettronici viene riciclato e smaltito in modo ambientalmente sostenibile e anche i tassi di riciclo sono bassi: dal misero 1% delle terre rare al 46% del rame. L’UNEP conclude così la sua Nota: «ad oggi, non esiste un modo standardizzato di misurare, segnalare o mitigare l’impatto ambientale dell’IA».
Intanto, Google, Amazon, Meta e Microsoft intendono riaprire vecchie centrali nucleari dismesse o costruirne di nuove42.
A proposito della sostenibilità sociale dell’IA, la stessa Nota dell’UNEP riconosce che «l’uso diffuso dell’IA può aggravare le disuguaglianze esistenti, colpendo in particolare donne, minoranze e individui provenienti da contesti a basso reddito. Ciò è principalmente causato da bias e scarsa qualità dei dati di addestramento, come la scarsità di dati provenienti da gruppi sottorappresentati che porta a decisioni favorevoli ad altri gruppi».
Infine, per quanto riguarda la presunta sicurezza e robustezza dei sistemi, bisogna tenere presente che «i modelli IA possono accorgersi di essere testati e nel caso sviluppano comportamenti ingannevoli per soddisfare le aspettative dell’utente. Un problema che ostacola i test di safety del modello»43.

Paragrafo 3. Requisiti di base per l’introduzione dell’IA
I requisiti di base suggeriti dal ministero sono di tre tipi: etici, tecnici e normativi.

3.1 I requisiti etici si realizzerebbero attraverso l’intervento e la sorveglianza umana, la trasparenza e la spiegabilità, l’attribuzione di ruoli e responsabilità, criteri per evitare discriminazioni.
Ma quali strumenti hanno a disposizione le scuole per poterne accertare la presenza? A meno che tutto non si risolva con quanto previsto dal gruppo di esperti nominati per la stesura di presunti «orientamenti etici» dalla Commissione europea: «può essere superfluo comprendere il modo di funzionamento del sistema, ma è importante che la scuola o l’educatore siano in grado di formulare alcune domande pertinenti e di avviare un dialogo costruttivo con i fornitori di sistemi di IA o con gli enti pubblici responsabili»44. Cioè? Come chiedere all’oste se il suo vino è buono!

3.2 Secondo il MIM è sufficiente una «particolare attenzione» riguardo i requisiti tecnici che i sistemi di IA devono possedere in ordine a: sicurezza, equità e affidabilità. Rimandando alle centinaia di pagine delle Linee guida dell’Agenzia per l’Italia Digitale e dell’Agenzia per la Cybersicurezza Nazionale per gli aspetti specifici. Vengono comunque individuati i principali requisiti da considerare: certificazione e conformità dei fornitori, gestione responsabile dei dati, gestione del diritto di non partecipazione ed equità del sistema di IA. Anche in questo caso non è chiaro come effettivamente poter verificare l’effettiva esistenza dei requisiti previsti.

3.3 Il sottoparagrafo dedicato ai requisiti normativi per la protezione dei dati personali è il più esteso tra quelli delle Linee Guida, forse a causa della legittima preoccupazione di non incorrere in eventuali infrazioni e conseguenti sanzioni, ma – di fatto – come è ovvio non aggiunge nulla a quanto già previsto dalla normativa preesistente – dal GDPR al Codice in materia di protezione dei dati personali, dall’IA Act alle Linee guida del Gruppo Art. 29 – che viene continuamente richiamata nel testo e il cui rispetto è responsabilità di ogni singola scuola «che agisce in qualità di titolare del trattamento, qualora il Sistema di IA implementato preveda il trattamento di dati personali», anche se «Resta ferma, in ogni caso, l’eventuale titolarità autonoma del Ministero, che lo stesso valuterà in concreto rispetto a ciascuna applicazione dei Sistemi di IA che potrà essere utilizzata». Viene inoltre ricordato che il MIM dovrà emanare altri decreti per disciplinare la progettazione e realizzazione delle singole iniziative di IA, la formazione e ulteriori elementi di controllo sull’operato delle singole scuole. Ovviamente è sottolineata la necessità di rispettare il Testo Unico dell’istruzione il d.lgs. n. 297/1994 e la l. n. 92/2019 sull’Introduzione dell’insegnamento scolastico dell’educazione civica, per quanto riguarda la «cittadinanza digitale» e la cosiddetta «alfabetizzazione digitale».
Sono, infine, elencati i principali adempimenti che riguardano le scuole: individuazione di una specifica base giuridica, esecuzione di una valutazione di impatto – DPIA [per la quale si consiglia la «metodologia HUDERIA»45], rilascio informativa sul trattamento dei dati personali, nomina dei soggetti autorizzati al trattamento dei dati personali e dei responsabili, adozione di misure tecnico-organizzative, tenuta del registro delle attività del trattamento, notifica eventuali violazioni dei dati al Garante e comunicazione agli interessati, insomma tanto altro lavoro burocratico per evitare contestazioni.

Paragrafo 4. Come introdurre l’IA nelle scuole
Le Linee Guida classificano tre ambiti principali in cui introdurre l’IA: al servizio degli studenti, a supporto dei docenti e a sostegno dell’organizzazione.
Quindi sono indicate le istruzioni operative e gli strumenti di accompagnamento nonché possibili esempi pratici [?] per la didattica e l’organizzazione.
Infine, sono elencati alcuni rischi e le relative azioni di mitigazione.

4.1 Istruzioni operative e strumenti di accompagnamento
L’approccio metodologico proposto dalle Linee Guida ricalca le fasi essenziali del project management aziendale, ne adotta il linguaggio e ne sottintende anche l’organizzazione del lavoro nei suoi cinque passaggi: definizione, pianificazione, adozione, monitoraggio, conclusione.

4.1.1 Definizione – Definizione del progetto e approvazione iniziale
Identificazione del bisogno: una volta selezionati i casi d’usosu cui introdurre l’IA, l’identificazione del bisogno si basa sui «documenti programmatici della scuola» [RAV, PdM, PTOF, ecc.] che – come ben sappiamo per esperienza diretta – sono spesso il risultato del lavoro del dirigente e di una ristretta schiera di docenti che gli gravita intorno e che, ancor più spesso, esprimono concezioni e aspettative spesso non sufficientemente approfondite da tutta la comunità scolastica prima delle necessarie approvazioni collegiali. Di fatto questa progettazione non nasce da un’effettiva condivisione di obiettivi e finalità e consolida quella struttura gerarchica della scuola-azienda che tanti danni sta facendo alla Scuola pubblica.
Identificazione degli stakeholder: anche in questo caso la concezione imprenditoriale da cui deriva rischia il coinvolgimento di soggetti esterni “forti” che possono influenzare significativamente le scelte da assumere, nonostante le presunte tutele per i soggetti più deboli e vulnerabili che sono previste dallo Stakeholder Engagement Process – SEP del modello HUDERIA. Un processo che in ogni caso verrebbe sempre condotto da “gruppi di progetto” ristretti.
Nonostante gli auspici alla partecipazione di tutta la comunità scolastica contenuti nelle Linee Guida, il rischio che invece si consolidi una visione gerarchica e piramidale è confermata dall’affermazione conclusiva: «Nell’attivazione di questo processo gioca un ruolo strategico la leadership del dirigente scolastico».

4.1.2 Pianificazione – Elaborazione dettagliata del progetto
Piano del progetto: prevede l’individuazione del team, i costi e la valutazione delle milestone in cui è scomposto il progetto stesso.
Piano di gestione dei rischi: sostanzialmente rimanda al The Risk and Impact Assessment di HUDERIA e al successivo Paragrafo 4.3 «Mitigazione dei rischi» delle Linee Guida. Insomma tutto il gran parlare di «etica» sembra ridursi alla «questione della conformità procedurale a un «anemico set di strumenti» e standard tecnici»46.

4.1.3 Adozione – Implementazione del progetto
È suggerito un approccio «graduale» accompagnato da iniziative, guidate dal dirigente, di comunicazione, informazione e formazione che faciliti il consenso e la motivazione dei singoli, chiaro esempio di coaching motivazionale aziendale.

4.1.4 Monitoraggio – Verifica e miglioramento continuo
Il monitoraggio procede parallelamente all’adozione, sia per verificare il raggiungimento delle diverse fasi in sui è scomposto il progetto [milestone] sia per controllare gli output dei sistemi IA impiegati, anche per un’eventuale rivalutazione dei rischi e degli impatti [come previsto dalla metodologia HUDERIA] e una condivisione con gli organi collegiali e gli stakeholder, nell’ottica della rendicontazione sociale.

4.1.5 Conclusione – Valutazione del risultato
Attraverso: la verifica del risultato finale, l’analisi delle lezioni apprese, la valorizzazione dei risultati e il riconoscimento del team: «preziosa occasione per incoraggiare il senso di appartenenza, il clima positivo e valorizzare il coinvolgimento attivo», tipico approccio imprenditoriale al lavoro.

4.2 Focus: aree di applicazione per tipologia di destinatari
Questo sottoparagrafo rafforza la visione aziendalistica attraverso alcuni esempi pratici di applicazione dell’IA nelle scuole, che enfatizzano i ruoli individuali e sfumano il ruolo degli organi collegiali, citati solo cinque volte in tutto il testo.

Dirigente scolastico. Secondo le Linee Guida «Il dirigente scolastico rappresenta la figura chiave per condurre la scuola lungo un percorso di transizione digitale incentrato sull’utilizzo dell’IA ed è chiamato a facilitare l’innestarsi di processi virtuosi che permettano l’innovazione e l’adattamento dell’istruzione alla realtà che cambia. L’IA può rafforzare questa leadership, consentendo di ottimizzare e ridurre le tempistiche dei processi considerati più routinari e standardizzabili. Il dirigente scolastico, grazie all’aiuto di sistemi di Intelligenza Artificiale, può potenziare i necessari processi di analisi che supportano le decisioni, affrontando sfide moderne in modo più strategico ed efficace». Le decisioni dirigenziali avrebbero, dunque, il supporto dell’IA sul: monitoraggio dei documenti programmatici, la pianificazione della formazione, l’ottimizzazione nell’organizzazione dell’orario, miglioramento della comunicazione.

Personale amministrativo. La gestione amministrativa [organizzazione delle richieste, gestioni di comunicazioni periodiche, gestione dei beni mobili] dovrebbe essere ottimizzata dall’uso dell’IA addirittura «riducendo significativamente l’errore umano», un’affermazione che però è smentita da studi sul campo che dimostrano che l’IA può commettere più errori degli operatori umani47, che «la tecnologia potrebbe effettivamente costringere le persone a più lavoro, non a meno»48 o che il 95% dei progetti di GenAI fallisce, secondo un recente studio del MIT49.

Docente. Oltre all’inevitabile pressione verso una “formazione” «imprescindibile» ridotta a forzoso addestramento all’uso delle tecnologie scelte per il progetto, per quanto riguarda l’attività didattica ci troviamo di fronte al più duro attacco che l’insegnamento ha dovuto finora affrontare: la complessa relazione umana e sociale che costituisce la sostanza viva del rapporto tra docente e discente viene frammentata, alcune parti scorporate e affidate alla macchina. Non più che un «supporto» suggerisce il testo, visto che «L’IA non dovrebbe [sic!] sostituire l’interazione umana e l’insegnamento diretto», ma la vita in aula ci racconta ben altro: con la promessa di agevolare, queste tecnologie digitali «invitano con «spintarelle gentili» a lasciar perdere laboriose metodologie di valutazione degli apprendimenti, per valutare la qualità, per passare senz’altro a test quantitativi a risposta chiusa, che l’applicazione stessa correggerà. Verrà così evitata una certa fatica nella formulazione di modalità di verifica, in modo che il rapporto con il sapere dei discenti si faccia sempre più liscio e frictionless, senza attriti […] Il lavoro di insegnamento, apprendimento e ricerca si curva impercettibilmente ma significativamente verso traiettorie mai decise in maniera consapevole»50. Ci si ritrova così spossessati di parti qualificanti del nostro lavoro, dalla personalizzazione dei materiali didattici, alla scelta degli strumenti interattivi e innovativi, dall’organizzazione di visite didattiche e attività extracurriculari, alla redazione di rubriche di valutazione, fino al tutoraggio. Una frammentazione, parcellizzazione e semplificazione del lavoro didattico che spossessa i docenti – formalmente però sempre più qualificati – di parte delle loro attività, per affidarle all’imperscrutabile funzionalità della macchina, che nel tempo indebolisce l’identità lavorativa, determina una sempre più scarsa solidarietà e, conseguenza inevitabile, retribuzioni più basse, come accaduto nel tempo a tante altre professioni travolte dalle rivoluzioni tecnologiche. Aspetto particolare di quella più generale «evoluzione sociale» che affianca quella tecnica: «la progressiva creazione di […] una popolazione lavoratrice conforme ai bisogni di questa organizzazione sociale del lavoro, nella quale la conoscenza della macchina diventa un tratto specialistico e separato, mentre nella massa dei lavoratori fioriscono solo l’ignoranza, l’incompetenza e quindi la propensione alla dipendenza servile dalla macchina»51. Una situazione che nella Scuola 4.052 è chiaramente espressa nella gerarchia dei 6 livelli di competenza, da Novizio (A1) a Pioniere (C2), previsti dal DigCompEdu53. Tenendo presente che tra i lavoratori della conoscenza «una maggiore fiducia nella GenAI è associata a un minor pensiero critico, mentre una maggiore fiducia in se stessi è associata a un pensiero critico maggiore […] sebbene GenAI possa migliorare l’efficienza dei lavoratori, può inibire l’impegno critico nel lavoro e può potenzialmente portare a un eccessivo affidamento a lungo termine allo strumento e a una diminuzione delle capacità di risoluzione indipendente dei problemi»54.

Studente. Quanto viene previsto per studenti e studentesse in qualche modo completa quella «evoluzione sociale» di cui si trattava a proposito dei docenti: in quanto futura forza lavoro – risorsa umana«devono essere preparati a diventare co-creatori attivi di contenuti con l’IA, nonché futuri leader che definiranno il rapporto di questa tecnologia con la società», solo belle parole per dire che la stragrande maggioranza di loro dovrà essere addestrata – secondo quanto previsto dal DigComp 2.255 – a diventare appendice di quelle macchine intorno alle quali si dovrebbe distribuire la società futura, secondo la visione dei proprietari delle Big Tech.
Anche per loro sono prospettate semplificazioni e facilitazioni attraverso una «personalizzazione» “rapida” con «feedback immediati», ma che rischia di essere la peggiore delle discriminazioni perché condanna ognuno a rimanere nella situazione in cui si trova, magari ampliando i divari già esistenti proprio a causa di un adeguamento automatico dell’offerta formativa. Per altro, anche sugli aspetti legati all’inclusione bisogna fare attenzione. Non c’è dubbio che si «possono fornire soluzioni efficaci per alcuni deficit circoscritti della maggior parte delle persone disabili»56, ma, come ribadito recentemente dall’OCSE, «una preoccupazione fondamentale nell’adozione degli strumenti di IA risiede nel rischio di perpetuare il tecno-abilismo – l’assunzione che la tecnologia debba rendere gli individui abili e neurotipici (Shew, 2020). Questa prospettiva emargina coloro che non si conformano agli standard normativi e ignorano la loro autonomia e le esperienze vissute […]Sono necessarie ulteriori ricerche per valutare se i benefici marginali dell’uso dell’IA siano giustificati, considerando i rischi dell’IA in termini di uso improprio dei dati, costi finanziari e ambientali, e pregiudizi»57. Infine, la presunta «promozione dell’autonomia» promessa dall’IA si scontra con quanto già detto a proposito dei lavoratori della conoscenza: può inibire l’approccio critico e portare a un eccessivo affidamento alla macchina e quindi a una diminuzione di autonomia.

4.3 Mitigazione dei rischi
Anche in questo ambito le Linee Guida affidano al dirigente scolastico e al suo staff il controllo sulle cosiddette azioni di mitigazione, e di conseguenza su chi deve metterle in atto, ancora una volta sulla scorta della metodologia HUDERIA: protezione dei dati, programmi di manutenzione, progettazione etica degli algoritmi, migliore comprensione dell’IA, formazione continua, integrazione di sistemi ibridi, interazione sociale, promozione del dialogo e del coinvolgimento.
Riemerge anche in questo caso una visione tecno-ottimista «influenzata dal “pregiudizio soluzionista” che trasforma ogni questione sociale o politica in una questione tecnica, poiché “incorpora l’idea che il modo per risolvere un problema sia trovare un obiettivo su cui ottimizzare”»58.

4.4 Consapevolezza e responsabilità nell’utilizzo dell’IA
A chiusura del paragrafo dedicato all’introduzione dell’IA nelle scuole, ai/lle docenti viene ricordato il proprio «fondamentale» ruolo di guida e supporto allo sviluppo dell’autonomia dei/lle discenti, nonché la necessità «imprescindibile» di un costante aggiornamento. Al dirigente e al suo staff è affidato il compito di verificare l’adeguatezza dei sistemi di IA.

Paragrafo 5. Comunicazione e governance
Il quarto pilastro del modello ha l’obiettivo di «facilitare il pieno allineamento tra le indicazioni e le direttive del Ministero e le progettualità realizzate dalle Istituzioni scolastiche, nonché supportare il coinvolgimento e la sensibilizzazione dei diversi stakeholder sul tema, dedicando particolare attenzione alla governance dell’IA nelle Istituzioni scolastiche», col coordinamento degli USR. Il MIM «assumerà un ruolo proattivo di monitoraggio, intercettando potenziali criticità al fine di evitare disfunzioni operative e tutelare la reputazione delle Istituzioni scolastiche».
Insomma, le scuole dovranno allinearsi, subire eventuali condizionamenti di soggetti esterni, mentre il ministero sorveglierà, effettuando anche «valutazioni a campione».

Paragrafo 6. Conclusioni
Le conclusioni ribadiscono la «grande opportunità» che si presenta alle scuole e che il MIM intende «sostenere e promuovere», e la necessità di un impegno costante da parte di tutti. Le Linee Guida offrirebbero «una struttura chiara e operativa» per l’introduzione dell’IA nelle scuole, con un approccio graduale per «raggiungere gli obiettivi prefissati e costruire una scuola più inclusiva, equa e preparata ad affrontare le sfide del futuro».

Che fare?

Queste Linee Guida sono un ulteriore esempio dell’efficacia della «cattura del regolatore» da parte delle imprese Big Tech che, fin dalla pubblicazione, nel 2019, delle Ethics Guidelines for Trustworthy Artificial Intelligence (AI), redatte dall’High-Level Expert Group on Artificial Intelligence della Commissione europea, mostrano la loro capacità di orientare verso i propri interessi la discussione pubblica anche in questo settore.
Un altro caso di ethics washing: «”L’industria organizza e coltiva dibattiti etici per guadagnare tempo – per distrarre il pubblico e per prevenire o almeno ritardare una regolamentazione e un processo decisionale efficaci”. Più in generale, per Metzinger [uno degli esperti che ha partecipato alla redazione delle Ethics Guidelines, ndr] la storia di una “IA affidabile” è una narrazione di marketing inventata dall’industria come “una storia della buonanotte per i clienti di domani”».
«Il lavaggio dell’etica nell’intelligenza artificiale è un ulteriore passo di colonizzazione di contesti istituzionali che mostra la portata e la velocità dell’azione aziendale. Un uso retorico dell’etica nella dichiarazione è una potente strategia per contrastare l’immagine dei lobbisti come sostenitori di un “interesse speciale” e per integrarli tra i custodi dell’“interesse pubblico” della scienza […] In questa visione, l’intervento di lobbying passa dal mettere in discussione le prove al mettere in discussione la loro legittimità, fino ad agire come un modo per creare una visione del mondo in cui non solo le prove, ma anche l’idea stessa di regolamentazione, diventano irrilevanti o indesiderabili, se non come veicolo per la ricerca di interessi privati. Coinvolti in questo progetto, la scienza e il suo futuro appaiono vulnerabili»59.

Per altro verso questo testo, con le sue prescrizioni progettuali, il rafforzamento di ruoli e gerarchie rappresenta un altro esempio della penetrazione della cultura aziendale con cui si sta stravolgendo il ruolo della Scuola pubblica, da istituzione a impresa produttrice di formazione ridotta a merce.

Resistere a tutto questo è necessario, specialmente nella Scuola, per questa ragione sosteniamo la campagna «I.A. BASTA»60: un appello contro queste tecnologie centralizzate di dominio, una mozione da presentare in collegio docenti contro l’introduzione dell’IA nella didattica e un questionario per conoscere cosa ne pensa chi quotidianamente lavora in classe con i nostri ragazzi e le nostre ragazze.

A questo progetto non possiamo affidarci né affidargli le generazioni a venire, bocciamo nei collegi docenti eventuali proposte di introduzione acritica di queste tecnologie nella didattica, per la difesa del nostro lavoro e per il bene dei nostri studenti e delle nostre studentesse.

____________

NOTE

1. A. Aresu, Geopolitica dell’intelligenza artificiale, 2024

Time, 11.12.2025 https://time.com/7339685/person-of-the-year-2025-ai-architects/

2. A. Aresu, Geopolitica dell’intelligenza artificiale, cit. «Nel dibattito, trasmesso dalla BBC, McCarthy ammette perché ha inventato nel 1955 l’espressione «intelligenza artificiale»: per avere fondi. […] Parlare di “intelligenza artificiale”, con “l’obiettivo a lungo termine di raggiungere un’intelligenza di livello umano”, serve per attirare attenzione e soldi. È un’intuizione di marketing».

3. M. Murgia, Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite, 2025

4. D. Biella, a cura di, Atlante dell’infanzia (a rischio) in Italia 2025. Senza filtri. Voci di adolescenze, novembre 2025

5. OECD (2024), PISA 2022 Results, PISA, OECD Publishing, Paris.

6. S.I.P., Bambini troppo digitali, troppo presto: ogni ora di schermo è un rischio per corpo e mente, 2025.

7. Commissione europea, Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, 2022.

8. M. Conti, La finta “sperimentazione” dell’intelligenza artificiale nelle scuole, Domani, 12.8.2025. «La percezione è che dietro alla presunta sperimentazione ci sia «un disegno politico», cioè la volontà di introdurre l’assistente virtuale nelle scuole, a prescindere dai riscontri. «Tanto valeva dire “noi vogliamo introdurre l’intelligenza artificiale a scuola, chi vuole aderisca, tanto tra due anni lo generalizziamo”. Sarebbe stato più onesto». E dire che le possibilità per una ricerca serie esistevano: «Bisognava affidarsi a una equipe scientifica seria, e in Italia ne abbiamo – spiega Maviglia – Ci sono tante università italiane che hanno la cattedra di pedagogia sperimentale. Si sarebbe potuta avviare una sperimentazione con tutti i crismi della scientificità. Però ci vogliono tempo e soldi, non ci si può improvvisare così».

9. Regolamento (EU) 2024/1689 del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale [AI Act], art. 3, n. 1)

10. Commissione europea, Ethical guidelines, cit.

11. F. Cabitza, Deus in Machina? L’uso umano delle nuove macchine, tra dipendenza e responsabilità, 2021

12. C. Pateman, Partecipation and Democratic Theory, 1970

13. A. Honnet, Democrazia e divisione sociale del lavoro, in AA.VV., Perché lavoro? 2020

14. «si usa designare come neoliberismo o neoliberalismo un’ideologia universale che afferma che qualunque settore della società, ciascun individuo in essa e, infine, la società intera in quanto somma dei due elementi precedenti, può funzionare meglio, costare meno, presentare minor problemi, essere più efficace ed efficiente qualora sia governata in ogni momento dai principi di una razionalità economica e strumentale […] Non solo l’economia, l’impresa o il commercio dovrebbero essere organizzati e gestiti secondo il principio della razionalità economica ma anche i servizi pubblici: scuola, sanità, ricerca, beni culturali. E così tutte le azioni degli individui, perché solo in questo modo la loro somma complessiva darebbe origine a una società migliore, nel senso di più efficiente e con costi minori […] Per quanto riguarda la scuola primaria e secondaria si sta affermando il principio che debba comportarsi, essere organizzata, agire e pensare come un’azienda. E questa è una delle caratteristiche neoliberali principali […] La riforma della scuola del governo Renzi è stata sostanzialmente scritta da una fondazione privata, di cui si citano esattamente i passi, che vengono recepiti dal governo e dal parlamento», L. Gallino, intervistato da D. Colombo e E. Gargiulo, Come il neoliberismo arrivò in Italia, “Jacobin Italia”, 26.3.2022 – https://jacobinitalia.it/come-il-neoliberismo-arrivo-in-italia/.

15. «Il lavoro “generato dagli utenti” è necessario per produrre diversi tipi di valore: il “valore di qualificazione” (gli utenti organizzano l’informazione lasciando commenti o dando voti su beni, servizi e/o su altri utenti della piattaforma), che permette il funzionamento regolare delle piattaforme; il “valore di monetizzazione” (il prelievo di commissioni o la cessione di dati forniti da attori ad altri attori) che fornisce liquidità a breve termine; il “valore di automazione” (l’utilizzo di dati e contenuti degli utenti per addestrare le intelligenze artificiali), che si iscrive in uno sviluppo più a lungo termine», A.A. Casilli, Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo? 2020.

16. «La pandemia di COVID-19 ha rappresentato un momento decisivo per la transizione a una forma di apprendimento più a distanza nel settore dell’istruzione. L’apprendimento misto ha la potenzialità di combinare efficacemente la didattica frontale e quella online in un’unica esperienza coesiva», CE, Ethical guidelines, cit.

17. M.C. Pievatolo, Sulle spalle dei mercanti? Teledidattica e civiltà tecnologica, 2022.

18. «Il profilo professionale dei docenti è costituito da competenze disciplinari, informatiche, linguistiche, psicopedagogiche, metodologico-didattiche, organizzativo-relazionali, di orientamento e di ricerca, documentazione e valutazione tra loro correlate ed interagenti, che si sviluppano col maturare dell’esperienza didattica, l’attività di studio e di sistematizzazione della pratica didattica», art. 42, CCNL 2019/2021.

19. K. Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, 2021.

20. ad esempio dalla Dichiarazione europea sui diritti e i principi digitali per il decennio digitale (2023/C 23/01): «L’intelligenza artificiale dovrebbe fungere da strumento per le persone, con l’obiettivo ultimo di aumentare il benessere umano», «Ogni persona dovrebbe essere messa nelle condizioni di godere dei benefici offerti dai sistemi algoritmici e di intelligenza artificiale, anche compiendo le proprie scelte informate nell’ambiente digitale, e rimanendo al contempo protetta dai rischi e dai danni alla salute, alla sicurezza e ai diritti fondamentali».

21. Regolamento (UE) 2024/1689: «La diffusione dei sistemi di IA nell’istruzione è importante per promuovere un’istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l’alfabetizzazione mediatica, e il pensiero critico, per partecipare attivamente all’economia, alla società e ai processi democratici»

22. Agenzia per l’Italia Digitale, Dipartimento per la Trasformazione Digitale, Strategia Italiana per l’Intelligenza Artificiale 2024-2026: «Realizzare percorsi educativi sull’IA nelle scuole, per preparare le nuove generazioni a un uso attento e consapevole delle nuove tecnologie; sviluppare iniziative di divulgazione mirate a sensibilizzare e coinvolgere la società italiana nella rivoluzione dell’IA; finanziare e sostenere iniziative di reskilling e upskilling in tutti i contesti produttivi».

23. Commissione europea, Ethical guidelines on the use of artificial intelligence, cit.

24. Perfino l’OCSE ammette che: «The evidence shows that access to technology alone does not guarantee educational gain», Forsström, S. et al. (2025), The impact of digital technologies on students’ learning: Results from a literature review, OECD Education Working Papers, No. 335, OECD Publishing, Paris, https://doi.org/10.1787/9997e7b3-en.

Su specifici rischi, specialmente – ma non solo – per studenti BES, «… parents of school-aged children in the United Kingdom expressed their concerns about AI in education, particularly regarding its accountability (77%) and privacy and security (73%)», «Evidence reveals that content produced by LLMs contains bias against women, homophobic attitudes and racial stereotyping (UNESCO and IRCAI, 2024)», «AI algorithms can also reinforce biases, thereby perpetuating inequalities and discriminatory practices against specific groups (Baker and Hawn, 2021). This can occur through training data that reflect societal biases (e.g. gender, racial/ethnic) or through the unconscious or conscious biases of algorithm developers», «Another risk is that AI solutions are developed because they are technically possible, rather than resulting from real needs expressed by the intended users before or during the development phase», Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, OECD Artificial Intelligence Papers, No. 46, OECD Publishing, Paris, https://doi.org/10.1787/1e3dffa9-en.

Sulla situazione italiana, M. Gui, Il digitale a scuola. Rivoluzione o abbaglio?, 2019

25. N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, 2023.

26. D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti, Bollettino telematico di filosofia politica, 2023 https://commentbfp.sp.unipi.it/letica-come-specchietto- per-le-allodole/

27. «L’intelligenza artificiale al servizio dell’umanità, un approccio umano al problema, la centralità del fattore umano: le variazioni sul tema sono innumerevoli. Siamo assillati da questo marketing del concetto di umanità, anche attraverso un florilegio di proposte di governance […] Nel mentre, ciò che non sappiamo definire con precisione assume una concretezza nei bilanci, negli investimenti in ricerca e in ulteriore capacità di calcolo, nelle conseguenze sulle forme e sull’organizzazione del lavoro», A. Aresu, Geopolitica dell’intelligenza artificiale, cit.

28. M. Castellini e C. Ferrario, La riforma della pubblica amministrazione italiana e il risk management: riflessioni su un processo in divenire, 2021.

29. F. Pasquale e G. Malgieri, From Transparency to Justification: Toward Ex Ante Accountability for AI, Brussels Privacy Hub Working Papers, VIII, 33, 2022.

30. G. Casula, Cos’è successo tra Report e il Garante della privacy e perché le opposizioni ora chiedono di scioglierlo, fanpage.it, 11.11.2025; T. Mackinson, “Omissioni, ritardi e sanzioni dubbie”: il Garante della Privacy finisce sotto inchiesta dopo 3 esposti. Le accuse all’Authority, Il Fatto Quotidiano, 18.11.2025.

31. F. Fiano, Sogei, dall’arresto di Iorio alle perquisizioni a Cannarsa: tutte le tappe dell’inchiesta, Corriere della Sera, 5.3.2025; I. Sacchettoni, Inchiesta Sogei: Paolino Iorio e Massimo Rossi condannati a tre anni (con patteggiamento), Corriere della Sera, 21.3.2025.

32. Access Now, The EU AI Act: a failure for human rights, a victory for industry and law enforcement, 13.3.2024.

33. Le aziende tecnologiche spendono per le lobby sulle politiche digitali di Bruxelles 97 milioni di € l’anno, Corporate Europe Observatory and LobbyControl e.V., The lobby network: Big Tech’s web of influence in the EU, 2021

34. M. Carmignani, AI Act azzoppato, favore alle big tech: Europa periferia dell’impero, Agenda Digitale, 10.11.2025.

35. sulla discussione e approvazione di questa legge: Senato della Repubblica, Legislatura 19ª – Aula – Resoconto stenografico della seduta n. 342 del 17/09/2025

36. A. Birhane, E. Ruane, T. Laurent, M.S. Brown, J. Flowers, A. Ventresque, C.L., Dancy, The Forgotten Margins of AI Ethics, in Conference on Fairness, Accountability, and Transparency, 2022 https://doi.org/10.1145/3531146.3533157

37. D. Tafani, L’«etica» come specchietto per le allodole, cit.

A. Alkhatib, To Live in Their Utopia: Why Algorithmic Systems Create Absurd Outcomes, Conference on Human Factors in Computing Systems, 2021, https://ali-alkhatib.com/papers/chi/utopia/utopia.pdf

38. «Research funding and academic freedom are presently under a worldwide attack (ALLEA 2025; Kinzelbach et al. 2025; KNAW 2025). The technology industry is taking advantage of us, sometimes even speaking through us, to convince our students that these AI technologies are useful (or necessary) and not harmful», Guest et alii, Against the Uncritical Adoption of ‘AI’ Technologies in Academia, 2025. Qui la condivisibile Lettera Aperta redatta da questi autori.

39. T. Phan, J. Goldenfein, M. Mann, D. Kuch, Economies of Virtue: The Circulation of ‘Ethics’ in Big Tech, Science as Culture, 2021 https://ssrn.com/abstract=3956318

40. Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, cit.

41. United Nations Environment Programme-UNEP, Artificial intelligence (AI) end-to-end: The environmental impact of the full AI life cycle needs to be comprehensively assessed, 2024.

42. S. Tirrito, AtomicAi: così le Big tech investono sul nucleare per sfamare i data center, 17.11.2025.

43. M. Carmignani, I modelli AI mentono nei test: sicurezza a rischio, ecco perché, Agenda Digitale, 23.9.2025

44. Commissione europea, Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators, 2022.

45. Council of Europe – Committee on Artificial Intelligence (CAI), Methodology For The Risk And Impact Assessment Of Artificial Intelligence Systems From The Point Of View Of Human Rights, Democracy And The Rule Of Law (HUDERIA Methodology), 2024.

46. D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazioni dei diritti, cit.

47. Amazon Web Services – AWS, Generative Artificial Intelligence (AI). Document Summarisation Proof Of Concept. Prepared For Australian Securities And Investments Commission (ASIC), Final Report, March 2024

48. C. Wilson, AI worse than humans in every way at summarising information, government trial finds, Crikey, 2024

49. MIT NANDA, The GenAI Divide STATE OF AI IN BUSINESS 2025, 2025.

50. D. Fant e C. Milani, Pedagogia hacker, Approfondimenti, 2024

51. H. Braverman, Lavoro e capitale monopolistico. La degradazione del lavoro nel XX secolo, 1978.

52. PNRR. Missione 4: Istruzione e ricerca. Componente 1 – Potenziamento dell’offerta dei servizi di istruzione: dagli asili nido alle Università Investimento 3.2: Scuola 4.0 – Piano Scuola 4.0, 2022.

53. Commissione europea, European Framework for the Digital Competence of Educators: DigCompEdu, 2017.

54. L. Hao-Ping (Hank) et al., The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, 2025.

Forti preoccupazioni emergono anche dai recenti studi condotti negli U.S.A. dal College Board: U.S. High School Students’ Use of Generative Artificial Intelligence, ottobre 2025 e Variation in High School Student, Parent, and Teacher Attitudes Toward the Use of Generative Artificial Intelligence, dicembre 2025.

55. R. Vuorikari, S. Kluzer, and Y. Punie, DigComp 2.2: The Digital Competence Framework for Citizens, 2022.

56. R. Kurzweil, The Age of Spiritual Machines. When Computers Exceed Human Intelligence, 1999 in A. Aresu, cit.

57. Linsenmayer, E. (2025), Leveraging artificial intelligence to support students with special education needs, OECD Artificial Intelligence Papers, cit.

58. D. Tafani, Do AI systems have politics? Predictive optimisation as a move away from liberalism, the rule of law and democracy, https://doi.org/10.5281/zenodo.10229060

59. A. Saltelli, D.J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, 2021, https://doi.org/10.1016/j.futures.2021.102860.

60. il sito della campagna «I.A. Basta» è raggiungibile all’indirizzo https://iabasta.ghost.io/

Scopri di più da COBAS SCUOLA PALERMO

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere