Luciano Floridi, filosofo romano oggi alla guida del Digital Ethics Center di Yale, è considerato uno dei massimi esperti mondiali di etica dell’informazione. Dopo una lunga carriera a Oxford, ha portato al centro del dibattito concetti come infosfera e onlife, per descrivere il nuovo ambiente in cui viviamo, dove online e offline si intrecciano senza più confini. La sua idea più originale è forse l’etica patient-oriented: non basta chiedersi se una tecnologia sia corretta in sé, bisogna guardare a chi ne subisce gli effetti. Con Floridi non discutiamo dunque di macchine intelligenti, ma di persone, di dignità e di benefici concreti.
Chiediamo all’IA di raccoglierne e sintetizzarne il pensiero e costruiamo questa Intervista immaginaria.
“Professor Floridi, ci parli brevemente della sua ricerca sull’Etica dell’infosfera”.
Floridi: L’infosfera è l’ambiente informazionale in cui ormai tutti viviamo. Non esiste più una separazione netta tra online e offline: siamo sempre onlife. La mia ricerca parte da qui: se l’infosfera è il nostro nuovo habitat, allora dobbiamo sviluppare un’etica che ne governi le dinamiche. Non è solo questione di privacy o di sicurezza: si tratta di comprendere come i flussi di dati, le intelligenze artificiali e le piattaforme digitali trasformano la nostra identità, le nostre relazioni, persino la nostra idea di dignità. Parlare di etica dell’infosfera significa pensare a come rendere questo spazio un luogo vivibile, giusto e inclusivo per chiunque lo abiti.
“Professore, l’ambiente forse più complesso da comprendere è quello dell’educazione. In Italia il dibattito sull’uso delle tecnologie digitali nella scuola, e soprattutto dell’IA, si fa sempre più marcato. Che relazione vede Lei tra IA, apprendimento e valutazione?
Floridi: La scuola è forse il banco di prova più delicato. L’IA può sostenere l’apprendimento personalizzando i percorsi, offrendo strumenti di supporto e liberando tempo prezioso per l’insegnante. Ma al tempo stesso rischia di ridurre lo studente a un insieme di dati, valutato solo in base a prestazioni misurabili. Qui entra in gioco l’approccio patient-oriented: la domanda non è se l’algoritmo funzioni bene in astratto, ma che cosa succede allo studente che riceve quella valutazione o quella lezione automatizzata. Si sente riconosciuto, motivato, responsabilizzato? Oppure trattato come un numero che passa o non passa la soglia? L’etica dell’IA a scuola si misura così: nel modo in cui l’esperienza educativa rafforza o indebolisce la crescita e la dignità degli allievi.
“Che cosa intende per Dignità degli allievi?”
Floridi: Parlare di dignità degli allievi significa riconoscere che ogni studente non è solo un recettore di informazioni, ma una persona in formazione, con aspirazioni, fragilità e potenzialità. L’uso dell’IA a scuola deve quindi rispettare e valorizzare questa unicità. Non basta che un sistema funzioni bene: deve lasciare allo studente la percezione di essere visto, ascoltato, accompagnato. La dignità educativa si perde quando la tecnologia riduce l’allievo a un profilo standardizzato o a una curva statistica; si rafforza, invece, quando lo aiuta a scoprire se stesso e a crescere come soggetto libero e responsabile. In questo senso, l’IA può diventare un alleato straordinario, ma solo se la teniamo legata al principio di beneficenza digitale: far star meglio chi la riceve.
“Da sempre la “dignità degli allievi” non è una priorità per molti insegnanti. Come può diventarlo per un algoritmo?”
Floridi: È vero: la scuola, storicamente, ha spesso privilegiato la trasmissione del sapere rispetto al riconoscimento della persona. Un algoritmo non nasce con una sensibilità etica, ma può essere progettato per incorporare criteri che riflettano quella dignità. Significa, per esempio, che un sistema educativo basato sull’IA non deve limitarsi a misurare errori e successi, ma deve offrire spiegazioni comprensibili, suggerire percorsi alternativi, evitare etichette stigmatizzanti. La dignità non è un attributo che l’IA possiede: è una qualità che noi, come progettisti e docenti, dobbiamo custodire nel modo in cui costruiamo e usiamo questi strumenti. Se l’algoritmo restituisce agli studenti la sensazione di essere rispettati e compresi, allora diventa un alleato. Se li riduce a oggetti di calcolo, allora fallisce.
“Mi spieghi meglio. Chi programma un algoritmo ‘intelligente’ come può indirizzarlo verso una visione Patient-oriented?”
Floridi: Il punto cruciale è che un algoritmo non ha valori propri: incorpora quelli che noi gli diamo. Se vogliamo che sia patient-oriented, dobbiamo tradurre in regole e procedure ciò che normalmente consideriamo attenzione umana. Per esempio: assicurare trasparenza, così che lo studente capisca perché riceve un certo feedback; offrire percorsi personalizzati, così che nessuno venga schiacciato da standard impersonali; garantire che i dati non vengano usati per scopi che ledano la sua autonomia o la sua privacy. Un algoritmo diventa “dalla parte del paziente” quando mette al centro non la velocità del calcolo o l’efficienza del sistema, ma l’effetto che produce sul destinatario: apprendere meglio, sentirsi riconosciuto, avere strumenti per crescere. In breve: progettare l’IA educativa come un mezzo di cura e non solo come un mezzo di misurazione.
“Il principio della trasparenze mi sembra il più complesso da progettare. Come si realizza, in concreto?”
Floridi: Se parliamo di un’IA che insegna, la trasparenza significa chiarire come e perché propone certi contenuti. Uno studente non deve avere l’impressione di ricevere nozioni da una macchina oracolare, che parla dall’alto senza spiegazioni. La trasparenza, qui, vuol dire che l’algoritmo mostra le fonti, esplicita i passaggi logici, segnala i limiti del proprio sapere. Per esempio: se un sistema spiega la fotosintesi, dovrebbe anche indicare da dove trae le informazioni, quali parti sono semplificate, quali concetti meritano di essere approfonditi con l’insegnante. Così lo studente capisce che l’IA non è una voce onnisciente, ma un supporto critico, aperto al confronto. In altre parole, trasparenza vuol dire insegnare mostrando le proprie regole del gioco, non nascondendole.
“Professore, immagino che Lei non pensi di sostituire l’insegnante con l’IA”
Floridi: Assolutamente no. Pensare di sostituire l’insegnante con l’IA sarebbe un errore concettuale e pedagogico. L’insegnante non è solo un trasmettitore di contenuti: è una guida, un modello, un interlocutore che riconosce la singolarità degli studenti e sa adattarsi al contesto. L’IA non ha empatia, non ha esperienza vissuta, non condivide la responsabilità educativa. Può però diventare un supporto prezioso, capace di fornire spiegazioni supplementari, esercizi personalizzati, materiali aggiornati. Ma sempre al servizio del docente, che resta il mediatore critico. In altre parole: l’IA può ampliare la cassetta degli attrezzi dell’insegnante, non prenderne il posto. La relazione educativa rimane insostituibile.
“Torniamo agli studenti. Lei pone al centro del suo discorso Dignità e Partecipazione. Io vorrei aggiungere il concetto di autostima, che per uno studente in via di formazione è un nodo fondamentale. Come può l’IA nutrire l’autostima di un adolescente?
Floridi: L’autostima è fragile, soprattutto in età adolescenziale, e la scuola dovrebbe nutrirla anziché minarla. Un’IA ben progettata può contribuire in due modi. Primo: offrendo feedback costruttivi, che non si limitino a segnalare l’errore ma indichino come migliorare. Così lo studente percepisce che l’errore non è un marchio, ma un passo di crescita. Secondo: adattando i percorsi di apprendimento al ritmo e allo stile di ciascuno, evitando confronti ingiusti che spingono alcuni a sentirsi sempre inadeguati. L’IA, se pensata patient-oriented, diventa uno specchio che riflette le potenzialità, non solo i limiti. Ma serve vigilanza: la tecnologia può rafforzare l’autostima solo se è integrata da un insegnante che riconosce e conferma personalmente i progressi. Senza questa cornice umana, il rischio è che anche un buon algoritmo finisca per produrre solitudine invece che fiducia.
“Professore, come giudica il sistema educativo italiano, e lo vede in grado di integrare il nuovo strumento informatico nel percorso scolastico?”
Floridi: Il sistema educativo italiano ha grandi risorse culturali e una tradizione umanistica che rappresenta un punto di forza, ma spesso fatica ad accogliere l’innovazione. L’IA non può essere introdotta come un accessorio tecnico: richiede un ripensamento del metodo e della didattica. Il rischio è trattarla come una moda passeggera o, al contrario, come una bacchetta magica che risolve tutto. In realtà l’IA diventa utile solo se integrata dentro un progetto educativo chiaro, in cui il docente rimane protagonista e lo studente destinatario. L’Italia è in grado di farlo se coglie l’occasione per formare seriamente i docenti, per investire in competenze digitali e per non dimenticare che la dignità dello studente deve restare al centro. Senza questa cornice, la tecnologia rischia di amplificare i problemi anziché risolverli.
“E a livello internazionale a che punto siamo?”
Floridi: Guardando fuori dall’Italia, troviamo diversi modelli interessanti. Nei Paesi nordici, per esempio, l’introduzione delle tecnologie digitali è stata accompagnata da un forte investimento sulla formazione degli insegnanti e su una cultura della fiducia: l’IA non sostituisce, ma integra. In Corea del Sud o a Singapore, invece, la tecnologia è entrata con grande rapidità, ma sempre dentro un quadro strategico nazionale, con linee guida chiare. In Gran Bretagna e negli Stati Uniti si sperimenta molto, ma non sempre con equilibrio: c’è chi affida troppo alle piattaforme private, correndo il rischio di perdere la dimensione pubblica e comunitaria dell’educazione. L’Italia potrebbe imparare da questi casi una lezione semplice: l’IA funziona a scuola solo quando diventa parte di un ecosistema educativo che mette insieme infrastrutture, docenti e studenti. Senza questa visione, si rischia di importare strumenti senza radicarli davvero nel percorso formativo.
“La tecnologia ci sta dunque portando a spostare l’etica non tanto su che cosa sia giusto e morale, ma sui benefici che un’azione può portare. Lei pensa che questo sarebbe potuto accadere senza l’avvento dell’IA?”
Floridi: L’IA ha accelerato un cambiamento che era già in corso, ma lo ha reso inevitabile. Per secoli abbiamo discusso su che cosa fosse giusto o sbagliato in termini astratti; oggi le tecnologie ci obbligano a guardare all’impatto concreto che hanno sulle persone. L’etica si sposta dal piano della teoria al piano della cura: non più soltanto “questo è giusto”, ma “questo fa bene a chi lo riceve”. Senza l’IA, forse ci saremmo mossi in questa direzione con più lentezza, seguendo le trasformazioni sociali ed economiche. Ma l’intelligenza artificiale ci mette di fronte a decisioni che toccano subito milioni di vite, e dunque non ci lascia scelta: o assumiamo un’etica patient-oriented, centrata sui benefici reali per chi subisce l’azione, oppure rischiamo di costruire un’infosfera ingiusta. In questo senso, l’IA non è solo un oggetto di riflessione etica: è il motore che ci costringe a ripensare l’etica stessa.
Bibliografia essenziale
- Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, Raffaello Cortina, 2017.
Introduce il concetto di quarta rivoluzione (dopo Copernico, Darwin, Freud) che ridefinisce l’uomo come parte dell’infosfera. Testo fondamentale per capire il contesto filosofico. - Luciano Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, Raffaello Cortina, 2022.
Il volume più direttamente legato al tema del blog: un quadro completo dei problemi etici posti dall’IA, con particolare attenzione al principio di beneficenza digitale. - Luciano Floridi, Etica dell’infosfera. Prospettive filosofiche per l’età dell’informazione, Milano, Raffaello Cortina, 2019.
Approfondisce la nozione di infosfera e propone l’etica patient-oriented come cornice per il nostro tempo. - Luciano Floridi, Pensare l’infosfera. La filosofia come design concettuale, Milano, Raffaello Cortina, 2020.
Un testo più teorico, ma utile per comprendere il metodo di Floridi: la filosofia come “design concettuale”, al servizio della costruzione di un ambiente informazionale più giusto.

Lascia un commento