“L’Intelligenza Artificiale viene spesso percepita come qualcosa di oscuro, quasi magico o minaccioso. In realtà, questa percezione nasce soprattutto da una distanza: non tanto dall’uso della tecnologia, quanto dalla mancata comprensione del suo funzionamento. Mantenendo uno sguardo interdisciplinare, in linea con l’ecosistema culturale e il rapporto tra umanesimo e tecnologia, si può contribuire a ridurre quella nuova forma di marginalità digitale che oggi rischia di escludere chi, pur vivendo immerso nelle tecnologie, non ne possiede davvero i codici”.
Questa è la tesi di Massimo Montanile che, mostrando come funziona l’Intelligenza Artificiale, contribuisce a demitizzarla e abitare il presente tecnologico in modo consapevole.
Negli ultimi anni l’Intelligenza Artificiale è entrata con forza nella nostra vita quotidiana. La utilizziamo per scrivere, cercare informazioni, prendere decisioni, orientarci nel mondo digitale.
Eppure, a questa diffusione non corrisponde sempre una reale comprensione.
Durante gli incontri che ho avuto recentemente con studenti di liceo, questo aspetto è emerso con grande chiarezza: i ragazzi utilizzano strumenti di Intelligenza Artificiale con naturalezza, ma spesso li percepiscono come qualcosa di opaco, difficile da decifrare, a tratti quasi “magico”.
Questa percezione non è banale. È il segnale di una distanza.
Non una distanza tecnologica, perché la tecnologia è già nelle loro mani, ma una distanza cognitiva.
Una nuova forma di marginalità
Nel leggere Sentieri sospesi di Pasquale Martucci, mi sono posto una domanda: esistono oggi forme di marginalità che non sono più legate al territorio fisico?
La risposta, sempre più evidente, è sì. Esiste una marginalità digitale.
Non riguarda chi è escluso dall’accesso alle tecnologie, ma chi, pur essendo connesso, non ne comprende i meccanismi profondi. Chi utilizza strumenti avanzati senza possederne davvero i codici.
È una marginalità silenziosa, ma potente. E rischia di diventare una delle linee di frattura più rilevanti del nostro tempo.
Demitizzare l’Intelligenza Artificiale
Nel dibattito pubblico, l’Intelligenza Artificiale oscilla spesso tra due narrazioni opposte: da un lato, una visione quasi salvifica; dall’altro, una visione apocalittica
In entrambi i casi, però, l’AI viene percepita come qualcosa di “altro”, di separato, di difficile da comprendere. È qui che nasce il problema. Perché ciò che non si comprende tende a essere mitizzato. E ciò che è mitizzato non può essere governato. Per questo motivo, il primo passo necessario è demitizzare l’Intelligenza Artificiale. E l’unico modo per farlo è comprenderla.
Dall’algoritmo al silicio
È da questa esigenza che nasce il percorso che ho provato a sviluppare nel mio lavoro Dall’algoritmo al silicio: comprendere l’Intelligenza Artificiale. L’idea di fondo è semplice: per capire davvero l’AI bisogna partire dalle basi.
Un sistema di Intelligenza Artificiale non è una “mente” nel senso umano del termine. È un insieme di modelli matematici e algoritmi che elaborano dati, individuano correlazioni, apprendono schemi. Il punto di partenza è sempre l’algoritmo: una sequenza di istruzioni logiche progettata per risolvere un problema. Da qui si sviluppano le architetture più complesse: machine learning, reti neurali, sistemi di apprendimento automatico. E al centro di tutto ci sono i dati.
Le macchine non “capiscono” il mondo. Apprendono regolarità statistiche a partire dalle informazioni che ricevono. Comprendere questo passaggio è fondamentale. Perché consente di riportare l’Intelligenza Artificiale dentro una dimensione comprensibile, umana, progettuale.
Comprendere per usare consapevolmente
Durante le lezioni al liceo, ho notato un cambiamento significativo quando si passa dall’uso alla comprensione. Quando i ragazzi iniziano a capire cosa c’è dietro, anche solo nei suoi elementi essenziali, cambia il loro modo di interagire con la tecnologia. Diventano più critici. Ma anche e soprattutto più consapevoli e, in qualche misura, responsabili. Non vedono più la macchina come qualcosa di misterioso, ma come uno strumento. Ed è esattamente questo il punto. L’Intelligenza Artificiale deve restare uno strumento operativo, non un soggetto decisionale autonomo. Ma perché questo accada, è necessario che chi la utilizza sia in grado di comprenderla, almeno nei suoi principi fondamentali.
Un passaggio culturale necessario
La questione, quindi, non è solo tecnica. È culturale.
Comprendere l’Intelligenza Artificiale significa comprendere uno dei processi di trasformazione più profondi del nostro tempo. Significa interrogarsi su come prendiamo le decisioni, su come utilizziamo i dati, su come costruiamo conoscenza e, in fondo, su come tuteliamo i diritti. E significa anche riconoscere che questa trasformazione non può essere governata senza un dialogo tra discipline.
Tecnologia e umanesimo non sono ambiti separati. Sono dimensioni che devono tornare a parlarsi.
Dalla marginalità alla responsabilità
Se oggi esiste una nuova forma di marginalità digitale, allora la risposta non può essere solo tecnologica. Deve essere educativa, culturale, sociale. Dobbiamo costruire strumenti di comprensione. Creare spazi di confronto e rendere accessibili i codici della tecnologia. Perché il rischio più grande, oggi, non è l’Intelligenza Artificiale. È restarne fuori.
Una chiusura aperta
Nel mio intervento su Sentieri sospesi, mi soffermerò in particolare su come i sentieri evocati da Martucci non siano interrotti, ma sospesi. E forse anche il nostro rapporto con l’Intelligenza Artificiale si trova oggi in una condizione simile. Non siamo di fronte a un percorso già tracciato. Siamo dentro un passaggio. Un passaggio che richiede comprensione, responsabilità, capacità di orientamento. Le macchine possono elaborare dati. Ma il significato resta una costruzione umana. E comprendere l’Intelligenza Artificiale, oggi, significa proprio questo: non rinunciare a essere parte attiva di quella costruzione.
Massimo Montanile
Lascia un commento