I 4 punti chiave dell’articolo: Cos’è l’Eduverso Le differenze con il Metaverso Come cambia l’apprendimento I benefici chiave dell’Eduverso Cos’è l’Eduverso, un modo nuovo di intendere la scuola Con l’introduzione del Piano Scuola 4.0, previsto dal PNRR, e il diffondersi della didattica digitale, il mondo scolastico sta entrando in una dimensione diversa rispetto al passato. Non solo per quel che riguarda l’introduzione e l’utilizzo di strumenti tecnologici, ma anche perché stanno cambiando le modalità di apprendimento e di coinvolgimento degli studenti, fin dalle classi primarie. È in questo contesto che si inseriscono i cosiddetti mondi immersivi, capaci di fornire valore aggiunto alla formazione rispetto ad altre esperienze: questo è l’Eduverso, ovvero un Metaverso che riguarda essenzialmente i processi educativi. L’Eduverso si configura come un ambiente virtuale che integra tecnologie avanzate come realtà virtuale e aumentata e Intelligenza Artificiale con i principi alla base della gamification, in modo da creare dei contesti educativi che permettono agli studenti di accedere a una vasta gamma di risorse didattiche come lezioni interattive, simulazioni, laboratori virtuali ed esercizi pratici. Il tutto all’interno di un ambiente digitale controllato, che arricchisce il processo di apprendimento rendendolo più coinvolgente e personalizzato. Grazie alla sua natura digitale, l’Eduverso permette quindi di apprendere e interagire da qualunque posto e in qualsiasi momento, superando le limitazioni spazio-temporali che caratterizzano i tradizionali ambienti di apprendimento. Dal Metaverso all’Eduverso: cosa cambia Come macrocategoria, il Metaverso può essere definito come uno spazio tridimensionale all’interno del quale le persone possono muoversi, condividere informazioni, interagire e avere delle relazioni: si tratta di un ambiente legato alla realtà virtuale e aumentata che si sovrappone al mondo fisico. Sebbene molti associno il Metaverso al mondo Meta di Zuckerberg, in realtà “l’invenzione” di questo ambiente è da attribuire a esperienze particolari del comparto del gaming come Second Life. Il Metaverso consente quindi di agire in modo più rapido e diretto rispetto ai social media che ricalcano i confini del mondo reale. Interessante poi, secondo Statista, l’identikit del tipico user del Metaverso: se il 24% degli utenti ricade nella Generazione Z (composta in gran parte da studenti), è il 36% a essere il segmento preponderante e corrispondente alla Generazione X – in cui generalmente ritroviamo i docenti. Statista rileva anche che la maggior parte degli user ha una prepensione maggiore verso scienza e tecnologia (55%, a pari merito con la categoria sport), sono disposti a pagare di più servizi che rendono la vita più comoda e funzionale e, non da ultimo, sono generalmente innovators o early adopters (5% e 25%) di nuovi prodotti. Ed è in questo contesto che si inserisce l’Eduverso, la declinazione del Metaverso specificamente orientata al mondo educativo. Questa tendenza rappresenta un segmento in rapida crescita all'interno del settore dell'istruzione, segnando una svolta significativa nel modo in cui la formazione viene concepita ed erogata. Statista riporta una previsione di crescita notevole per gli investimenti in realtà virtuale e aumentata nel settore educativo, in cui rientra l’Eduverso: si stima che raggiungeranno i 24 miliardi di dollari a livello globale entro il 2030, registrando un tasso di crescita annuo composto del 40,29% tra il 2022 e il 2030. Quest’espansione è alimentata principalmente dalla crescente adozione delle tecnologie di VR e AR nelle istituzioni scolastiche, nonché da un incremento della domanda di formazione professionale erogata proprio in questi ambienti. Le proiezioni indicano inoltre che il numero di utenti che sfrutteranno l’Eduverso raggiungerà i 74 milioni entro il 2030: in questo scenario, si prevede che la quota di mercato specificamente dedicata all'impiego del Metaverso nel settore dell'istruzione si attesterà sui 67,2 milioni di dollari. Queste cifre testimoniano l'importanza crescente dell'Eduverso come strumento innovativo per l'insegnamento e l'apprendimento, delineando un futuro in cui la formazione fa leva sulle potenzialità offerte da ambienti virtuali immersivi . Tutti i benefici dell’Eduverso, per studenti e docenti L'innovazione nel panorama educativo, grazie all'introduzione dell'Eduverso, sta ridefinendo radicalmente l’approccio alla didattica, trasformando il modo in cui gli studenti vivono il processo di apprendimento. Questo modello, incentrato sull'esperienza diretta e personale degli alunni, si distingue per una serie di caratteristiche distintive che ne sottolineano l'efficacia e il potenziale trasformativo. Apprendimento attivo. Contrariamente ai metodi didattici convenzionali, che spesso relegano gli studenti a un ruolo passivo, l'Eduverso promuove un coinvolgimento attivo, immergendoli completamente nell'ambiente di apprendimento. Questo stimola una partecipazione diretta e consapevole. Coinvolgimento diretto. Per gli studenti, partecipare agli eventi nell’Eduverso interagendo con i contenuti in prima persona rende l'apprendimento più efficace, favorendo una maggior comprensione dei concetti. Formazione e socialità. Ogni attività educativa all'interno dell'Eduverso è progettata per incoraggiare l'interazione, sia con l'ambiente sia con altri utenti, promuovendo lo sviluppo di competenze comunicative e relazionali fondamentali. Oltre a questi aspetti, l'Eduverso rappresenta un potente strumento anche per i docenti, così da realizzare una didattica trasversale e multidisciplinare. Personalizzazione. L'Eduverso consente ai docenti di personalizzare l'esperienza di apprendimento in base alle esigenze, agli interessi e al livello di competenza di ciascun studente. Questo non solo aumenta l'efficacia dell'insegnamento ma consente anche di monitorare più attentamente i progressi individuali, offrendo supporto mirato dove necessario. Competenze multidisciplinari. Grazie alla sua natura trasversale, l'Eduverso incoraggia l'integrazione di diverse discipline, consentendo ai docenti di progettare percorsi formativi che collegano vari ambiti del sapere. Inclusività. L'ambiente virtuale dell'Eduverso è progettato per essere accessibile a tutti, inclusi gli studenti con bisogni educativi speciali. Questo permette ai docenti di includere efficacemente ogni studente nel processo di apprendimento, valorizzando la diversità e promuovendo un'atmosfera di rispetto e comprensione reciproca. Collaborazione. L'Eduverso facilita la collaborazione tra docenti, sia a livello nazionale che internazionale, offrendo una piattaforma per lo scambio di idee, progetti e buone pratiche. Questo consente agli insegnanti di arricchire la propria professionalità, esplorando nuove metodologie didattiche e ampliando il proprio network professionale. Attraverso la sua implementazione, l’Eduverso non solo migliora l'efficacia dell'insegnamento, ma prepara anche gli studenti ad affrontare le sfide del futuro con competenze, conoscenze e una mentalità adattabile e aperta all'innovazione: fondamentale, a questo punto, dotarsi del giusto kit tecnologico per il proprio istituto. Fonti consultate: Piano Scuola 4.0 Target Audience Metaverse Enthusiasts in Italy, Statista Metaverse Education Report, Statista
I 3 punti chiave dell’articolo: Cosa significa Edge AI e cosa comporta per le imprese Il mercato Edge AI: quali driver di sviluppo I benefici di questo modello di intelligenza artificiale Cos’è l’Edge AI L’Edge AI, acronimo di Edge Artificial Intelligence, consiste nell’implementazione di applicazioni di intelligenza artificiale all'interno degli ambienti di edge computing. In tale contesto, l'elaborazione dei dati e l'esecuzione degli algoritmi non avvengono più centralmente sui server cloud, bensì sui dispositivi finali collegati alla rete. Il valore distintivo dell'Edge AI risiede principalmente nella capacità di ridurre drasticamente i tempi di elaborazione dei dati: operando, infatti, direttamente nei nodi periferici della rete in cui i dati stessi vengono generati, evita la necessità di connessione a internet o la dipendenza da risorse centralizzate nel cloud. Questo approccio consente una risposta quasi istantanea alle richieste di elaborazione, migliorando l'efficienza operativa e abilitando una maggiore tempestività nelle decisioni aziendali. Un elemento chiave del modello Edge AI è il modo in cui viene strutturato. Inizialmente, sul cloud vengono addestrati i modelli di intelligenza artificiale e le reti neurali: si tratta di un processo che richiede una potenza di calcolo considerevole e l'elaborazione di una vasta quantità di dati. Una volta addestrati, i modelli vengono distribuiti sui nodi periferici della rete, presenti negli ambienti di utilizzo. Un altro aspetto cruciale dell'Edge AI è la sua capacità di adattarsi dinamicamente alle variazioni dell'ambiente. Quando si verificano nuove variabili o condizioni, i dati possono essere inviati al cloud per un aggiornamento dei modelli. Questo processo di feedback continuo assicura che l'Edge AI implementata mantenga la sua precisione e rilevanza nel tempo, evitando così l'obsolescenza. I driver di crescita dell’Edge AI Questo comparto sta vivendo una crescita costante, seppur graduale, che riflette le complessità connesse al ciclo di produzione dei dispositivi periferici: come riporta Allied Market Research, il mercato dell'Edge AI raggiungerà i 60 milioni di dollari entro il 2030 mentre Gartner prevede che, entro il 2025, il 75% dei dati aziendali verrà processato dall’Edge AI superando, di fatto, i volumi generati dai modelli di intelligenza artificiale basati su cloud. Tra i principali fattori che hanno contribuito e continueranno a sostenere lo sviluppo dell'Edge AI, quattro si confermano di capitale importanza per il contesto di mercato attuale. La diffusione dei dispositivi di Edge Computing. La crescita di questi device, che incorporano capacità computazionali e operano in prossimità degli utenti, è ormai realtà: in questa categoria ricadono non solo gli smartphone, ma anche i dispositivi IoT, robot, droni, telecamere di videosorveglianza e automobili. L'Edge AI elimina infatti la necessità di trasmettere dati generati da tali dispositivi attraverso la rete, migliorando tempi di risposta e sicurezza delle applicazioni. Le conseguenze della pandemia. Il Covid-19 ha rappresentato un catalizzatore per la crescita dell'Edge AI. L'esigenza di accesso remoto alle risorse cloud e l'implementazione di soluzioni di Edge Computing sono diventate nuove priorità per le imprese: la trasformazione delle postazioni di lavoro per i nuovi workplace ha accelerato lo sviluppo di ambienti basati su reti Edge, aumentando la richiesta di accesso ai dati dai nodi periferici della rete stessa. Le reti 6G. L’avvento delle reti 6G e il continuo sviluppo di quelle wireless possono abilitare una miglior connettività fra i dispositivi: il 6G potrà trasferire terabits di dati al secondo e ridurre ulteriormente la latenza. Questo consente alle reti di Edge Computing di trasferire grandi quantità di dati fra i nodi della rete e di migliorare l’integrazione con il cloud. L’in-memory computing. Questa metodologia implica l'allocazione diretta dei dati nella memoria computazionale anziché negli hard disk o altri dispositivi di archiviazione: quando combinata con l'Edge AI, l'in-memory computing taglia i tempi di latenza grazie a un accesso istantaneo ai dati. Perché l’Edge AI conviene: i vantaggi L’Edge AI promette di far compiere passi in avanti alle applicazioni di intelligenza artificiale, consentendo di tagliarne i tempi di reazione e incrementarne la sicurezza. Vediamo di seguito quali sono i principali vantaggi. 1. Riduci i tempi di latenza Con l'implementazione dell'Edge AI, si assiste a una significativa riduzione dei tempi di latenza e di risposta delle applicazioni, grazie all'elaborazione dei dati direttamente nei nodi in cui sono stati generati. Questo approccio elimina la necessità di trasferire i dati verso i server centrali, comportando un risparmio di diversi millisecondi nei tempi di latenza, un elemento cruciale soprattutto in contesti in cui la tempestività delle risposte è critica. Un esempio concreto di questa efficacia è riportato in una ricerca accademica atta a definire l’utilizzo di un’architettura di Edge Computing per il rilevamento facciale: sono stati condotti esperimenti mirati a valutare i tempi di latenza nelle applicazioni di intelligenza artificiale, confrontando l'elaborazione dei dati tra il cloud e i nodi edge. I risultati hanno chiaramente evidenziato tempi di risposta notevolmente inferiori, nell'ordine dei millisecondi, quando l'elaborazione è avvenuta sui nodi edge. Questo vantaggio è stato particolarmente evidente con l'aumentare del carico di lavoro negli algoritmi di Edge AI, sottolineando la robustezza e l'efficienza di questo approccio in scenari operativi più complessi. 2. Presta maggior attenzione alla privacy Una caratteristica distintiva dell’Edge AI è la persistenza locale dei dati, per cui non hanno necessità di spostarsi attraverso il network o il cloud. Questa peculiarità comporta un significativo beneficio in termini di sicurezza e privacy: i dati sensibili impiegati dalle applicazioni di intelligenza artificiale, come immagini mediche, dati video o dati audio, non percorrono la rete perché vengono trasmessi al cloud solo i risultati elaborati dagli algoritmi. Questa pratica introduce un ulteriore elemento di sicurezza IT, riducendo i rischi associati alla potenziale esposizione di queste informazioni. 3. Limita i costi L’Edge AI consente alle imprese di ottimizzare i budget a disposizione riducendo sostanzialmente i costi associati all'utilizzo di risorse di cloud computing. La diminuzione della quantità di dati da trasmettere attraverso la rete implica infatti una riduzione proporzionale dei costi di banda, contribuendo a rendere più efficiente e sostenibile l'implementazione di soluzioni di intelligenza artificiale. In parallelo, trasferendo parte del carico di lavoro ai nodi periferici, le aziende possono distribuire in maniera più flessibile le risorse di calcolo, adattandole alle esigenze specifiche delle applicazioni e riducendo gli sprechi associati a risorse cloud sottoutilizzate. Fonti consultate: Kolhar Manjur et al., “A Three Layered Decentralized IoT Biometric Architecture for City Lockdown” Allied Market Research Gartner
I 3 punti chiave dell’articolo: Cosa si intende per Digital Signage Il problema dell’Engagement Tutti gli usi del Digital Signage nel workplace Cos’è il Digital Signage Si è soliti associare il Digital Dignage, un mercato che vale più di 25 miliardi di dollari secondo Grand View Research, al concetto di Customer Engagement e, in senso più ampio, a quello di Customer Experience. Per definizione, il Digital Signage è infatti una modalità di comunicazione finalizzata a trasmettere a un pubblico specifico contenuti multimediali dinamici attraverso totem interattivi o schermi digitali, con il fine di catturarne l'attenzione e creare una connessione più forte tra l’azienda e i suoi interlocutori. Nell’ambito del customer engagement, il settore che fa più uso del Digital Signage è il retail. Oltre alla trasmissione in-store di informazioni statiche e video promozionali su schermi digitali componibili di qualsiasi dimensione, i retailer puntano alla personalizzazione dell’esperienza, ovvero sull’adattamento dei messaggi a tendenze di mercato, eventi specifici o stagioni. L’obiettivo finale, che deve tener conto di valutazioni di privacy, è personalizzare l’esperienza per il singolo cliente: grazie all’IoT, alle videocamere e ad algoritmi intelligenti, un totem interattivo può acquisire informazioni di altezza, corporatura e genere dell’utente, nonché il suo stile di abbigliamento, e suggerirgli in tempo reale un acquisto mirato. Digital Signage e disengagement in azienda Il concetto di engagement non si applica unicamente ai clienti, ma anche a tutti coloro che lavorano in azienda. L'Employee Engagement è infatti uno degli obiettivi cardine delle divisioni HR e della comunicazione interna; quest’ultima, in particolare, elabora, pianifica e implementa strategie finalizzate a rafforzare il coinvolgimento e il senso di appartenenza dei dipendenti all'interno dell'organizzazione. Poter contare su una workforce coinvolta è essenziale per qualsiasi struttura, dato l’intimo legame con la produttività. Tuttavia, secondo un recente report di Gallup relativo al mercato americano, solo il 23% della popolazione aziendale è coinvolto attivamente (engaged), mentre il 59% è in fase di quiet quitting, ovvero sta riducendo silenziosamente il proprio impegno senza manifestare segni di insoddisfazione o intenzioni di lasciare l'azienda. A livello globale, il costo per le imprese e per il tessuto economico è enorme: 8.800 miliardi di dollari di produttività persa, pari al 9% del prodotto interno lordo mondiale. Le sfide del Digital Workplace e il ruolo del Digital Signage L’adozione di modelli di lavoro smart rischia di contribuire al disengagement e al suo (enorme) costo, se non viene gestita nel modo giusto. Già con la pandemia, diverse aziende hanno compreso quanto fosse difficile creare o preservare l’engagement virtualizzando del tutto il lavoro. Molte hanno conseguentemente optato per modelli ibridi, così da dare spazio alla libertà individuale, e al tempo stesso mantenere un senso di squadra, di partecipazione alla cultura e agli obiettivi comuni. All’interno del quadro appena descritto, il Digital Signage può essere uno strumento cruciale per supportare al meglio le strategie di Employee Engagement, migliorando la comunicazione interna e creando un ambiente lavorativo moderno e dinamico. Digital Signage in azienda, come utilizzarlo In azienda, il Digital Signage è un canale di comunicazione immediato ed efficace per diffondere informazioni rilevanti. Vediamo una panoramica dei suoi impieghi, sia per la comunicazione interna che esterna. Annunci, notizie, aggiornamenti e il calendario degli eventi possono essere trasmessi istantaneamente a tutti i dipendenti, aggiornandoli ma soprattutto coinvolgendoli nell’universo aziendale e nei suoi progetti. Nell’era della virtualizzazione del lavoro, sentirsi emotivamente lontani dall’organizzazione è molto semplice, e per questo il Digital Signage è uno strumento che promuove la cultura aziendale e diffonde i messaggi chiave della vita dell’azienda. A tutto ciò si aggiunge la componente di personalizzazione. Le soluzioni di Digital Signage possono essere impiegate per diffondere i successi di uno specifico team e gli anniversari lavorativi, i complimenti personalizzati della leadership per il raggiungimento di certi risultati ma anche informazioni e dati acquisiti in tempo reale dai sistemi aziendali. Si pensi, a tal fine, all’avanzamento in tempo reale di determinati progetti legati alla sostenibilità. Il Digital Signage è inoltre interattivo. Alcune grandi aziende hanno implementato soluzioni di wayfinding, utilizzando questo strumento per agevolare il percorso delle persone verso specifiche aree, uffici o sale riunioni. Queste soluzioni, che spesso sono totem interattivi, forniscono istruzioni su come raggiungere la destinazione, e se questa è un asset condiviso come una postazione di lavoro o una sala riunioni, permettono anche di prenotarlo. Altre organizzazioni condividono sondaggi e chiedono feedback ai dipendenti tramite sistemi di Digital Signage interattivi e, all’interno delle sale riunioni, hanno installato tavoli o addirittura pareti interattive, i cui contenuti vengono condivisi immediatamente con tutti i partecipanti, anche quelli connessi da remoto. Infine, il Digital Signage ha un ruolo fondamentale nell'accoglienza dei visitatori, laddove può assumere le sembianze del totem, dei display di grandi dimensioni o anche dei videowall componibili. Questi strumenti non solo diffondono contenuti dinamici acquisiti in tempo reale, come la quotazione del titolo azionario, gli ultimi post sui social media o dati sulla sostenibilità ambientale, ma abilitano anche una modalità self e interattiva di registrazione e accesso in azienda, contribuendo a ottimizzare il processo di accoglienza. Fonti consultate: GrandViewResearch State of the Global Workplace, Gallup
I 3 punti chiave dell’articolo Cos’è la Didattica Digitale Come sta cambiando il mercato dell’Education: dati e stato dell’arte Quali sono le opportunità di investimento nell’EdTech per scuole e università Didattica Digitale, i nuovi orizzonti L'anno 2024 si distingue come un momento cruciale nel percorso evolutivo del comparto Education, segnato dall'irresistibile ascesa della Didattica Digitale. Questa tendenza non rappresenta soltanto un cambiamento tecnologico, ma un vero e proprio salto qualitativo nel modo in cui l'apprendimento viene concepito e realizzato. In questo contesto, la tecnologia agisce da catalizzatore, abilitando metodologie didattiche innovative che ampliano gli orizzonti dell'istruzione. Si tratta di un'era in cui l'apprendimento si personalizza e si adatta a ritmi e stili diversi, offrendo esperienze formative più ricche e coinvolgenti. La sfida attuale è quindi quella di abbracciare questo cambiamento, rendendo insegnamento e apprendimento un processo più interattivo, accessibile e allineato alle esigenze di un mondo in rapida trasformazione. Vediamo allora cosa significa Didattica Digitale e quali sono le prospettive di sviluppo per il 2024, in modo da investire il giusto budget e minimizzare gli sprechi. Didattica Digitale: cos’è e perché servono buone infrastrutture di rete La Didattica Digitale è un approccio educativo che integra strumenti tecnologici e risorse digitali nei processi di insegnamento e formazione migliorando l'esperienza educativa degli studenti: in questo contesto, le infrastrutture di rete rappresentano la spina dorsale, perché essenziali per garantire un apprendimento fluido e interattivo. Nel 2024 è imprescindibile che le infrastrutture IT scolastiche siano all'avanguardia: questo si traduce in investimenti mirati in sistemi di connettività ad alta velocità, quali fibra ottica o reti wireless 5G, che permettono di gestire volumi elevati di dati e di assicurare un accesso stabile e veloce alle risorse didattiche online. La resilienza è difatti una caratteristica cruciale per prevenire interruzioni che potrebbero compromettere l'esperienza di apprendimento. Inoltre, l'implementazione di reti LAN o WLAN nelle istituzioni educative consente di ottimizzare la banda larga e governare in modo efficiente tutte le risorse digitali. Un'infrastruttura di rete solida è, quindi, il fondamento su cui costruire un ambiente di Didattica Digitale efficiente, sicuro e all'avanguardia. Didattica Digitale: gli strumenti per l'innovazione Quando si parla di Didattica Digitale, l’utilizzo dei dispositivi tecnologici gioca un ruolo critico, fungendo da interfaccia diretta tra studenti e il mondo digitale dell'apprendimento. Secondo dati dell’Osservatorio Didattica Digitale, si evidenzia che oltre 9 studenti su 10 possiedono almeno un device orientato alla produttività (pc, notebook, tablet, smart paper) per le loro attività scolastiche o universitarie. Di questi, circa il 48% li utilizza quotidianamente, una percentuale che sale a 6 su 10 tra gli studenti universitari, mentre un ulteriore 39% fa uso frequente di tali dispositivi per fini didattici. Solo poco più di 1 su 10, nonostante disponga di tali strumenti, li usa raramente come supporto allo studio. Per il 2024, quindi, è essenziale che scuole e istituti adottino e consentano l’utilizzo di strumenti smart aggiornati, duraturi, ergonomici, facilmente integrabili nel contesto educativo e volti a migliorare l'interazione e l'engagement degli studenti. Altrettanto importante è l'investimento in lavagne interattive e sistemi di proiezione che facilitino un apprendimento collaborativo e dinamico. Formazione del personale docente: perché potenziare le competenze ICT Una continua formazione del personale docente è poi cruciale per una Didattica Digitale che sia realmente efficace, specialmente quando si parla di Classi 4.0. A tal proposito Martina Mauri, direttrice dell’Osservatorio EdTech del Politecnico di Milano, ha dichiarato al Sole24Ore che, sebbene il 90% delle scuole abbia introdotto programmi di formazione per i docenti sull'uso degli strumenti digitali, nella maggior parte degli istituti almeno la metà dei docenti non si sente completamente a proprio agio nell’adozione di tali strumenti. Nel 2024, pertanto, l'investimento in programmi di sviluppo professionale specifici per l'educazione digitale diventa quindi imperativo. Questi dovrebbero essere progettati per equipaggiare gli insegnanti con competenze avanzate nell'uso delle tecnologie più recenti, nonché nelle metodologie di insegnamento online e ibrido. Un'enfasi particolare dovrebbe essere posta sull'apprendimento pratico, consentendo ai docenti di sperimentare direttamente con le tecnologie e le piattaforme che utilizzate in aula. Didattica Digitale e sicurezza: un investimento imprescindibile In questo contesto, non bisogna trascurare la sicurezza dei dispositivi e delle infrastrutture di rete per fare Didattica Digitale. In un'era in cui il mondo dell’Education si avvale intensamente di piattaforme online, la protezione dei dati e la privacy degli utenti sono di primaria importanza. Un investimento strategico in soluzioni di sicurezza robuste è cruciale per salvaguardare la comunità educativa da minacce cyber quali malware, phishing e attacchi informatici: tali soluzioni comprendono sia l'implementazione di firewall avanzati che di sistemi di rilevamento e prevenzione delle intrusioni. È inoltre essenziale la formazione continua di studenti e personale sull’argomento, sensibilizzandoli sui rischi online e sulle pratiche migliori per la protezione dei dati personali e istituzionali. In questo modo, la sicurezza diventa un pilastro integrato nella struttura della Didattica Digitale, garantendo un ambiente di apprendimento sicuro e affidabile. Didattica Digitale, come si stanno muovendo scuole e università Il budget per la Didattica Digitale si muove lungo alcune direttrici ben stabilite. Secondo una ricerca dell’Osservatorio EdTech sulle prospettive di investimento per scuole e università nel 2024, emergono diversi settori chiave in cui investire per migliorare come e dove la formazione viene erogata. Per le scuole, ad esempio, si nota un certo interesse verso le piattaforme di apprendimento con giochi interattivi, gli strumenti digitali per la gamification e l’integrazione sistemi di realtà virtuale e aumentata (VR e AR). Questi investimenti mirano difatti a rendere l'apprendimento più coinvolgente, utilizzando giochi e attività interattive che personalizzano l’esperienza di studio. Inoltre, la realtà virtuale e aumentata offre una modalità di apprendimento più immersiva e pratica, permettendo agli studenti di esplorare argomenti in modo visuale e arricchendo così l'istruzione tradizionale. Nelle università, si prospettano investimenti principalmente negli open badge per certificare le competenze acquisite, seguiti poi da gamification e VR e AR: gli open badge sono veri e propri attestati digitali che riconoscono soft e hard skill acquisite dagli studenti, spendibili poi nel mondo del lavoro come una certificazione. Didattica Digitale, il ruolo dell’Intelligenza Artificiale Non bisogna dimenticare, infine, il ruolo chiave dell'Intelligenza Artificiale come forza trasformativa, capace di rivoluzionare l'approccio all'insegnamento e all'apprendimento. Per i docenti, l'AI non rappresenta soltanto un facilitatore nell'adozione delle nuove tecnologie, ma estende anche le capacità didattiche: grazie a sistemi basati sull'AI, gli insegnanti possono accedere a strumenti di analisi e di gestione del percorso di apprendimento più sofisticati, che permettono di modellare le lezioni e i materiali didattici in funzione delle peculiarità e delle necessità di ciascun studente. Questo livello di personalizzazione era impensabile fino a qualche anno fa e apre a scenari inediti per un insegnamento più mirato ed efficace. Parallelamente, l'Intelligenza Artificiale si dimostra fondamentale per la sicurezza nella didattica. In un'era in cui i dati sono un asset prezioso ma vulnerabile, i sistemi intelligenti offrono soluzioni avanzate per la protezione delle informazioni: attraverso algoritmi di apprendimento automatico, l'AI identifica schemi anomali che potrebbero indicare tentativi di intrusione o di compromissione dei sistemi, intervenendo in modo preventivo e minimizzando i rischi. Questo aspetto è cruciale per mantenere un ambiente di apprendimento digitale non solo efficace ma anche sicuro, dove studenti e docenti possono operare con la massima tranquillità. Fonti consultate: Osservatorio Skuola.net Sole24Ore Osservatorio EdTech, Politecnico di Milano
I 4 punti chiave dell’articolo: Perché integrare realtà virtuale e apprendimento nelle scuole Quali sono gli ostacoli all’integrazione di tecnologie digitali nelle scuole Le categorie di device VR disponibili 2 esempi di integrazione tra realtà virtuale e apprendimento Realtà virtuale e apprendimento: perché è il connubio ideale Negli ultimi anni l’integrazione della realtà virtuale nell’apprendimento scolastico ha suscitato un grande interesse perché fornisce agli studenti modalità più coinvolgenti ed efficaci per imparare dei concetti e farli propri – in piena ottica Scuola Digitale. Attraverso l’uso di dispositivi di realtà virtuale (VR), infatti, gli insegnanti possono portare gli studenti in ambienti virtuali immersivi, offrendo loro svariate opportunità educative e dando modo di testare situazioni che difficilmente potrebbero vivere nella realtà. Basti pensare a come, grazie alla VR, gli studenti possano viaggiare attraverso il sistema solare, vedere da vicino le molecole di qualsiasi elemento oppure analizzare opere d’arte nel dettaglio. Se è innegabile che, con la giusta preparazione e attenzione, la realtà virtuale possa migliorare l’esperienza di apprendimento, è allo stesso tempo importante comprendere quali sono modalità e device più adatti al contesto scolastico e che tipo di esperienza offrono. 3 tipi di realtà virtuale per l’apprendimento Prima di analizzare i vari tipi di device, è bene ricordare che non tutti propongono lo stesso tipo di esperienza agli utenti. Sostanzialmente possiamo definire tre macrocategorie. VR non immersiva. In questo caso, l’utente non utilizza i visori ma entra nel mondo virtuale tramite console per computer dedicate: interagisce con i suoi interlocutori attraverso tastiere o controller, mantenendo il pieno controllo dell’ambiente fisico circostante. VR semi immersiva. In questo caso, l’utente ha la percezione di trovarsi in un ambiente virtuale quando è concentrato sull’immagine digitale, ma gli basta spostare lo sguardo per essere consapevole dello spazio fisico tutto intorno. Un esempio di esperienza VR semi immersiva è il simulatore di volo: i piloti in erba si trovano in un ambiente che, di fatto, ricrea la cabina di un velivolo, ma l’interazione con la VR avviene attraverso schermi e controller. VR immersiva. In questo caso, l’utente entra appieno nella realtà virtuale e si tratta, tra le tre tipologie, della simulazione più realistica poiché integra anche sensazioni uditive e visive. Questo di solito avviene tramite visori oppure Head-Mounted Display (HMD), un casco con uno schermo ad hoc che crea un effetto 3D stereoscopico, ricreando l’illusione della tridimensionalità tramite immagini, video o disegni. Realtà virtuale e apprendimento, il problema sta nella percezione Nonostante il potenziale insito nella realtà virtuale, investire in questa tecnologia viene però ostacolato da una certa resistenza da parte delle scuole, radicata in preoccupazioni legate ai costi, alla curva di apprendimento per gli insegnanti e alle infrastrutture IT necessarie. Questo non è un fenomeno isolato, poiché riflette una più ampia esitazione verso l’integrazione del digitale nell’apprendimento. Come riporta l’Osservatorio EdTech con una ricerca condotta su 223 istituti, oggi a investire su sistemi di realtà virtuale e/o aumentata è solo il 23% delle scuole: ciò si inserisce in una percezione diffusa secondo cui è ancora complesso adottare soluzioni digitali per la didattica. Oltre alle limitate competenze digitali dei docenti, come si evince nel 50% dei casi, l’indagine sottolinea la mancata percezione dei benefici delle tecnologie per l’apprendimento (23%) e una certa difficoltà nell’utilizzo delle stesse (26%). Affrontare la percezione diffusa riguardante la complessità nell'integrare tecnologie avanzate, come la realtà virtuale e aumentata, nel contesto educativo richiede l'intervento chiave di un Managed Service Provider (MSP) specializzato. Questa figura professionale può diventare il catalizzatore per la trasformazione digitale nelle scuole: collaborando con gli istituti, può non soltanto facilitare l'adozione di queste tecnologie in base alle specifiche esigenze e al livello di competenza digitale dei docenti, ma anche far emergere quantitativamente i benefici che derivano dal loro impiego. È così che l'innovazione tecnologica diventa un obiettivo accessibile, misurabile e, in ultima istanza, gestibile. Realtà virtuale e apprendimento: quali dispositivi adottare Il mercato offre oggi una vasta gamma di dispositivi pensati per la realtà virtuale, ciascuno caratterizzato da differenti gradi di immersione, determinati dal livello di partecipazione attiva dell'utente all'interno dell'esperienza stessa. 1. Desktop Virtual Reality (DVR) In questa categoria ricadono quei dispositivi che abilitano un’esperienza non immersiva. Sono infatti programmi per computer che simulano un mondo reale o immaginario in formato 3D, mostrato poi su uno schermo. Considerata di norma uno strumento ricreativo, il DVR consente a scuola di esplorare ambienti interattivi, sfruttare il potenziale della gamification e massimizzare la collaborazione tra discenti. 2. Fulldome Si tratta di sistemi di visualizzazione con campo visivo più ampio che ricreano un’esperienza immersiva a tutto tondo. In questa categoria troviamo dispositivi costituiti da un grande schermo curvo su cui vengono proiettate immagini panoramiche tridimensionali, che abbracciano l’utente a 360 gradi. 3. Embodied Mixed Reality Learning Environment (EMRELE) Gli EMRELE sono ambienti di apprendimento misto in cui gli utenti possono interagire con oggetti virtuali e fisici utilizzando diverse modalità sensoriali, compresi i sensi cinestetici. Sono così in grado di integrare elementi legati a realtà virtuale e aumentata, consentendo agli studenti di partecipare a esperienze educative più coinvolgenti utilizzando direttamente il loro corpo. 4. Immersive Virtual Reality (IVR) Gli Immersive Virtual Reality (IVR) abilitano un’esperienza di immersione totale attraverso la simulazione di un ambiente virtuale tridimensionale a cui accedere con il visore integrato: dal punto di vista dei benefici, gli IVR potenziano la navigabilità in prima persona, la dinamicità della scena e la visione stereoscopica molto di più rispetto alle altre categorie. Qui ritroviamo gli Head-Mounted Display. Realtà virtuale e apprendimento, due esempi per capire Diverse istituzioni scolastiche hanno capito il valore aggiunto della realtà virtuale nell’apprendimento, integrandola con successo all’interno dei loro programmi. Tra queste, spicca in Italia l'Istituto Superiore “Matteo Ricci” di Macerata che, grazie ai finanziamenti del PNRR previsti per le Next Generation Classroom, ha implementato l'uso di visori VR per diverse lezioni tipicamente tradizionali – come storia, geografia e chimica. Dopo una prima fase di sperimentazione legata solo ad alcune classi, l’istituto ha seguito una roadmap ben definita che non mira a sostituire la formazione frontale, ma a integrarla, arricchendola con una dimensione più stimolante: per questo è stato organizzato un corso di formazione per insegnanti, in modo da equipaggiarli con le abilità tecniche necessarie all'utilizzo dei visori, oltre a fornire loro le competenze didattiche per implementare efficacemente questa tecnologia all'interno dei percorsi di apprendimento. Analogamente, nel Regno Unito, la Reddam House nel Berkshire ha adottato la VR in modo estensivo nel suo curriculum. Gli studenti utilizzano i visori per approfondire i temi al centro delle lezioni, immergendosi anche in un Eduverso dedicato. Nathan O'Grady, responsabile del progetto, ha sottolineato come la realtà virtuale permetta di condurre esperimenti scientifici altrimenti irrealizzabili o troppo pericolosi per un'aula tradizionale, massimizzando così la sicurezza dei discenti. Fonti consultate: Osservatorio EdTech, Politecnico di Milano L’esperienza dell'Istituto Superiore “Matteo Ricci” di Macerata L’esperienza della Reddam House
I 4 punti chiave dell’articolo: Cyber security in Italia, la panoramica di mercato Perché intelligenza artificiale e cyber security sono due alleati chiave Qual è il problema dello skill gap in cyber security e come risolverlo I 5 step per integrare AI e cyber security nella strategia IT Cyber security in Italia: agire qui e subito Esplorare come e perché integrare intelligenza artificiale e cyber security è diventato oggi cruciale per l’IT aziendale, che deve saper rispondere alle nuove minacce cyber che colpiscono, in numero e complessità, il tessuto imprenditoriale italiano. L'ultimo anno ha visto l'Italia diventare un bersaglio sempre più frequente per i criminali informatici, con l'11% degli attacchi gravi a livello mondiale andati a segno - un netto aumento rispetto al 7,6% del 2022. Questo si traduce in un totale di 310 attacchi, anche qui in crescita del 65% rispetto all'anno precedente. È particolarmente preoccupante che ben il 56% di questi attacchi abbia provocato danni di gravità critica o elevata alle imprese. Guardando poi agli ultimi cinque anni, emerge che quasi la metà delle minacce hacker (47%) rilevata in Italia nel 2019 si è poi verificata nel 2023: un altro dato che evidenzia la crescente vulnerabilità del contesto nazionale rispetto al quadro globale. Queste informazioni chiave provengono dall'edizione 2024 del rapporto Clusit, che fornisce un'analisi dettagliata sulla sicurezza informatica e sull'evoluzione della minaccia cyber sia a livello nazionale che internazionale. La situazione in Italia si mostra particolarmente critica, con un trend di crescita degli attacchi che non solo persiste ma si intensifica, sottolineando l'urgente necessità di rafforzare le misure di sicurezza e aumentare la consapevolezza rispetto alle minacce informatiche. Perché usare l’intelligenza artificiale in cyber security Pertanto, oggi i team incaricati della sicurezza si trovano a dover gestire una serie di sfide non da poco: dalla crescente sofisticazione degli attacchi informatici alla maggior estensione del perimetro IT aziendale specie in ottica di lavoro ibrido, dall’incremento del volume dei dati da proteggere fino alla complessità sempre maggiore delle infrastrutture IT che sorreggono l’operatività aziendale, sono diversi gli elementi che possono compromettere seriamente la messa in sicurezza dei dati, la gestione dell'accesso degli utenti e l’identificazione (e neutralizzazione) degli attacchi. In questo contesto, l'adozione di soluzioni che sfruttano l'intelligenza artificiale in cyber security diventa non solo vantaggiosa ma anche necessaria: oggi, ad esempio, è in grado di potenziare significativamente le difese interne riducendo i tempi per il rilevamento e la risposta alle minacce. Un vantaggio cruciale, dunque, dovuto alla capacità dell'AI di analizzare rapidamente grandi volumi di dati, individuando anomalie e pattern di attacco con un'efficienza che supera di gran lunga le capacità umane. Senza dimenticare, poi, che l'intelligenza artificiale in cyber security rafforza la protezione dell'identità degli utenti e dei set di dati, massimizzando l’adattabilità e la resilienza dei team IT. Tuttavia, tra i rischi dell’intelligenza artificiale non bisogna perdere di vista che gli stessi strumenti vengono utilizzati anche dagli aggressori per rendere i loro attacchi più efficaci. Ad esempio, gli hacker possono sfruttare l'intelligenza artificiale per identificare con maggiore precisione e velocità le vulnerabilità nei sistemi informatici, consentendo loro di elaborare strategie d'attacco che ampliano il raggio d'azione e prolungano il tempo di permanenza nei sistemi compromessi. Questo uso offensivo dell'AI ha cambiato oggi la posta in gioco sottolineando l'urgenza, per le imprese, di adottare e integrare l'intelligenza artificiale in cyber security. Le applicazioni dell’intelligenza artificiale in cyber security Assieme al machine learning (ML), l’intelligenza artificiale è oggi uno degli strumenti principe per rafforzare le strategie di cybersecurity. Queste tecnologie si stanno rivelando indispensabili per prevenire, rilevare e rispondere agli attacchi informatici con una precisione e una velocità senza precedenti. Ecco quali applicazioni sono possibili oggi. 1. Analisi dati avanzata Gli algoritmi di ML analizzano velocemente i file di registro creati dai dispositivi aziendali, estraendo al contempo informazioni preziose per identificare comportamenti sospetti o non autorizzati all'interno della rete. La correlazione di dati da più fonti, automatizzata attraverso l'AI, fornisce poi una visione olistica delle minacce potenziali, migliorando l'analisi della sicurezza. Il ML consente infatti di valutare in modo efficace le vulnerabilità nei sistemi informatici attraverso l'analisi di dati provenienti da più fonti, come scanner, log di sicurezza e sistemi di gestione delle patch, prioritizzando le attività di correzione. In questo senso i fuzzer basati su deep learning, ovvero sistemi di invio di dati distorti per mandare un’infrastruttura in crash, sono una delle strade più promettenti per la scoperta di singole vulnerabilità assieme al reinforcement learning, capace di individuare le vulnerabilità in una rete di computer più velocemente rispetto ai tradizionali strumenti di penetration test. 2. Prevenzione di phishing e data breach Intelligenza artificiale e machine learning sono ideali per gestire le identità degli utenti e l'accesso ai sistemi informatici e alle applicazioni. Gli algoritmi di ML possono essere impiegati per analizzare il comportamento online del personale e identificare attività sospette provenienti dall’esterno, come tentativi di acquisizione di account o tentativi di accesso non autorizzato, segnali che spesso fungono da preparativi per un attacco. 3. Incident detection e response potenziata Intelligenza artificiale e machine learning sono essenziali per rilevare attacchi zero-day e pattern di comportamento che possono indicare una minaccia alla sicurezza non ancora classificata, migliorando così la threat intelligence. Generando avvisi di sicurezza e definendo quali tipi di minacce ci sono, ambo i sistemi aiutano a intraprendere azioni appropriate in modo tempestivo. L'automazione della risposta agli incidenti consente, infine, di identificare e gestire gli incidenti in tempo reale, riducendo il numero di falsi positivi e ottimizzando le indagini forensi. Intelligenza artificiale e cyber security per superare lo skill gap L’utilizzo integrato di intelligenza artificiale e cyber security può contribuire in modo significativo a sollevare gli addetti della sicurezza dai compiti a basso valore aggiunto e alleviare lo skill gap, che rappresenta un freno per lo sviluppo della sicurezza in azienda. Difatti, secondo l’ultimo Cyber Workforce Study di ISC2, a livello mondiale servirebbero 3,9 milioni di figure esperte di sicurezza informatica per supportare la spinta alla digitalizzazione delle imprese. Una lacuna che sembra destinata ad aumentare ulteriormente a causa dei tagli al budget: lo studio rileva che il 47% dei lavoratori della sicurezza IT ha dovuto affrontare varie forme di riduzioni economiche, che includono licenziamenti e congelamenti delle assunzioni; all'interno di questo cluster, il 22% ha risentito direttamente o indirettamente dei licenziamenti nel settore della cyber security, mentre il 28% riporta licenziamenti in altri reparti della propria azienda: si tratta di una situazione che può avere un impatto notevole sul personale dedicato alla sicurezza informatica. Con l’automazione delle attività e la maggior efficienza nel rilevamento delle minacce, l’introduzione in azienda dell’AI in cyber security è ideale perché supporta e riduce il carico di lavoro del team di sicurezza, anche all’interno dell’infrastruttura IT. Gli step per integrare intelligenza artificiale e cyber security Per integrare efficacemente intelligenza artificiale e cyber security nella propria strategia IT, è cruciale adottare un approccio metodico e ben pianificato. Analisi delle necessità organizzative. Inizialmente, è fondamentale valutare le specifiche esigenze dell'organizzazione, identificando le aree in cui l'integrazione di AI e cyber security può offrire miglioramenti sostanziali. Questa fase preliminare aiuta a delineare gli obiettivi specifici della strategia di integrazione. Selezione. Successivamente, si procede con la scelta degli strumenti di sicurezza basati sull'AI: qui è cruciale optare per soluzioni che siano anche compatibili con l'infrastruttura IT esistente. Implementazione graduale. È consigliabile avviare con un progetto pilota per testare la validità degli strumenti selezionati. Questo permette di valutare l'efficacia delle soluzioni in un contesto controllato e di apportare le necessarie modifiche prima di un'implementazione su larga scala. Formazione. Comprendere a fondo le capacità e i limiti dell'AI è indispensabile per sfruttare appieno le potenzialità delle tecnologie selezionate e garantire il successo del progetto, nonché per capire quali falle e/o nuove vulnerabilità possono esserci proprio per l’utilizzo dell’intelligenza artificiale. Aggiornamento. Gli algoritmi e le regole che incidono sul lavoro svolto dall’AI devono essere costantemente aggiornati in risposta all'evoluzione delle minacce informatiche e alle esigenze aziendali. Questo assicura che la protezione rimanga efficace nel tempo. Appare chiaro, dunque, come fondere l'intelligenza artificiale e cyber security trasforma radicalmente il modo in cui le aziende si difendono dalle minacce informatiche. Questa integrazione non solo accelera la capacità di riconoscere e neutralizzare gli attacchi in meno tempo rispetto a quanto succedeva in passato, ma affina anche la precisione con cui si anticipano potenziali rischi. Grazie all'AI, i sistemi di sicurezza non si limitano più a reagire, ma imparano dai dati per prevedere e sventare le minacce future, offrendo così un livello di protezione dinamico e adattivo. In questo contesto, l'AI non è solo un aggiornamento tecnologico; è il fulcro su cui ruota una strategia IT aziendale efficace, assicurando che le difese digitali rimangano sempre un passo avanti agli attaccanti. Fonti consultate: Rapporto Clusit 2024 Cyber Workforce Study
I 3 punti chiavi dell’articolo: Cos’è il Piano Scuola 4.0 Le caratteristiche delle classi 4.0 e dei nuovi laboratori Perché una scuola 4.0: la direzione degli investimenti Classi 4.0, Piano Scuola e PNRR, facciamo ordine Quando si parla di PNRR, spesso si dimentica che questo sta già coinvolgendo la scuola per cui, entro il 2025, sono previsti degli importanti cambiamenti. Grazie a uno stanziamento di 2.1 miliardi di euro – come riporta il MIUR – gli spazi fisici delle scuole vengono trasformati in modo che possano “fondersi” con gli ambienti virtuali e diventare così “ibridi”. Il tutto per favorire nuove metodologie di insegnamento e apprendimento, ma anche per sviluppare competenze digitali che possano garantire l’accesso a nuove professioni. Tutto questo rientra nel cosiddetto Piano Scuola 4.0 e che porta, di conseguenza, a delle aule con una dotazione tecnologica diversa rispetto a quella tradizionale: sono le classi 4.0. Cosa sono le classi 4.0 e il nuovo Piano Scuola Il Piano Scuola 4.0 si propone l’obiettivo, per le scuole primarie e secondarie di I e II grado cui sono destinati i fondi, di riprogettare gli spazi didattici realizzando le classi 4.0. Definirle in questo modo, ovviamente, ha a che fare con il nome del piano investimenti previsto dal PNRR e richiama, allo stesso tempo, anche l’evoluzione di Internet, o meglio dire del web. Nel web 4.0, detto anche next gen, infatti, sempre più protagonisti sono la realtà aumentata, i Big Data, l’Intelligenza Artificiale e l’interazione tra macchine e persone resa il più naturale possibile – e questo vale anche per il mondo dell’Education. Andando nello specifico sul mondo della scuola, le classi 4.0 sono delle aule ibride: si tratta di spazi fisici progettati in modo innovativo che rendono possibili interagire con ambienti virtuali come l’Eduverso grazie a strumenti dedicati. Il piano Scuola 4.0 prevede che ciò avvenga attraverso due linee di intervento principali, ovvero la realizzazione delle Next Generation Classrooms e dei Next Generation Labs. 1. Cosa sono le Next Generation Classroom Come riporta il PNRR, le Next Generation Classroom sono circa centomila aule completamente ridisegnate e dotate di arredi modulari e adattabili, che consentono una rapida e più creativa riorganizzazione degli ambienti a seconda delle esigenze didattiche contingenti. Ognuna di queste classi 4.0 ha in dotazione la connessione a banda larga: sia studenti che insegnanti, inoltre, hanno per questo a disposizione strumenti digitali come schermi interattivi e dispositivi personali per la realtà aumentata, le materie STEM e la robotica. Un’evoluzione importante, dunque, se pensiamo che la Didattica Digitale nelle scuole, secondo l’Osservatorio EdTech, gioca già un ruolo importante nell’apprendimento. Basti pensare che oltre 9 studenti su 10 sono in possesso di un device - pc, notebook, tablet, smart paper - per portare avanti le loro attività scolastiche e, tra questi, il 48% li usa ogni giorno. In parallelo, sono aumentate anche le imprese che forniscono hardware e software per il comparto Education (Scuola e Università): coprono oggi il 70% del target. 2. Cosa sono i Next Generation Labs Insieme alle classi 4.0, altrettanto importanti sono i laboratori 4.0 o Next Generation Labs cui sono destinati 424 milioni, ripartiti in 124.044,57 euro ciascuno per i licei e in 166.455,50 euro ciascuna per le scuole del secondo ciclo che abbiano attivo almeno un indirizzo di istituto tecnico o professionale. L’obiettivo dei laboratori 4.0 è di ampliare l’offerta formativa delle scuole e aiutare gli studenti prossimi a inserirsi nel mercato del lavoro, a restare al passo con l’avanzare di nuove tecnologie che stanno già mutando l’operatività quotidiana: per indirizzare al meglio le competenze dei propri studenti, ogni scuola può organizzare questi laboratori in maniera autonoma e a seconda dell’indirizzo specifico. Al loro interno, studenti e studentesse possono sviluppare skill nei diversi ambiti - il tutto, come riporta il MIUR, attraverso attività di effettiva simulazione di luoghi, strumenti e processi legati alle nuove professioni. Classi 4.0, perché una didattica diversa In quale contesto si inserisce una trasformazione simile? Diverse scuole, come emerge dall’Osservatorio EdTech, stanno investendo in strumenti digitali per arricchire l’apprendimento. Secondo i dati raccolti, ad esempio, il 59% delle scuole sta implementando piattaforme di apprendimento basate sul gioco, per la creazione di quiz interattivi che stimolano l'interesse e la partecipazione dei discenti. Un ulteriore 39% adotta strumenti di gamification, utilizzando il gioco come leva per l'apprendimento, mentre il 23% sta vagliando le potenzialità offerte dalla realtà virtuale e aumentata per creare esperienze immersive. Questi sforzi si collocano all'interno di un quadro più ampio delineato dal Piano Europeo di Azione per l'istruzione digitale 2021-2027, che mette in evidenza la volontà di costruire un ecosistema educativo che sia non solo digitalmente avanzato ma anche inclusivo e accessibile, sottolineando l'importanza di sviluppare contenuti educativi digital-first e competenze ad hoc. Il piano mira a promuovere ambienti di apprendimento che siano integrati e ibridi, offrendo spazi come le classi 4.0 in cui la creatività e l'innovazione sono al centro dell'esperienza educativa. Un focus particolare viene posto sulle materie STEM (Scienza, Tecnologia, Ingegneria e Matematica), con l'obiettivo di favorire l'interesse e le carriere in questi campi, soprattutto tra le studentesse. Questo approccio intende non solo colmare il divario di genere che caratterizza questi settori fin dall'ambito scolastico, ma anche preparare adeguatamente le nuove generazioni alle sfide del futuro. In questo contesto, le iniziative educative che incorporano strumenti digitali avanzati e metodologie innovative rappresentano una risorsa preziosa per formare individui capaci di navigare e contribuire efficacemente alla società digitale in continua evoluzione. Fonti: MIUR Piano Scuola Piano d'azione per l'istruzione digitale (2021-2027) Osservatorio EdTech, Politecnico di Milano
I 3 punti chiave dell’articolo: Cos’è l’AIOps perché cambia il modo di usare l’intelligenza artificiale Cosa ricade sotto il termine AIOps Come funziona l’AIOps e i benefici per l’impresa AIOps, le basi L'AIOps, acronimo di Artificial Intelligence for IT Operations, è uno strumento avanzato progettato per assistere le aziende nella gestione efficiente dei propri sistemi IT, sfruttando le più moderne tecnologie di intelligenza artificiale. Questa soluzione si basa infatti sia su AI che machine learning per monitorare continuamente i sistemi IT aziendali, individuare eventuali anomalie di funzionamento e prevedere potenziali errori. L'obiettivo principale dell'AIOps è mettere l'AI al servizio delle operazioni IT, con l'intento di ottimizzare e automatizzare la gestione degli incidenti. Questo approccio non solo riduce i rischi associati al funzionamento dei sistemi, ma contribuisce anche a migliorare la soddisfazione dei clienti attraverso una maggiore affidabilità e tempestività nelle risposte. Le piattaforme di AIOps non si limitano, poi, solo al monitoraggio delle performance, ma svolgono un ruolo cruciale anche nella creazione di programmi di manutenzione predittiva. Questa funzionalità è di fondamentale importanza per supportare le imprese nel mantenere l'efficacia dei propri sistemi IT nel tempo, ottimizzandoli quando richiesto. Perché serve l’AIOps in azienda Un recente report di MarketsandMarkets prevede una crescita notevole del mercato delle piattaforme di AIOps, proiettandolo da 11,7 miliardi di dollari nel 2023 a 32,4 miliardi di dollari entro il 2028. Il governo di dati sempre più corposi ed eterogenei, unito all'adozione di architetture IT ibride, richiede però uno sforzo significativo nella distribuzione delle risorse per le operazioni IT: l'AIOps si rivela in questo cruciale, perché è uno strumento che non solo contribuisce a gestire le complessità operative, ma aiuta anche a ridurre i rischi e i costi associati. Guardando al futuro, le proiezioni di MarketsandMarkets suggeriscono poi che le piattaforme di AIOps si evolveranno ulteriormente entro il 2028, integrando nuove fonti di dati come dispositivi IoT e sistemi di edge computing. Questa trasformazione consentirà alle piattaforme di gestire dati in tempo reale con più velocità ed efficienza, incorporando moderne tecniche di AI come l’intelligenza artificiale causale. Il cuore dell’AIOps Dal punto di vista tecnico, l'AIOps è composto da tre componenti fondamentali, ognuna delle quali svolge un ruolo cruciale nell'efficacia complessiva del sistema: Big Data, Machine Learning e automazione. Big Data. Le piattaforme di AIOps si distinguono per la loro abilità di raccogliere e gestire un vasto quantitativo di dati provenienti dai sistemi IT che costituiscono l'infrastruttura aziendale. Questi dati possono essere diversi, inclusi file di log, messaggi di rete, dati operazionali in tempo reale e informazioni sulla performance dei sistemi. L'importanza di questa componente risiede nella capacità di fornire una panoramica completa e dettagliata delle attività e delle condizioni dei sistemi, fornendo il materiale grezzo necessario per l'analisi avanzata. Machine Learning. Gli algoritmi basati su tecniche di apprendimento supervisionato e non supervisionato sono fondamentali per estrarre informazioni significative e identificare pattern ricorrenti. Automazione. Una volta che i modelli di machine learning sono stati adeguatamente addestrati, entrano in gioco gli algoritmi di automazione, in grado di identificare rapidamente errori e anomalie di funzionamento, innescando automaticamente i processi di risposta. Ad esempio, l'AIOps può automatizzare l'invio di avvisi in caso di errori critici e generare indicazioni dettagliate sulle azioni correttive da intraprendere. Tutti i benefici dell’AIOps per l’infrastruttura IT Dopo aver completato l'implementazione, quali vantaggi le organizzazioni ottengono dalle nuove soluzioni AIOps? Per la maggior parte dei soggetti intervistati da OpsRamp sul tema, il beneficio principale è una riduzione dei ticket aperti, segnalata dal 63% delle aziende e dal 66,9% degli MSP (Managed Service Provider). Questo risultato non sorprende, considerando che l'alerting intelligente è il caso d'uso principale per entrambi i gruppi. L'AIOps sta poi supportando il reparto IT ad alleviare la pressione sull'help desk, consolidando gli avvisi attraverso l'alerting intelligente e riducendo il numero di ticket archiviati, molti dei quali deriverebbero dagli stessi incidenti. Un vantaggio secondario derivante dalla riduzione dei ticket è la diminuzione del tempo medio di rilevamento e di risoluzione, indicato rispettivamente dal 55,8% delle aziende e dal 56,7% degli MSP. Riducendo le segnalazioni di problemi, il team IT può dedicare più tempo a questioni che coinvolgono gli utenti finali, risolvendole in modo tempestivo. L'automazione svolge poi un ruolo chiave in questo contesto, con oltre la metà dei partecipanti che riconosce l’eliminazione di attività a basso valore aggiunto come uno dei principali vantaggi operativi derivanti dall'implementazione di queste tecnologie. Inoltre, lo studio riporta che quasi il 90% delle aziende coinvolte ha registrato un incremento nella velocità di risoluzione dei problemi superiore al 25% grazie all’AIOps: questo dato sottolinea in modo tangibile l'impatto positivo che questo approccio può avere sulle operazioni aziendali, accelerando la diagnosi e la risoluzione delle problematiche. L'AIOps emerge dunque come un pilastro fondamentale nella gestione dell'infrastruttura IT aziendale, trasformando la complessità operativa in un terreno fertile per l'innovazione e l'efficienza. La capacità di rilevare in modo proattivo le anomalie, automatizzare le operazioni ripetitive, ottimizzare le risorse e migliorare la sicurezza fornisce un valore tangibile che va oltre l’implementazione di tecnologie avanzate. L'analisi avanzata dei dati apre infatti la strada a decisioni informate e consapevoli, permettendo alle aziende di adattarsi rapidamente alle dinamiche mutevoli del panorama IT. Fonti consultate: MarketsandMarkets OpsRamp
I 3 punti chiave dell’articolo: Il ruolo dell’AI Act per l’intelligenza artificiale Quali sono i 3 grandi rischi dell’intelligenza artificiale in azienda Come tutelarsi: best practice da considerare Intelligenza artificiale in azienda, il ruolo dell’AI Act Per evitare i possibili rischi legati all’introduzione dell’intelligenza artificiale in azienda, le imprese dovrebbero prendere come bussola l’AI Act, il regolamento europeo per l’integrazione dei sistemi AI nel tessuto sociale, economico e produttivo, che classifica e regolamenta i tipi di intelligenza artificiale sulla base dei potenziali rischi derivanti dal suo utilizzo. L’approccio risk-based adottato attribuisce una responsabilità, per chi sviluppa e usa il sistema AI, tanto maggiore quanto più è alto il rischio insito nell’utilizzo del sistema, fino a vietare l'utilizzo delle applicazioni e delle tecnologie il cui livello di rischio è considerato inaccettabile. Il regolamento ha avuto il via libera per essere recepito dai Paesi UE e sembra destinato a diventare il riferimento comune per un uso etico e responsabile di questo strumento anche al di fuori dei paesi dell’Unione, come già accaduto per il GDPR. I 3 rischi principali dell’intelligenza artificiale in azienda L’impiego dell’Intelligenza Artificiale in azienda può offrire molteplici benefici che vanno dall’automazione delle attività ripetitive a previsioni accurate basate sull’analisi di grandi quantità di dati, fino a una gestione più efficiente e innovativa delle risorse interne. Tuttavia, per poter trarre vantaggio da queste opportunità è necessario valutare accuratamente i potenziali rischi, specialmente a livello di infrastruttura IT. Di seguito indichiamo i 3 rischi principali, derivanti dall’integrazione dell’intelligenza artificiale in azienda, e suggeriamo alcune azioni da intraprendere per poterli mitigare. 1. Rischio bias L’intelligenza artificiale in azienda può riflettere i pregiudizi presenti nei dati di addestramento (bias), generando risultati sistematicamente distorti e portando, di conseguenza, a decisioni basate su prospettive e informazioni parziali. Un addestramento basato su dati storici che non tengano conto dei cambiamenti del mercato o delle preferenze dei consumatori potrebbe portare, ad esempio, a previsioni errate nel campo delle vendite. Un addestramento su un gruppo demografico troppo ristretto, pur in assenza di pregiudizi, potrebbe invece portare a escludere sistematicamente alcune categorie di candidati in un sistema impiegato per la selezione dei curriculum, propedeutica alle assunzioni, o portare a valutazioni poco mirate sulle performance. Vanno dunque previsti controlli umani, evitando di lasciare le decisioni totalmente in mano ai sistemi AI. 2. Rischio violazioni Gli algoritmi di intelligenza artificiale in azienda possono produrre risposte errate o imprecise, soprattutto quando si basano su dati di addestramento non sufficientemente rappresentativi o su modelli molto complessi. È per questo necessario adottare misure preventive nell’uso degli output, introducendo come prassi la verifica delle fonti. In questo modo, è possibile evitare il rischio di violare il copyright. I modelli di intelligenza artificiale sono infatti addestrati su una grande quantità di dati disponibili su Internet che spesso includono materiale protetto da diritto d’autore. Oltre a controllare le fonti, l’azienda dovrebbe monitorare eventuali variazioni della legislazione sul copyright. L’intelligenza artificiale in azienda può anche comportare un rischio per la privacy dei dati e la sicurezza delle informazioni. Alla luce dell’AI Act, è fondamentale andare oltre la semplice compliance formale al GDPR: con l’uso dell'intelligenza artificiale in azienda, vanno comunque rispettate le norme sulla sicurezza delle reti e dei sistemi informativi, adottando misure tecniche e organizzative per prevenire la perdita dei dati sensibili. A titolo esemplificativo possiamo ricorrere alla cifratura dei dati, soprattutto per quelli riservati, la limitazione dell'accesso solo al personale autorizzato, la formazione mirata alla sensibilizzazione sulle pratiche di sicurezza, l’impiego di firewall e antivirus. 3. Rischio cybercrime L’AI può diventare uno strumento potente in mano al cybercrime che può impiegarla nella creazione di algoritmi malevoli in grado di potenziare la capacità degli attaccanti di sfuggire ai sistemi di rilevazione tradizionale. Integrare intelligenza artificiale e cyber security può, d’altra parte, rafforzare la difesa contro i potenziali attacchi alla sicurezza: è il caso degli algoritmi di detection AI-Based indispensabili non solo per individuare anomalie all’interno dei dati raccolti ma anche per monitorare l’installazione di software scaricati da Internet, per riconoscere le criticità all’interno dei sistemi, per individuare tempestivamente gli attacchi e agire in modo proattivo. Fonti consultate: AI Act
I 3 punti chiave dell’articolo: Perché l’Unified Endpoint Management conviene Quali sono i rischi IT del lavoro moderno Quali sono i 3 plus di un servizio UEM Gestione unificata degli endpoint: la panoramica Il concetto di gestione unificata degli endpoint, o Unified Endpoint Management (UEM), si sviluppa in conseguenza della profonda trasformazione delle dinamiche di lavoro verso modelli agili e ibridi. Complice la pandemia, come riporta una ricerca Lenovo, il 70% dei dipendenti vorrebbe infatti lavorare in ambienti ibridi, che consentano loro di alternare l’operatività in presenza con quella da remoto. Questo non solo fa bene alla produttività, ma rende l’azienda molto attraente per i giovani talenti. Unified Endpoint Management, le minacce del lavoro moderno La trasformazione del modello di lavoro e la forte digitalizzazione hanno creato una serie di sfide per le divisioni IT delle aziende. Le persone non lavorano solo in ufficio, e di conseguenza i loro dispositivi di lavoro operano al di fuori della rete aziendale, con maggiore difficoltà di monitoraggio e protezione. I device di lavoro sono sempre di più. In poco più di un decennio siamo passati dal desktop come protagonista indiscusso a un mix di strumenti mobile come laptop, smartphone e tablet. Vi è il rischio di pericolose commistioni tra la sfera privata e quella professionale anche dal punto di vista dei device di lavoro. È piuttosto comune, ad esempio, accedere alle email di lavoro con il proprio smartphone, e lì ospitare documenti anche riservati. Molte aziende hanno sviluppato apposite policy BYOD (Bring Your Own Device), rivolte a governare proprio la convivenza di strumenti IT aziendali e personali. Tutto ciò si innesta in un quadro per nulla esaltante sotto il profilo delle minacce cyber, che negli ultimi anni sono perennemente in crescita. Più dispositivi da gestire e più attacchi formano un mix micidiale per la continuità del business, l’integrità e la confidenzialità dei dati. Senza contare l’aumento di pressione sullo staff IT, che non solo si trova a gestire richieste di supporto in crescita esponenziale, ma deve anche garantire una end-user experience all’altezza, pena una riduzione di produttività. Al posto di dedicare la propria giornata a progetti innovativi a supporto del business, il team IT rischia così di trascorrere il proprio tempo in attività routinarie come il riavvio dei sistemi, l’applicazione di patch e di aggiornamenti. Unified Endpoint Management, in che modo riduce i rischi Il concetto di Unified Endpoint Management nasce per vincere tutte le sfide appena citate. È una strategia di gestione, ma anche una piattaforma (o un insieme di strumenti, a seconda dei casi) il cui obiettivo è la gestione efficiente, centralizzata e integrata di tutti gli endpoint di un'organizzazione, a prescindere da tipologia, sistema operativo, applicativi in esecuzione, luogo in cui si lavora e reti cui ci si collega. Andiamo più nel dettaglio su come limita i rischi IT. 1. Ottieni informazioni sugli endpoint La gestione centralizzata è il concetto cardine dell’UEM. Osservando una sola console, il team IT (o il partner) acquisisce tutte le informazioni essenziali sullo stato degli endpoint, ma può anche agire sugli stessi in forma individuale o massiva adottando delle automazioni. Si pensi, a tal proposito, all’applicazione delle patch, alla distribuzione degli applicativi e alla configurazione dei dispositivi. Questo riduce il carico di lavoro degli amministratori di sistema e contribuisce a garantire una coerenza nelle configurazioni, tutte rispettose delle policy aziendali. 2. Trovi le criticità prima che diventino tali A seconda della piattaforma o dei contenuti del servizio, nel caso dell’outsourcing, l’Unified Endpoint Management va al di là delle operazioni routinarie. Le soluzioni più evolute adottano infatti un’analisi proattiva basata sui dati che ricevono dagli endpoint, così da identificare in anticipo possibili cause di guasto e di rallentamento delle performance, e attivare tutte le misure del caso prima che la criticità di manifesti. In questo modo, Unified Endpoint Management diventa un elemento fondamentale per gestire al meglio tutto il ciclo di vita dei dispositivi, non solo gli elementi ripetitivi come gli aggiornamenti e le patch. A titolo d’esempio, una piattaforma UEM potrebbe attivare automaticamente un processo di sostituzione del prodotto, con tanto di ordine al fornitore, qualora le performance rilevate siano troppo carenti e non ci sia modo di potenziarle. 3. Fai leva su una security di livello superiore Infine, ma non per importanza, c’è il tema della sicurezza, poiché la protezione degli endpoint è uno dei pilastri delle strategie moderne di sicurezza informatica. Compreso nel concetto di UEM c’è quindi l’implementazione di misure come la crittografia dei dati, il controllo degli accessi, la gestione delle minacce, la conformità alle normative e la protezione dei dati. Le soluzioni più evolute adottano paradigmi di sicurezza moderni come il monitoraggio e l’analisi del comportamento degli endpoint, così da individuare attività sospette, rilevare e anche rispondere efficacemente alle minacce (ad esempio scollegando l’endpoint dalla rete e bloccando alcune porte), così da garantire un workplace moderno, solido e produttivo. Fonti consultate: Lenovo Tech Today