I 3 punti chiave dell’articolo: Come trarre reale valore dal rapporto tra Intelligenza Artificiale e business I 3 pilastri dell’approccio corretto all’utilizzo dell’AI Perché i dati sono il cuore dell’Intelligenza Artificiale nel business Intelligenza Artificiale e business: l’approccio di Lenovo spiegato da Massimo Chiriatti Negli ultimi due anni, non si parla d’altro che di AI. La pervasività del tema ha generato visioni contrastanti tra chi la considera la soluzione a tutti i mali (del business) e chi, invece, la ritiene una minaccia cui far fronte, soprattutto nell’ottica dell’occupazione. In realtà, l’Intelligenza Artificiale nel business non solo è reale, ma crea competitività e può esaltare le capacità umane. Ovviamente, è necessario l’approccio giusto e, soprattutto, bisogna conoscerla bene: di questo avviso è Massimo Chiriatti, Chief Technical & Innovation Officer di Lenovo, che nel corso dell’ultimo Experience Customer Club di Lenovo ha approfondito proprio cos’è l’AI in realtà e come le aziende possono davvero trarne valore con il giusto grado di consapevolezza. Si parte proprio da un assunto: in 70 anni di relazione con i computer, abbiamo imparato a considerarli macchine perfette, che vengono programmate e non possono sbagliare. In questo contesto l’Intelligenza Artificiale, però, è un vero e proprio cambio di paradigma: il sistema non è più programmato, ma viene addestrato con i dati per apprendere e migliorare continuamente. Ciò significa che, a differenza dei programmi tradizionali che eseguono istruzioni, i modelli di Intelligenza Artificiale evolvono con l'esperienza e l'interazione con nuovi dati, potendo effettuare previsioni generalmente attendibili a seconda della quantità e della qualità dei dati stessi. Prima, però, sono due gli scogli da superare. 1. L’Intelligenza Artificiale nel business non è perfetta, ma sorprende Massimo Chiriatti sottolinea come il rapporto tra Intelligenza Artificiale e-business sia peculiare perché, a differenza del paradigma tradizionale, l’AI non è perfetta. Il risultato deterministico dei classici algoritmi lascia il passo a quello probabilistico, che come tale riduce l’incertezza ma non la elimina. Non c’è un risultato certo, ma un output che va interpretato, analizzato e, soprattutto, valutato. Ma allora perché Intelligenza Artificiale e business vivono in simbiosi? Come riporta Massimo Chiriatti, perché l’AI è in grado di scoprire relazioni tra i dati, di rilevare pattern complessi e tendenze nascoste che gli esseri umani non possono individuare per limiti fisiologici. L’AI può per questo sorprendere, ma non ci restituisce un risultato certo: sta sempre al professionista fornire alla macchina i dati giusti e, soprattutto, valutare il suo output, fare le correlazioni del caso, decidere e agire. 2. L’Intelligenza Artificiale nel business non deve far paura Non dobbiamo avere paura dell’Intelligenza Artificiale, che sarà sempre di più il perno della competitività aziendale: di questo Massimo Chiriatti è assolutamente certo. Questo perché l’AI, oltre ad essere imperfetta by design, non è autonoma ma è creata e governata dall’uomo. Bisogna essere in grado di gestirla al meglio e di superare le sfide presenti e future: c’è bisogno di strategia, di governance, di competenze e, soprattutto, dell’approccio giusto, che non prevede una sostituzione di ruoli ma un supporto, un potenziamento dell’esistente. Intelligenza Artificiale e business: qual è l’equazione perfetta Qual è, dunque, il percorso corretto per sfruttare al massimo il binomio Intelligenza Artificiale e business? Massimo Chiriatti approfondisce i 3 pilastri dell’approccio più efficace. 1. L’Intelligenza Artificiale si basa sui dati Il punto di partenza sono i dati: l’azienda deve possedere dati in quantità e qualità adeguate, perché solo con i dati è possibile creare e addestrare modelli in grado di supportare le decisioni di oggi e di domani. Se i sistemi deterministici si basano su regole, quelli probabilistici sono addestrati dai dati. Di conseguenza, solo le aziende che custodiscono i propri dati possono sfruttare la potenza dell’AI e crescere; le altre, invece, continueranno come hanno sempre fatto. 2. L’infrastruttura giusta e il ruolo di Lenovo Secondo elemento cardine è l’infrastruttura. I workload di Intelligenza Artificiale richiedono altissime prestazioni in termini di capacità computazionale e storage, e in quest’ambito emerge il ruolo cruciale delle competenze, con cui creare infrastrutture AI adatte ai workload specifici di ogni cliente. A tal fine, le imprese valutano spesso l’adozione del cloud, ma devono considerare anche tematiche di prestazioni (latenza) e di localizzazione/governance del dato. Grazie alle competenze giuste, oggi è possibile disegnare un’architettura personalizzata e, nel caso, portare l’AI in prossimità del luogo di produzione del dato, garantendo lo stesso livello di controllo esclusivo dell’era on-premise. 3. L’attenzione verso gli algoritmi (e le competenze) Terzo fattore portante sono gli algoritmi. E qui si apre il macro-tema delle competenze: la data science ha creato tante nuove figure professionali, dal data analyst al data scientist, la cui domanda supera però l’offerta, con la conseguenza per nulla piacevole di ostacolare la competitività di molte imprese. Intelligenza Artificiale nel business: partire dai dati per vincere le sfide Non tutti i progetti di Intelligenza Artificiale producono risultati brillanti, e questo non è sempre dovuto all'intrinseca complessità tecnica del tema, ma anche a un approccio errato. Massimo Chiriatti sottolinea che la reale creazione di valore dipende dal corretto posizionamento dell'AI nel contesto aziendale, nei suoi processi e nelle sue decisioni; occorre aggiungere ora che la scelta della tecnologia è fondamentale, ma deve seguire l'individuazione delle esigenze aziendali e dei dati disponibili, che sono il cuore pulsante del paradigma. È infine essenziale monitorare e migliorare costantemente i risultati e, non da ultimo, investire nelle persone, che sono e resteranno sempre il fulcro di ogni attività d’impresa.
I 3 punti chiave dell’articolo: Come è cambiato il panorama IT L’identikit del Managed Service Provider I 5 fattori per valutare un Managed Service Provider La complessità dell’IT L’ecosistema IT in azienda ha raggiunto oggi un alto livello di complessità, dovuto all’utilizzo intensivo di nuove tecnologie nell’operatività quotidiana, alla necessità di offrire un'esperienza utente ottimale e all'urgenza di rafforzare le misure di sicurezza. A questo scenario si aggiunge la sfida rappresentata dall’assenza di competenze IT tecniche sul mercato, un ostacolo che rende difficile alle imprese mantenere al proprio interno tutte quelle risorse per stare al passo con le evoluzioni tecnologiche. In questo contesto, un numero sempre maggiore di aziende sta scegliendo di collaborare con i Managed Service Provider (MSP), società esperte nella fornitura di servizi IT gestiti. Questa opzione consente infatti di affrontare con maggiore sicurezza e agilità le complessità del mondo digitale, avvalendosi di soluzioni tecnologiche avanzate e di un pool di competenze specializzate. Chi è il Managed Service Provider: l’identikit Un Managed Service Provider può essere definito come un’impresa che offre servizi informatici ad aziende clienti e si rivela un alleato fondamentali per massimizzare l'efficienza delle operazioni IT, senza però sacrificare il controllo sui costi. Questi fornitori offrono un'ampia varietà di servizi gestiti (managed), che spaziano dalla governance delle infrastrutture e delle reti IT, alla sicurezza informatica, fino al supporto per il cloud e la gestione di applicazioni e database, così come consulenza, formazione e assistenza per pc, laptop e l’intera dotazione tecnologica aziendale. La loro importanza deriva proprio dalle competenze che mettono a disposizione del cliente, che così può focalizzarsi sulle attività afferenti al suo core business. Ciò non solo assicura una struttura IT affidabile e protetta, costantemente aggiornata, ma permette anche una gestione delle spese più mirata, trasformando quelle impreviste in costi operativi pianificabili. In un'era dove la flessibilità tecnologica e la sicurezza dei dati sono cruciali, gli MSP soddisfano la crescente necessità di competenze tecnologiche specializzate, disponibilità 24 ore su 24 e 7 giorni su 7 e una pronta reazione alle minacce in arrivo. I Managed Service Provider incarnano in modo emblematico il modello As a Service, che sta guadagnando sempre più terreno nel mercato attuale. Questo approccio si basa sulla fornitura di prodotti, servizi o soluzioni tramite un modello di abbonamento o pagamento basato sull'uso, piuttosto che attraverso l'acquisto o la licenza tradizionali. Gli MSP, operando proprio sotto questo paradigma, offrono alle aziende l'accesso a tecnologie e competenze IT avanzate senza che queste debbano investire in risorse interne o infrastrutture costose. Come valutare un Managed Service Provider: 5 fattori Nella valutazione di un Managed Service Provider per il workplace, è cruciale considerare una serie di parametri chiave che ne determinano l'efficacia e l'adeguatezza alle esigenze aziendali. Vediamo allora quali elementi devono guidare la scelta. 1. Verticalità L'esperienza e le competenze specifiche nel settore di riferimento sono fondamentali per garantire che il Managed Service Provider selezionato comprenda a fondo le sfide e le esigenze del business dell'impresa cliente. Un MSP con un track record comprovato in progetti simili offre non solo una maggiore affidabilità ma anche l'opportunità di attingere a soluzioni innovative già testate in contesti analoghi. Le certificazioni tecniche, inoltre, sono un indicatore della competenza e dell'impegno del fornitore nell'aggiornamento continuo delle sue conoscenze, assicurando che le soluzioni proposte siano all'avanguardia. 2. Scalabilità La capacità di offrire servizi scalabili consente all'MSP di adattarsi all'evoluzione delle esigenze dell'impresa, supportando la sua crescita senza interruzioni all’operatività. Questo parametro è centrale perché assicura che l’azienda cliente possa espandere o ridurre i servizi in base alle variazioni del mercato o alla propria strategia di sviluppo, garantendo così un investimento ottimizzato e flessibile nel supporto IT. 3. Cybersicurezza Nell'era digitale, la sicurezza dei dati e delle infrastrutture IT è prioritaria. Un Managed Service Provider che adotta politiche di sicurezza avanzate e dispone di un solido piano di risposta agli incidenti offre una garanzia indispensabile per la protezione delle risorse aziendali. In questo modo, è più facile prevenire le violazioni dei dati e mitigare i rischi legati agli attacchi hacker. 4. Trasparenza La trasparenza nelle comunicazioni e nelle reportistiche permette il monitoraggio efficace dei servizi erogati e dell'adempimento degli SLA. Questo aspetto è cruciale per mantenere una collaborazione basata sulla fiducia e sull'efficienza, permettendo all'impresa cliente di avere una visione chiara dei risultati ottenuti e delle aree di miglioramento, facilitando così il processo decisionale. 5. Flessibilità La flessibilità contrattuale riflette la capacità di adattamento del Managed Service Provider, offrendo termini che rispecchiano le reali necessità di business e consentendo modifiche al servizio in base all'evoluzione del contesto aziendale. Il supporto proattivo, d'altra parte, sottolinea l'importanza di un MSP che non si limita a reagire ai problemi ma li anticipa, proponendo soluzioni preventive e ottimizzazioni che migliorano continuamente l'efficienza e la performance dei sistemi IT dell'impresa. Fonti consultate: Statista Statista
I 3 punti chiave dell’articolo: Definizione di XaaS: cosa si intende, cosa comprende Quali sono i servizi legati a XaaS Panoramica di mercato e benefici per le imprese che adottano XaaS Cos’è XaaS o Everything-as-a-Service Nel panorama IT odierno, il termine XaaS o Everything-as-a-Service sta guadagnando terreno per il modo in cui sta rivoluzionando l’accesso e l’utilizzo di tutte le risorse IT. Questo approccio, che estende il concetto di Software-as-a-Service (SaaS), sta trasformando anche l'ambiente di lavoro: sono sempre di più le aziende che scelgono di adottare questo tipo di soluzioni, ideali per un contesto caratterizzato dal lavoro da remoto e da una forza lavoro diffusa. Andiamo più nel dettaglio. Con XaaS si intende un modello di business e distribuzione tecnologica in cui prodotti, servizi e soluzioni vengono forniti e consumati attraverso il cloud, anziché gestiti localmente dall'utente finale. L’espressione As-a-Service deriva dal modello Software-as-a-Service (SaaS), uno dei primi a essere diffuso su larga scala, e include ora ogni tipo di servizio IT che può essere fornito tramite il cloud. Nel modello XaaS, le aziende non hanno più bisogno di investire in beni IT fisici o di gestire complessi stack tecnologici internamente. Al contrario, possono accedere a risorse come la potenza di calcolo, lo storage, le piattaforme, le applicazioni e persino intere funzionalità aziendali, pagando per l'uso o tramite sottoscrizioni. Ciò consente di trasformare i costi di capitale (CAPEX) in costi operativi (OPEX), migliorando la flessibilità e potenzialmente riducendo le spese complessive. I servizi e le modalità di fruizione del modello XaaS XaaS ha dato origine a una varietà di servizi as-a-Service: eccone alcuni a titolo esemplificativo. Infrastructure-as-a-Service (IaaS). Fornisce infrastrutture di computing virtualizzate su internet. Platform-as-a-Service (PaaS). Offre ambienti di sviluppo e runtime per applicazioni web e mobile. Software-as-a-Service (SaaS). Consente agli utenti di utilizzare applicazioni software tramite un'interfaccia web o API. Security-as-a-Service (SECaaS). Fornisce servizi di sicurezza come il monitoraggio delle minacce, l'antivirus, e la gestione delle identità e degli accessi. Device-as-a-Service (DaaS). Include hardware, software e servizi che coprono tutto il ciclo di vita dei dispositivi di lavoro. Il modello XaaS è diventato popolare grazie alla sua capacità di adattarsi alle mutevoli esigenze delle aziende, alla sua scalabilità e alla sua capacità di accelerare l'innovazione riducendo il tempo e i costi associati all'implementazione e alla gestione di nuove tecnologie. La flessibilità nella scelta dei servizi e nei costi si accompagna poi anche a quella di fruizione, ideale per i workplace moderni . Le soluzioni XaaS, infatti, possono essere: offerte con on-premise privato, ovvero gestite nel proprio data center in locale; fornite in hosting da parte di un Managed Service Provider (MSP) ; fornite all’interno di un public cloud; offerte con una combinazione tra on-premise e public cloud (ovvero hybrid cloud). XaaS, la panoramica di mercato Come riporta Spherical Insight, il mercato globale delle soluzioni XaaS è stato valutato 245,3 miliardi di dollari nel 2021 e si prevede che raggiungerà 1.225,07 miliardi di dollari entro il 2030, con una crescita del 23,4% nel periodo 2021-2030. Quest’accelerazione è dovuta all'adozione sempre più diffusa del cloud computing, alla digitalizzazione in corso dei diversi settori merceologici e al bisogno di flessibilità e scalabilità nelle operazioni IT. La pandemia ha ulteriormente catalizzato questa tendenza, spingendo le organizzazioni a ripensare i loro workplace per supportare il lavoro remoto e distribuito. La diffusione di questo paradigma è ancor più evidente quando si guarda il livello di adozione relativo a diversi settori, come quello manifatturiero. Secondo l’ultimo forum dell'ASAP Service Management, il 55% delle industrie sta pensando di adottare il modello XaaS, con il 20% che ha già cominciato a testarla con progetti pilota. In generale, l'atteggiamento verso questa transizione è molto positivo: dividendo le aziende intervistate nel report in tre categorie - diffidenti, timide ed entusiaste – e assegnando loro un punteggio da a 1 a 5 per quanto concerne l’incidenza del tema XaaS sul business, emerge che sono proprio gli entusiasti a costituire la componente maggiore del campione con il 44%, privilegiando qui la logica pay per use. Tutti i benefici dello XaaS per il workplace All’interno dei workplace, il paradigma XaaS offre diversi vantaggi significativi. Uno dei principali è sicuramente l'incremento della flessibilità: grazie a XaaS, i dipendenti possono utilizzare strumenti e applicazioni da qualunque posto, in qualsiasi momento, e su qualunque dispositivo dotato di connessione internet. Questo agevola enormemente il lavoro da remoto e l'adozione della politica BYOD, consentendo una maggiore libertà e personalizzazione dell'esperienza di lavoro. XaaS alleggerisce anche il carico di lavoro dei reparti IT. La responsabilità della manutenzione, degli aggiornamenti e della sicurezza delle applicazioni è infatti trasferita al fornitore del servizio: ciò significa meno costi operativi e più tempo e risorse da dedicare alle funzioni principali dell'azienda, migliorando l'efficienza complessiva. La scalabilità è, infine, un grande punto di forza di XaaS. Le aziende possono facilmente adattarsi a variazioni del workload o delle necessità di business, ottimizzando le risorse a disposizione e controllando meglio le spese, senza compromettere la qualità del servizio offerto. Fonti consultate: Spherical Insight XIX ASAP Service Management Forum
I 3 punti chiavi dell’articolo: Cosa sono e quali sono le differenze tra realtà virtuale e aumentata (VR e AR) Realtà virtuale e aumentata a scuola: dati e insight I benefici di VR e AR per l’apprendimento Realtà virtuale e aumentata: un nuovo modo di apprendere Negli ultimi anni, le realtà virtuale e aumentata (anche note come VR e AR) sono entrate a pieno titolo nella didattica a scuola, offrendo a studenti e insegnanti la possibilità di vivere un’esperienza di apprendimento nuova, più stimolante e coinvolgente. Un’esperienza che rivoluziona non solo il modo di imparare e fare propri alcuni concetti, procedendo sul solco tracciato dalla didattica tradizionale, ma che permette di ampliare gli orizzonti e di sperimentare quanto appreso in prima persona. È innegabile, quindi, che il futuro dell’Education vedrà le realtà virtuale e aumentata diventare sempre più protagoniste: vediamo in che modo lo saranno per le scuole e quali sono i vantaggi che se ne possono trarre. Realtà virtuale e aumentata: definizioni e differenze La realtà virtuale (Virtual Reality o VR) è una tecnologia in grado di creare un ambiente interamente digitale e tridimensionale nel quale l’utente si immerge tramite appositi visori. Questo lo porta, di fatto, a esplorare un’altra dimensione in cui interagire con oggetti digitali, muoversi nello spazio attraverso i controller o direttamente con i movimenti del proprio corpo. La realtà virtuale è utilizzata, in ambito formativo, soprattutto per favorire l’apprendimento di competenze tecniche attraverso ambienti di lavoro simulati che permettono di esplorare determinate situazioni per poi portare quanto appreso nella realtà. È in questa prospettiva che si inserisce il cosiddetto Eduverso , ovvero uno spazio di realtà virtuale che ha come obiettivo la facilitazione dell’apprendimento tout court. La realtà aumentata (Augmented Reality o AR) è una tecnologica che consente, invece, un’esperienza parzialmente immersiva in cui si sovrappongono oggetti e informazioni digitali agli elementi del mondo reale che, di fatto, resta al centro dell'esperienza. Per esplorare la realtà aumentata non servono visori, ma bastano gli schermi, i tablet, gli smartphone e gli occhiali dedicati. Un esempio di realtà aumentata può essere legato allo studio della storia e delle arti visive: gli studenti possono rivivere eventi storici o esplorare luoghi e monumenti famosi attraverso utilizzando un QR Code o un'app dedicata, con cui visualizzare ricostruzioni digitali di siti archeologici o opere d'arte direttamente sulla scrivania della classe. Nella didattica è possibile utilizzare anche la realtà mista, che prevede una commistione tra le realtà virtuale e aumentata e crea ambienti in cui soggetti e oggetti reali e virtuali interagiscono tra di loro e con l’utente. Realtà virtuale e aumentata: trend in crescita L'interesse per la realtà virtuale e aumentata rimane solido nonostante le fluttuazioni negli investimenti nel settore, come rilevato da McKinsey. Nel corso dell'ultimo anno, secondo il rapporto, sono stati registrati almeno 7 round di investimenti di 100 milioni di dollari ciascuno, evidenziando un'impressionante fiducia nel potenziale di crescita di queste tecnologie. In particolare, il metaverso stesso è proiettato a generare un valore compreso tra i 4mila e i 5mila miliardi di dollari entro il 2030. Per quanto riguarda il sistema scolastico italiano, anche l'Osservatorio EdTech del Politecnico di Milano rileva un crescente interesse verso le tecnologie di realtà virtuale e aumentata. Su una base di 223 scuole intervistate, il 23% utilizza già queste tecnologie, mentre il 38% prevede di introdurle entro i prossimi 12 mesi. Allo stesso tempo, il 32% degli istituti indica che tali tecnologie non sono ancora state implementate, mentre il 7% non fornisce risposta in merito. Questi dati evidenziano la crescita del livello di adozione di VR e AR, suggerendo un'evoluzione significativa dell'approccio digitale all’istruzione . Al di là degli utilizzi, cosa cambia per la didattica adottando soluzioni digitali come VR e AR? Sempre secondo l’Osservatorio EdTech, primo tra tutti vi è un maggior coinvolgimento degli studenti (78%), seguito dall’inclusione di coloro che sono più introversi e/o hanno esigenze specifiche (68%) e dall’aumento dell’efficacia delle lezioni (50%). Inoltre, la realtà virtuale può aiutare a sviluppare competenze relazionali e comportamentali: in ambienti virtuali, gli studenti con esigenze particolari possono, per esempio, allenarsi a gestire situazioni di conflitto senza subire la pressione sociale di doversi confrontare con compagni e docenti. Realtà virtuale e aumentata: 3 benefici per l’apprendimento L'integrazione della realtà aumentata e virtuale offre a docenti e studenti un nuovo panorama di strumenti e risorse per arricchire l'esperienza di insegnamento e migliorare l'apprendimento, senza richiedere grandi competenze hard e soft. Tra i benefici annoveriamo: esperienze più realistiche. Le tecnologie VR e AR offrono agli studenti l'opportunità di immergersi in contesti educativi diversi tra loro, che rendono l'apprendimento più vivido e memorabile. maggior personalizzazione. Le applicazioni di VR e AR consentono di adattare la formazione a seconda delle esigenze di ciascun discente. Per esempio, gli studenti possono esplorare modelli anatomici tridimensionali per comprendere concetti biologici complessi a un livello che rispecchia le loro competenze e interessi specifici. più creatività e problem solving. Questi sistemi incoraggiano gli studenti ad affinare il pensiero laterale. Attraverso la creazione di mondi virtuali o la risoluzione di sfide interattive, gli studenti sviluppano capacità di problem solving e stimolano la creatività nel trovare soluzioni innovative. Integrare AR e VR nella scuola può dunque aprire nuove porte per l'apprendimento innovativo e la crescita degli studenti, preparandoli per sfide e opportunità in un mondo sempre più digitale. Fonti consultate: Technology Trends Outlook 2023 di McKinsey Osservatorio EdTech del Politecnico di Milano
I 3 punti chiave dell’articolo: Cosa si intende per PCaaS I 5 motivi per cui il PC as a Service conviene Come il PCaaS semplifica la realizzazione di workplace ibridi PCaaS, la svolta per l’IT Nell’attuale contesto di mercato, integrare tecnologie aggiornate, efficienti e sicure è diventato un ostacolo per le imprese, che devono fare i conti con il ritmo spedito dell’evoluzione tecnologica e le complessità di un’infrastruttura IT che spesso mal supporta le esigenze operative di ogni giorno. Per questo, per limitare il dispendio economico e di risorse, sono sempre di più le realtà che scelgono di affidarsi ai servizi gestiti anche per la dotazione informatica. Il PC as a Service o PCaaS è infatti una valida opzione per avere dispositivi sempre aggiornati, funzionanti e adeguati alle necessità interne, senza grandi investimenti iniziali. Cos’è il PCaaS e come funziona Con PC as a Service o PCaaS si intende un modello di gestione del ciclo di vita del dispositivo che prevede il pagamento di un abbonamento mensile da parte dell’azienda verso un fornitore, così da noleggiare hardware e altri servizi. Logicamente, il PCaaS è sia un’estensione del paradigma DAAS o Device as a Service, ampiamente diffuso per esempio nel mondo della stampa professionale, che un modello analogo ai numerosi as a Service utilizzati negli ultimi anni, per esempio Software as a Service (SaaS) o Platform as a Service (PaaS). Il PCaaS, come tutti i servizi di questo tipo, segue il modello Opex in cui l’azienda paga una tariffa mensile per l’utilizzo dei dispositivi e dei servizi. Questo permette di distribuire i costi in modo più armonico lungo il ciclo di vita del prodotto e di risolvere numerose incombenze relative all’utilizzo aziendale dei computer o laptop. Sarà infatti il fornitore, per esempio, a occuparsi di gestione, aggiornamento e ritiro dei prodotti giunti a fine vita. Perché il PCaaS conviene: 5 ragioni Anche se i vantaggi legati alla gestione economica, in particolare quelli legati al TCO (Total Cost of Ownership) della tecnologia sono senza dubbio interessanti, non sono l’unica ragione del successo del modello PCaaS. Ecco i 5 motivi per cui il PCaaS è una scelta ottimale per le imprese. 1. Ottimizza la gestione finanziaria Il passaggio da un modello di spesa capitale a uno operativo attraverso il modello PCaaS permette di usufruire di un flusso di cassa più gestibile e prevedibile. Questo modello abbraccia una struttura di pagamento basata su abbonamento, eliminando le spese impreviste e consentendo una pianificazione finanziaria più accurata. Inoltre, la conversione dei costi di capitale in costi operativi può offrire vantaggi fiscali, come la deducibilità delle spese operative, contribuendo ulteriormente alla riduzione del carico finanziario complessivo. 2. Sfrutta aggiornamenti regolari Con il PCaaS non bisogna più preoccuparsi dell'obsolescenza tecnologica. Il fornitore assicura l'accesso costante a dispositivi di ultima generazione e software aggiornati, senza che l'azienda debba affrontare i costi e i disagi legati alla sostituzione dell'hardware. Questo non solo aumenta l'efficienza e la produttività del lavoro ma consente anche di sfruttare le ultime innovazioni tecnologiche per mantenere un vantaggio competitivo sul mercato. 3. Fai leva su supporto e manutenzione Il modello PCaaS comprende servizi di supporto e manutenzione gestiti dal fornitore, alleviando il dipartimento IT aziendale da compiti gravosi così da concentrarsi su iniziative strategiche. Questo approccio riduce i tempi di inattività dovuti ai guasti software, mentre il rinnovo regolare dell'hardware garantisce che i dispositivi siano sempre in condizioni ottimali, minimizzando ulteriormente il rischio di interruzioni. 4. Massimizza la sicurezza Con il PCaaS, si beneficia automaticamente degli ultimi aggiornamenti di sicurezza, sia a livello hardware che software. Questo riduce il rischio di esposizione a vulnerabilità e attacchi informatici e facilita il rispetto delle relative normative, poiché il fornitore assicura che l'hardware e il software siano sempre aggiornati secondo gli standard più recenti. 5. Scegli scalabilità e flessibilità Il modello PCaaS offre infine una flessibilità ineguagliabile per adattarsi alle mutevoli esigenze di mercato. Le aziende possono infatti aumentare o ridurre il numero di dispositivi in base alla domanda, senza dover gestire fisicamente l'hardware: questo livello di scalabilità supporta sia la crescita che la contrazione temporanea delle operazioni, garantendo che l'infrastruttura IT sia sempre perfettamente allineata con le reali necessità operative. Il PcaaS per concentrarsi sulle attività a valore Appare chiaro, dunque, come il PC as a Service apra le porte a una trasformazione digitale più fluida e integrata all'interno delle aziende, permettendo non solo di navigare con maggiore agilità in un panorama tecnologico in costante evoluzione, ma anche di abbracciare in modo più efficace le pratiche di lavoro flessibile che stanno diventando lo standard in molti settori. Questo modello facilita infatti l'implementazione di politiche di smart e hybrid working, grazie alla possibilità di fornire ai dipendenti dispositivi sempre aggiornati e sicuri, indipendentemente dalla loro ubicazione geografica. Inoltre, il PCaaS stimola un approccio sostenibile alla gestione dell'hardware, con un impatto ambientale ridotto grazie al riuso e al riciclo dei dispositivi, in linea con le crescenti esigenze di responsabilità sociale d'impresa. In definitiva, scegliere il PC as a Service significa non solo ottimizzare le operazioni IT, ma anche promuovere un ambiente di lavoro più flessibile, sostenibile e orientato al futuro. Fonti consultate: Mordor Intelligence
I 3 punti chiave dell’articolo: Il problema competenze IT a scuola: di cosa si tratta Quanto serve il digitale negli istituti scolastici Come valutare il miglior computer per studenti: requisiti e specifiche Il ruolo del digitale a scuola Portare l’innovazione nella scuola è sempre un progetto articolato, che richiede attenzione in una serie di campi non solo tecnologici. Richiede, insomma, quelle stesse competenze trasversali che con sempre più frequenza si cercano di trasmettere agli studenti. Il miglior computer per la scuola, infatti, non è solo tecnologicamente avanzato, ma deve tenere conto di altre caratteristiche, in particolare quando si tratta di allestire, o rinnovare, le attrezzature informatiche. Si tratta di un trend che oramai fa parte del mercato Education: il digitale svolge, a livello europeo e italiano, un ruolo sempre più rilevante non solo in quanto strumento didattico, ma anche in quanto opportunità professionale futura per gli allievi. Scuola e digitale, la mancanza di competenze Nonostante il digitale sia presente in modo pervasivo anche a livello progettuale (si pensi per esempio al Piano Nazionale Scuola Digitale), l’Italia mostra ancora forti carenze in questo ambito. Carenze infrastrutturali e di dotazioni che, inevitabilmente, hanno il loro impatto sulle competenze acquisite: si pensi che la prevalenza delle competenze informatiche tra gli adolescenti italiani resta inferiore rispetto ai loro pari nella maggior parte dei Paesi UE. La soluzione passa dunque anche dalle attrezzature: solo con i dispositivi adeguati gli allievi saranno in condizione di migliorare le proprie skill digitali – a partire dal computer. Miglior computer per studenti: le caratteristiche tecniche A differenza di quanto si potrebbe pensare, le specifiche tecniche per i computer per studenti non hanno un ruolo fondamentale nella programmazione didattica. Documenti come il Piano Scuola 4.0, per esempio, non li esplicitano. Del resto, con l’evoluzione tecnologica sempre più rapida, questo rischierebbe di rendere obsoleti gli stessi programmi molto in fretta. Come orientarsi, quindi, per scegliere il migliori computer per gli studenti? Vediamo alcuni requisiti di base che occorre tenere a mente. Processore di ultima generazione. I vendor classificano di solito i propri processori in fasce di potenza, per esempio i3 o i5 che possono essere adatti per l’uso scolastico. Bisogna poi prestare attenzione alla generazione: oggi siamo giunti alla quattordicesima. Per chiarire, un processore i5 di quinta generazione, per esempio, è molto più datato e meno performante di un i3 di quattordicesima, nonostante l’apparente differenza di fascia. Dischi fissi. Oggi quelli allo stato solido sono un must-have per ogni sistema operativo, ma sarebbe preferibile orientarsi su quelli di tipo NVME, ancora più veloci e adatti per i prossimi anni. La capacità di riferimento, per un PC scolastico condiviso, dovrebbe essere di almeno 250 GB. Risoluzione dello schermo. Per i computer desktop la risoluzione di riferimento è Full HD, che si adatta anche a schermi di medie dimensioni. Per i portatili entry level si può considerare accettabile una risoluzione leggermente inferiore, per esempio HD, soprattutto per gli schermi con dimensioni fino ai 15 pollici. Un altro aspetto da considerare è la portabilità degli strumenti per gli studenti. Se i laboratori informatici sono ancora centrali per l’insegnamento delle materie più strettamente legate all’uso del computer, bisogna anche considerare che oggi il digitale dovrebbe costituire un supporto all’intera didattica. Gli studenti, quindi, dovrebbero avere accesso ai propri dispositivi durante tutto il periodo formativo. Nel caso di scuole primarie e medie, è preferibile puntare su soluzioni di tipo tablet o 2-in-1 che possano essere trasportati senza difficoltà e con pesi introno al chilogrammo. Nel caso di scuole secondarie, vanno privilegiate anche l’usabilità per lunghi periodi e l’autonomia, propendendo per soluzioni notebook. Com’è il miglior computer per studenti: resistente, flessibile e moderno Fra le altre caratteristiche da considerare troviamo anzitutto la resistenza meccanica. Si tratta di dispositivi destinati a essere trasportati spesso, utilizzati a intervalli irregolari e spesso in condizioni non ideali: occorre quindi affidarsi a notebook e tablet resistenti, per esempio, a graffi, sollecitazioni e pulizie aggressive. Inoltre, è necessario che si tratti di dispositivi flessibili sia dal punto di vista dei settori di utilizzo, che per quanto concerne la gestione di utenti e sessioni: non è raro, infatti, che questi possano essere utilizzati in condivisione da più studenti o riassegnati a persone diverse nel corso dell’anno scolastico o universitario. Sono necessari, quindi, sia un sistema operativo in grado di supportare utenze multiple, come le versioni più recenti di Windows o Android, sia sufficiente spazio di archiviazione. Inoltre, in un contesto in cui la didattica passa sempre più anche dalla multimedialità, la capacità di riprodurre audio e video di buona qualità è indispensabile. Infine, i dispositivi dovrebbero essere facilmente gestibili e riparabili, in modo da non creare disservizi prolungati in caso di guasti, rotture o in generale problemi tecnici. Per soddisfare questo bisogno si può ricorrere a piani di assistenza che prevedano garanzie prolungate e al noleggio operativo. Il miglior computer per studenti: una questione di equilibri I migliori computer per studenti sono, insomma, dispositivi equilibrati, per i quali non è necessario prendere in considerazione le sole specifiche strettamente informatiche. La scelta del partner giusto, in grado di supportare logiche di scala e fornire strumenti di gestione adeguati, anche per gli acquisti, le forniture e le eventuali riparazioni o sostituzioni, costituisce senza dubbio un importante valore aggiunto, per garantire agli studenti un livello di servizio che li aiuti nelle sfide della didattica moderna. Fonti consultate: Piano Nazionale Scuola Digitale Openpolis
I 4 punti chiave dell’articolo: Cos’è l’IT service management Processi e ruoli dell’IT service management Perché serve un provider di servizi gestiti L’analisi costi-benefici dell’IT service management Cos’è l’IT service management In termini generali, l’espressione IT service management o ITSM comprende tutte le modalità con cui le aziende erogano i servizi IT ai propri clienti interni e/o esterni. ITSM è dunque un insieme di processi, attività, policy e strumenti che definiscono il modo con cui fornire, monitorare e supportare un insieme eterogeneo di servizi relativi alle risorse aziendali hardware e software. La necessità di un approccio strutturato alla gestione dei servizi IT dipende da un fattore cruciale: le aziende sono sempre più vincolate alla tecnologia per svolgere le proprie attività quotidiane. L’IT service management entra in azione in una moltitudine di casi, che vanno dalla fornitura di un laptop nuovo ai dipendenti alla segnalazione di problematiche di diversa natura, senza dimenticare i processi di gestione di tutti gli asset infrastrutturali e applicativi e il mare magnum delle richieste di supporto da parte del personale (Service Desk IT). Erogare servizi di qualità, reattivi ed efficienti non va solo a beneficio della divisione IT, ma di tutto il business aziendale. Anzi, è opinione diffusa che uno dei benefici di ITSM sia proprio il miglior allineamento dei servizi IT agli obiettivi di alto livello dell’azienda. I framework dell’IT service management In quanto approccio strutturato per la gestione del ciclo di vita dei servizi IT, l’IT service management si basa su framework di riconosciuta efficacia, che oltre a fornire indicazioni e linee guida per la progettazione e l’erogazione dei servizi, sono il punto di riferimento per tutto il tema del monitoraggio e del supporto. Veri e propri riferimenti in quest’ambito sono ITIL, COBIT, MOF (Microsoft Operations Framework), Six Sigma, CMMI e ISO 20000. Da non dimenticare poi i principali processi ITSM, con cui si intendono tutte quelle attività che supportano l’attività dell’IT e che sono parte dei framework già menzionati. Tra queste, la gestione di richieste di servizio (Service Request), degli incidenti (Incident), delle modifiche (Change), delle configurazioni (Configuration), delle competenze e del miglioramento continuo. Perché ricorrere all’IT service management Adottare framework e pratiche ITSM all’interno di un’organizzazione determina dei benefici tangibili che impattano direttamente sulla sua competitività. Può essere utile, quindi, capire come incide l’IT service management su due aree: il business e l’IT. 1. I vantaggi per il business L'adozione di un solido framework di IT service management, supportato da strumenti di ultima generazione, migliora l'efficienza operativa dell’azienda, data l’ormai pressoché totale digitalizzazione di processi e attività. In particolare, le richieste vengono eseguite in tempi brevi e si riducono i tempi di fermo dei servizi, con la conseguenza di una maggiore produttività. Inoltre, ITSM migliora la soddisfazione degli utenti e dei clienti grazie alla maggior affidabilità dei servizi, che comporta anche un supporto tempestivo e di qualità. L’azienda diventa più agile nell’adattarsi ai cambiamenti, risparmia sui costi dovuti alle inefficienze e ottiene la certezza di conformità alle policy e ai regolamenti cui è soggetta. 2. I vantaggi per l’IT L'implementazione di un sistema ITSM porta a una migliore gestione delle risorse IT e a una maggior trasparenza operativa. L’IT service management fornisce infatti strumenti e processi strutturati per il monitoraggio e la misurazione delle performance dei servizi, consentendo all'IT di identificare rapidamente le aree di miglioramento. Inoltre, ITSM favorisce la scalabilità dei processi, riduce i tempi di risposta a incidenti e problematiche, e crea più collaborazione e allineamento tra i vari team IT. IT service management, quantificare le opportunità con l’analisi costi-benefici Abbiamo precedentemente identificato i principali benefici che spingono le aziende ad adottare approcci strutturati (secondo framework definiti) per la gestione dei servizi IT. Ma per quantificare la reale opportunità, che potremmo tradurre con un concetto generico di convenienza ad agire in tal senso, occorre metterli in relazione ai costi di cui l’azienda si deve fare carico. In primis, i costi possono essere suddivisi in diverse categorie, in particolare quelle dell’implementazione e della gestione dei servizi. Nella prima rientrano senza dubbio la formazione in questo ambito, le eventuali consulenze specialistiche, il disegno dei processi e, aspetto tutt’altro che secondario, l’adozione di specifiche piattaforme tecnologiche del mondo ITSM, che supportino – anche tramite tecnologie innovative – tutte le attività che costituiscono il servizio. Un’altra sfida importante, poi, è la necessità di ristrutturare i processi interni per adattarli ai dettami ITSM, che può comportare delle spese aggiuntive legati alla gestione del cambiamento e all'integrazione con altri sistemi aziendali. I costi di gestione sono poi principalmente legati al personale, che va supportato con attività di formazione continua e di perfezionamento delle skill, ma anche con sistemi che automatizzino le procedure manuali più routinarie; vi rientrano poi la manutenzione e l’aggiornamento dei tool nonché tutta l’area del monitoraggio, del miglioramento continuo e dell’auditing dei processi, finalizzata a garantire la conformità alle best practice ITSM. Il quadro si completa con la categoria dei costi nascosti, tutt’altro che semplice da inquadrare: vi rientrano, per esempio, quelli relativi al disengagement dei dipendenti in chiave di produttività. IT service management e il ruolo del provider di servizi gestiti Pur con tutta la complessità sottostante, procedere a una quantificazione delle voci di costo e dei benefici è la strada maestra per comprendere l’effettiva opportunità di ITSM nel contesto aziendale. Ma la trasformazione interna non è l’unica strada percorribile: delegare la gestione dei servizi IT a un Managed Service Provider (MSP) offre vantaggi come l'accesso immediato a competenze specializzate e a un’infrastruttura avanzata senza dover sostenere i costi di investimento iniziali e di gestione continua. Buona parte delle voci di costo identificate precedentemente viene così sostituita con una tariffa mensile accompagnata da livelli di servizio chiari e ben definiti. Spesso, questa può essere la strada maestra con cui usufruire dei vantaggi di servizi correttamente strutturati aumentando al tempo stesso il livello di sostenibilità economica, e quindi di opportunità. Fonti consultate: MarketsandMarkets
I 3 punti chiave dell’articolo: Green Computing: cos’è e come funziona Qual è il mercato del Green Computing Cosa cambia per le imprese e i device ICT Cos’è il Green Computing In linea con le esigenze di un mondo sempre più attento al benessere della società e alla salute del pianeta, il Green Computing ha abbandonato da tempo le quinte dell’innovazione e oggi, ben assestato sul palcoscenico della Digital Transformation, rappresenta una delle più interessanti e promettenti frontiere del futuro. Di cosa parliamo nel concreto? Traducibile in italiano come informatica verde, il Green Computing è un approccio del tutto nuovo che estende la sostenibilità all’universo ICT. In pratica parliamo di metodologie e best practice volte a ridurre l’impatto ambientale dei sistemi informatici, hardware e software, in ogni fase del loro ciclo di vita: dalla progettazione alla realizzazione, sino alla gestione operativa. Il tutto con un triplice obiettivo: migliorare l’efficienza energetica, ridurre le emissioni di carbonio e minimizzare l’utilizzo delle risorse naturali. Green Computing ed emissioni CO2: come cambia il panorama IT Per approfondire Green Computing è necessario, però, partire dalle ragioni che ne hanno imposto lo sviluppo, dati alla mano. Interessante, in questo senso, il report di Capgemini: l’impronta di carbonio delle imprese è destinata a espandersi in futuro, sotto la spinta della crescente domanda di potenza di calcolo e di archiviazione dei dati. La ricerca puntualizza anche che, entro il 2025, il numero di dispositivi connessi raggiungerà i 55,7 miliardi, il 75% dei quali su piattaforma IoT. Di conseguenza, i dati IoT generati passeranno dai 18,3 zettabyte del 2019 ai 73,1 zettabyte del 2025, imponendo di conseguenza una più alta richiesta di data center e tecnologie di intelligenza artificiale. In questo scenario, le operazioni dei data center impongono un maggior dispiego energetico - secondo l’IEA, loro sono responsabili dell’1% delle emissioni globali di gas serra legate all’energia - mentre la produzione, la gestione e lo smaltimento dei dispositivi elettronici determinano tuttora un impatto ambientale di primissimo piano. Su questo tema è interessante anche il contributo di McKinsey: secondo il report The Green IT Revolution, oggi l’uso dei dispositivi aziendali in tutto il mondo ha un impatto pari a 350-400 megatoni di gas equivalenti all’anidride carbonica (CO2e), ovvero l’1% di tutte le emissioni di gas serra. Secondo lo studio, il comparto che contribuisce maggiormente alle emissioni Scope 2 e 3 legate alla tecnologia è sicuramente il settore media, comunicazione e servizi. Il contributo della tecnologia aziendale alle emissioni totali è particolarmente elevato, poi, per le assicurazioni (45% delle emissioni totali nello Scope 2) e per i servizi bancari (36%). Perché ricorrere al Green Computing Se, da un lato, è vero che le organizzazioni non considerano le emissioni di CO2 come fonte di di preoccupazione, come lo stesso studio Capgemini conferma, è altrettanto vero che è necessaria una misura di riduzione della propria carbon footprint, in linea con le richieste dei regolatori, del mercato e degli stakeholder. Non a caso, il 78% delle aziende, secondo il report, prevede di diminuire un quarto dell’impronta carbonica con l’IT Sostenibile nei prossimi tre anni. Ed è qui che emerge come cruciale il ruolo del Green Computing. Grazie a un approccio sostenibile alla progettazione, all’uso e allo smaltimento dell’hardware e del software informatico, nonché alla progettazione dei processi aziendali correlati, è infatti possibile allineare il patrimonio IT alle esigenze ESG dell’impresa, contribuendo positivamente agli obiettivi ambientali e climatici, accelerando la transizione verso l’economia circolare e attuando nuovi modelli di business sostenibili e resilienti. I dispositivi ICT nell’era del Green Computing Nel concreto, cosa cambia a livello ICT? Il Green Computing è un approccio che ridisegna i sistemi IT nel loro complesso, con focus su alcune strategie chiave. Revisione dell’intero ciclo di vita dei dispositivi. In fase di produzione e design, ad esempio, si fanno strada il ricorso a materiali ecocompatibili e la riduzione di sostanze nocive. Vengono inoltre promossi il riciclo dei dispositivi obsoleti e l’efficienza energetica dei dispositivi con tecnologie a basso consumo, come processori efficienti e componenti a bassa potenza. Inoltre, l’implementazione di politiche di risparmio energetico, come la gestione intelligente dell’alimentazione e la regolazione delle impostazioni di risparmio energetico, può contribuire a una significativa riduzione dei consumi. Ideale, in questa prospettiva, affidarsi alla logica As A Service. Adozione del cloud computing. Grazie ai servizi cloud – fondamentali per i nuovi workplace digitali - che permettono la condivisione delle risorse e l’ottimizzazione dell’utilizzo dei server, è possibile ridurre l’impatto ambientale del patrimonio IT e il consumo energetico complessivo. Uso di tecnologie innovative. Tecnologie avanzate come l’Edge AI aiutano a migliorare l’efficienza operativa e ridurre gli sprechi. L’AI offre poi anche un importante contributo nell’ottimizzazione del raffreddamento dei data center, riducendo così i consumi. L’adozione di questo insieme di pratiche, da accompagnare poi a politiche sostenibili in ambito ESG, rappresenta la grande sfida del Green Computing. Le imprese si trovano così fra le mani lo strumento che può aiutarle, da un lato, a minimizzare l’impatto ambientale del patrimonio IT e, dall’altro, ad avere un ruolo attivo nella transizione verso un’industria più sostenibile: due passi che il mercato oggi vede come punti di forza e che in futuro saranno rivelarsi decisivi nella grande partita per il posizionamento di mercato. Fonti consultate: Report Sustainable IT, Capgemini IEA Report The Green IT Revolution, McKinsey
I 4 punti chiave dell’articolo: Cos’è il gemello digitale Come funziona il gemello digitale Il mercato dei digital twin Come potenzia la manutenzione predittiva Che cos’è il gemello digitale o digital twin Tra le tecnologie più di interesse per le aziende e con più alto potenziale trasformativo vi è sicuramente oggi il gemello digitale. Proprio come il nome suggerisce, si definisce gemello digitale o digital twin una replica virtuale di un oggetto, sistema o processo fisico che - grazie a tecnologie quali intelligenza artificiale (AI) e Internet of Things (IoT) - permette di monitorare, simulare e ottimizzare le prestazioni in tempo reale. In un contesto di mercato in cui digitalizzazione e sostenibilità sono due importanti driver di cambiamento, le imprese guardano con sempre maggiore interesse a tecnologie come il gemello digitale che consentono di rendere più fluidi i processi riducendo, al contempo, inefficienze e costi, così come l’impatto ambientale del business. E sono proprio questi alcuni dei vantaggi del gemello digitale: dalla progettazione dei prodotti, al loro aggiornamento, fino alla gestione del loro fine vita. Oltre a ridurre tempi e spese legate al processo d’innovazione, il gemello digitale mostra un grande potenziale anche nella gestione degli asset e, in particolar modo, nella manutenzione predittiva. Come funziona il gemello digitale Nell’ambito industriale, il concetto di gemello digitale si riferisce alla creazione di una replica virtuale estremamente dettagliata, che può rappresentare un singolo prodotto, un processo specifico, un macchinario o persino un intero stabilimento produttivo. Questa tecnologia si basa su un modello computerizzato che sfrutta i dati raccolti dal mondo reale per simulare con precisione il comportamento e le performance dell’oggetto fisico corrispondente. Grazie a questa capacità, diventa possibile monitorare e analizzare in tempo reale le condizioni di un asset, consentendo un controllo ottimale di prodotti, macchinari o processi produttivi. Il funzionamento del gemello digitale si avvale inoltre dell’apporto di algoritmi di intelligenza artificiale, che analizzano i dati per prevedere come variazioni specifiche, quali aggiornamenti o miglioramenti, possano influire sull’asset nel suo ambiente virtuale. Questo approccio permette di testare scenari diversi in modo sicuro e senza rischi per l’asset fisico, facilitando decisioni basate su dati concreti. Il valore aggiunto del gemello digitale sta però nella sua natura dinamica: non è una semplice fotografia statica, ma un modello in continua evoluzione, che si aggiorna e si adatta man mano che vengono raccolti nuovi dati. Questo sistema integra informazioni provenienti da diverse fonti, arricchito da analisi predittive e visualizzazioni, per offrire un quadro sempre aggiornato e accurato dell’asset fisico. In questo modo, il gemello digitale diventa uno strumento indispensabile per l’ottimizzazione continua e l’innovazione nei processi industriali, guidando le aziende verso un futuro sempre più efficiente e sostenibile. Come funziona la manutenzione predittiva con il gemello digitale La manutenzione predittiva è un approccio basato su raccolta e analisi dei dati per prevedere quando un componente o un sistema avrà bisogno di manutenzione, al fine di evitare guasti improvvisi e interruzioni all’operatività. Il gemello digitale ha un ruolo chiave in questo processo, in quanto permette di monitorare costantemente le condizioni dell’oggetto o del sistema nel mondo virtuale. Utilizzando i dati in tempo reale raccolti dai sensori e dai dispositivi di monitoraggio, il gemello digitale può identificare anomalie o cambiamenti nelle prestazioni, avvisando tempestivamente gli operatori di potenziali problemi imminenti. I dati che provengono dall’asset fisico vengono poi analizzati e comparati con lo storico delle anomalie passate: gli insight che ne derivano sono impiegati sia per prevedere futuri malfunzionamenti - e quindi organizzare gli interventi manutentivi - che per guidare gli operatori nella risoluzione dei problemi. Gemello digitale, la panoramica di mercato L’applicazione in ambito manutentivo è uno dei driver che guiderà la crescita del mercato, anche se le aziende stanno investendo nel gemello digitale proprio per la sua capacità di apportare vantaggi anche in altre aree del business. Secondo un rapporto di Capgemini - che ha analizzato l’adozione dei digital twin in 1000 aziende di diversi settori - già nel 2022 circa l’80% delle aziende aveva implementato programmi per introdurre questa tecnologia. Secondo il rapporto, le organizzazioni sono intenzionate ad aumentare l’adozione dei gemelli digitali in media del 36% nei prossimi cinque anni. Un livello di adoption che stimolerà la crescita del mercato, che nel 2020 valeva circa 5 miliardi di dollari e che, si prevede, crescerà con un CARG del 35% nel periodo 2021-2027. E tra i vantaggi in termini di produzione che favoriscono gli investimenti, si contano la riduzione dei costi (per il 79% degli intervistati) e il miglioramento dell’efficienza operativa (71%). Inoltre, per il 69% delle imprese, la capacità di prevedere comportamenti futuri degli asset rientra tra i servizi basati sui dati più impattanti offerti dal gemello digitale. Tra le aziende intervistate, un’importante realtà in ambito dell’aviazione è riuscita ad estendere l’intervallo tra gli interventi di manutenzione necessari del 50%. Manutenzione sempre più predittiva e intelligente grazie al gemello digitale A guidare la crescita delle applicazioni in ambito industriale ci sono anche ulteriori progressi delle tecnologie connesse ai gemelli digitali: il miglioramento degli algoritmi di intelligenza artificiale e machine learning stanno rendendo questi sistemi in grado di fare previsioni sempre più accurate. Ciò consente alle aziende di arrivare a un punto in cui diventa possibile ridurre a zero i fermi macchina non pianificati e ottimizzare gli interventi di manutenzione in modo che avvengano quando ve ne è effettivamente la necessità. I macchinari e i processi possono quindi diventare ancora più affidabili ed efficienti, da un punto di vista energetico e ambientale. Inoltre, progressi nel campo delle tecnologie immersive, come la realtà virtuale e aumentata, così come l’integrazione dell’intelligenza artificiale generativa guideranno gli interventi di manutenzione a favore di maggiore semplicità, velocità ed efficienza. Fonti consultate: Capgemini
I 3 punti chiave dell’articolo: Cos’è l’Endpoint Protection e come funziona Il ruolo della protezione degli endpoint nel lavoro ibrido Qual è il mix ideale di tecnologie e funzionalità di Endpoint Protection Cos’è l’Endpoint Protection e perché è essenziale Con l’espressione Endpoint Protection si intende l’insieme di attività atte a proteggere tutti i dispositivi che accedono alle risorse aziendali. Nel comune ambiente lavorativo, il termine endpoint racchiude principalmente i PC desktop e i laptop, ma anche gli smartphone e i tablet, che con la transizione ai modelli di lavoro moderni sono diventati indispensabili strumenti di produttività. Alla luce di questa prima definizione, l’Endpoint Protection si rivela subito come uno dei pilastri delle strategie aziendali di sicurezza informatica, insieme alla salvaguardia di reti, identità e dati. La protezione degli endpoint ha sempre avuto un ruolo chiave nel panorama digitale, anche quando l’antivirus era l’unico (o il principale) baluardo contro le minacce interne ed esterne. Tuttavia, ciò che l’ha resa davvero essenziale è stata l’adozione di modelli di lavoro ibridi; oggi, infatti, i professionisti accedono alle risorse aziendali al di fuori della LAN, e perdono così la sua protezione. Endpoint Protection e lavoro ibrido: le sfide Il lavoro ibrido ha creato sfide totalmente inedite nell’attuale contesto di mercaato. Il rischio principale sta nell’accesso, da parte degli utenti aziendali, alle risorse interne attraverso dispositivi non aggiornati o reti non sicure. Inoltre, sussiste anche il rischio – secondario, ma ugualmente importante -che vengano memorizzati dati e contenuti riservati su device non sicuri, generalmente impiegati a scopo personale o in condivisione con altri utenti. Questi motivi sono più che sufficienti per obbligare le imprese a un constante monitoraggio degli endpoint, che di fatto devono diventare il primo baluardo della sicurezza aziendale. A maggior ragione, in un panorama in cui le principali minacce cyber, dai ransomware al phishing, passano proprio dai dispositivi di produttività. Endpoint Protection nel lavoro ibrido: serve una strategia Come detto, il mondo del lavoro è cambiato e questo crea nuove sfide. I dispositivi sono sempre di più, c’è una pericolosa commistione di strumenti aziendali e personali, nonché un accesso anywhere, anytime e any device a risorse aziendali anche critiche. Il tema va affrontato a tutti i livelli perché l’Endpoint Protection non è la soluzione a ogni problema di sicurezza; è un tassello, sia pur centrale, di una strategia più ampia di sicurezza informatica che coinvolge le persone, i processi, la cultura e, infine, gli strumenti di protezione. A titolo d’esempio: Gli endpoint vanno aggiornati tempestivamente con tutte le patch di sicurezza e, a tal fine, vengono in soccorso soluzioni di Unified Endpoint Management; Occorre definire policy di accesso alle risorse aziendali e di utilizzo dei device personali (BYOD, Bring Your Own Device); Occorre investire in percorsi di Security Awareness, ovvero in formazione sulle minacce e sulle best practice di sicurezza IT. Andando più nel dettaglio sull’Endpoint Protection in senso stretto, questo si sostanzia in un mix di due tipologie di difese: quelle che agiscono a livello di rete e quelle relative all’endpoint di turno e quelle che agiscono a livello di rete. Nel primo caso, l’azienda può (e dovrebbe) inibire l’accesso alle proprie risorse (dati, informazioni, app e documenti) sulla base di una serie di parametri definiti nelle policy generali di sicurezza. Nel secondo caso, le soluzioni più comuni sono piattaforme centralizzate che, mediante dei software agent installati negli endpoint, monitorano il loro comportamento, evidenziano situazioni anomale, impediscono azioni contrarie alle policy di sicurezza e, in senso lato, prevengono errori e li proteggono da minacce provenienti dall’esterno- specialmente nell’era del workplace digitale. A seconda dell’estensione funzionale, le soluzioni disponibili possono essere di quattro tipologie. Endpoint Protection and Response (EDR). Advanced Threat Protection (ATP). Endpoint Protection Platform (EPP). Extended Detection and Response (XDR). Endpoint Protection, come difendere i dispositivi di lavoro La protezione degli endpoint si concretizza, dunque, in una combinazione di tecnologie e di funzionalità, dalla cui integrazione e sinergia è possibile creare una soluzione sistemica efficace. Il punto di partenza, nonché derivazione diretta dell’antivirus tradizionale, è costituito dalle funzionalità anti-malware, che sempre più spesso si basano (anche) sull’analisi del comportamento dell’endpoint anziché affidarsi unicamente alle firme (signature) dei virus. L’analisi del comportamento è peraltro l’unico modo possibile per difendere un endpoint dalle minacce zero-day, ovvero da quelle non ancora conosciute. Non si può parlare di Endpoint Protection senza implementare la crittografia dei dati e meccanismi di conformità alle policy aziendali. Come detto, questo significa permettere l’accesso ai dati, ai sistemi e alle applicazioni previo soddisfacimento di apposite regole di compliance. Complice poi il ricorso sempre più frequente al lavoro ibrido, l’evoluzione degli strumenti di Endpoint Protection è molto serrata. Un’ottima piattaforma fa largo uso dell’automazione non soltanto per identificare tempestivamente le minacce, ma anche per attivare risposte istantanee; questo, oltre a migliorare la postura generale di sicurezza, ha un impatto positivo anche sui costi e sul coinvolgimento delle risorse specializzate, che possono essere impiegate per gestire solamente i casi dubbi o più complessi. Infine, ma non per importanza, da qualche anno si sta facendo strada anche in quest’ambito l’intelligenza artificiale, e in particolare il machine learning e l’Edge AI, che permette alle aziende di adottare un approccio predittivo per le minacce cyber. In termini pratici, ciò significa essere in grado di identificare e di gestire possibili minacce prima che si verifichi un vero e proprio incidente e senza compromettere la produttività aziendale. L’obiettivo, infatti, è esattamente questo: bilanciare produttività e sicurezza. Fonti consultate: NCC Group Verizon Statista