Home Autori Articoli di Dario Colombo

Dario Colombo

14906 ARTICOLI 25 COMMENTI

L’importanza del test del dominio: come difendersi da spoofing e attacchi email

Per il management IT la sorveglianza e il test del dominio devono spostarsi dall’esser un approccio reattivo a una strategia di intelligence proattiva.

Vale pena ricordare che il dominio è la denominazione che consente l’identificazione di un’organizzazione su Internet. Esso costituisce l’indirizzo attraverso cui utenti, clienti e partner accedono al sito web e ai servizi digitali dell’azienda, e viene impiegato anche quale base degli indirizzi di posta elettronica istituzionali.

Per un’azienda, infatti, il nome a dominio non è solo un indirizzo tecnico, ma l’equivalente digitale della brand reputation e dell’identità legale. È l’asset che genera fiducia e garantisce l’autenticità delle comunicazioni.

Nel panorama delle minacce, in cui gli attacchi di social engineering (phishing in primis) sono il vettore di accesso principale, il dominio è diventato il bersaglio esogeno preferito dai criminali.

Il loro obiettivo non è violare il server aziendale, ma impersonare l’azienda per ingannare clienti, partner o, peggio, dipendenti, ottenendo l’accesso a informazioni o risorse critiche.

Perché è importante il test del dominio: difendersi da phishing e spoofing

La falsificazione dell’identità di dominio è la base per la maggior parte degli attacchi al fattore umano. Sebbene il phishing sia il vettore di attacco più comune, i criminali non si limitano a inviare e-mail generiche.

L’attaccante registra domini quasi identici (domain squatting), capitalizzando sulla distrazione o sull’urgenza percepita dal dipendente. Questi furti di credenziali alimentano il mercato nero del dark Web, dove le informazioni sono scambiate e riutilizzate per nuove frodi.

Inoltre, attacchi sofisticati come il Business E-mail Compromise (BEC) sfruttano la falsificazione del mittente (spoofing) per frodi finanziarie o per estorcere dati sensibili. Questi attacchi fanno apparire l’e-mail come proveniente da un dominio aziendale legittimo.

Per contrastare lo spoofing, protocolli di autenticazione e-mail come DMARC (Domain-based Message Authentication, Reporting and Conformance) sono fondamentali, ma richiedono una configurazione e un monitoraggio attenti.

L’inganno non è limitato alla posta elettronica: il vishing (Phishing Vocale) e lo smishing (via SMS) sono in aumento e sfruttano la manipolazione del numero o dell’alias per ottenere informazioni sensibili.

Partecipa alla survey e ricevi la guida pratica alla cybersecurity

Il test del dominio come strumento di intelligence proattiva

Di fronte a queste minacce, la sicurezza passiva è insufficiente. Il test del dominio è l’attività proattiva che consente all’azienda di proteggere la propria identità e Brand Reputation.

Il test del dominio non si ferma all’interfaccia web; analizza in profondità la configurazione dei servizi associati:

  • Identifica i domini clone (Domain Squatting) registrati dai criminali, prima che vengano utilizzati per lanciare campagne di Phishing e danneggiare la reputazione.
  • Scova vulnerabilità nel DNS, nel server FTP o nell’e-commerce, che potrebbero essere sfruttate per attacchi avanzati come il DNS Cache Poisoning.
  • Controlla la configurazione di protocolli di sicurezza come DMARC, per contrastare la falsificazione del mittente (spoofing).

L’esecuzione del test del dominio e l’analisi dei risultati richiedono strumenti che non si limitino a una scansione una tantum. La complessità degli attacchi esige l’analisi in profondità dell’esposizione di tutti gli asset digitali.

Soluzioni come TeamSystem Cybersecurity sono state concepite per questo, offrendo una specifica funzionalità di check di dominio avanzato che esegue un’analisi puntuale su domini, server e-commerce e asset critici.

Questo supporta il management nell’individuare in anticipo le criticità, nel tradurle in metriche di rischio e nel preparare la documentazione necessaria per la governance.

Difesa tecnica: le misure essenziali post test

I risultati del test del dominio devono guidare un piano di remediation tecnico e strategico per rafforzare l’infrastruttura.

L’adozione di estensioni di sicurezza come DNSSEC è cruciale per prevenire attacchi di cache poisoning. Il DNSSEC garantisce l’autenticità delle risposte DNS, impedendo che gli utenti vengano reindirizzati a siti malevoli anche digitando l’URL corretto.

È responsabilità del management distinguere e promuovere l’uso dei Certificati di Validazione Estesa, che richiedono verifiche legali sull’entità richiedente, in contrapposizione ai semplici certificati DV, sfruttati dai siti di phishing HTTPS.

La difesa finale resta comunque il fattore umano: implementare la MFA per tutti gli account e garantire una formazione continua (Security Awareness Training) sono passaggi non negoziabili per mitigare l’errore umano.

Non sottovalutare l’anello debole dell’identità legale

Per l’IT manager la difesa del dominio aziendale è un imperativo di compliance normativa e una garanzia di resilienza operativa.

Il test del dominio è l’unico modo per avere piena consapevolezza del rischio esogeno, trasformando la sicurezza da costo a investimento di intelligence proattiva. La protezione dell’identità digitale del dominio è un requisito esplicito di Risk Management imposto dalla NIS2.

TeamSystem Cybersecurity supporta l’operatività di questa difesa, trasformando i risultati del test del dominio in azioni di remediation e monitoraggio continuo, essenziali per la governance del rischio del management IT, permettendo all’azienda di concentrarsi sul core business sapendo di avere una difesa proattiva attiva sull’identità digitale.

Partecipa alla survey e ricevi la guida pratica alla cybersecurity

Sap: con l’AI generativa nasce l’autonomous enterprise in Italia

L’incertezza, le sfide globali e la necessità di mantenere un vantaggio competitivo spingono le aziende a cercare alleati tecnologici che vadano oltre la semplice digitalizzazione: è in questo scenario che l’AI generativa si consolida non più come un trend, ma come una leva strategica fondamentale.

I dati emersi dal Sap Now AI Tour di Milano, uniti a quelli della ricerca “Business and Technology Priorities” che ha coinvolto 575 decision maker italiani, delineano un quadro chiaro: l’AI generativa è il catalizzatore di una profonda trasformazione aziendale.

Per quasi la totalità del campione intervistato (il 93%), infatti, l’adozione della AI generativa rappresenta una priorità medio-alta. Già oggi, il 40% delle organizzazioni la utilizza ampiamente in un ampio range di attività di business.

L’obiettivo dichiarato da Carla Masperi, Presidente e AD di Sap Italia, è chiaro: l’AI apre un nuovo modo di fare impresa, conducendo all’Autonomous Enterprise.

La presidente e AD di Sap Italia Carla Masperi al Sap Now Ai Tour di Milano mentre parla di AI generativa
Carla Masperi, Presidente e Ad di Sap Italia

Efficienza e semplificazione: le priorità B2B del 2025

La crescita delle imprese italiane si basa innanzitutto sull’efficienza. Lo studio Sap evidenzia come la quasi totalità degli intervistati (94,9%) dia priorità alla semplificazione e al miglioramento dei processi.

Questo focus non è casuale: è la risposta pragmatica all’incertezza economica. Circa il 38% dei rispondenti italiani, infatti, pianifica di investire in nuove tecnologie e tool software proprio per prepararsi alle sfide economiche future.

Le aree di investimento in tecnologia, in particolare AI generativa e Agenti AI, sono orientate a facilitare l’analisi dei dati, la creazione di contenuti e l’automazione delle attività. Il fine ultimo è ottimizzare i costi e le efficienze, ma anche creare un valore di business senza precedenti.

Le sfide per l’AI generativa: supply chain e sistemi disconnessi

Per le aziende, l’AI generativa è un mezzo per superare le debolezze interne che frenano l’agilità. Tra le sfide più urgenti percepite, le prime due riguardano direttamente l’integrazione e la fluidità operativa: interruzioni o debolezze del procurement e della supply chain, indicate dal 38,1% degli intervistati e sistemi disconnessi, citati dal 34,3% delle imprese.

Queste criticità evidenziano come la frammentazione dei sistemi ERP e gestionali rappresenti oggi uno dei maggiori ostacoli all’efficienza e alla rapidità di risposta al mercato.

Come sottolineato da Carla Masperi, maggiore è la frammentazione della suite applicativa, minore è il valore che l’AI riesce a esprimere.

Al contrario, la combinazione di app, dati e AI crea un “effetto volano” se inserita in un contesto ampio e end-to-end con coerenza semantica.

È incoraggiante notare, tuttavia, che le imprese italiane sembrano avere una solida base di partenza: oltre la metà degli intervistati (51%) si dichiara fiduciosa nell’accessibilità e nella qualità dei dati della propria organizzazione.

Questo elemento è cruciale per minimizzare il rischio principale legato all’AI, ovvero agire sulla base di informazioni errate generate dai sistemi (un rischio temuto dal 29% delle aziende).

L’AI generativa oltre l’automazione: verso l’autonomous enterprise

Il concetto di Autonomous Enterprise, promosso da SAP, non si limita all’automazione puntuale, come l’efficientamento dell’order entry. Si tratta di un modello di impresa in cui i processi sono permeati dall’AI, con agenti intelligenti che agiscono da assistenti al servizio della persona, aumentando le capacità decisionali e coordinando i task.

L’impatto della AI generativa va già oltre la semplice adozione:

  • Riduzione dei costi operativi: il 50% delle aziende segnala già risparmi significativi grazie all’AI, con la supply chain come area maggiormente coinvolta.
  • Riprogettazione dei processi: il 69,4% delle aziende che utilizzano agenti AI ha riprogettato i propri processi procure-to-pay.

L’AI generativa, in sintesi, sta dimostrando di essere lo strumento per dominare la complessità e non semplicemente gestirla, come evidenziato dalle testimonianze di successo.

Paolo Cervini, AD Gewiss, Gianfranco D'Amico, Ceo di Nutkao e Fabio Veronese, CIo di FiberCop, al Sap Now AI Tour di Milano
Paolo Cervini, AD Gewiss, Gianfranco D’Amico, Ceo di Nutkao e Fabio Veronese, Cio di FiberCop

L’AI generativa alla prova del business: i casi reali

Due esempi concreti hanno illustrato questo approccio strategico.

Paolo Cervini, AD dellla holding Polifin e di Gewiss ha evidenziato come il gruppo ha fatto leva sull’AI e sull’innovazione continua, passando dall’ERP all’IoT, per creare valore e triplicare il valore di business in cinque anni.

L’obiettivo è l’efficienza intelligente nel servire il cliente, integrando digitalizzazione e sostenibilità. L’AI è vista come un’opportunità di continuous improvement su tutta la value chain.

Gianfranco D’Amico, CEO di Nutkao, azienda che è tra i leader mondiali nelle creme spalmabili B2B e che deve gestire una complessità estrema (11.000 ricette diverse) ha rimarcato come per rimanere rapidi e innovativi l’AI sia cruciale, specialmente per la business intelligence legata alla filiera.

L’importanza della previsione degli andamenti climatici sulla produzione delle materie prime è un esempio lampante di come l’AI supporti decisioni strategiche complesse.

Il futuro è in cloud: quando la tecnologia scompare dal tavolo

Per far funzionare l’AI e abilitare l’Autonomous Enterprise, la scelta dell’architettura applicativa è fondamentale. Fabio Veronese, CIO di FiberCop, ha rimarcato come l’adozione del public cloud sia stata una scelta strategica per non essere frenati da sistemi mastodontici. Andare in green field su cloud, disaccoppiandosi dalle logiche di upgrade gestite dal fornitore , permette di concentrare l’innovazione sul business, non sui servizi IT.

In definitiva, la tecnologia vince quando la cultura cambia. L’obiettivo non deve essere la tecnologia in sé, ma il vantaggio che si ottiene quando essa “scompare dal tavolo”, diventando un fattore abilitante trasparente.

Ciò richiede un forte impegno sul chaange management e sull’upskilling continuo del capitale umano.

Non a caso, il 35,5% degli intervistati italiani inserisce lo sviluppo di competenze e talenti tra le aree prioritarie per la crescita.

L’AI generativa non sostituirà le persone, ma “le persone che non percepiscono il cambiamento“, come ha sagacemente concluso il CEO di Nutkao. Il ruolo dei leader aziendali è quindi quello di accompagnare e guidare questa transizione culturale.

Video HD per presentazioni professionali: la guida definitiva

Oggi la parola “presentazione” non significa più soltanto proiettare qualche slide su uno schermo. In un contesto aziendale sempre più competitivo e ibrido, la qualità con cui condividiamo contenuti fa la differenza tra un meeting produttivo e una perdita di tempo. È qui che entra in gioco il video HD per presentazioni professionali: non un semplice dettaglio tecnico, ma la base su cui costruire esperienze di comunicazione chiare, coinvolgenti e soprattutto affidabili.

Questa guida è pensata per chi vuole avere subito un quadro completo e pratico: quali strumenti servono, come si integrano tra loro e quali criteri considerare per non sbagliare un’installazione. L’obiettivo è mettere nelle mani di manager e system integrator tutte le informazioni necessarie per costruire oggi una sala riunioni, un’aula o uno spazio eventi in grado di garantire presentazioni fluide e di alto livello.

L’importanza del video HD nelle presentazioni professionali

Partiamo da un concetto fondamentale: un’immagine di qualità non è un vezzo estetico, ma una leva di efficacia. Quando un relatore mostra un grafico complesso, un video promozionale o una dashboard di dati, la definizione e la nitidezza del contenuto incidono direttamente sulla comprensione del messaggio.

L’alta risoluzione elimina ambiguità, riduce i fraintendimenti e amplifica la credibilità di chi parla.

Negli ultimi anni il passaggio dall’HD standard al Full HD e al 4K Ultra HD ha reso possibile una chiarezza visiva prima impensabile anche in contesti business. Oggi una soluzione professionale di video HD non si limita a “funzionare”, ma deve rispondere a criteri ben precisi: affidabilità nella trasmissione, compatibilità con diversi dispositivi, semplicità d’uso e sicurezza dei dati condivisi.

I pilastri di un sistema video HD professionale

Per realizzare un’installazione efficace non basta avere un display di grandi dimensioni. Un sistema di video HD professionale è fatto di più elementi che devono lavorare in sinergia: schermi ad alta definizione, strumenti di trasmissione cablata o wireless, telecamere dedicate alle riunioni ibride, accessori di controllo come telecomandi e puntatori, senza dimenticare il software di collaborazione. Ogni componente ha un ruolo preciso e il valore emerge dall’insieme, non dalla singola tecnologia.

Il punto di partenza è il display, che deve garantire luminosità, contrasto e definizione adeguati allo spazio in cui viene utilizzato. Una sala riunioni di medie dimensioni può richiedere un monitor da 75 pollici in 4K, mentre un auditorium avrà bisogno di proiettori professionali con ottiche intercambiabili.

Accanto al display si collocano i sistemi di trasmissione: cablati, se si privilegia la stabilità assoluta, o wireless, se si vuole flessibilità e rapidità di utilizzo.

Display e proiettori: scegliere lo schermo giusto

La scelta dello schermo è determinante per la resa complessiva. Oggi la tendenza è quella di preferire monitor professionali in 4K Ultra HD, che offrono immagini più definite anche a distanza ravvicinata. I proiettori restano fondamentali negli spazi ampi, soprattutto quando si devono coinvolgere decine o centinaia di persone.

La decisione tra monitor e proiettore dipende dal tipo di utilizzo: in un contesto aziendale con riunioni quotidiane può bastare un monitor di grandi dimensioni, mentre per eventi e centri congressi il proiettore offre maggiore scalabilità. In entrambi i casi, il criterio chiave resta la capacità di restituire il contenuto in alta definizione, senza latenza né distorsioni cromatiche.

Trasmissione del segnale: dal cablato al wireless 4K

Se fino a pochi anni fa i cavi HDMI erano l’unica garanzia di qualità, oggi i sistemi wireless hanno raggiunto livelli di affidabilità tali da poter sostituire le connessioni fisiche anche in contesti professionali. Dispositivi come lo Stream 4K Pro di Marmitek consentono di trasmettere contenuti in Ultra HD senza installazioni complesse e senza software aggiuntivo, offrendo un approccio plug & play estremamente apprezzato in azienda.

La possibilità di collegare più trasmettitori contemporaneamente rappresenta un vantaggio concreto nelle riunioni: il relatore può passare la parola a un collega con un semplice click, senza scambi di cavi o attese imbarazzanti. Inoltre, la funzione di schermo diviso permette di mostrare simultaneamente più contenuti, rendendo il confronto immediato e dinamico.

Le telecamere per videoconferenze: oltre la webcam

Con l’affermarsi delle riunioni ibride, la telecamera è diventata uno strumento imprescindibile in ogni installazione di video HD professionale. A differenza delle webcam integrate nei laptop, le conference cam offrono angoli di visione più ampi, risoluzioni elevate e microfoni integrati con cancellazione del rumore.

Un modello come la Cam 4K Pro di Marmitek è progettato per catturare con chiarezza tutti i partecipanti di una sala, garantendo un’immagine nitida e un audio cristallino. Questo si traduce in riunioni più professionali e coinvolgenti, dove la tecnologia lavora in silenzio al servizio della comunicazione.

Strumenti di controllo e interazione: telecomandi e puntatori

Non meno importanti degli schermi e delle telecamere sono gli strumenti che permettono al relatore di gestire la presentazione con naturalezza. Il telecomando per PC consente di muoversi liberamente nella sala, avanzare tra le slide, evidenziare concetti chiave e persino controllare contenuti multimediali.

Allo stesso modo, un puntatore laser avanzato offre funzioni aggiuntive come lo zoom o la modalità air mouse, trasformando l’interazione con il pubblico in un’esperienza dinamica.

Questi accessori possono sembrare marginali, ma in realtà contribuiscono a trasmettere professionalità e sicurezza. Un relatore che gestisce le slide senza esitazioni e mette in evidenza i dettagli giusti al momento giusto conquista attenzione e autorevolezza.

La configurazione di base di una sala riunioni

Mettere insieme tutti gli elementi significa definire una configurazione equilibrata. Una sala riunioni tipica dovrebbe includere: un monitor o proiettore 4K, un sistema di trasmissione wireless, una telecamera dedicata alle riunioni ibride e almeno un accessorio di controllo per il relatore. A questi si possono aggiungere microfoni ambientali o soundbar per migliorare la qualità audio, soprattutto in ambienti più ampi.

L’integrazione di questi strumenti deve essere curata per garantire un flusso di lavoro semplice. Il sistema deve accendersi in pochi secondi, collegarsi automaticamente e consentire a chiunque – manager, formatore o consulente esterno – di condividere contenuti senza dover chiedere aiuto all’IT.

Tablet che trasmette in modalità wireless grafici e dati su grande schermo in video HD, ideale per presentazioni aziendali con sistema Marmitek Stream 4K Pro.

 

Best practice per un’installazione efficace video HD

Chi progetta un sistema di video HD per presentazioni professionali deve considerare non solo la tecnologia, ma anche l’esperienza utente. È inutile avere un impianto sofisticato se i partecipanti impiegano dieci minuti a far partire la presentazione o se la connessione wireless cade a metà riunione.

Le regole fondamentali possono essere riassunte in pochi punti:

  • Puntare su soluzioni plug & play compatibili con qualsiasi dispositivo (BYOD).
  • Privilegiare sistemi che garantiscono sicurezza nella trasmissione, con connessioni criptate e pairing protetto.
  • Effettuare sempre un test preventivo prima di meeting importanti, per evitare imprevisti.

Seguendo queste linee guida si crea un ambiente professionale in cui la tecnologia diventa trasparente e la comunicazione scorre senza intoppi.

Dal dettaglio tecnico al vantaggio competitivo

Un’installazione di video HD per presentazioni professionali non è solo una questione di hardware. È un investimento strategico che incide sulla produttività, sulla qualità delle decisioni e persino sull’immagine aziendale. Una sala riunioni ben progettata trasmette ordine, modernità e attenzione ai dettagli: elementi che i clienti e i partner percepiscono immediatamente.

Chi deve scegliere queste soluzioni – manager, responsabili IT o system integrator – ha oggi a disposizione strumenti maturi, affidabili e facili da utilizzare.

La sfida non è più tanto trovare la tecnologia giusta, ma integrarla in un ecosistema che funzioni per le persone. Perché, alla fine, la vera efficacia di un sistema video HD professionale si misura in questo: la capacità di rendere ogni presentazione chiara, coinvolgente e memorabile.

Esplora la gamma completa delle soluzioni Marmitek 

Video HD per presentazioni professionali: strumenti avanzati e riunioni ibride

Se sinora abbiamo definito i pilastri di un’installazione di video HD professionale, è ora il momento di spingerci oltre e scoprire come la tecnologia possa arricchire l’esperienza delle presentazioni. Oggi, infatti, non basta proiettare un contenuto in alta definizione: il vero valore sta nella capacità di integrare più utenti, più dispositivi e, soprattutto, di connettere in modo fluido chi è in sala con chi partecipa da remoto.

Le riunioni ibride hanno reso indispensabile un ecosistema in cui presentazione e videoconferenza si intrecciano senza soluzione di continuità.

È qui che entrano in gioco strumenti avanzati come la condivisione simultanea di più schermi, la compatibilità BYOD, le telecamere intelligenti e le funzioni interattive che trasformano un meeting in un’esperienza realmente collaborativa.

Il ruolo del video HD nelle riunioni ibride

L’adozione di modelli di lavoro “phygital”, in cui parte del team si trova in sala e parte è collegata da remoto, ha reso evidente un fatto: senza un sistema video HD professionale, la qualità della collaborazione crolla. Un’immagine poco chiara o un audio disturbato compromettono la partecipazione e creano una frattura tra chi è presente e chi non lo è.

Ecco perché le soluzioni di presentazione wireless devono dialogare perfettamente con i software di videoconferenza.

Sistemi come lo Stream 4K Pro di Marmitek consentono di condividere contenuti in 4K Ultra HD e allo stesso tempo integrarsi con piattaforme come Teams o Zoom. In questo modo i presenti in sala vedono la presentazione in alta definizione, mentre i colleghi remoti la ricevono con la stessa qualità, senza interruzioni né compromessi.

Gestione multiutente e schermo diviso

Una delle richieste più frequenti nei meeting aziendali è quella di poter confrontare più contenuti contemporaneamente. Con i sistemi tradizionali, questo significava interrompere la presentazione di un relatore per passare la connessione a un altro. Oggi invece la tecnologia consente di mostrare fino a quattro schermi in parallelo, sfruttando la funzione di schermo diviso.

Il risultato è un flusso di lavoro più naturale: due team possono esporre i propri dati, confrontare slide e discutere in tempo reale senza interruzioni. Allo stesso modo, più relatori possono alternarsi rapidamente con la semplice pressione di un pulsante, evitando tempi morti. È una funzionalità che aumenta l’efficienza e valorizza il contributo di ciascun partecipante.

Soluzioni all-in-one e compatibilità BYOD

La flessibilità è una parola chiave quando si parla di video HD per presentazioni professionali. Le aziende non possono permettersi soluzioni che funzionano solo con un sistema operativo o che richiedono configurazioni complicate. Ecco perché i dispositivi plug & play, compatibili con Windows, macOS, Android e iOS, stanno diventando lo standard.

Il principio BYOD (Bring Your Own Device) non è più un’opzione, ma una necessità. Ogni partecipante deve poter collegare il proprio laptop, tablet o smartphone senza difficoltà. Soluzioni come lo Stream 4K Pro rispondono perfettamente a questa esigenza, garantendo compatibilità universale e passaggi fluidi da un relatore all’altro.

Telecamere intelligenti e intelligenza artificiale

Se la prima evoluzione delle telecamere per videoconferenza è stata l’alta definizione, la seconda è senza dubbio l’intelligenza artificiale. Modelli come la Cam 4K Pro integrano funzioni di auto-framing, che riconoscono chi sta parlando e lo inquadrano automaticamente. Allo stesso modo, la cancellazione del rumore e il bilanciamento automatico della luminosità rendono l’immagine e l’audio sempre ottimali, indipendentemente dalle condizioni della sala.

Queste tecnologie non sono un semplice gadget, ma un reale potenziamento della user experience. Significa eliminare distrazioni, ridurre la fatica visiva e mantenere alta l’attenzione dei partecipanti, sia in sala che da remoto.

Accessori per interattività e collaborazione

Un’installazione di video HD professionale non si limita a trasmettere immagini e suoni: deve anche facilitare l’interazione. Oggi è possibile integrare lavagne digitali per prendere appunti in tempo reale, funzioni touchback per controllare il laptop direttamente dallo schermo, oppure collegare microfoni ambientali che catturano ogni voce con chiarezza.

Questi strumenti trasformano la riunione in un momento partecipativo. Non c’è più un relatore che parla e un pubblico che ascolta: c’è un gruppo che collabora, annota, commenta e costruisce insieme, sfruttando la tecnologia per potenziare il lavoro di squadra.

Sala riunioni moderna con grande schermo in video HD che mostra un’immagine ad alta definizione, pronta per presentazioni professionali con sistema wireless Marmitek.

Un esempio di setup per una sala conferenze ibrida

Per capire come questi strumenti possano convivere, immaginiamo una tipica sala conferenze aziendale. Al centro troviamo un display 4K di grandi dimensioni, collegato a un sistema di trasmissione wireless come lo Stream 4K Pro. Accanto al display, una conference cam 4K con microfoni integrati assicura che tutti i presenti siano ben visibili e udibili.

I partecipanti entrano in sala con i propri dispositivi, si collegano con un click e possono condividere contenuti in pochi secondi. Se più persone devono presentare, lo fanno contemporaneamente grazie allo schermo diviso.

Nel frattempo, i colleghi da remoto vedono la stessa qualità attraverso Teams o Zoom, senza perdere nulla della discussione. Una lavagna interattiva completa l’allestimento, permettendo di annotare idee e di condividerle all’istante con tutti i partecipanti.

Dall’integrazione all’esperienza

La vera evoluzione del video HD per presentazioni professionali non è solo nella risoluzione, ma nella capacità di integrare persone, dispositivi e spazi in un’esperienza unica. L’alta definizione è il punto di partenza, ma ciò che rende oggi una riunione davvero efficace è la possibilità di collaborare senza barriere.

Per i manager significa avere strumenti che semplificano e potenziano la comunicazione. Per i system integrator, invece, è la sfida di progettare ambienti dove ogni tecnologia è al servizio della collaborazione. Un obiettivo che si raggiunge solo scegliendo soluzioni affidabili, scalabili e facili da usare: perché la vera innovazione è quella che rende le cose più semplici, non più complesse.

Esplora la gamma completa delle soluzioni Marmitek

Gestione documentale in cloud: la guida per i decision maker

La gestione documentale in cloud è l’evoluzione naturale di archiviazione e distribuzione delle informazioni aziendali. Un approccio che non solo libera i team IT dalla manutenzione di server fisici, ma abilita nuovi modelli di collaborazione distribuita, in cui documenti, report e processi di approvazione sono accessibili ovunque, anche da mobile e in cui le decisioni vengono prese basandosi sui dati.

Per un CIO o un IT Manager, capire il valore di questa trasformazione significa poter far leva su risorse elastiche e aggiornamenti costanti, riducendo i rischi di obsolescenza e concentrando gli investimenti sulle funzionalità più innovative.

Le principali sfide della gestione documentale in cloud

Sebbene il cloud offra vantaggi in termini di scalabilità e flessibilità, la transizione a un modello full cloud può nascondere insidie se non pianificata nel dettaglio.

I silos informativi non risolvono la loro frammentazione semplicemente spostando i server in un data center esterno, mentre la compliance richiede nuovi controlli e processi di governance.

Inoltre, senza un motore di AI integrato, anche i repository cloud più robusti rischiano di diventare casseforti  di documenti inutilizzati.

Affrontare queste criticità significa ripensare l’intera user experience e definire soluzioni che coprano sicurezza, integrazione, scalabilità e intelligenza applicativa e che portino a prendere decisioni basate sui dati.

Tutti questi temi sono approfonditi nel white paper esclusivo, “L’era delle decisioni data driven“, scaricabile gratuitamente.

Si tratta di una guida per gli IT decision maker, che vuole tracciare un percorso evolutivo che tende a un mondo in cui le decisioni prese sono sempre basate sui dati.

Un framework basato su quattro pilastri

Un’implementazione vincente di gestione documentale in cloud non si fonda solo sulla tecnologia, ma sulla coniugazione di pratiche e processi che ne massimizzino il valore.

È necessario costruire un framework solido attorno a quattro pilastri in grado di dare stabilità all’architettura, garantire una user adoption rapida e offrire metriche chiare per il monitoraggio continuo.

I quattro pilastri sono:

  • sicurezza: crittografia end-to-end, policy d’accesso granulare, logging centralizzato
  • sostenibilità: data center efficienti e report sui consumi, riduzione dell’impatto ambientale
  • efficienza: workflow automatizzati, OCR avanzato, analisi predittiva dei volumi
  • semplicità d’uso: interfacce touch intuitive, integrazioni “one-click” con ERP/CRM.

Le soluzioni per la gestione documentale in cloud di Kyocera

Kyocera Document Solutions ha disegnato l’ecosistema Cloud Ready, che unisce dispositivi hardware intelligente e software nativo, per fornire un percorso end-to-end nella gestione documentale.

Attraverso modelli di licenza flessibili e AI integrata direttamente sui TASKalfa, le aziende possono sperimentare nuove funzionalità senza costosi interventi in loco, mantenendo il controllo completo sui processi e sulla sicurezza.

  1. TASKalfa: sono hub intelligenti che evolvono con upgrade software on-device
  2. KCC (Kyocera Cloud Connect): soluzione per acquisizione OCR e instradamento diretto in cloud
  3. KCPS (Kyocera Cloud Print & Scan): soluzione di monitoraggio costi, policy di accesso e stampa “follow-me”
  4. KCIM (Kyocera Cloud Information Manager): Document Management System completo con versioning, ricerca semantica e workflow di approvazione

Case study e ROI della gestione documentale in cloud

I numeri parlano chiaro: le aziende che hanno adottato le soluzioni Cloud Ready di Kyocera evidenziano miglioramenti consistenti sia sui processi operativi sia sulle metriche ESG.

Grazie alla capacità di misurare in tempo reale i KPI, è possibile condurre analisi comparative e pianificazioni di budget più accurate, consolidando il ruolo strategico dell’IT all’interno dell’organizzazione.

  • meno 60% di incidenti di data breach
  • meno 45% sui tempi medi di processo documentale
  • meno 30% sui consumi energetici per documento
  • meno 50% di ticket di supporto IT.

Per approfondire scarica il white paper

No-Code Day Italy: il primo evento in Italia che unisce no-code, Agentic AI e CRM

Partecipanti al No-Code Day Italy 2025 a Monza durante workshop e sessioni dedicate a no-code, Agentic AI e CRM

Il prossimo 9 ottobre l’Hotel de la Ville di Monza ospiterà il No-Code Day Italy – The Age of AI, il primo evento italiano co-organizzato da Errevi System e Realvalue Consulting interamente dedicato alla soluzione Creatio, con focus sulla tecnologia no-code applicata al CRM, sull’automazione e sull’Agentic AI.

No-Code Day Italy: chi lo organizza

Errevi System è una società di system integration che da oltre 25 anni supporta le imprese nei percorsi di digitalizzazione, con una forte esperienza nei settori manufacturing, logistica, servizi informatici e terziario.
Realvalue Consulting è una società di consulenza tecnologica focalizzata su soluzioni per finance, retail, healthcare, building e pharma, con un approccio orientato al valore e all’ottimizzazione dei processi.

Insieme hanno voluto creare un’occasione unica di incontro per imprenditori, CIO, IT manager, marketing e CRM manager, digital manager e per tutti gli innovatori di business che desiderano scoprire come innovare i processi aziendali in modo rapido, scalabile e senza complessità di sviluppo.

Perché il no-code è un game changer

Le piattaforme no-code stanno ridefinendo i paradigmi della digitalizzazione: non servono più lunghi cicli di sviluppo o team di programmatori specializzati per creare soluzioni di valore.

Oggi è possibile disegnare, automatizzare e trasformare i processi operativi e di business attraverso interfacce intuitive, riducendo costi e tempi di implementazione, e liberando risorse per l’innovazione strategica.

L’integrazione tra piattaforme no-code e Agentic AI segna inoltre una nuova era della trasformazione digitale, dove l’automazione non è solo rapida e accessibile, ma anche intelligente e proattiva. Grazie agli agenti AI capaci di analizzare, pianificare e agire in autonomia, anche utenti non tecnici possono orchestrare processi complessi, prendere decisioni basate sui dati in tempo reale e rispondere con agilità ai cambiamenti del mercato.

Per i responsabili IT significa accelerare la modernizzazione del parco applicativo. Per i marketing, sales e CRM manager vuol dire rendere i dati realmente fruibili, personalizzare l’engagement e abilitare una customer experience più fluida. Per i digital manager, infine, è l’opportunità di portare innovazione continua senza rallentare l’operatività.

Il programma del No-Code Day

Dopo i saluti iniziali a cura di Errevi System e Realvalue Consulting, i lavori si apriranno con un keynote a cura di Creatio, che offrirà una visione sul futuro del no-code e dell’Agentic AI applicati al business.

Seguiranno approfondimenti e interventi sui temi core dell’evento a cura degli esperti di Errevi System e di Real Value Consulting e dei loro partner strategici BIP Group e EY Italia, nonché specifici panel con noti esperti IT, fra cui alcuni provenienti dalla più grande community italiana di CIO quale è Aused, che racconteranno come stanno utilizzando queste tecnologie per migliorare efficienza, customer engagement e scalabilità.

Non mancheranno le presentazioni di casi di successo da parte di clienti, che illustreranno i vantaggi operativi e di business ottenuti dall’utilizzo del no-code e dell’AI della soluzione Creatio nelle loro aziende.

È previsto un business lunch placé dedicato al networking, per favorire lo scambio di esperienze tra leader digitali, innovatori e professionisti provenienti da diversi settori, tra cui manufacturing, logistica, retail, finance e healthcare.

Nel corso del pomeriggio, i partecipanti potranno poi scegliere tra workshop tematici su CRM, BPM e AI presentati con casi d’uso concreti.

I vantaggi per i partecipanti

Partecipare al No-Code Day Italy significa:

  • scoprire nuove opportunità di fare business rese possibili da Agentic AI e no-code;
  • apprendere da casi di successo reali come accelerare la trasformazione digitale;
  • ottenere strumenti immediatamente applicabili per migliorare processi e customer experience;
  • costruire relazioni con professionisti e decision maker del proprio settore.

Un evento unico, con un taglio interattivo e realmente pratico e strategico, che offrirà spunti concreti da tradurre subito in progetti aziendali all’insegna dell’innovazione.

Ci vediamo al No Code Day Italy

01net sarà presente al No-Code Day Italy per raccontare i contenuti più rilevanti della giornata e raccogliere le testimonianze di esperti, partner e aziende partecipanti. Un’occasione ulteriore per dare visibilità alle best practice italiane e internazionali nel campo del no-code e dell’AI.

Il No-Code Day Italy, organizzato da Errevi System, RealValue Consulting e Creatio, si terrà il 9 ottobre, dalle 9:30 alle 16:30 presso all’Hotel de la Ville di Monza.

I posti sono limitati, per questo è consigliata la registrazione anticipata.

Iscriviti al No-Code Day

 

Pagamenti digitali: tutti i vantaggi per aziende e clienti

Accettare pagamenti digitali è una questione che va ben oltre l’obbligo del POS, ma diventa sempre più importante per soddisfare le esigenze dei clienti. Con Fatture in Cloud è possibile ricevere pagamenti con diversi metodi (carta, PayPal e bonifico) e collegarli alle fatture, per semplificare il processo di registrazione.

Nel 2025 per le aziende di qualsiasi dimensione “accettare” i pagamenti elettronici non rappresenta più un valore aggiunto, né un mero adeguamento a un obbligo, ma una condizione essenziale: gli incassi digitali sono oggi una componente vitale anche per qualsiasi micro o piccola impresa che voglia crescere, semplificare la gestione amministrativa e offrire ai propri clienti un’esperienza di pagamento moderna.

Pensiamo a un professionista che presta la sua opera a domicilio: al termine del suo intervento può condividere un link e il cliente pagare subito con il proprio smartphone utilizzando carta o PayPal, evitando contanti.

Oppure immaginiamo un consulente che invia una fattura via e-mail utilizzando un bottone integrato per il pagamento digitale: il cliente può saldare in pochi secondi e l’incasso si registra in automatico.

Ancora: pensiamo a un negozio senza terminali POS tradizionali, che può utilizzare un QR Code personalizzato da mostrare al cliente in cassa. Sono tutti esempi concreti di come ricevere pagamenti digitali renda più semplici, veloci, sicure e certe le transazioni quotidiane per le piccole aziende.

La gestione dei pagamenti digitali con Fatture in Cloud rappresenta un punto di forza operativo e relazionale: grazie all’integrazione con TS Pay, la piattaforma di incasso e pagamento digitale di TeamSystem, le imprese possono gestire tutto il ciclo di pagamento in modo fluido e in un unico ambiente digitale.

Pagamenti digitali: un’esperienza migliore per i clienti

Per le aziende l’obbligo di accettare pagamenti elettronici è ormai assodato. Ciò che oggi invece fa la differenza è l’esperienza di pagamento che un’azienda offre ai propri clienti, che si aspettano velocità, sicurezza e soprattutto libertà di scelta.

Riguardo questo aspetto Fatture in Cloud consente alle imprese di rispondere a queste attese, mettendo a disposizione un sistema versatile, intuitivo e pronto all’uso.

Fatture in Cloud gestisce più opzioni di pagamento per il cliente, e quindi di incasso per le aziende:

  • POS Digitale
  • Bottone in Fattura

In entrambi i casi, l’acquirente potrà decidere se completare il pagamento tramite carta di credito o debito, PayPal o bonifico bancario istantaneo.

POS digitale integrato: incassare senza terminale fisico

Il POS di Fatture in Cloud è completamente digitale: non serve acquistare o installare terminali fisici. Basta generare:

  • un QR Code da mostrare al cliente,
  • un link di pagamento personalizzato,
  • oppure inserire un bottone in fattura per attivare l’incasso.

In questo modo il cliente può scegliere come pagare, cliccando o scansionando, e completare la transazione in pochi secondi. Questa flessibilità rende il sistema perfetto per chi lavora in mobilità, come i professionisti come idraulici, elettricisti, fornitori di assistenza tecnica. Ma è anche l’ideale per chi ha un punto vendita o per chi gestisce attività di consulenza o servizi digitali.

Il pagamento tramite bottone in fattura è particolarmente efficace per chi lavora a distanza o gestisce attività su appuntamento. Una volta emessa la fattura, il cliente riceve un documento digitale contenente un pulsante che consente di effettuare il pagamento immediatamente, scegliendo il metodo preferito tra carta, PayPal, addebito su conto corrente o bonifico istantaneo.

Questo sistema accelera i tempi di incasso, riduce la necessità di solleciti e registra automaticamente l’avvenuto pagamento, migliorando il flusso di cassa e semplificando la gestione contabile.

Prova gratis Fatture in Cloud

PayPal: la soluzione che semplifica, fidelizza e rassicura

Fatture in Cloud include anche la possibilità di incassare con PayPal, il servizio di pagamento digitale più diffuso in Italia. PayPal è apprezzato per la rapidità delle transazioni, il livello di sicurezza percepito dagli utenti, la possibilità di pagare anche senza inserire i dati della carta.

Con PayPal integrato nel bottone in fattura o nel POS digitale, l’impresa offre al cliente una modalità di pagamento ampiamente conosciuta, adatta anche a chi è meno avvezzo agli strumenti digitali.

Questo si traduce in una customer experience più fluida, aumenta considerevolmente la probabilità di incasso puntuale, contribuisca a rafforzare il rapporto di fiducia.

Tutto sotto controllo dopo il pagamento

La forza degli incassi digitali con Fatture in Cloud sta anche in ciò che accade dopo il pagamento. Infatti, l’incasso viene associato alla fattura e il movimento registrato in prima nota.

Tutto questo significa maggior controllo sulla propria situazione economica e più tempo da dedicare al business.

Altre funzionalità per gestire i pagamenti

Oltre all’incasso, Fatture in Cloud semplifica anche la riconciliazione bancaria, che avviene in automatico, allineando i movimenti bancari con quelli contabili, eliminando quindi la necessità di controlli manuali e riducendo il margine d’errore.

Inoltre, consente di emettere bonifici direttamente dal programma, associandoli alle fatture dei fornitori e mantenendo piena coerenza tra pagamenti, contabilità e documentazione, senza passare dall’home banking.

Pagamenti digitali: i vantaggi sono per tutti

Nel mondo delle micro e piccole imprese ogni pagamento conta. Ogni minuto risparmiato sulle attività amministrative può essere reinvestito nello sviluppo del business. Adottare un sistema per incassi digitali come quello offerto da Fatture in Cloud significa offrire un servizio migliore al cliente e allo stesso tempo semplificare la vita dell’impresa.

Per il cliente significa avere più opzioni di pagamento, tra cui carta, PayPal e bonifico istantaneo, un’esperienza di pagamento rapida, sicura e senza frizioni.

Per l’impresa significa non avere terminali fisici, gestire in modo semplice gli incassi e la riconciliazione bancaria, risparmiare di tempo, ridurre gli errori e tenere sempre sotto controllo la situazione dei propri affari.

Prova gratis Fatture in Cloud

 

Private AI nel retail: sicurezza, performance e customer experience

Per comprendere in pieno i vantaggi concreti dell’utilizzo della private AI nel retail bisogna partire dalla considerazione che l’intelligenza artificiale sta trasformando tutto il settore, permettendo di analizzare in profondità i comportamenti d’acquisto e di automatizzare tutti i processi complessi che vanno dal replenishment alla gestione delle promozioni.

Allo stesso tempo la sensibilità verso la privacy e la qualità dell’esperienza cliente spinge i retailer a considerare soluzioni più sicure e personalizzabili.

Tuttavia, molte piattaforme di AI basate esclusivamente sul cloud pubblico non offrono la flessibilità necessaria per garantire la piena governance dei dati e la bassa latenza in store, la tutela degli asset aziendali e il continuo miglioramento della customer experience.

Le sfide del settore retail

Oggi i retailer devono gestire moli di dati dei clienti, garantendo al contempo un’esperienza d’acquisto fluida e omnicanale. Protezione dei dati, rapidità di esecuzione e integrazione dei processi in store e online sono elementi chiave per mantenere competitività nella GDO.

Gestire in tempo reale scorte, promozioni e logistica senza infrastrutture dedicate può generare rallentamenti nei punti vendita e nei canali digitali.

Allo stesso tempo, le normative sulla privacy e l’aspettativa di personalizzazione spingono i retailer a cercare soluzioni che coniughino alto livello di security e performance costanti.

Private AI e AI pubbliche a confronto

Un retailer che decide di sfruttare un’AI “pubblica” si affida a infrastrutture condivise gestite da grandi cloud provider. In questo scenario, la sicurezza dei dati è garantita da standard elevati, ma resta soggetta alle policy generiche del provider e a possibili configurazioni non ottimali: ogni spostamento di dati sensibili verso l’esterno espone un’esposizione potenziale in caso di vulnerabilità o di incidenti di sicurezza a livello globale.

Con una private AI nel retail, invece, i dataset più preziosi, dai profili shopper alle serie storiche di vendite, permangono all’interno di ambienti dedicati, on-premise o in un cloud privato, dove l’azienda può applicare policy customizzate e certificazioni di sicurezza secondo le proprie regole interne e le normative europee.

Dal punto di vista della governance e compliance, le AI pubbliche forniscono strumenti standardizzati che semplificano il deployment ma lasciano margini ridotti di personalizzazione per rispondere a esigenze locali (come il GDPR o regolamenti nazionali specifici).

La private AI, invece, consente di integrare nativamente i processi di audit, il versioning dei modelli e il controllo degli accessi basato sui ruoli, garantendo un tracciamento completo di ogni operazione di training, inferenza o aggiornamento e riducendo così il rischio di sanzioni e interventi punitivi.

Per quanto riguarda latenza e performance, i servizi cloud pubblici offrono scalabilità elastica, ma dipendono dalla qualità di rete e possono introdurre ritardi imprevedibili tra il momento in cui il dato viene inviato e quello in cui arriva la risposta del modello.

Questo comportamento è critico in contesti retail nei quali occorre garantire tempi di reazione inferiori ai millisecondi (pensa al riconoscimento scaffali in store o checkout automatici). Con la Private AI nel retail, l’elaborazione avviene in prossimità dell’utenza – su GPU o CPU dedicate – eliminando i colli di bottiglia della rete e assicurando risposte istantanee.

Private AI, il modello economico

L’aspetto economico non è da meno: il modello “pay-as-you-go” delle AI pubbliche può nascondere costi variabili e imprevedibili, in particolare quando i volumi di dati o le richieste di inferenza crescono improvvisamente.

Invece, un’infrastruttura private AI prevede un investimento iniziale e canoni Opex chiari, che il CIO può pianificare con precisione in bilancio: storage riservato, GPU on-demand e supporto 24/7 diventano voci note anziché costi a consumo.

Infine, sugli aggiornamenti, il cloud pubblico impone update automatici e centralizzati che non sempre tengono conto delle esigenze di un ambiente B2B complesso, rischiando di introdurre modifiche non allineate ai processi interni.

Con una private AI l’azienda gestisce autonomamente il rilascio delle nuove versioni, testando internamente i modelli e introducendo patch secondo un calendario condiviso tra IT, Data Scientist e stakeholder di business.

Private AI nel retail: i vantaggi

Adottare una private AI nel retail offre benefici concreti lungo tutta la gestione del customer journey.

Dai processi decisionali interni fino alla relazione diretta con il cliente, l’AI privatya garantisce sicurezza, performance e una customer experience superiore. La riservatezza dei dati aziendali e dei profili cliente si traduce in modelli predittivi più accurati e personalizzati, eliminando ritardi e vincoli di banda.

L’elaborazione AI locale consente di attivare offerte in tempo reale, suggerimenti personalizzati e servizi in-store come il riconoscimento degli scaffali, migliorando sensibilmente la soddisfazione e la fidelizzazione del consumatore.

Adozione: roadmap in due passi

Per implementare una private AI un retailer potrebbe scegliere una adoption che segue una roadmap snella, efficace, composta da:

  • audit e definizione degli use case: si parte con un’analisi dei flussi di dati critici (vendite, scorte, loyalty) e si procede all’individuazione di progetti pilota che possano essere già ad alto impatto (per esempio interenti il demand forecasting e il dynamic pricing).
  • infrastruttura e integrazione: una volta fatta la scelta tra ambiente on-premise o cloud privato, si procede alla configurazione di GPU/CPU dedicate e alla creazione di una connessione sicura con ERP, CRM e sistemi di gestione magazzino.

La proposta Seeweb per la private AI nel retail

Seeweb si propone come partner strategico per costruire soluzioni di private AI su misura per la GDO con:

  • Infrastruttura per AI e ML Seeweb: ambiente di cloud computing con GPU disponibili al bisogno, ISO/IEC 27001, API e monitoraggio dei consumi in tempo reale.
  • Consulenza e supporto completi: supporto nel setup dell’infrastruttura di Private AI, ottimizzazione e aggiornamenti a carico dell’azienda. Integrabilità con l’ecosistema cloud Seeweb.

Offrendo un’infrastruttura pronta all’utilizzo, Seeweb consente di supportare le applicazioni di intelligenza artificiale in ambito retail, garantendo sicurezza, compliance e i più elevati standard di sostenibilità sia di investimento che ambientale.

La tecnologia non si acquista più: il modello CHG-MERIDIAN e la nuova frontiera della locazione operativa

In un contesto economico dove budget, sostenibilità e rapidità di innovazione sono diventati fattori critici, il possesso della tecnologia aziendale non è più un imperativo: è più strategico gestire gli asset, non possederli, ed è su questo cambio di paradigma che si fonda l’approccio di CHG-MERIDIAN, uno dei leader globali nella locazione operativa di beni tecnologici.

Presente oggi in oltre 30 Paesi con un portafoglio attivo superiore ai 10 miliardi di euro, CHG-MERIDIAN si propone come abilitatore di trasformazione tecnologica e sostenibile per le imprese, con un modello chiavi in mano: leasing operativo, asset management, carbon neutrality.

Cos’è la locazione operativa e perché conviene alle aziende

Nel modello di locazione operativa, le imprese non acquistano più hardware, software o infrastruttura IT, ma utilizzano tecnologia all’avanguardia, pagando un canone flessibile e personalizzabile.

A fine contratto, i dispositivi vengono restituiti, ricondizionati e reinseriti nel mercato, in un’ottica di economia circolare.

Questo permette alle aziende di liberare liquidità per fare investimenti strategici (per esempio, R&D, marketing), controllare i costi con trasparenza e precisione, aggiornare i device senza immobilizzare capitale, evitare sprechi, sia economici che ambientali.

tesma, il cuore digitale dell’asset management

Uno dei punti di forza dell’offerta di locazione operativa di CHG-MERIDIAN è tesma, una piattaforma proprietaria che consente di monitorare, gestire e ottimizzare l’intero ciclo di vita dei beni tecnologici, anche su base multi-asset e multi-centro di costo.

Con tesma è possibile:

  • visualizzare in tempo reale tutti gli asset in uso;
  • tenere sotto controllo costi, scadenze e contratti;
  • automatizzare approvvigionamenti, rollout, rollback e sostituzioni;
  • integrare dati tecnici e commerciali con i sistemi IT aziendali.

Per i CIO e CFO, questo si traduce in una gestione trasparente e predittiva delle risorse, con un impatto diretto sulla pianificazione e sull’efficienza operativa.

Sostenibilità certificata: il programma carbon neutral

CHG-MERIDIAN non si limita a fornire tecnologia: promuove un modello sostenibile e certificato.

Attraverso servizi carbon neutral, le emissioni di CO₂ associate ai dispositivi in locazione operativa vengono calcolate, ridotte e compensate con progetti riconosciuti a livello internazionale dalle Nazioni Unite.

Ogni cliente può così: aderire alla neutralità climatica in modo semplice e documentato; ricevere certificati ufficiali a supporto delle proprie policy ESG; comunicare il proprio impegno con trasparenza, anche verso stakeholder e dipendenti.

Non a caso CHG-MERIDIAN ha ottenuto la certificazione EcoVadis Gold, che la posiziona tra le aziende più virtuose in ambito sostenibilità.

Crescita e visione per la locazione operativa: i numeri del 2024

Nel 2024 CHG-MERIDIAN ha confermato la propria traiettoria di crescita, con un volume di nuove operazioni di locazione operativa superiore ai 2,8 miliardi di euro.

Solamente nel segmento IT, sono stati oltre 895.000 gli asset ricondizionati e rimessi in circolo, evitando impatti ambientali e contribuendo a una transizione ecologica reale.

In Italia, la crescita è trainata da settori chiave come retail, industria, sanità e servizi, con clienti come Penny Italia, Boston Scientific, Gruppo Finiper e Gruppo Goglio. La fiducia si basa su un’offerta integrata, flessibile e perfettamente adattabile alle esigenze di business locale.

Un cambio di mentalità nel B2B italiano

Come emerge dalla videointervista, il messaggio è chiaro: non è più il tempo di acquistare tecnologia, ma di utilizzarla in modo efficiente, trasparente e sostenibile. La locazione operativa si impone come un driver strategico, in grado di unire innovazione, controllo dei costi e responsabilità ambientale.

CHG-MERIDIAN sta cambiando le regole del gioco nella gestione tecnologica: un’opportunità per CFO, CIO, IT Manager e responsabili industriali che vogliono restare competitivi senza rinunciare alla sostenibilità.

Nel video realizzato con Tecniche Nuove, Marco Gallo (Direttore Commerciale) e Andrea Bonin (CFO) di CHG-MERIDIAN Italia raccontano come questo approccio stia rivoluzionando la gestione della tecnologia in aziende di ogni dimensione.

Rimani aggiornato sulle soluzioni di CHG-MERIDIAN

CTO dell’ecommerce: i 5 mindset che stanno cambiando il modo di innovare

Il ruolo del CTO nell’ecommerce non è più solo tecnico, ma strategico: 5 mindset chiave stanno rivoluzionando il loro modo di fare innovazione, ottimizzare le piattaforme e anticipare il cambiamento. Un white paper di Shopify lo spiega chiaramente.

Il ruolo del CTO nel mondo ecommerce sta cambiando profondamente. Non è più solo il custode dell’infrastruttura IT, ma il regista di una trasformazione che impatta direttamente sull’agilità, sull’efficienza e sulla capacità dell’azienda di adattarsi.

In uno scenario segnato da instabilità macroeconomica, catene di fornitura frammentate, pressioni energetiche e volatilità globale – che, secondo l’87% degli economisti del World Economic Forum, riguarderà l’economia mondiale nei prossimi tre anni – i leader tecnologici devono rivedere le proprie priorità.

Oltre alle turbolenze esterne, anche le aspettative dei clienti e le possibilità tecniche evolvono più rapidamente che mai. Gartner prevede che l’ecommerce sarà uno dei primi settori a subirne l’impatto, spingendo i responsabili a riorganizzare piattaforme, processi e approcci decisionali. E infatti, oggi più che mai, ogni CTO deve porsi una domanda precisa: “la mia organizzazione è progettata per cambiare?“.

Parallelamente, il ruolo strategico del CTO cresce. Shopify, ad esempio, ha investito 1,7 miliardi di dollari in ricerca e sviluppo nel solo 2023, con un team dedicato di oltre 4.000 sviluppatori. La sua piattaforma è in grado di gestire fino a 40.000 checkout al minuto e ha sostenuto oltre 1.000 miliardi di dollari di transazioni globali dalla sua nascita. Questi numeri mostrano quanto l’ecommerce sia diventato un sistema ad alta intensità tecnologica. E chi guida l’innovazione, guida anche la competitività.

Shopify non si limita a offrire soluzioni tecnologiche: è fortemente impegnata a comprendere cosa significa oggi per un CTO, guidare l’innovazione. Per costruire una visione solida e aderente alla realtà, ha coinvolto direttamente brand,tra cui Westwing e Belstaff, ma anche agenzie locali ed esperti tecnologici distribuiti sul territorio, ottenendo una visione concreta, pluralistica e strategica sulle sfide che i responsabili IT affrontano quotidianamente nel commercio moderno.

È da questa premessa che parte il whitepaper di Shopify dedicato ai CTO dell’ecommerce, proponendo un cambio di paradigma profondo. Non si tratta di adottare nuove tecnologie in sé, ma di trasformare il proprio approccio.

Sono cinque i mindset che emergono come fondamentali per affrontare questa sfida con efficacia.

Come i CTO dell’ecommerce usano i concetti base per innovare

Il primo cambiamento mentale richiesto ai CTO è quello di abbandonare le soluzioni preconfezionate e partire dai concetti fondamentali. Questo significa scomporre i problemi complessi nelle loro parti essenziali, rimuovendo ipotesi, convenzioni o trend del momento.

Secondo Peyman Naeini, Field CTO di Shopify, questo approccio ha permesso a molte aziende di evitare investimenti fuorvianti. Per esempio, il tanto discusso passaggio all’architettura headless non sempre è la risposta giusta. Alcune aziende, partendo dall’analisi dei problemi concreti e non dalle mode, hanno scoperto che una soluzione “headful” più semplice rispondeva meglio alle loro reali esigenze.

Un risultato che si ottiene con questo mindset è la capacità di sviluppare soluzioni originali, personalizzate e più funzionali rispetto a quelle derivate da mode di settore o suggerimenti esterni.

Il mindset dialettico per i CTO ecommerce

Spesso i CTO si trovano a dover decidere tra due estremi: acquistare o sviluppare, headless o monolitico, microservizi o piattaforma integrata. Questo mindset invita a superare queste dicotomie, adottando una logica dialettica. Si parte da una tesi e da una antitesi per arrivare a una sintesi, cioè a una soluzione che integri i punti di forza di entrambe le visioni.

È ciò che ha fatto il brand di abbigliamento Belstaff. Il suo CTO, Navid Jilow, è passato da un sistema rigido e centralizzato a una piattaforma estensibile, dove API e microservizi convivono con componenti coesi e facilmente manutenibili. Questa combinazione ha permesso una maggiore flessibilità, senza i costi e la complessità spesso legati ai sistemi completamente modulari.

Anche Jakala segue un approccio simile. Fabio Carraro, CTO del gruppo, sottolinea l’efficacia di un metodo dialettico “simile al design thinking”, che parte dall’apertura a punti di vista differenti per poi sintetizzare ciò che davvero aggiunge valore.

Questo modo di operare ha permesso a Jakala di superare le logiche “best of breed” troppo rigide, adottando soluzioni ibride più efficaci. Secondo Carraro, i clienti più evoluti cercano proprio questo: una tecnologia modulare, flessibile e pragmatica, capace di adattarsi senza dover rinunciare né alla velocità né alla personalizzazione.

Un risultato che si ottiene con questo mindset è la costruzione di uno stack tecnologico adattabile, capace di evolvere nel tempo e di mantenere equilibrio tra rapidità, personalizzazione e controllo.

Innovazione radicale nel retail: il mindset della distruzione creatrice

Per innovare davvero il CTO deve essere disposto a mettere in discussione ciò che funziona. Questo è il principio della distruzione creatrice: abbandonare volontariamente soluzioni consolidate per inseguire opportunità di maggiore impatto nel lungo periodo.

Alessandro Scavella, CTO del partner di Shopify Cooder, racconta di come, anni fa, abbiano scelto di passare a Shopify quando ancora non era considerato adatto a grandi aziende. La decisione si basava su una visione del futuro e ha richiesto coraggio, ma alla lunga si è rivelata vincente.

Il risultato che si ottiene con questo mindset è la capacità di anticipare i trend, costruendo un vantaggio competitivo mentre altri restano ancorati a soluzioni familiari ma ormai superate.

Decisioni rapide ed efficaci: il mindset “greedy” per i CTO ecommerce

Un altro cambiamento cruciale è quello che riguarda il modo in cui si prende decisione. In un contesto in rapida evoluzione, non sempre è possibile aspettare la soluzione perfetta. I CTO più efficaci adottano un approccio “greedy”, ovvero prendono la decisione migliore disponibile in quel momento, per poi aggiustare il tiro strada facendo.

Usama Dar, CTO del produttore di soluzioni di arredamento Westwing Home & Living, spiega come il suo team abbia scelto di testare tre sistemi PIM (Product Information Management) in una settimana, valutando rapidamente vantaggi e svantaggi, anziché passare mesi in fase esplorativa. Una volta presa una decisione, hanno applicato lo stesso metodo ad altri investimenti IT, mantenendo sempre il focus sull’avanzamento continuo.

Un risultato che si ottiene con questo mindset è la riduzione drastica del time-to-market. Inoltre, questo approccio rafforza la cultura dell’apprendimento continuo, in cui anche gli errori diventano occasione di miglioramento.

Costruire un ecosistema modulare: la strategia vincente per i CTO ecommerce

L’ultimo mindset proposto da Shopify è forse il più strategico: pensare per ecosistemi. Secondo la legge di Metcalfe (da Robert Metcalfe, coinventore di Ethernet), il valore di una rete cresce in modo esponenziale all’aumentare dei nodi e delle connessioni. Traslato nell’ecommerce, questo principio invita i CTO a costruire un’infrastruttura aperta e modulare, dove ogni nuovo componente integrato potenzia l’intero sistema.

Westwing è un esempio efficace. La loro scelta di adottare Shopify come piattaforma di base ha permesso un’integrazione semplice e potente con strumenti terzi: dal CRM al motore di ricerca, fino ai sistemi di fulfillment. Questo approccio ha favorito una crescita organica e sostenibile, senza i vincoli di piattaforme chiuse e complesse.

Un risultato che si ottiene con questo mindset è la possibilità di scalare rapidamente e adattarsi ai cambiamenti del mercato senza dover ogni volta ripensare tutto il sistema tecnologico.

Da CTO a innovation leader: una disciplina quotidiana di cambiamento

I cinque mindset raccontati nel whitepaper di Shopify “Cinque cambi di prospettiva per i CTO moderni” non sono semplici teorie. Sono l’essenza di una nuova generazione di leader tecnologici che affrontano la complessità con visione, metodo e coraggio. Non si limitano a seguire l’innovazione: la guidano.

Per questi CTO, innovare non è più un progetto o una fase. È una disciplina quotidiana. È un modo di interpretare il proprio ruolo non solo come custodi della tecnologia, ma come partner strategici del business.

In questa trasformazione, Shopify si propone come un alleato naturale: una piattaforma aperta, estensibile, sostenuta da investimenti massicci in R&D e progettata per supportare l’evoluzione costante del commercio moderno.

Collaborare con Shopify significa entrare in un ecosistema che spinge all’azione, favorisce l’adattabilità e permette di concentrare le energie dove contano davvero: nella creazione di valore per i clienti.

Scarica il white paper: Cinque cambi di prospettiva per i CTO moderni

Digitalizzazione delle PMI: ecco perché i software integrati funzionano

Se la digitalizzazione delle PMI è un obiettivo primario per il sistema Paese, utilizzare un software di fatturazione e gestione aziendale completo e che si integra con altri strumenti di lavoro fornisce una spinta in più alla crescita del business, riducendo i costi e migliorando l’efficienza delle piccole aziende.

La digitalizzazione delle PMI italiane è un processo ancora in corso, ma ogni giorno che passa diventa più urgente.

Nonostante la spinta normativa degli anni scorsi – su tutti, l’obbligo di fatturazione elettronica – e di alterni incentivi economici, molte micro e piccole imprese ancora faticano ad adottare soluzioni di digitalizzazione davvero efficaci.

Ci siamo chiesti il perché. La risposta l’abbiamo trovata nella constatazione che una micro e piccola impresa compie il vero salto di qualità quando passa da una digitalizzazione occasionale, discontinua, frammentaria, a un approccio integrato.

Questo è possibile se si basa su strumenti semplici da usare, completi, integrati e accessibili ovunque, come Fatture in Cloud, il software di fatturazione elettronica e gestione aziendale utilizzato da oltre 580.000 aziende italiane.

Digitalizzazione delle PMI: una continua rincorsa

Secondo l’Istat, l’anno scorso oltre il 60% delle PMI italiane ha raggiunto un livello base di digitalizzazione, adottando almeno quattro delle dodici attività digitali previste dall’indice DII (Digital Intensity Index), l’indicatore europeo che misura il grado di digitalizzazione delle imprese.

Tuttavia, solamente il 13,6% condivide dati elettronicamente con fornitori e clienti, a fronte di una media UE del 23,5%​. Il gap, quindi, è ancora notevole.

Quello che è importante notare è che la digitalizzazione delle PMI non deve riguardare solamente la semplice adozione di strumenti software, ma anche e soprattutto il modo in cui questi strumenti dialogano tra loro e supportano veramente l’azienda nelle attività quotidiane: dalla fatturazione alla gestione clienti, fino al controllo dei pagamenti. Quindi è il modo in cui si utilizza il digitale che fa la differenza e crea valore per l’azienda.

Uso di strumenti integrati: meno complessità, più efficienza

Una delle principali barriere che impediscono alle PMI italiane di completare con successo il proprio percorso di digitalizzazione è proprio l’utilizzo disorganico di strumenti eterogenei.

Un esempio concreto riguarda la riconciliazione bancaria, un’attività che molte micro e piccole imprese ancora oggi svolgono esportando gli estratti conto su fogli Excel e confrontando manualmente i movimenti bancari con le registrazioni contabili interne.
Questo processo non solo è estremamente oneroso in termini di tempo, ma espone a un alto rischio di errori che possono generare disallineamenti, ritardi nei pagamenti e problemi di liquidità (mentre l’automazione e l’integrazione delle informazioni bancarie in un sistema gestionale azzererebbero queste criticità e migliorerebbero il controllo finanziario).

Questa logica “a silos” crea numerosi svantaggi: disallineamento dei dati, duplicazione degli input, maggiore rischio di errore umano e, soprattutto, un enorme dispendio di tempo nella gestione quotidiana.

La frammentazione degli strumenti digitali porta anche a un altro rischio, meno visibile ma altrettanto dannoso: la perdita della visione d’insieme. Senza un’infrastruttura coerente, infatti, è difficile monitorare in modo efficace l’andamento dell’azienda, individuare criticità o opportunità e, in generale, prendere decisioni basate su dati aggiornati e attendibili.

In questo contesto, l’utilizzo di strumenti digitali integrati diventa un elemento chiave per la competitività. Non si tratta, insomma, di “mettere ordine”, ma di costruire un sistema capace di semplificare i flussi operativi e favorire la collaborazione tra diverse aree aziendali. La digitalizzazione efficace non avviene per somma di funzionalità, ma per sinergia tra funzioni.

Tutti i vantaggi degli strumenti integrati

Ecco perché adottare software di fatturazione – come Fatture in Cloud – che integra nativamente più funzioni e si collega ad altri software e servizi consente alle PMI di ottenere benefici tangibili:

  • Centralizzazione delle attività: tutte le operazioni amministrative e contabili vengono gestite da un unico ambiente, riducendo al minimo i passaggi tra strumenti diversi e rendendo più fluido il lavoro quotidiano.
  • Allineamento e coerenza dei dati: i dati non devono essere inseriti più volte all’interno di piattaforme diverse, ma si sincronizzano in automatico, abbattendo il lavoro manuale e il rischio di errori.
  • Efficienza operativa: il personale può concentrarsi su attività a valore aggiunto invece che perdere tempo in operazioni ripetitive o riconciliazioni manuali. Le funzioni automatiche (come i solleciti di pagamento o la registrazione degli incassi) alleggeriscono il carico amministrativo.
  • Controllo e visibilità in tempo reale: grazie a dashboard, report e funzioni di analisi integrate, anche il piccolo imprenditore può accedere a indicatori chiave sull’andamento del business, prendendo decisioni più rapide e informate.
  • Maggiore collaborazione: la possibilità di condividere dati e documenti con il commercialista o con collaboratori esterni, in modo sicuro e tracciato, favorisce una gestione trasparente e partecipata.

Non ultimo, un sistema integrato è più facile da mantenere nel tempo: gli aggiornamenti sono centralizzati, l’interfaccia è unificata, il supporto tecnico è semplificato. Tutto questo per l’azienda si traduce in un notevole risparmio in termini di formazione, costi operativi e tempi di adozione.

PROVA GRATIS FATTURE IN CLOUD

Il valore del cloud: accessibilità, sicurezza e continuità

Oggi il cloud computing è il fondamento tecnologico della digitalizzazione, soprattutto per le micro e piccole imprese. L’abbandono dei software installati localmente e dei dati custoditi su singole macchine per passare a soluzioni cloud-native non è solamente una questione tecnica, ma una scelta strategica che impatta su produttività, sicurezza e capacità di crescita dell’impresa.

In un contesto in cui il lavoro da remoto, la mobilità e la condivisione dei dati in tempo reale sono diventati elementi strutturali del business, avere accesso ai propri strumenti di lavoro da qualsiasi dispositivo connesso a internet è un elemento centrale, ineludibile.

Si badi bene: il punto non è solamente “poter lavorare ovunque”. Ciò che il cloud rende possibile è la continuità operativa anche in caso di imprevisti, come malfunzionamenti hardware, o emergenze che sempre più spesso la minano, come blackout locali ed eventi climatici estremi, con i quali abbiamo purtroppo iniziato a familiarizzare.

E forse questo aspetto sembra aver convinto le Pmi. Sempre secondo gli ultimi dati Istat, a fine 2023 il 61,4% delle imprese italiane con almeno 10 addetti aveva utilizzato servizi cloud, un dato che testimonia la fiducia crescente nel modello SaaS anche tra realtà di piccole dimensioni​.

Ma i benefici non si limitano all’accessibilità. Il cloud assicura anche:

  • Sicurezza dei dati: le piattaforme offrono backup automatici, crittografia, controllo degli accessi e compliance con i principali standard (GDPR).
  • Aggiornamenti continui e senza interruzioni: ogni nuova funzionalità o patch di sicurezza viene rilasciata in tempo reale, senza bisogno di interventi manuali da parte dell’utente.
  • Scalabilità e flessibilità: le soluzioni cloud crescono con l’azienda, permettendo di aggiungere utenti, funzioni o servizi in base alle esigenze, senza costosi investimenti in infrastrutture.
  • Riduzione dei costi IT: nessun bisogno di server interni, licenze locali, interventi di manutenzione o personale dedicato alla gestione tecnica.

Come per le grandi aziende, da cui le loro esigenze non si discostano, per le PMI, questo significa poter concentrare le risorse dove sta il loro business, ossia il valore differenziante che esprimono, delegando la complessità tecnologica a un’infrastruttura affidabile, stabile e pronta a supportare il cambiamento.

Fatture in Cloud: un software completo, integrato e cloud-native

In questo scenario, Fatture in Cloud di TeamSystem è un esempio concreto di come un software completo e che si integra ad altri strumenti di lavoro possa semplificare radicalmente la gestione aziendale anche nelle realtà più piccole, senza rinunciare alla semplicità, e realizzare concretamente la loro digitalizzazione.

Una gestione aziendale completa, in un unico ambiente

Fatture in Cloud offre funzionalità che coprono le esigenze chiave di un’impresa:

  • fatturazione elettronica attiva e passiva,
  • gestione acquisti,
  • creazione di preventivi, ordini e documenti di trasporto,
  • gestione dell’anagrafica di clienti e fornitori,
  • analisi dell’andamento economico,
  • collegamento diretto con il commercialista.

Tutto questo è accessibile via browser o app mobile, senza dover installare nulla e con la possibilità di lavorare anche in mobilità. Il vantaggio? Centralizzare molte attività di gestione aziendale in un’unica piattaforma.

Pagamenti digitali evoluti, controllo totale della liquidità

Una delle funzioni che distingue Fatture in Cloud è la gestione dei pagamenti, pensata per rispondere alle esigenze di imprese che devono muoversi con rapidità ma anche con precisione nei flussi di cassa.

Accanto alle classiche funzioni come lo scadenzario, la prima nota o i solleciti automatici, Fatture in Cloud offre funzionalità innovative, quali:

  • Effettuazione della riconciliazione bancaria, importando in automatico i movimenti da uno o più conti correnti bancari e concludendo l’operazione in pochi clic, allineamento le registrazioni contabili e quelle bancarie in modo trasparente e preciso.
  • Ricezione dei pagamenti digitali in modo sicuro e tracciato, con carta di credito, addebito diretto o PayPal, direttamente da un bottone in fattura o dalla scansione di un QR code o di un link. L’incasso viene poi registrato in automatico all’interno del sistema.
  • Emissione di ordini di bonifico direttamente dal software, eliminando la necessità di accedere all’home banking.

Queste funzionalità sono rese disponibili dall’integrazione di Fatture in Cloud con TS Pay, la piattaforma dei servizi di incasso e pagamento digitali erogati da TeamSystem Payments.

Il risultato è una gestione dei pagamenti semplice, ordinata e più rapida, ideale per tutte le aziende con risorse amministrative limitate.

Fatture in Cloud, ecosistema aperto, integrabile con oltre 50 software

Un ulteriore punto di forza della piattaforma Fatture in Cloud è l’ampia possibilità di integrazione con oltre 50 software e servizi di utilizzo aziendale:

  • CRM
  • piattaforme e-commerce
  • altri software contabili
  • tool di marketing
  • app per la produttività.

L’integrazione permette di sincronizzare in automatico i dati, senza necessità di esportazioni o importazioni manuali e mantenendo la situazione sempre aggiornata all’interno delle varie piattaforme.

In pratica, con Fatture in Cloud l’azienda costruisce un ambiente digitale evoluto e integrato. Un vero e proprio salto di qualità rispetto alla gestione frammentata diffusa in molte PMI italiane.

Fatture in Cloud: una scelta strategica, non solo tecnologica

Per le PMI Investire nella digitalizzazione oggi non significa solamente adottare nuove tecnologie, ma ripensare l’organizzazione aziendale in un’ottica più snella, reattiva e interconnessa.

Soprattutto per le micro e piccole imprese, la scelta di strumenti integrati è un’opportunità concreta per migliorare la produttività, aumentare il controllo e prepararsi a crescere in modo sostenibile.

PROVA GRATIS FATTURE IN CLOUD

AI Week 2025: Milano è la capitale dell’intelligenza artificiale applicata

AI Week è cresciuta. Da iniziativa online nata sei anni fa per intuizione di Giacinto Fiore e Pasquale Viscanti ad Altamura (Bari), con IA Spiegata Semplice, è diventata anche una manifestazione fisica a Rimini e con l’edizione 2025 ha finalmente conquistato Milano, con la formula dell’evento di due giorni che punta su coinvolgimento, formazione, networking e concretezza.

AI Week 2025, la crescita: numeri, internazionalizzazione, startup

I numeri della AI Week raccontano un successo consolidato: 17.513 partecipanti nei padiglioni di Rho Fiera, di cui 1 su 4 proveniente dall’estero (in particolare Svizzera, Germania, Romania, Francia, USA, UK); quasi 200 espositori e partner, 500 speaker, 20 startup coinvolte nell’AI Startup Summit.

A livello territoriale, il pubblico è arrivato soprattutto dalla Lombardia (60%), seguita da Lazio, Puglia, Emilia-Romagna. L’85% degli espositori sono aziende italiane, ma il network si allarga a realtà provenienti da USA, UK, Francia e Israele.

Un dato incoraggiante, secondo Giacinto Fiore, riguarda la presenza femminile, che ha toccato il 29% dei partecipanti: “un segnale che le politiche per l’accesso delle donne alle discipline STEM iniziano a dare risultati tangibili“.

Oltre alla conferenza di due giorni sul main stage e ai workshop di approfondimento, l’evento ha ospitato un innovation hub supportato da Compagnia delle Opere, offrendo un mix tra approfondimento, networking e scouting tecnologico.

AI Week: la fame di conoscenza è il segnale positivo

Un aspetto che colpisce girando tra i padiglioni della AI Week 2025 è il forte connotato formativo della manifestazione. Le sessioni di approfondimento, distribuite in più punti del salone fieristico, hanno attirato una partecipazione costante e numerosa.

Segno che professionisti e aziende hanno fame di conoscenza. E il fatto che la cerchino in un evento come questo, in presenza, è un messaggio importante: l’intelligenza artificiale non è solo hype, ma una tecnologia che richiede comprensione, visione e aggiornamento continuo.

AI Week 2025 a Rho Fiera, Milano, Panoramica sui 17.521 visitatori

L’AI tra soglie sociali e impatti concreti

Il programma sul palco principale della AI Week ha visto alternarsi voci di primo piano che hanno messo sul tavolo questioni strategiche, culturali e regolatorie.

Alec Ross, imprenditore e già consigliere per l’innovazione di Obama, ha attaccato frontalmente l’AI Act europeo, definendolo un freno allo sviluppo: “serve ottimismo,” ha detto, “e meno burocrazia. Oggi il vero pericolo non è l’intelligenza artificiale, ma la deficienza naturale.”

Un appello condiviso anche da Maurizio Sanarico (SDG Group), che ha sottolineato come manchino ancora all’AI elementi fondamentali dell’intelligenza umana: ragionamento causale, motivazione intrinseca, finalità a lungo termine.

Use case: quando l’AI è già realtà

Antonio D’Ortenzio di AWS ha mostrato alla AI Week casi di AI generativa applicata: dalla creazione di documenti nel formato inclusivo easy read per il comune inglese di Swindon, alla compressione dei tempi di validazione documentarl nella ricerca farmaceutica con Yseop, fino ai modelli di monitoraggio ambientale di Latitudo 40, una startup napoletana che trasforma dati satellitari in strumenti per urbanisti e developer.

Brian Solis (ServiceNow) ha puntato il dito sul mindset: “Tutti investono in AI, ma solo l’1% lo fa bene. Serve passare da una cultura AI also a una cultura AI first“.

Zack Kass, già in OpenAI (fu tra i protagonisti del varo pubblico di ChatGPT a novenbre 2022), ha acceso i riflettori sullo scarto tra percezione e realtà tecnologica: “Siamo a una soglia sociale: accetteremo macchine intelligenti quanto, o più, dell’uomo? I nostri limiti sono culturali, non solo tecnici”.

L’AI nella Pubblica Amministrazione e il nodo competenze

Alla AI Week è intervenuto anche Paolo Zangrillo, Ministro per la pubblica amminiastrazione, che ha parlato dell’AI come leva per ripensare i processi e attirare giovani nella grande macchina pubblica, che oggi conta 3,2 milioni di impiegati (“sono il primo datore di lavoro italiano”, ha detto il ministro) e che nei prossimi 6 anni vedrà perdere 1 milione di persone. Ma ha anche riconosciuto il divario: “Il 46% di digitalizzazione di base non basta. Serve un piano di formazione per cittadini e dipendenti, non solo tecnica ma anche sociale”.

AI Act: visioni opposte, nodo strategico

Sul tema più caldo – la regolamentazione europea dell’AI Act – lo scontro è stato netto. Alec Ross l’ha bollato come “documento che è pane per i legali americani, non per le aziende europee”, mentre Brando Benifei, europarlamentare relatore dell’AI Act, ne ha difeso la visione: “Con l’AI serve infondere fiducia e dare trasparenza. Ma servono anche sgravi per le aziende che si mettono in regola con il dettato del regolamento. Non possiamo lasciare che l’oligopolio globale scarichi rischi e costi della compliance sulle nostre PMI”.

Benifei ha ricordato come l’AI Act non vieta lo sviluppo di modelli, ma interviene sui prodotti immessi nel mercato europeo, e ha introdotto sandbox regolatori per accompagnare le imprese nel loro percorso di compliance.

AI Week 2025: Marco Dalla Libersa di Arsenalia, Alec Ross e Giacinto Fiore
Marco Dalla Libera di Arsenalia, Alec Ross , Giacinto Fiore di IA Spiegata Semplice, organizzatore insieme a Pasquale Viscanti della AI Week

Dalla visione alla concretezza: l’AI può avere DNA italiano

Marco Dalla Libera di Arsenalia ha sintetizzato con il proprio esempio la missione delle imprese italiane che lavorano sull’AI: “Oggi noi rendiamo reale l’AI. Diamo forma concreta alle promesse”. E la partnership con brand come Calligaris dimostra che una AI “di prodotto”, capace di supportare vendite, montaggio e progettazione in negozio, non è più un esperimento, ma realtà.

Sempre secondo Ross, l’Italia ha grandi carte da giocare sullo scenario imprenditoriale mondiale: eccellenze nella robotica (rivela che i robot che usa Walmart nei suoi magazzini sono stati creati in Abruzzo), competenze nei politecnici, un genetico approccio umanistico alla tecnologia. Occorre però scongiurare il rischio di perdere i talenti e frenare chi vuole innovare.

Private AI: una priorità per le aziende italiane

Girando tra le postazioni degli espositori alla AI Week, una tendenza ha colpito: la proliferazione di soluzioni orientate alla Private AI. In un momento in cui la protezione del dato, la compliance normativa e la sovranità digitale sono temi strategici, cresce l’interesse per modelli AI addestrati e operativi all’interno delle infrastrutture aziendali, senza quindi passare da cloud pubblici o comunque ambienti esterni.

La Private AI consente alle imprese di sfruttare i vantaggi dell’intelligenza artificiale generativa, ma in ambienti protetti, mantenendo il controllo completo sui dati sensibili e migliorando l’aderenza alle normative europee come GDPR e AI Act. È un modello che risponde bene ai bisogni di settori regolati (sanità su tutti, ma anche finanza, pubblica amministrazione) e alle PMI che vogliono innovare senza dipendere dalle big tech e tenendo al sicuro la prioprietà intellettuale.

AI Week, il messaggio

La AI Week 2025 ha mostrato un’AI che non è più promessa, ma progetto reale. Un’AI che, tra visioni divergenti, casi concreti e necessità di regole chiare, si confronta con il mercato e con l’identità europea.

E la AI Week di Milano lancia un messaggio chiaro: il futuro dell’intelligenza artificiale non si decide tanto nei laboratori, ma nelle imprese, nelle istituzioni e, soprattutto, nella capacità delle persone di trasformare idee in valore reale.

Quali sono i vantaggi dei dispositivi ricondizionati?

Il contesto ambientale attuale richiede un’attenzione maggiore verso la sensibilità e il risparmio economico: al centro delle scelte di consumo individuale spicca l’acquisto di elettrodomestici e dispositivi ricondizionati, un’opportunità capace di offrire prestazioni eccellenti a prezzi accessibili.

Affinché tale opzione possa garantire numerosi vantaggi, come si valuta l’affidabilità e a chi rivolgersi? Facciamo chiarezza.

Perché acquistare dispositivi ricondizionati?

L’acquisto di dispositivi ricondizionati è una strategia moderna, intelligente che guarda al futuro.

La qualità incontra il risparmio e si fa riferimento ad articoli che sono stati restituiti al produttore o al rivenditore per vari motivi o semplicemente perché il cliente ha cambiato idea durante il periodo di recesso.

Un esempio pratico? Gli iPhone ricondizionati si presentano come prodotti esteticamente e funzionalmente al pari dei nuovi, venduti a prezzi inferiori rispetto al listino.

In questo caso si tratta di uno smartphone funzionante e garantito, che viene pagato molto meno rispetto a quello “appena uscito dalla scatola”, con la possibilità di ottenere ogni tipo di vantaggio.

Cosa significa “ricondizionato”?

Il termine “ricondizionato” indica un prodotto che, dopo essere stato restituito o ritirato, viene sottoposto a un processo di revisione tecnica. La parola “usato” non è pertinente, proprio perché i dispositivi vengono rigenerati per essere riportati a uno stato di efficienza pari al nuovo.

Durante il processo di ricondizionamento, i tecnici verificano ogni componente, sostituiscono eventuali parti difettose e aggiornano il software ove necessario. L’obiettivo è garantire che i dispositivi ricondizionati siano perfettamente funzionanti, sicuri e pronti per una seconda vita.

In molti casi, gli elettrodomestici rigenerati sono praticamente nuovi. Questi ultimi possono provenire da esposizioni in showroom, essere stati utilizzati come campioni dimostrativi o essere frutto di resi per motivi non legati a difetti tecnici. Una volta completato il ricondizionamento, il prodotto viene imballato e venduto con una garanzia che tutela l’acquirente, spesso di durata simile a quella del prodotto nuovo.

Dispositivi ricondizionati: tutti i vantaggi

I vantaggi nell’optare per dispositivi o elettrodomestici ricondizionati sono innumerevoli e tra i più importanti spiccano quelli che seguono.

Risparmio economico

Il primo beneficio tangibile dei dispositivi ricondizionati è il risparmio in termini di prezzo, infatti un dispositivo rigenerato costa dal 20% al 50% in meno rispetto al corrispettivo nuovo. Una strategia di alto profilo per accedere ai modelli di fascia alta e non sacrificare il budget.

Sostenibilità ambientale

Dare una seconda vita a un prodotto che, altrimenti, andrebbe a finire in discarica è un atto di grande attenzione verso l’ambiente. Un gesto che contribuisce a ridurre l’impatto devastante legato alla produzione e allo smaltimento degli apparecchi elettronici, favorendo un consumo responsabile.

Garanzia di qualità

I controlli ai quali vengono sottoposti i vari modelli sono rigorosi, e prima di essere rimessi in vendita gli apparecchi ricondizionati devono superare dei test tecnici approfonditi che ne certificano il corretto funzionamento.

Accesso a tecnologie più avanzate

La rigenerazione consente di acquistare dei prodotti di ultima generazione a prezzi accessibili, godendo delle innovazioni tecnologiche moderne. Oltre a ciò è bene evidenziare il fatto che la varietà di elettrodomestici e disposizione oggi è varia, con brand internazionali che soddisfano ogni tipo di esigenza personale, lavorativa o domestica.

Pagamenti, Dojo arriva in Italia per dare più velocità

Basta code al checkout, basta attese sul conto: potrebbe essere questo il motto con cui Dojo si presenta a retailer, catene di negozi, bar, ristoranti italiani, per velocizzare i pagamenti, a beneficio dell’esperienza dei clienti, e dare certezza di incasso.

Affidata in Italia ad Antonio Di Berardino, manager con un fulgido passato in Vodafone, Dojo (nome commerciale di Paymentsense Ireland Limited) nasce in UK 15 anni fa per rivendere un prodotto di acquiring.

Due anni di software engineering la portano a sviluppare la prima soluzione di gestione dei pagamenti in cloud che attualmente è utilizzata da oltre 150mila aziende in UK.

La proposta è di successo sia per i brand che per i clienti (svetta secondo le classifiche di Trustpilot), tant’è che la società ha deciso di espandersi in Europa: a gennaio ha inaugurato l’head quarter in Irlanda, poi ha aperto in Spagna e ora tocca all’Italia.

Il nostro paese, con 470 miliardi di transato digitale, un +8% annuo nell’utilizzo delle carte di pagamento, uno scontrino medio digitale in calo a 42,8 euro contro 45,5 del 2023, è secondo Di Berardino un terreno ideale per far attechire la soluzione di Dojo.

Sì perché i problemi dell’Italia sono, dal lato dei clienti, le attese e le code al checkout nei punti vendita e l’utilizzo di terminali obsoleti. Sul versante degli esercenti, temi caldi sono le operazioni complesse per riconciliare gli incassi e i margini di profitto sui pagamenti digitali bassi.

La strategia di Dojo è dunque quella di usare il cloud per semplificare il backoffice, ottenere transazioni veloci e quindi lo smaltimento delle code altrettanto rapido, garantendo al commerciante i conti al centesimo: vendono incassati il giorno successivo, tutti i giorni, sabato e domenica inclusi.

Per raggiungere la necessaria velocità di operazioni Dojo utilizza un’interfaccia intuitiva per la gestione contabile, terminali che integrano WiFi e 4G e un cloud posizionato in due region UE, affidandosi ad Aws e Google come hyperscaler.

Per garantire all’esercente l’arrivo dell’incasso il giorno dopo sul conto, Dojo fa leva sulla piattaforma di gestione dei pagamenti istantanei SEPA, di fatto anticipando di un giorno quanto solitamente avviene se i pagamenti digitali vengono gestiti dagli abituali provider.

15 modi per far lavorare meglio il personale con le comunicazioni unificate

Il personale è il nucleo vitale delle attività manifatturiere. Lo sostiene anche McKinsey che afferma come il grande tema del manifatturiero si chiami fattore umano.

Se è vero che l’automazione, i big data, tutte le moderne tecnologie smart e IoT offrono ai produttori opportunità senza precedenti per promuovere l’efficienza e aumentare sicurezza e ricavi, la chiave per sbloccare questo potenziale inizia con le risorse più importanti di cui dispone un imprenditore: le risorse umane.

E quando in gioco vi sono produttività, continuità e sicurezza, riuscire a comunicare con il proprio personale tempestivamente e in ogni situazione diventa un fattore competitivo.

Permettere ai team di collaborare in tempo reale tramite voce e dati, da qualsiasi rete o dispositivo, garantisce sicurezza e migliora efficienza e produttività.

Parlare con le persone di cui hai bisogno quando ne hai bisogno, reagire rapidamente agli incidenti e avere un quadro più ampio dell’organizzazione sono azioni che fanno la differenza tra prestazioni medie ed eccellenti.

Per il successo di un’organizzazione, è indispensabile disporre di una tecnologia che consenta di realizzare questi fattori.

Dalle comunicazioni vocali, al software collaborativo, alla video intelligence, Motorola Solutions mette a disposizione del mondo manifatturiero e industriale la tecnologia necessaria per far raggiungere al business risultati eccellenti.

Scarica la guida Motorola Solutions per le comunicazioni unificate in ambienti industriali

 

Grazie alle comunicazioni istantanee garantite dalle radio a due vie di Motorola Solutions, i team possono conversare in tempo reale con la semplice pressione di un pulsante.

Tutti i reparti possono essere connessi istantaneamente, indipendentemente dal dispositivo e dalla rete che utilizzano o dalla loro posizione, con la tecnologia push-to-talk a banda larga.

Motorola Solutions con il suo Safety and Security Ecosystem è anche sinonimo di sicurezza del personale e delle cose grazie all’interconnessione con tecnologie radio, video, dati e analisi. Tecnologie che consentono di sorvegliare l’attività quotidiana e ricevere avvisi quando accade qualcosa di insolito per un intervento immediato.

Una guida per rendere più efficienti i tuoi team di lavoro

Dalla ricezione dei prodotti per l’area di vendita, all’invio in uscita alla spedizione, tutto necessita di una connessione fluida per il funzionamento ininterrotto di una moderna struttura di produzione. Un solo componente mancante o un’avaria dell’apparecchiatura può portare a un’interruzione totale, una riduzione della produttività e un aumento dei costi. Comunicazioni efficienti e affidabili possono mantenere tutti connessi, in modo da poter collaborare con efficacia e portare a termine il lavoro.

WAVE PTX offre una soluzione di comunicazione efficace e versatile per i professionisti in vari contesti operativi. Questo sistema consente ai manager di mantenere la comunicazione fluida durante i viaggi d’affari, facilita l’accesso temporaneo alle comunicazioni per i conducenti in fasi critiche come la consegna o il ritiro, e supporta la collaborazione immediata tra i team di lavoro. Grazie alla sua capacità di localizzare rapidamente il personale di manutenzione, WAVE PTX si rivela utile nell’indirizzare tempestivamente i tecnici verso linee di produzione problematiche. Inoltre, il sistema permette di comunicare efficacemente con il team riguardo arrivi di consegne attraverso la portineria di sicurezza e di coordinare con precisione le operazioni in scenari critici, come le prove di evacuazione, tutto con un’interfaccia semplice e intuitiva.

Team e individui possono parlare, messaggiare o condividere video e file multimediali per collaborare più a stretto contatto, promuovere l’efficienza e migliorare la produttività. Le modalità sono differenti e si adattano ad ogni esigenza, come l’app mobile WAVE PTX su smartphone, sia Android che iOS, oppure le radio TLK dedicate; oppure connettendo WAVE PTX a una rete radio professionale MOTOTRBO già esistente per comunicazioni integrate tra utenti di smartphone e radio.

Motorola Solutions ha individuato 15 modalità per potenziare le tue squadre di lavoro attraverso comunicazioni unificate per ambienti industriali, tutti riconducibili a tre aspetti chiave dell’attività manifatturiera: produttività, continuità operativa, sicurezza.

Ognuno di questi aspetti è stato analizzato per fornire tutte le informazioni utili a trasformare le comunicazioni tra i team e ad aggiornare il modo di lavorare del personale.

Scarica la guida Motorola Solutions per le comunicazioni unificate in ambienti industriali

Per informazioni sulle soluzioni Motorola Solutions: www.aikomtech.com

MIX, al via il nuovo PoP in Equinix ML5

MIX, la piattaforma di interconnessione di reti internet italiana, rafforza la propria strategia di sviluppo con una presenza nel data center di Settimo Milanese.

MIX (Milan Internet Exchange) ha annunciato l’attivazione di un nuovo Punto di Presenza (PoP) presso ML5, il data center italiano realizzato da Equinix a Settimo Milanese, alle porte del capoluogo lombardo.

Il nuovo nodo in ML5 si aggiunge alla copertura della rete di peering pubblico già oggi presente nei maggiori datacenter del paese.

Il PoP collega clienti a 100Gbps ed è servito in doppia via alla rete LAN di peering MIX-IT, a cui sono interconnesse oltre 350 reti con una capacità complessiva superiore a 10 Tbps.

È dunque possibile collegarsi a MIX in ML5 con porte a 10GE, 100GE e multipli attraverso la capacità degli switch di bilanciare il traffico IP in modalità full wire speed.

Come tutti i nodi primari di MIX, l’architettura è pensata per garantire totale affidabilità su percorsi differenziati per tutti i clienti in ML5 che vorranno collegarsi alla LAN di peering con connessioni ridondate.

Il servizio andrà sicuramente incontro alle esigenze di content owner e content distributor.

Per potenziare l’esperienza utente durante l’utilizzo dei propri servizi, MIX ha inoltre lanciato una nuova versione del proprio Customer Portal, la piattaforma online dedicata ai clienti.

La nuova release, presenta diverse novità tra le quali un maggiore controllo nella gestione delle anagrafiche e statistiche di traffico migliorate.

Leggi tutti i nostri articoli su MIX

Metaverso: come progettare un mondo virtuale

0

Se consideriamo che una delle più grandi aziende tecnologiche del mondo ha recentemente cambiato il suo nome in Meta, è chiaro che la grande tendenza tecnologica è il metaverso.

Ogni giorno porta nuove storie e speculazioni su come potrebbe funzionare, ma sono in molti a pensare che il metaverso sia qui per restare. Una questione interessante è capire quali possano essere le interazioni tra questo mondo virtuale tutto da scoprire e il design.

Dal punto di vista del design, il metaverso offre un mondo di possibilità infinite.

Semplicemente non si è più legati alle leggi della fisica” commenta con noi Philippe Sourdois, Managing Director di Tétris Italia, società del Gruppo JLL specializzata in progettazione e realizzazione di spazi.

Questo significa che i luoghi di lavoro nel metaverso saranno limitati solo dall’immaginazione del designer. “Possiamo spingere i confini del metaverso e progettare spazi in cui siamo fluttuanti e non seduti a una scrivania, o si può avere una configurazione più tradizionale per le riunioni“.

Il metaverso offre una libertà che non si ha nella vita reale; per esempio, non bisogna attenersi al regolamento edilizio, e questo è qualcosa che stimola i designer.

Questo interesserà altri spazi e non è esclusivo dei luoghi di lavoro. Ma come si fa a progettare e costruire questi spazi?

Philippe Sourdois, Managing Director di Tétris Italia

Quello che succederà è che un architetto disegnerà un modello che poi sarà consegnato a un designer di software per videogiochi per essere costruito nel mondo virtuale. Non è così inverosimile come sembra – il salto tra digitale e virtuale è più piccolo di quanto molti possano pensare” continua Sourdois.

Javier Furones, Ceo di Voicehumans, un’azienda che crea intelligenza artifciale per la forza lavoro con esseri umani digitali per l’esperienza del consumatore e le strategie del metaverso, dice che le aziende si stanno concentrando su un nuovo modo di concepire l’esperienza del consumatore e il rapporto con i brand. Per Furones il metaverso è un’amplificazione della realtà. Non è solo la realtà virtuale, ma anche il mondo digitale portato nel fisico.

Il branding esiste già nel metaverso ed è simile alla vita reale, ma questo è solo l’inizio perché le possibilità nel metaverso sono infinite. L’evoluzione naturale del branding nel metaverso sarà la pubblicità in 3D e i cartelloni pubblicitari che si rivolgono agli avatar e interagiscono con loro.

Un settore che potrebbe trarre grande beneficio dal metaverso è la vendita al dettaglio, dato che la maggior parte delle persone sono abituate a fare acquisti online, l’idea di fare acquisti nel metaverso non è troppo azzardata.

Per i venditori senza vetrine fisiche come Etsy e Boohoo, questo potrebbe causare un’esplosione delle vendite, dato che gli avatar delle persone saranno in grado di “provare prima di comprare”. “Tutti sono a loro agio con lo shopping online, quindi il metaverso potrebbe essere un ulteriore passo avanti e migliorare la loro esperienza“, spiega Sourdois.

Il retail è stato tra i primi settori ad introdurre il metaverso. “I primi ad adottarlo sono stati senza dubbio brand di lusso come Balenciaga e il suo lancio di collezioni di moda NFT, e marchi di moda come Zara e il suo gemello al dettaglio Zepeto, Adidas e la sua collezione NFT“, dice Sourdois.

Ora, aziende come banche, servizi assicurativi e commerciali verticali vogliono espandere i loro servizi per attrarre i consumatori più giovani che sono più difficili da raggiungere attraverso i media fisici e tradizionali.

Parlando di shopping nel metaverso, molte persone con neurodiversità o disabilità non possono fare shopping di persona; quindi, il metaverso potrebbe aumentare notevolmente l’inclusività in quanto le persone saranno in grado di provare i vestiti, per esempio, senza lo stress e la difficoltà di girare per negozi. Lo shopping nel metaverso potrebbe rendere le cose più accessibili, dato che le persone saranno in grado di ‘entrare’ in un negozio e avere un’idea se qualcosa possa andare bene e come potrebbe stare, piuttosto che ordinare e sperare che vada bene.

Metaverso: le implicazioni per gli spazi di lavoro

Un altro modo in cui le persone beneficeranno del metaverso è attraverso la comunicazione. Anche se la pandemia di Covid sta rallentando, alcune persone sono ancora preoccupate di andare in ufficio e di trovarsi potenzialmente esposte. “Attualmente, usiamo le videochiamate per incontrarci dall’altra parte del mondo e ci vediamo solo in faccia, ma il metaverso potrebbe riunirci tutti insieme come avatar e, considerando che il 70% della nostra comunicazione è attraverso il linguaggio del corpo, potrebbe essere di grande beneficio in termini di comprensione e conoscenza reciproca“, aggiunge Sourdois.

Ci sono sensori di movimento e telecamere in fase di sviluppo che utilizzano l’IA per captare i comportamenti e le espressioni, ma questi progetti sono ancora in fase di sviluppo ed è improbabile che vengano introdotti durante le prime fasi del metaverso.

L‘immersione è un altro beneficio chiave, specialmente in termini di salute e benessere dei dipendenti. Molti uffici ora hanno spazi di meditazione o pod, quindi il metaverso potrebbe permettere sessioni di meditazione veramente coinvolgenti e guidate in modo che il personale possa rigenerarsi. Dobbiamo anche pensare a riprogettare il mondo fisico per accogliere il metaverso. I pod e le stanze insonorizzate aiuteranno a creare un’esperienza immersiva.

Le questioni da risolvere

Nonostante i potenziali benefici del metaverso, ci sono alcune preoccupazioni. Per esempio, le persone hanno il potere di progettare il proprio avatar, che non deve necessariamente corrispondere al loro aspetto reale. Questo potrebbe comportare qualche ritocco e ci dovrà essere un modo per garantire che le persone siano chi dicono di essere per evitare violazioni della sicurezza o della privacy.

Furones prende una posizione più positiva: “Un avatar è un esaltatore di ciò che si vuole vedere di sé stessi. Gli avatar sono i nuovi loghi per i brand, e la nuova forma di personalità per gli esseri umani“.

Un’altra preoccupazione è l’isolamento. Durante la pandemia, abbiamo visto l’effetto che l’isolamento e la solitudine hanno avuto sulla salute e il benessere delle persone – la ricerca suggerisce che la solitudine cronica può essere dannosa come fumare 15 sigarette al giorno. Se il metaverso si normalizza e lo usiamo sempre di più nella nostra vita quotidiana, dovremo essere consapevoli di trovare un equilibrio tra il mondo reale e quello virtuale.

E l‘inclusione? C’è il rischio che le vecchie generazioni possano sentirsi escluse da questo nuovo modo di interagire. “Fondamentalmente, il metaverso è un mezzo per raggiungere la Gen Z, tuttavia, credo che ogni generazione alla fine sarà inclusa una volta che avrà compreso il salto all’economia 2.0 e il modo interattivo ed emozionante di relazionarsi con i brand a livello sociale nel metaverso“, aggiunge Sourdois.

Anche se il metaverso sta compiendo i suoi primi passi, è chiaro che diventerà una parte di tutte le nostre vite nel tempo.

C’è un forte sviluppo e investimento nel metaverso, che apre un mondo di possibilità. Ma per ora, niente può sostituire del tutto l’interazione della vita reale, che richiede spazi progettati per incoraggiare la connessione faccia a faccia.

Leggi tutti i nostri articoli sul metaverso

Dassault Systèmes: Gian Paolo Bassi alla guida di 3DExperience Works

In qualità di Executive Vice President, Bassi guiderà la crescita di un’ampia organizzazione con l’obiettivo di continuare la crescita di 3DExperience Works. Manish Kumar gli subentra come Ceo di Solidworks.

Gian Paolo Bassi, per sette anni Ceo di Solidworks, guiderà l’organizzazione 3DExperience Works di Dassault Systèmes in qualità di Executive Vice President. Manish Kumar, responsabile della divisione R&D di Solidworks dal 2018, ne acquisisce il ruolo di Ceo.

La nomina di Gian Paolo Bassi segue la creazione di successo di 3DExperience Works, portfolio di soluzioni in cloud basato sulla piattaforma 3DExperience di Dassault Systèmes, avvenuta nel 2019, customizzato per i clienti Solidworks, per le aziende del mid-market e il loro ecosistema.

Bassi guiderà dunque un’ampia organizzazione finalizzata alla continua crescita di 3DExperience Works e alla massimizzazione del valore fornito allo spazio di innovazione mainstream.

Con oltre 25 anni di esperienza nei settori del 3D, CAD e PLM, in Dassault Systèmes Bassi ha svolto un ruolo di primo piano per la crescita e la diversificazione di Solidworks, sin dal suo ingresso in azienda nel 2011.

Come CEO di Solidworks Bassi ha guidato lo sviluppo delle future strategie di prodotto e tecnologiche del marchio progettate per il desktop e il cloud. In precedenza ha ricoperto il ruolo di Vice President Research & Development di Solidworks.

La nomina di Manish Kumar persegue l’impegno e gli investimenti di Dassault Systèmes nella ricerca e sviluppo di Solidworks, tratto distintivo del brand. Kumar, in qualità di Vice President R&D di Solidworks, ha giocato un ruolo chiave nello sviluppo delle strategie di prodotto e tecnologiche di Solidworks. In qualità di nuovo CEO di Solidworks Kumar si occuperà delle sinergie tra R&D e la community di utenti del marchio, oltre ad accelerare l’adozione del portfolio Solidworks in continua espansione.

Kumar è entrato a far parte del team R&D di Solidworks nel 1998 come sviluppatore software; ha contribuito in modo determinante ai primi sviluppi di Solidworks in varie aree come traduttori, surfacing, modellazione, sketcher, assemblaggio, saldature, lamiera e disegni.  Inoltre, Kumar ha guidato lo sviluppo della piattaforma 3DExperience nell’area R&D di Solidworks ed è stato un attore chiave nella trasformazione che ha portato Solidworks verso un solido percorso di innovazione e il “futuro della progettazione”, attraverso la collaborazione con il più grande team R&D di Dassault Systèmes.

Reti IoT satellitari, come e perché stanno diffondendosi

1

La realizzazione di sistemi di raccolta e controllo dei dati in aree remote, prive di infrastrutture di comunicazione disponibili, è stata finora una sfida molto significativa. Tuttavia, le innovazioni messe in atto in svariate aree stanno ora consentendo la raccolta dei dati via satellite, collegando reti a basso consumo in aree remote a piattaforme  analitiche di data mining su larga scala.

Questa connettività realmente globale per il massive Internet of Things (Low Power Wide Area IoT)  ha il potenziale per cambiare radicalmente il monitoraggio ambientale, l’agricoltura intelligente, l’estrazione mineraria, la produzione di petrolio e gas, il trasporto marittimo, asset tracking e logistica, i trasporti, la gestione delle infrastrutture pubbliche e molti altri ambiti, con i servizi commerciali in avvio da quest’anno.

Il dato su cui riflettere è che solo il dieci percento della superficie della Terra dispone di connettività realizzata per via terrestre, quindi è sempre più importante trovare una soluzione per offrire reti in grado di veicolare dati provenienti da regioni remote.

È in effetti già presente una enorme richiesta di connettività globale a basso costo per dispositivi IoT e in molti settori, con 75 miliardi di dispositivi IoT che dovrebbero essere online entro il 2025 secondo la società di ricerche di mercato Statista.

Tuttavia, molti di questi si trovano in località rurali, o remote, quindi prive di connettività. L’obiettivo prioritario di implementare progetti IoT che aiutino a proteggere il pianeta, sviluppare le economie locali e migliorare la vita delle persone richiederà enormi Reti IoT per espandersi in tutto il mondo.

L’avvento di nuovi, convenienti nano-satelliti, dell’innovativa stampa 3D in metallo in alcuni casi, e l’elettronica a bassa potenza hanno spostato l’economia delle reti satellitari verso reti IoT a basso consumo energetico ormai in tutti i tipi di applicazioni.

I servizi dati esistenti erogati dai tradizionali satelliti geostazionari sono costosi e ottimizzati per servizi dati, voce e banda larga, applicazioni marittime e aeronautiche con terminali satellitari terrestri di grandi dimensioni, pesanti e affamati di energia.

L’autore dell’articolo, Remi Lorrain, è Global LoRaWAN Networks Director at Semtech

Tuttavia, alcuni satelliti geostazionari che beneficiano di un servizio zero-latency potrebbero essere sfruttati per partecipare allo sviluppo dell’IoT satellitare come EchoStar.

Allo stesso tempo, piccoli satelliti dal peso inferiore a 1kg, e fino a 10kg, possono ora essere lanciati da razzi privati condivisi in una Low Earth Orbit (LEO) di 500 km.

Questi formano costellazioni comprese tra le decine e fino a centinaia di satelliti che orbitano intorno alla Terra ogni 120 minuti e oltre (a seconda del tipo di orbita) per fornire copertura dati alle regioni remote.

L’aumento del numero di satelliti porta principalmente a ridurre la latenza nella connettività IoT aggiungendo maggiore capacità di elaborazione, essendo la copertura globale disponibile con un numero molto limitato di satelliti.

Questa orbita ad altezze inferiori è meno sensibile alle radiazioni, consentendo così l’utilizzo di componenti più economici e riducendo ulteriormente i costi per la creazione della rete. Ciò si traduce in minori costi dei dati e apre le comunicazioni satellitari alle LPWAN (Low Power Wide Area networks).

Le reti LPWAN possono utilizzare i collegamenti dati satellitari in diversi modi. A Una rete LPWAN ha spesso migliaia di nodi di sensori sparsi su un’area, anche a distanze di chilometri. Questi sensori possono monitorare la temperatura, l’umidità, l’acqua nel suolo o persino il fumo, importante nel rilevare l’inizio di incendi boschivi.

Questi sensori, alimentati a batteria, sono connessi attraverso collegamenti wireless, e inviano piccoli messaggi con cadenze di pochi minuti, ore o giorni su un collegamento con una larghezza di banda tipica compresa tra qualche centinaio di bit/s e fino ad alcune decine di kilobit/s a seconda della modulazione radio.

Tutti questi sensori si ricollegano quindi ad un gateway posto anche a molti chilometri di distanza, e che a sua volta si collega ad una rete backhaul. Nelle aree urbane o nelle smart city, questo può essere un cablaggio in fibra ottica o in rame, una rete cellulare 4G o 5G o anche un collegamento fisso point-to-point di accesso wireless.

Nel mezzo delle campagne del Nord America o tra i deserti dell’Africa questa però non rappresenta un’opzione. Nelle aree remote, un gateway può connettersi direttamente ad un satellite tramite una connessione VSAT o un servizio satellitare mobile. Questo è il modo in cui gli operatori satellitari realizzano in back-haul per le reti LPWAN in aree difficili da raggiungere.

Sfortunatamente, l’alimentazione per il gateway LPWAN non è sempre disponibile né protetta (problemi di sicurezza in alcune aree) o i dispositivi IoT sono distribuiti su vaste aree (ad esempio il monitoraggio delle condutture) al di fuori della portata di un gateway LPWAN. Pertanto, la capacità di Lacuna Space, EchoStar ed Eutelsat di offrire connettività diretta da dispositivo a satellite sta cambiando il modello di business per i satelliti LPWAN. I sensori IoT vengono implementati in vaste aree dei continenti e la flotta di dispositivi mobili è in grado di estendersi in tutto il mondo, compresi i mari. Non è necessario installare, alimentare e mantenere un’infrastruttura di gateway terrestre.

La chiave è che questi satelliti trasportano payload che gestiscono i messaggi LPWAN in modo nativo utilizzando gli stessi schemi di modulazione delle reti terrestri, trasmettendo i dati da tutto il mondo. Gli Operatori Satellitari come Lacuna Space, EchoStar e Eutelsat  possono adattare le architetture dei gateway terrestri allo spazio o sviluppare il proprio sistema Software Defined Radio (SDR) implementando la modulazione LPWAN ai payload  spaziali.

Questo approccio nativo consente l’uso di dispositivi terrestri preesistenti, che possono sfruttare gli esistenti maturi ecosistemi IoT prevenendo l’aumento dei costi per la costruzione di moduli satellitari proprietari ad un consumo energetico più elevato. Inoltre, l’utilizzo dello stesso protocollo radio tra le reti satellitari e terrestri favorisce il roaming continuo per i dispositivi IoT che si estendono su un’onnipresente copertura combinata, satellitare e terrestre.

Per l’industria petrolifera e del gas, i dati possono essere costituiti dall’analisi delle prestazioni delle apparecchiature sulle piattaforme petrolifere, o sugli oleodotti o ancora sui tralicci dell’elettricità e negli ambienti più difficili.

Ciò può essere asservito sia a linee di monitoraggio dei dati dei sensori sia valvole di controllo. Questi dati possono essere utilizzati anche per la manutenzione predittiva, utilizzando l’apprendimento automatico per identificare quegli schemi nei dati che indicano che una tal macchina si guasterà in un prossimo o remoto futuro. Ciò consente di riparare o sostituire le apparecchiature durante una manutenzione programmata anziché guastarsi in un qualsiasi ed imprevedibile momento.

Tra le foreste, i sensori LPWAN possono essere utilizzati per rilevare i primi segni di incendi boschivi nelle aree più remote. I sensori utilizzano una rete mesh per trasportare i dati da un nodo all’altro, e di nuovo ad un gateway.

Questo può essere alimentato da un pannello solare per fornire il collegamento al satellite quindi tornare ad una stazione monitor. Anche in questo caso, gli algoritmi di apprendimento automatico possono identificare probabili aree di incendio e allocare risorse per combattere gli eventuali focolai.

Avere un sistema LPWAN satellitare consente anche di realizzare supply chain più efficienti, con apparecchiature e container tracciati in tutto il mondo. Alcuni nodi LPWAN possono connettersi direttamente al satellite senza dover utilizzare un gateway, consentendo di tracciare le spedizioni in tempo reale in qualsiasi parte del mondo esse si trovino, sia su una nave portacontainer che su un camion nella più remota delle regioni mentre effettua una consegna.

Una nuova tecnologia di modulazione denominata Long Range – Frequency Hopping Spread Spectrum (LR FHSS) estende il supporto per le reti LPWAN con collegamenti dati diretti da nodi finali ai satelliti utilizzando le banda di frequenza Industrial, Scientific and Medical (ISM), senza licenza o lo spettro con licenza.

LR-FHSS può supportare milioni di nodi finali ed offre un nuovo, più elevato livello di robustezza per tutti i tipi di servizi IoT. Fornisce un’elevata resistenza alle interferenze riducendo così le collisioni di pacchetti attraverso l’aumento dell’efficienza spettrale che porta ad una maggiore capacità della rete.

Il protocollo suddivide ogni pacchetto di dati inviato da un nodo finale in piccoli pezzi, ciascuno dei quali lungo circa 50 millisecondi, e li distribuisce casualmente su una larghezza di banda di frequenza definita. Utilizza inoltre header fisici ridondanti su frequenze diverse per migliorare ulteriormente la robustezza della modulazione nei confronti delle interferenze,  consentendo ai satelliti di captare i segnali sub-GHz.

Avere una rete dati satellitare separata per le applicazioni IoT consente alle reti di sensori esistenti di espandersi rapidamente e facilmente senza sostituire l’infrastruttura di rete esistente. La modulazione terrestre LPWAN e LR-FHSS possono coesistere contemporaneamente nel gateway o nel server di rete e i diversi gateway possono coesistere sulla stessa rete.

Questo è di crescente interesse per applicazioni come lo smart metering o smart building.  LR-FHSS consente una maggiore capacità di rete per gli end node distribuiti in condizioni radio difficili (a grandi distanze, o indoor o deep indoor), in particolare contatori intelligenti che possono trovarsi nei luoghi meno accessibili di un edificio. Avere una connessione diretta ad una rete satellitare evita la necessità di costruire o estendere una rete di gateway.

Ricercatori di mercato come IHS Markit , prevedono che i contatori intelligenti e le applicazioni di utenze connesse tramite tecnologie LPWAN raggiungeranno un totale di oltre 300 milioni entro il 2023.

LR FHSS è anche abilitato in una suite di strumenti per i transceiver chips  SX1261 e SX1262, la piattaforma LoRa Edge™, e il progetto di riferimento  per gateway V2.1.

Nelle reti LoRaWAN in cui sono implementati gateway V2.1, gli operatori possono abilitare la nuova funzionalità con un semplice aggiornamento del firmware del gateway stesso per fornire connessioni più solide in condizioni radio difficili, e in alcune regioni offrirà la possibilità di aumentare la copertura terrestre.

Almeno 70 reti IoT LPWAN satellitari sono state lanciate o sono in fase di prossimo lancio, fornendo un’ampia gamma di modelli di coinvolgimento, dalle connessioni dirette ai collegamenti gateway. Ciò offre agli utenti aziendali più opzioni di tipologia di rete e motori analitici. Ciò aumenta anche il volume, aumenta la concorrenza e riduce i processi.

Lacuna Space, EchoStar ed Eutelsat hanno sperimentato le reti IoT che utilizzano LR-FHSS in più paesi e prevedono di avviarne i servizi commerciali entro il 2022.

Una volta che il costo della connettività satellitare verrà ridotto, emergerà un numero infinito di nuovi casi d’uso, che potranno essere applicabili nelle smart city e nelle infrastrutture urbane. Con l’aggiunta della modulazione satellitare diretta, le reti satellitari svolgeranno un loro importante ruolo nello scatenare la massiccia espansione di casi d’uso dell’IoT al fine di proteggere l’ambiente, sviluppare le economie locali e migliorare la vita delle persone, integrando le reti LPWAN terrestri oggi disponibili in quasi 200 paesi.

Econocom, Alessio Lechiara è il nuovo country manager

0

Econocom Italia ha annunciato la nomina di Alessio Lechiara a Country Manager del Gruppo Econocom Italia.

Alessio Lechiara sarà responsabile della strategia del Gruppo Econocom sul mercato italiano e avrà il compito di rafforzare il ruolo dell’azienda come pioniere nella locazione operativa in Italia e primo general contractor digitale, con un modello di business che verte su progetti di implementazione e aggiornamento delle tecnologie digitali, e che accanto all’individuazione di soluzioni tecnologiche e alla fornitura di beni e servizi, abbina offerte a canone, flessibili e create su misura.

Nell’agenda del nuovo country manager la priorità verte sullo sviluppo del business in Italia, con focus sull’ecosistema di partner strategici, sulle sinergie all’interno del Gruppo e sull’acquisizione di ulteriori competenze e risorse, anche attraverso la crescita inorganica.

Alessio Lechiara ha una pluriennale esperienza internazionale in ambito Finance e M&A ed è entrato in Econocom a maggio 2020 con il ruolo di Chief Financial Officer.

Precedentemente Lechiara ha lavorato per molti anni all’interno del gruppo Ansaldo Energia, ricoprendo ruoli di progressiva responsabilità, culminati nella nomina a Chief Financial Officer di Ansaldo Gas Turbines Technology e Shanghai Electric Gas Turbines nell’ambito dell’accordo strategico tra Shanghai Electric e CDP.

Dopo aver trascorso tre anni in Cina e seguito varie operazioni di M&A, si è trasferito nel 2019 negli Stati Uniti, dove ha ricoperto il ruolo di Chief Financial Officer di Power System Mfg, società del gruppo Ansaldo Energia focalizzata sulla maintenance di centrali elettriche di parti terze.

Lavazza ha portato i processi di business sul cloud Azure

Il gruppo torinese Lavazza ha portato a termine un progetto di migrazione al cloud di Azure di tutte le applicazioni aziendali con l’aiuto di Techedge: i processi e i dati del Gruppo Lavazza sono stati progressivamente trasferiti da tre data center al cloud pubblico.

Gruppo Techedge e Microsoft hanno condotto il progetto strategico di migrazione al cloud che ha consentito al Gruppo Lavazza di migliorare flessibilità, competitività e sostenibilità ambientale.

A orientare il progetto di migrazione internamente a Lavazza è stato l’Ict Director, Fabio Rangaioli.

La tecnologia di Microsoft e la competenza di Techedge hanno consentito al Gruppo Lavazza di affrontare in pochi mesi la transizione a una nuova infrastruttura IT cloud-based, gestendo la complessità dell’architettura applicativa tipica del Gruppo Lavazza, la varietà dei processi di business e le specificità dei brand.

La migrazione al cloud è stata pianificata con l’obiettivo di ottenere maggiore flessibilità per cogliere nuove opportunità di business e rispondere alle esigenze di un mercato in costante evoluzione.

La strategia del Gruppo Lavazza ha portato alla definizione di un programma globale di trasformazione digitale in seno al quale il progetto di migrazione al cloud ha giocato un ruolo cardine: portare sul cloud pubblico centinaia di istanze di sistemi operativi, oltre 70 applicazioni e circa 90 terabyte di dati aziendali per garantire efficienza operativa e scalabilità, riducendo al contempo consumi energetici e, più in generale, l’impatto ambientale della funzione Ict del Gruppo.

Dopo una fase iniziale di assesment, pianificazione e preparazione dell’architettura su Azure, i processi e i dati del Gruppo Lavazza sono stati progressivamente trasferiti dai tre data center on premise precedentemente in uso al cloud pubblico di Microsoft.

 

Data Act: la nuova Europa prende forma attorno al valore dei dati

Varato dalla Commissione europea il 23 febbraio, il Data Act è una misura normativa ritenuta fondamentale per rendere disponibili più dati. Nasce per garantire l’equità nell’ambiente digitale.

Oggi 23 febbraio 2022 la Commissione europea ha adottato la proposta di regolamento sulle norme armonizzate relative all’accesso e l’utilizzo equo dei dati, complesso legislativo noto anche come Data Act.

Il Data Act è ritenuto da Bruxelles un pilastro fondamentale della strategia europea per i dati e fornirà un contributo importante all’obiettivo di trasformazione digitale del decennio digitale.

Le nuove misure giuridiche stabilite integrano il regolamento sulla governance dei dati del novembre 2020. Ma mentre il regolamento sulla governance dei dati crea i processi e le strutture per facilitare lo scambio dei dati, il Data Act chiarisce chi può creare valore dai dati e a quali condizioni lo può fare.

L’IoT al centro del Data Act

Il Data Act nasce dunque per garantire l’equità stabilendo regole relative all’uso dei dati generati dai dispositivi Internet of Things (IoT) a beneficio degli utenti.

Il Data Act mira anche a a garantire la coerenza tra i diritti di accesso ai dati, che sono spesso sviluppati per situazioni specifiche e con regole e condizioni variabili.

Ciò significa che anche se il Data Act non pregiudica gli obblighi esistenti in materia di accesso ai dati, eventuali norme future dovrebbero essere coerenti.

Le regole esistenti dovrebbero essere valutate e, se del caso, allineate al Data Act quando la loro revisione è dovuta.

Il Data Act nasce dunque per garantire l’equità nell’ambiente digitale, stimolare un mercato dei dati competitivo, aprire opportunità per l’innovazione basata sui dati e rendere i dati più accessibili a tutti.

Nelle intenzioni di Bruxelles porterà alla nascita di servizi innovativi e prezzi più competitivi per i servizi di aftermarket e le riparazioni di oggetti connessi, in linea con gli obiettivi digitali per il 2030.

Come è composto il Data Act

Il Data Act renderà disponibili più dati a beneficio delle imprese, dei cittadini e delle pubbliche amministrazioni attraverso una serie di misure.

Misure per aumentare la certezza del diritto per le aziende e i consumatori che generano dati su chi può utilizzare quali dati e a quali condizioni e incentivi per i produttori a continuare a investire nella generazione di dati di alta qualità.

Le misure semplificheranno il trasferimento dei dati tra fornitori di servizi e incoraggeranno più attori, indipendentemente dalle loro dimensioni, a partecipare all’economia dei dati.

Misure per prevenire l’abuso degli squilibri contrattuali che ostacolano la condivisione equa dei dati. Le Pmi saranno tutelate da clausole contrattuali abusive imposte da una parte che gode di una posizione di mercato significativamente più forte. La Commissione europea svilupperà clausole contrattuali tipo per aiutare tali partecipanti al mercato a redigere e negoziare contratti di condivisione dei dati equi.

Mezzi per gli enti del settore pubblico per accedere e utilizzare i dati detenuti dal settore privato che sono necessari per specifici scopi di interesse pubblico. Ad esempio, per sviluppare approfondimenti per rispondere in modo rapido e sicuro a un’emergenza pubblica, riducendo al minimo l’onere per le imprese.

Nuove regole che stabiliscono le giuste condizioni quadro affinché i clienti possano passare da un fornitore all’altro di servizi di elaborazione dati per sbloccare il mercato cloud dell’Unione europea. Questi contribuiranno anche a un quadro generale per un’efficiente interoperabilità dei dati.

Inoltre, il Data Act rivede alcuni aspetti della Direttiva sui database, che risale agli anni 90, per proteggere gli investimenti nella presentazione strutturata dei dati.

In particolare, chiarisce che i database contenenti dati da dispositivi e oggetti IoT non dovrebbero essere soggetti a una protezione legale separata. Questo garantirà che sia possibile accedervi e utilizzarli.

Consumatori e aziende potranno accedere ai dati del proprio dispositivo e utilizzarlo per servizi aftermarket e a valore aggiunto, come la manutenzione predittiva. Avendo maggiori informazioni, consumatori e utenti come agricoltori, compagnie aeree o imprese di costruzione saranno in grado di prendere decisioni migliori come acquistare prodotti e servizi di qualità superiore o più sostenibili, contribuendo agli obiettivi del Green Deal.

Gli operatori economici e industriali avranno a disposizione più dati e trarranno vantaggio da un mercato dei dati competitivo. I fornitori di servizi aftermarket saranno in grado di offrire servizi più personalizzati e competere su un piano di parità con servizi comparabili offerti dai produttori, mentre i dati possono essere combinati per sviluppare anche servizi digitali completamente nuovi.

Il testo del Data Act

Kyndryl e Aws, patto di ferro per il cloud che fa innovazione

Kyndryl ottiene lo status di Premier Global Alliance Partner e con Aws dà vita a un centro di eccellenza per il cloud che farà servizi per infrastrutture mission critical, mainframe, edge computing ed Erp.

Con una nota Kyndry annuncia una partnership strategica con Amazon Web Services tesa a riunire le rispettive competenze, abilità e risorse globali per aiutare le aziende a trasformarsi attraverso servizi e soluzioni cloud focalizzati sull’industria.

Oltre a collaborare con Aws per fornire soluzioni a livello globale, Kyndryl prevede di costruire le infrastrutture interne dei clienti in cloud sfruttando Aws quale fornitore preferenziale. Allo scopo Aws diventa Kyndryl Premier Global Alliance Partner.

Kyndryl e Aws, si legge nella nota, investiranno nella costruzione di una practice globale Aws con le abilità, i servizi e le competenze per fornire l’esperienza cliente migliore della categoria.

Kyndryl stabilirà un Aws Cloud Center of Excellence per daresoluzioni e servizi  in grado di supportare infrastrutture mission critical, tecnologie di nuova generazione e modernizzare applicazioni e flussi di lavoro in tutti i settori.

Il Cloud Center of Excellence dovrà consentire  ai professionisti di Kyndryl a livello globale di ottimizzare la migrazione dei loro clienti con Aws, sfruttando la disponibilità, l’affidabilità e la sicurezza del cloud.

Per offrire un valore differenziato ai clienti, Kyndryl e Aws stanno sviluppando un acceleratore per VMware Cloud su Aws sfruttando la loro partnership con Vmware.

Attraverso l’acceleratore, professionisti qualificati di Aws, Vmware e Kyndryl forniranno una profonda esperienza e soluzioni personalizzate per aiutare le più grandi imprese del mondo a combinare i già esistenti investimenti Vmware con i servizi Aws.

Data l’alta concentrazione di clienti Kyndryl che gestiscono Vmware on premises, questo fornisce un percorso accelerato verso Vmware Cloud su Aws e aiuta le organizzazioni a eseguire i loro carichi di lavoro mission-critical nel cloud.

Come Premier Global Alliance Partner e membro certificato MSP dell’Aws Partner Network (APN), Kyndryl ha investito nello sviluppo delle competenze Aws e ha costruito un team esperto di professionisti dei servizi certificati Aws attraverso la Kyndryl Academy per AWS.

Kyndryl e Aws, conclude la nota, investiranno ulteriormente nella formazione di oltre 10.000 professionisti Kyndryl entro la fine del 2022, aggiornandoli in una vasta gamma di competenze AwsS per supportare la rapida adozione di servizi e soluzioni cloud dei suoi clienti in tutto il mondo.

 

Europa digitale, al via il secondo round di inviti alle imprese

La Commissione europea investirà ulteriori 292 milioni di euro nelle tecnologie digitali e nella cybersecurity. Al via le candidature per le sovvenzioni.

La Commissione europea ha lanciato oggi il secondo ciclo di inviti a presentare proposte nell’ambito del programma Europa digitale, che fa seguito all’adozione dei programmi di lavoro e al primo ciclo di inviti pubblicati lo scorso novembre.

Gli inviti sono aperti alle imprese, alle organizzazioni e alle amministrazioni pubbliche degli Stati membri dell’UE e dei paesi EFTA/SEE, oltre che alle entità di altri paesi associati al programma.

Questo finanziamento comporterà un investimento di oltre 249 milioni di euro in diversi settori: spazi di dati, infrastrutture europee di blockchain, corsi di formazione sulle competenze digitali avanzate, soluzioni digitali per migliori servizi pubblici, progetti pilota sull’uso dell’intelligenza artificiale per combattere la criminalità e relative strutture di test.

Queste ultime sperimenteranno l’intelligenza artificiale per la produzione, l’alimentazione, la salute e le comunità intelligenti.

In aggiunta un investimento di 43 milioni di euro in sovvenzioni sosterrà la cibersicurezza nel settore sanitario e la realizzazione di una rete di centri per aiutare gli Stati membri ad attuare la pertinente legislazione dell’Unione europea in materia di cybersecurity.

Il termine per la presentazione delle offerte è fissato al 17 maggio 2022. Maggiori informazioni sulle domande di sovvenzione nell’ambito di questa serie di inviti a presentare proposte sono disponibili sul sito della Commissione europea.

Ulteriori inviti a presentare proposte nell’ambito del programma Europa digitale dovrebbero essere pubblicati entro la prossima estate.

Perché il cloud non può fare a meno di un application delivery controller

Ospitiamo un intervento di Giacinto Spinillo, Regional Sales Manager A10 Networks su come supportare le aziende nella trasformazione digitale garantendo la disponibilità e sicurezza delle applicazioni.

Componenti come l’application delivery controller sono sempre più importanti nella migrazione, che le aziende stanno intraprendendo, verso hybrid e multicloud per garantire le prestazioni, la disponibilità e la sicurezza delle applicazioni.

La pandemia COVID-19 ha sottolineato l’importanza della resilienza digitale nell’era moderna. Con gran parte dei dipendenti che lavorano da casa, e uno spostamento online delle attività delle persone (dal settore bancario alla vendita al dettaglio, dai media all’intrattenimento, fino alla sanità), garantire le prestazioni delle applicazioni e la loro disponibilità è diventata una questione di sopravvivenza per la maggior parte delle aziende.

Sia che le persone stiano lavorando o che stiano vivendo la loro vita personale, si aspettano un’esperienza utente di alta qualità per le applicazioni su cui fanno affidamento quotidianamente. Questo significa che hanno bisogno di sicurezza informatica su cui contare anche per proteggere i propri dati e la privacy.

Application delivery controller, un ruolo chiaro

Queste richieste hanno reso l’application delivery controller (ADC) uno dei componenti più importanti della moderna infrastruttura digitale.

L’application delivery controller è un dispositivo di rete (hardware o software), situato in un centro dati, che esegue compiti come la gestione della sicurezza di un’applicazione o il bilanciamento del carico per gestire il flusso del traffico. I dispositivi di questo tipo garantiscono la disponibilità delle applicazioni e migliorano l’esperienza dell’utente. Nell’odierno ambiente del business digitale è necessario rimanere agili e innovativi per competere, crescere e prosperare.

Infatti, anche di fronte alla prospettiva economica incerta nell’ultimo anno, ben il 65% delle aziende ha investito o prevede di investire in spese di trasformazione digitale. Poiché le aziende cercano modi semplici e snelli per sviluppare, distribuire, cambiare e gestire le applicazioni, è opportuno che al centro della strategia di business digitale ci sia DevOps, un insieme di pratiche che unisce lo sviluppo del software con le attività IT e accorcia il ciclo di vita dello sviluppo software.

I risultati parlano da soli: le aziende che usano DevOps ottengono 46 volte più distribuzioni di software e 440 volte più velocemente. Anche in questo caso, l’application delivery controller ha un ruolo critico da svolgere per consentire la piena velocità e agilità che DevOps rende possibile.

Naturalmente, la semplice implementazione degli application delivery controller non è sufficiente a soddisfare tutte le esigenze di disponibilità e performance delle applicazioni. Soddisfare questi requisiti dipende dall’avere le corrette funzionalità di application delivery controller e implementarle nel modo corretto. Ecco alcuni elementi da considerare, per garantire che l’infrastruttura di application delivery soddisfi le esigenze di trasformazione digitale dell’azienda e dei clienti.

Application delivery controller e disponibilità delle applicazioni

Che siano i clienti o i dipendenti a utilizzare le applicazioni, l’esperienza che l’azienda fornisce ha un effetto diretto sulle prestazioni del business digitale. Se i clienti si sentono frustrati o non sono in grado di utilizzare efficacemente le applicazioni o i servizi, possono cambiare fornitore e passare alla concorrenza.

Senza prestazioni affidabili e disponibilità delle applicazioni, i dipendenti possono non poter procedere nel loro lavoro, causando interruzioni nel business. Gartner stima che il costo medio del downtime è di 4.700 euro al minuto, che equivalgono a più di 280.000 euro all’ora.

La soluzione application delivery controller può aiutare a mantenere un’esperienza utente di alta qualità consentendo un approccio combinato per gestire le prestazioni, risolvere i problemi e ottimizzare il traffico in ambienti complessi, permettendo di analizzare e neutralizzare più rapidamente le minacce su dispositivi, applicazioni, policy, utenti e altro ancora nei data center e nei cloud. Raccogliendo e analizzando i dati da infrastrutture hybrid e multicloud è possibile lavorare in modo proattivo per rilevare le anomalie in anticipo, diagnosticare i problemi in modo più accurato e risolverli più rapidamente.

La funzionalità di bilanciamento globale del carico dei server, una caratteristica comune delle soluzioni application delivery controller, può indirizzare in modo intelligente il traffico delle applicazioni al miglior sito disponibile per ogni utente, per garantire la migliore esperienza possibile.

La soluzione application delivery controller può aiutare a utilizzare un cloud pubblico come backup per il data center on-premise, utilizzando il bilanciamento globale del carico dei server per determinare quando e come attingere a tale servizio e reindirizzando il traffico di conseguenza.

Mentre le prestazioni e la disponibilità delle applicazioni sono alla base della soddisfazione e della fedeltà degli utenti, una violazione della sicurezza informatica può distruggere quella fiducia in un attimo. Man mano che gli attacchi ransomware, DDoS e altre minacce diventano sempre più sofisticati e gli ambienti aziendali diventano più distribuiti e dinamici, la cybersecurity diventa una sfida fondamentale.

La soluzione application delivery controller può fornire un’infrastruttura di policy unificata su ogni piattaforma distribuita , rendendo più facile fornire una coerente e uniforme protezione delle applicazioni. Gestendo l’autenticazione in modo coerente tra le piattaforme cloud e on-premise, ad esempio, è possibile supportare un modello di sicurezza Zero Trust fornendo ai dipendenti il giusto livello di accesso per le loro esigenze.

Giacinto Spinillo, Regional Sales Manager di A10 Networks

Sostenere DevOps, semplificando la gestione

DevOps non è solo una metodologia di base per la trasformazione digitale, è anche un insieme di requisiti tecnici.

Per consentire ai team di sviluppo e operativi di collaborare efficacemente durante il ciclo di vita dello sviluppo del software è necessario fornire modi semplici e snelli per sviluppare, distribuire, modificare e gestire le applicazioni.

Un set standard di strumenti di automazione su tutte le piattaforme può aiutare i team a lavorare in modo efficiente, portarli a regime più rapidamente e garantire best practice coerenti. La visualizzazione in tempo reale della Continuos Integration and Delivery (CI/CD) può aiutare i team a individuare errori costosi prima che le applicazioni entrino in produzione.

 

Le tre fondamenta tecnologiche della smart cybersecurity

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Paolo Spreafico, Director of Customer Engineering Google Cloud Italy.

Paolo Spreafico, Director of Customer Engineering Google Cloud Italy

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Le organizzazioni si trovano oggi a operare in uno scenario lavorativo ibrido, differente rispetto al passato, nel quale lo smart working è spesso presente. Si sta di conseguenza vivendo una nuova era della data security, nella quale i leader aziendali sono chiamati ad abbandonare l’idea tradizionale di sicurezza legata al perimetro aziendale.
Non si tratta più solo di proteggere le informazioni o di limitare il modo in cui vi si accede, si tratta di costruire modi sicuri, efficienti ed efficaci per facilitare la collaborazione e la condivisione delle informazioni, senza soluzione di continuità. Solo così la cybersecurity può essere davvero smart e raggiungere lo scopo di proteggere i dati e le informazioni senza ostacolare il lavoro e la collaborazione delle persone.
Prendiamo ad esempio i computer portatili di proprietà dei dipendenti. Se i leader aziendali non fornissero ai collaboratori l’hardware e i dispositivi necessari per operare quando il lavoro si sposta fuori sede, molti utilizzerebbero i propri dispositivi personali per lavoro. Questi dispositivi potrebbero non essere dotati delle stesse protezioni di sicurezza di quelli in ufficio aumentando il rischio di furto di dati sensibili e di minacce esterne.
Lo stesso vale per lo scenario opposto, in cui i collaboratori utilizzano computer portatili aziendali con reti Wi-Fi personali. A questo proposito, secondo un sondaggio condotto da Entrust nel 2021, la fuga di dati aziendali sensibili è tra le principali sfide per la sicurezza per il 20% dei leader aziendali intervistati mentre il 21% si dice preoccupato per i rischi di sicurezza delle reti domestiche non gestite.
L’approccio olistico alla sicurezza, che il lavoro ibrido sta contribuendo a diffondere, rientra proprio in quella dimensione smart della cybersecurity che le aziende possono abbracciare per affrontare le nuove sfide e le minacce del presente con più fiducia e risultati migliori.

Quali sono gli elementi tecnologici che lo consentono?

Dal mio punto di vista si possono identificare tre elementi tecnologici che consentono ad un’organizzazione di godere di una cybersecurity smart.
Il primo è la sicurezza cloud based: i sistemi aziendali on-premise hanno fatto affidamento su ambienti iper-controllati, il più delle volte attraverso la sicurezza della rete in ufficio o le reti private virtuali (VPN). Le piattaforme cloud based, invece, promuovono la condivisione dei dati e la collaborazione in maniera sicura e protetta indipendentemente dalla posizione fisica.
Il secondo è dato dalle policy zero-trust. I modelli zero-trust, di cui siamo stati pionieri, spostano l’attenzione sull’utente individuale senza bisogno della tecnologia VPN, quindi i controlli di accesso sono applicati indipendentemente da dove l’utente si trovi o dal dispositivo che sta utilizzando. Qualsiasi utente o dispositivo che tenta di accedere a una rete o alle sue risorse richiede un’autorizzazione, il che crea limiti di sicurezza più elevati su condivisione di file, download di applicazioni e utilizzo dei dati. Queste policy si estendono anche ai collaboratori che usano dispositivi personali, alleviando eventuali preoccupazioni sulle violazioni involontarie.
Il terzo è fatto dagli strumenti sicuri by design. Oggigiorno un datore di lavoro non desidera creare barriere alla collaborazione, e richiedere un numero eccessivo di controlli e verifiche per accedere alle informazioni sensibili può invece avere proprio questo effetto. Quando gli strumenti sono sicuri by design, i dipendenti possono lavorare insieme, senza barriere: le aziende possono monitorare e mantenere la governance del rischio di sicurezza, aprendo quindi a linee di comunicazione e favorendo una cultura più collaborativa e innovativa.  Se ben implementato, l’approccio olistico che noi sposiamo dà la priorità alla sicurezza rendendo i sistemi virtualmente invisibili ai collaboratori. Tutto avviene dietro le quinte eccetto un alert inviato occasionalmente all’utente finale per comunicargli che l’attività potrebbe essere esposta a rischi.

Quali le iniziative organizzative da intraprendere?

Sicuramente occorre costruire una cultura della security: oltre a un’infrastruttura sicura, creare una cultura aziendale che dia priorità alla sicurezza può aiutare a minimizzare i rischi legati a una forza lavoro disgregata.
La collaborazione dei leader aziendali con il reparto IT nella redazione delle best practice da seguire, lo sviluppo della formazione sulla sicurezza per i dipendenti e la possibilità di dedicare dei momenti di “domande e risposte” sulla cybersecurity in orario d’ufficio rappresentano alcuni spunti e modalità per incorporare e rafforzare una cultura della sicurezza nell’organizzazione.
È fondamentale che i collaboratori siano coinvolti, come dei partner e che non vengano considerati come una minaccia per la sicurezza, ma come uno strumento di difesa.
Un altro aspetto che le aziende possono considerare per mettere in sicurezza i propri dati è legato al tema della sovranità digitale, una delle massime priorità per tutte le organizzazioni, sia del settore pubblico sia del settore privato. Google Cloud offre ai propri clienti trasparenza sulla gestione dei dati e soluzioni di sovranità digitale che permettono di passare dai data center on premise al cloud pubblico mantenendo il controllo sulla posizione dei dati e sulle operazioni e contribuendo in questo modo a garantire la conformità alle normative locali e la sicurezza per le aziende.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Gli attacchi alla sicurezza possono impattare vari aspetti dell’azienda che a loro volta possono avere delle ripercussioni anche importanti a livello economico. La buona notizia è che il cloud computing fa progredire la sicurezza più velocemente, con costi e sforzi minori rispetto a qualsiasi altra iniziativa in ambito security.
I cloud pubblici hanno una portata sufficiente ad implementare livelli di sicurezza e resilienza che poche organizzazioni hanno avuto e potuto costruire in precedenza. In Google gestiamo una rete globale e costruiamo i nostri sistemi, reti, storage e stack software conferendo al tutto un livello di sicurezza predefinito mai visto prima – dai nostri chip di sicurezza Titan che assicurano un avvio sicuro, alla crittografia pervasiva dei dati in transito e dei dati a riposo e mettiamo a disposizione nodi di calcolo riservati che criptano i dati anche mentre sono in uso.
Noi diamo priorità alla sicurezza, naturalmente, ma dare questa priority diventa più facile ed economico perché il costo di un singolo controllo su tale scala diminuisce per unità di distribuzione. Man mano che la scala aumenta, il costo unitario del controllo scende. Man mano che il costo unitario scende, diventa più economico implementare controlli di base crescenti ovunque.
Infine, dove c’è un costo incrementale necessario per supportare configurazioni specifiche, caratteristiche di sicurezza migliorate e servizi per supportare le operazioni di sicurezza e gli aggiornamenti del cliente, allora anche il costo per unità diminuirà. Può essere a pagamento, ma è ancora un costo inferiore rispetto ai servizi on-prem, la cui economia va nella direzione opposta.

Leggi tutti i nostri articoli su Google Cloud

Webinar: impatto della metodologia Job To Be Done nei contact center

Un webinar con Andrej Carli ed Emanuele Falcioni di Talkdesk che ci fa capire quanto e come l’intelligenza artificiale, in cloud, può fare bene alla customer experience e ai brand.

La customer experience domina i trend di tutte le nuove iniziative di business e anche di un nuovo vivere sociale: l‘esperienza dei clienti, dei lavoratori, dei cittadini, basata sull’identità (di brand, di azienda, di comunità), acquisirà un’influenza ancora maggiore nei processi decisionali delle aziende.

Rimanendo ai brand, quelli che saranno in grado di capire in tempo reale cosa pensano i clienti captando i segnali e il comportamento in ogni punto di contatto e interazione saranno vincenti.

In questo l’esperienza di McDonald’s con l’applicazione della metodologia Job To Be Done insegna.

Il dato di fatto è che la voce del cliente svolge un ruolo primario nei programmi di azione orientati a capire esperienza del cliente perché innesca possibilità di avere una comunicazione bidirezionale.

Ma la capacità di ascolto della voce non basta: le esperienze personalizzate, che oggi sono al centro della customer experience, sono determinate da tecnologie come l’intelligenza artificiale.

È con l’intelligenza artificiale che le esperienze possono essere realizzate per ogni individuo sulla base di diverse componenti esperienziali e confezionate in tempo reale.

In questo modo la voce del cliente guida la roadmap del prodotto permettendo alle aziende di uscire da uno scenario di competizione in cui ci si basa solamente sul prezzo. Di fronte alle esigenze dei clienti, i brand vincenti sono quelli che danno la priorità all’empatia valoriale.

Per far questo i brand devono investire nell‘analisi e nell’ottimizzazione dell’esperienza digitale e sfruttare l’intelligenza artificiale.

Ecco perché i rapporti fra brand e tecnologie, business ed experience, voce e intelligenza artificiale sono binomi da descrivere e sviluppare.

Lo facciamo in questo webinar con Andrej Carli, Country Leader e Account Executive Italia di Talkdesk ed Emanuele Falcioni, Enterprise Account Executive Italia di Talkdesk.

La cybersecurity smart decolla con il modello zero trust

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Fabio Luinetti, Country Manager di Citrix.

Fabio Luinetti, Country Manager di Citrix

Può la cybersecurity essere davvero smart nell’azienda di oggi?

La cybersecurity, nel contesto odierno, non soltanto può ma deve essere smart perché quando parliamo di sicurezza informatica parliamo in realtà di sicurezza tout-court, se consideriamo il numero di aziende oggi impegnate nel processo di trasformazione digitale. Ora, se in un’azienda sempre più distribuita il perimetro di sicurezza si allarga, è chiaro che il modello fino a ora utilizzato non è più adeguato. Una cybersecurity smart deve quindi innanzi tutto adottare un modello diverso, quello noto come zero trust, basato cioè su un approccio alla sicurezza di tipo contestuale, per garantire in maniera adattiva l’accesso agli utenti autorizzati che utilizzano pattern basati su identità, tempo, geo localizzazione e posizione del dispositivo.
Forte dell’analisi del comportamento dell’utente, il modello zero trust è in grado quindi di identificare immediatamente qualsiasi anomalia, il tutto senza ripercussioni sull’esperienza dell’utente, che è poi l’elemento fondamentale per parlare di cybersecurity smart.

Quali sono gli elementi tecnologici che lo consentono?

Un’architettura zero trust è senza dubbio il primo passo, perché protegge da tutti gli attacchi a livello di rete. Essa potrebbe però non essere sufficiente perché, come la sicurezza di un’abitazione migliora sensibilmente quando si installa un sistema di allarme e di video sorveglianza, questo non impedisce a un criminale di rompere una finestra e rubare tutto ciò che può, cercando di disattivare il sistema di allarme. Serve quindi andare oltre il network e prendere in considerazione la sicurezza delle applicazioni facendo attenzione non solo alle applicazioni in-house ma anche ai microservizi su cloud pubblico o ibrido.
Un altro mattone importantissimo per la sicurezza applicativa è la presenza di un Web Application Firewall (WAF) che dovrebbe operare in modo facile sia on-premise che nel cloud offrendo bassi tempi di latenza insieme a prestazioni elevate e garantendo al tempo stesso un’esperienza utente senza attriti, nonostante il monitoraggio continuo del livello di sicurezza svolto in background. un altro elemento di attenzione relativo alla superficie di attacco è rappresentato dalle Application Programming Interface (API) che, se prive di protezione o non sufficientemente protette, finiscono con il mettere i dati sensibili – e l’intera azienda in ultima analisi – a rischio.
Per un elevato livello di sicurezza delle API il primo passo è un monitoraggio che porti a scoprire API sconosciute (o shadow API) e un controllo sull’accesso in tutta l’azienda, utilizzando meccanismi di autenticazione standardizzati.
In un passo successivo, le API possono essere protette da eventuali abusi impostando limiti di chiamata. Dopo aver messo in sicurezza le applicazioni e le API, un’altra misura fondamentale è quella di eliminare i bot maligni, filtrando i bot in base al punteggio di reputazione, alla geo-localizzazione o alla cosiddetta impronta digitale dei bot, utilizzando parametri utili per distinguerli dalle persone e controllare eventuali anomalie nel loro comportamento. In questo modo sarà possibile garantire alla propria azienda una protezione davvero completa, e non limitata semplicemente alla parte più esterna.

Quali sono le iniziative organizzative da intraprendere per la cybersecurity smart?

L’obiettivo principale di ogni azienda deve essere in prima battuta quello di avere a disposizione una vista olistica sui sistemi, indispensabile per mantenere un comportamento di sicurezza omogeneo, anche negli ambienti più distribuiti. Il livello di sicurezza di un’azienda non è altro che quello rappresentato dall’anello più debole; ciascuna organizzazione, quindi, deve attuare una strategia zero trust completa per ridurre i rischi nel modo più efficace. Come sempre, la cosa migliore è essere proattivi e pensare alla sicurezza già in fase di progettazione, senza aspettare di correre ai ripari quando è già troppo tardi.
Infine, ma non per questo meno importante, rimane fondamentale la cultura aziendale in ambito sicurezza. E’ infatti imprescindibile lavorare su competenze e procedure che consentano a tutti i dipendenti di avere la giusta attenzione e sensibilità nell’operatività quotidiana, evitando tutti quei comportamenti che possono esporre l’azienda a problematiche legate alla sicurezza informatica.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

La sicurezza informatica di un’azienda coincide sempre di più con la sicurezza dell’azienda stessa. Il ritorno degli investimenti in sicurezza è in realtà pari al valore del bene che si vuole proteggere. Dato che, sempre più spesso, ciò che viene protetto sono le informazioni critiche e i dati sensibili dell’azienda, dobbiamo ricordare che la perdita di questi asset può anche compromettere del tutto un’attività. Senza contare l’inevitabile danno di immagine e di reputazione, un danno collaterale che richiede comunque di essere riparato, in un mercato in cui la reputazione è fondamentale per la fiducia del cliente.

Leggi tutti i nostri articoli su Citrix

Amazon Web Services, la sicurezza in azienda è lavoro di tutti

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla sicurezza dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Antonio D’Ortenzio, Manager Solution Architect di Amazon Web Services.

Antonio D'Ortenzio
Antonio D’Ortenzio. Manager Solution Architect di Amazon Web Services

Può la cybersecurity essere davvero smart nell’azienda di oggi?

La cybersecurity aziendale oggi è tanto più smart quanto essa viene integrata nel lavoro di tutti. Non è più sufficiente relegare questo tema a team di specialisti dedicati; e non è più sufficiente che essi debbano sorvegliare il livello di rischio introdotto dal lavoro degli altri, andando ad implementare policy stringenti. La sicurezza è diventata lavoro di tutti e infatti l’obiettivo per le aziende è quello di costruire una cultura della security al loro interno, che riguardi tutti i loro dipendenti; tutti infatti dovranno essere informati sui livelli di rischio e i relativi strumenti di controllo e dovranno condividere un insieme di norme e pratiche che siano rivolte a mantenere l’azienda sicura.
Dal punto di vista della security nell’ambito del software development, il principio guida deve essere quello per il quale è più conveniente costruire la sicurezza insieme al software anziché andare ad applicarla ad un software già costruito. E questo si ottiene tenendo sempre presente qualsiasi capability si stia mettendo in piedi in ambito IT dovrà continuare a funzionare anche quando verrà messa sotto stress da contesti reali, che potrebbero prevedere rischi o, più in generale, dovranno affrontare l’inaspettato.

Quali sono gli elementi tecnologici che lo consentono?

Il cloud di Aws fornisce strumenti che aiutano le aziende ad affrontare questo cambiamento. Innanzitutto, la gestione della sicurezza delle infrastrutture fisiche è sollevata dalla responsabilità del cliente grazie allo Shared Responsibility Model che Aws implementa. In base a questo modello, Aws mantiene la responsabilità “del” cloud mentre al cliente rimane la responsabilità “nel” cloud, ovvero quella di implementare misure di sicurezza che proteggano le applicazioni che vengono rilasciate su una infrastruttura già altamente sicura. Per fare ciò, i clienti hanno a loro disposizione servizi evoluti che abbracciano cinque aree: Identity and Access Management, Detection, Infrastructure Protection, Data Protection e Incident Response. Ognuna di queste aree comprende servizi che sempre più includono funzionalità basate sull’Intelligenza Artificiale, e ciò rende sempre più smart l’accesso da parte di tutti a funzionalità che una volta erano complesse da realizzare e riservate a pochi. Un esempio fra molti riguarda il servizio Amazon Guard Duty che offre funzionalità di threat detection basate su Intelligenza Artificiale e in grado di monitorare costantemente gli Aws Account di un cliente, alla ricerca di attività potenzialmente dannose quali accessi insoliti ai dati, chiamate API da indirizzi IP noti come malevoli, e molto altro.

Quali le iniziative organizzative da intraprendere?

Indubbiamente il primo step per definire una cultura della sicurezza consiste nella definizione delle best practice a cui si vuole che tutta l’azienda aderisca; in seguito, va definito un metodo di monitoraggio di tali best practice che sia smart e accessibile da tutti. Aws offre metodologie, frameworks e tecnologie che abilitano questi step. Aws Well-Architected è un framework che aiuta i clienti a identificare le loro best practice, nella fattispecie nell’ambito di uno dei suoi 5 pillar che è, appunto, Security; Well-Architected fornisce le linee guida per implementazioni sicure nonché approcci per selezionare i servizi Aws giusti, che implementino le suddette best practice nei workload di ogni specifico cliente. Aws integra la sicurezza nei suoi servizi fin dal loro sviluppo e dotandoli inoltre di importanti funzionalità di automazione. L’automazione è l’aspetto chiave che assicura che la security venga applicata in maniera frequente e consistente. Gli aspetti di monitoraggio possono quindi essere gestiti attraverso le Aws Foundational Security Best Practices che sono parte del servizio Aws Security Hub; attraverso questa funzionalità è possibile definire un insieme di controlli che individuino quando gli account Aws e le relative risorse deviano dalle best practices di Security. In questi casi, si otterranno linee guida azionabili su come migliorare e mantenere il livello di Security a livello aziendale e di organizzazione.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Secondo il modello descritto finora la sicurezza non dovrebbe essere considerata come un elemento a se stante bensì come parte integrante di qualsiasi altro effort un’azienda compia in ambito IT. La sicurezza non dovrebbe essere giustificata in Roi per l’azienda, ma piuttosto in fiducia da parte dei clienti: un’azienda che perde la fiducia dei suoi clienti a causa di un problema di sicurezza è un’azienda che avrà problemi ben più grandi che calcolare il ritorno di ogni euro speso (o non speso) in security.

In questo senso, il cloud di Aws offre finalmente una democratizzazione della sicurezza. Con Aws, ogni tipo di azienda ha accesso agli stessi servizi di Security che sono utilizzati da clienti con un requisito elevatissimo di sicurezza (associazioni governative, banche, servizi di intelligence). Grazie al pay-as-you-go, l’accesso a questi stessi livelli di sicurezza è reso possibile anche per realtà più piccole e che spesso non dispongono di budget IT milionari.

Leggi tutti i nostri articoli su Aws

Connettività mobile 5G ready per la Metro 5 di Milano con il DAS di Cellnex

Vediamo perché Cellnex ha un ruolo centrale nelle comunicazioni wireless sui nostri più moderni sistemi di trasporto.

Garantire una copertura cellulare stabile e performante alla rete di trasporti pubblici è uno dei fattori chiave per lo sviluppo della mobilità intelligente. Se fino a qualche anno fa il tema della connettività all’interno dei mezzi di trasporto pubblici era principalmente legato al concetto di sicurezza, oggi una connessione mobile 4G e 5G ready diventa fattore abilitante per la creazione di una reale infrastruttura urbana digitale.

Un ruolo da protagonista nella trasformazione digitale delle infrastrutture di mobilità in Italia, ma non solo, lo sta giocando Cellnex, principale operatore indipendente d’infrastrutture di telecomunicazioni wireless in Europa.

La società è, infatti, leader nello sviluppo di soluzioni digitali e dedicate per il potenziamento della rete cellullare pubblica esistente, oggi note come DAS (Distributed Antenna System) e Small Cells.

Grazie a un accordo tra Cellnex e la società Metro 5, anche la “linea lilla” che attraversa il capoluogo lombardo, da nord est a ovest con 19 stazioni su quasi 13 km di percorso, è in grado di garantire a tutti una connessione mobile multi-operatore.

L’impianto DAS, costituito da una fitta rete di mini-antenne a basso impatto visivo, oltre ad essere cablato in fibra e anche già predisposto per lo standard 5G. Grazie a questa infrastruttura di rete neutrale tutti i passeggeri possono godere di elevate performance di connessione (dati e voce), indipendentemente dall’operatore telefonico, anche in situazioni di particolare sovraffollamento.

Con l’arrivo della nuova generazione di reti mobili come il 5G, il sistema DAS installato da Cellnex fungerà inoltre da facilitatore per i sistemi di trasporto pubblici nel percorso di integrazione dei sistemi cellulari con nuovi sistemi IT. L’impianto DAS è, infatti, l’infrastruttura di rete indispensabile per trasformare una città, e la sua rete di trasporti, in una città intelligente.  Un ecosistema smart dove milioni di dispositivi e oggetti, saranno in grado di dialogare attraverso reti mobile ultraveloci, avviando lo sviluppo e la distribuzione di nuove applicazioni: monitoraggio della qualità dell’aria, uso dell’energia, sistemi di gestione degli affollamenti e delle emergenze.

Cellnex, oltre ad aver sviluppato e installato all’interno dei sistemi di trasporto pubblico interrati delle città di Brescia, Genova e a Milano all’interno delle linee M1, M2 e M3, si è aggiudicata il contratto di concessione di 25 anni da Network Rail, per fornire Internet cellulare ininterrotto, ricezione mobile e servizi in fibra lungo la tratta principale di Brighton.

Cellnex UK fungerà da host neutrale e fornirà l’infrastruttura per la connettività mobile continua dalle stazioni di London Victoria e London Bridge, lungo il servizio completo per Brighton. Il servizio avrà copertura e capacità mirate per gli operatori di rete mobile del Regno Unito (MNO), a beneficio dei passeggeri, delle comunità locali e dei vicini di linea da Londra fino alla costa meridionale. Cellnex UK lavorerà con tutti gli MNO per fornire le ultime tecnologie e un’infrastruttura di telecomunicazioni condivisa di alta qualità.

Chi è Cellnex Telecom

Cellnex Telecom è il principale operatore europeo di infrastrutture di telecomunicazioni wireless, con un portafoglio di più di 129.000 siti, 84.000 circa già operativi e i restanti in corso di acquisizione o attuazione previsti sino al 2030. Cellnex svolge le sue attività in Spagna, Italia, Paesi Bassi, Francia, Svizzera, Regno Unito, Irlanda, Portogallo, Austria, Danimarca, Svezia e Polonia.

Le attività di Cellnex sono strutturate in quattro grandi aree: servizi per infrastrutture di telecomunicazioni, reti di diffusione audiovisiva, servizi di reti di sicurezza ed emergenza, e soluzioni per la gestione intelligente di infrastrutture e servi urbani (Smart cities e “Internet delle Cose” (IoT)).

La società è quotata al mercato continuo della Borsa spagnola e forma parte degli indici selettivi IBEX35 eEuroStoxx 600. Forma, inoltre, parte degli indici di sostenibilità FTSE4GOOD, CDP (Carbon Disclosure Project), Sustainalytics e “Standard Ethics”.

Tra gli azionisti di riferimento di Cellnex vi sono GIC, Edizione, Canada Pension Plan, CriteriaCaixa, Wellington Management Group, Capital Group, Blackrock, Fidelity e Norges Bank.

Leggi tutti i nostri articoli su Cellnex

MIX, superati i 10 terabit al secondo di capacità disponibile

Il MIX, punto di interscambio (IXP) di reti Internet italiano, comunica il superamento della soglia di 10 Tbs di capacità accesa presso i propri PoP (Point of Presence).

Il risultato costituisce una crescita del 100% negli ultimi 24 mesi: a gennaio 2020, infatti, erano stati raggiunti i 5 Tbs di capacità.

Il superamento dei 10 tera è frutto di una serie di sinergie che hanno coinvolto il MIX e i suoi 360 operatori connessi.

Come spiega Cristiano Zanforlin, Chief Commercial Officer di MIX in una nota, oggi si assiste a un aumento consistente del traffico medio scambiato per singolo operatore.

Un fenomeno legato sia al numero sempre crescente di autonomous system connessi, sia, e soprattutto – si sottolinea nella nota – alla politica di over provisioning della capacità connessa attuata da MIX già da alcuni anni.

L’obiettivo, viene riportato, è garantire l’assorbimento di volumi di traffico inattesi e fino a 10 volte superiori alle soglie di traffico contrattualizzate.

L’aumento della capacità disponibile è la risposta di MIX a fenomeni che si sono manifestati negli ultimi anni, in maniera più evidente con la pandemia, e che sembrano destinati a restare, producendo un aumento del traffico dei dati scambiati in rete, a volte in maniera rapida e improvvisa.

MIX

Il trend di crescita è dovuto, oltre ai fenomeni di più lungo respiro in corso come la diffusione FTTx, la DAD e l’home working, per Mauro Magrassi, Chief Technical Officer MIX, anche all’avvento della diretta streaming di eventi sportivi.

Un fenomeno che secondo Magrassi ha portato una differenza sostanziale dei profili di traffico aggregato, dove gli spike dovuti agli eventi live sono diventati la norma, con variazioni di picco nell’arco di pochi minuti che raggiungono anche valori di diverse centinaia di Gbps di traffico.

Il fenomeno per Magrassi ha spinto gli operatori ad aumentare la banda disponibile, avvalendosi della determinazione di MIX nell’offrire i propri servizi di peering a tariffe sempre più competitive.

“MIX non si ferma e, anzi, rilancia, – dice Magrassi nella nota – concentrando il proprio impegno in due direzioni: da un lato favorire le connessioni ad alta capacità, offrendo agli operatori una fee per Mbps sempre più bassa e, dall’altro, sviluppare progetti di espansione per facilitare i flussi di traffico tra le CDN che distribuiscono i contenuti verso gli hot-spot di aggregazione degli operatori di accesso, a Milano ma non solo”.

Leggi tutti i nostri articoli sul MIX

Prysmian Group fa il suo cloud ibrido in Italia con Kyndryl

Prysmian Group comunica di aver siglato un’estensione contrattuale di tre anni  con Kyndryl a sostegno del processo di trasformazione digitale di lungo termine, compresa la migrazione di molte delle sue operazioni mission critical su Ibm Cloud.

L’annuncio arriva dopo una prima fase di collaborazione con cui nel 2021 Kyndryl ha migrato l’ambiente di produzione Sap di Prysmian dai data center di Pero e Cascia a quelli di Ibm Cloud a Milano (Cornaredo) e Francoforte.

L’azienda globale che opera nel settore dei cavi e dei sistemi per l’energia e le telecomunicazioni ha infatti scelto Kyndryl per migrare i principali carichi di lavoro verso Ibm Cloud, con l’obiettivo a lungo termine di espandere la propria trasformazione architetturale attraverso una strategia multicloud.

Mediante un modello di cloud ibrido, Prysmian può ottimizzare i carichi di lavoro ancora presenti nei suoi data center tradizionali rendendo più facile e più efficiente condurre il business.

Secondo il CIO e Chief Digital Officer di Gruppo Prysmian, Stefano Brandinali, “L’ascolto attivo delle esigenze dei clienti, un’infrastruttura efficiente e ben governata e la facile integrazione in un ambiente ibrido sono i principali driver della nostra scelta di adottare il Private Cloud fornito da Kyndryl“.

Questo lavoro fa parte della più ampia strategia di modernizzazione di Prysmian Group ed è fondamentale per guidare una crescita sostenibile attraverso la fornitura di soluzioni superiori in un mercato sempre più digitale e competitivo.

Conil cloud ibrido, Prysmian Group guadagna in flessibilità per spostare e gestire i carichi di lavoro critici attraverso gli ambienti IT, ottenendo una migliore continuità di business e una più rapida innovazione nei servizi ai clienti.

Leggi tutti i nostri articoli su Kyndryl

La cybersecurity spiegata e capita diventa profitto, parola di security leader

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Francesco Teodonno, Security Leader di Ibm Italia.

Francesco Teodonno, Ibm Security Leader

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Certamente. La cybersecurity oggi è l’elemento abilitante la trasformazione digitale di ogni realtà aziendale e poiché tocca tutti i domini, da quello applicativo, alla protezione dei dati fino a quello infrastrutturale, per poter funzionare al meglio deve necessariamente essere smart. Inoltre, oggi la cybersecurity è sempre più user friendly, proprio per coniugare la semplicità di utilizzo con l’efficacia dal punto di vista della sicurezza aziendale

Quali sono gli elementi tecnologici che lo consentono?

Le aziende stanno andando verso piattaforme open, scalabili, integrabili e multicloud in modo da fornire ai propri utenti strumenti, come ad esempio il Sigle Sign On (SSO), per consentire di accedere ad applicazioni diverse attraverso un’unica password o accedere velocemente a database situati anche in datacenter diversi.
A livello aziendale sono importanti anche le soluzioni che consentono la gestione del ciclo di vita delle utenze o l’assegnazione di utenze privilegiate, soluzioni pensate non tanto per gli utenti finali ma per le funzioni che gestiscono le utenze stesse. Altro elemento che fa la differenza è rappresentato da tutto ciò che consente back-up veloci e la protezione dei dati
È fondamentale che le aziende si dotino di soluzioni SIEM (Security Information and Event Management), anche integrate con soluzioni MDR (Managed Detection and Response), per consentire di monitorare anche gli end point. Il lavoro da remoto, laddove possibile, ha aiutato le aziende e i lavoratori a non fermarsi, ma ha ampiamente allargato le superfici di attacco, in modo particolare con i dispositivi mobili. In questo caso, una soluzione come Ibm Cloud Pak for Security consente in maniera veloce di gestire gli alert e di implementare le regole più efficaci in base all’ambiente di applicazione.

Quali le iniziative organizzative da intraprendere?

Nessuno strumento tecnologico è efficace se manca la consapevolezza del rischio da parte degli utenti. Sicuramente campagne di sensibilizzazione, training ad hoc o campagne di phishing possono aiutare a far maturare consapevolezza e migliorare la propria “security posture”

E se davvero fosse smart, un euro speso in cyber security che rendimento avrebbe per l’azienda?

E se girassimo la domanda? Quanto costerebbe un euro risparmiato in cybersecurity? Furto di credenziali, furto di dati, danno economico e di immagine e potremmo andare avanti a oltranza. Solo per dare un ordine di grandezza, secondo il “Cost of a Data Breach Report 2021 ” del Ponemon Institute, il costo medio di un data breach in Italia è di 3,03 milioni di euro. Credo che ogni euro speso in cybersecurity, in termini di strumenti o di attività, con l’obiettivo di rendere utenti ed infrastrutture più sicure, sia sempre ripagato con un abbassamento del rischio di attacchi, ancora di più da quando lo smart working è entrato nella quotidianità di molti di noi.

Leggi tutti i nostri articoli che parlano di Ibm e cybersecurity

Cybersecurity first, passando per il cloud: Oracle spiega ruoli e metodi

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Luca Martelli, CISO Office and Cloud Security Leader, Oracle Emea.

Luca Martelli, CISO Office and Cloud Security Leader, Oracle Emea

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Smart: rapida, abile, brillante, intelligente. Tutti aggettivi che si adattano perfettamente al tipo di security di cui abbiamo necessità per programmi cyber resilienti e moderni. Ottenere e soprattutto mantenere un alto indice di fiducia digitale (o digital trust) risulta vitale per la competitività e in taluni casi per la sopravvivenza delle aziende, soprattutto negli ultimi due anni da quando la nostra quotidianità – dal lavoro alle attività di consumo – si è trasferita online per buona parte.

La protezione delle informazioni personali è un aspetto così importante che dal 2006 viene celebrata simbolicamente con la giornata del #DataProtectionDay che ricorre ogni anno il 28 gennaio. Nel 2021 l’Italia si è dimostrata in debito d’ossigeno riconfermando il podio per volume di multe (47 milioni di euro) e il primato per il numero di multe (una ogni 4 giorni lavorativi) (fonte enforcementtracker.com).

Un segnale chiaro ed evidente che i programmi cyber non sono stati in grado di reggere il passo e richiedono un continuo ammodernamento e un approccio differente soprattutto nelle seguenti aree: security delle applicazioni, con l’accelerazione nello sviluppo di nuovi servizi digitali che ha spesso visto la sicurezza messa in secondo piano in termini di priorità o sottovalutata; configurazioni errate da parte degli operatori di database e infrastrutture; vulnerabilità ben note, non risolte tempestivamente, come log4j; attacchi ransomware.

Cybersecurity first, ovvero la sicurezza informatica prima di tutto, è un concetto che Oracle sostiene da tempo nella progettazione, sviluppo e rilascio di tutte le proprie tecnologie e anche nelle soluzioni architetturali che mette a disposizione dei propri clienti. Sia in un contesto tradizionale (on premise), ma ovviamente e soprattutto cloud, multi-cloud e ibrido. Per realizzare un programma cyber smart ognuno deve fare la propria parte: sono richiesti sia interventi tecnologici, sia organizzativi.

Quali sono gli elementi tecnologici che lo consentono?

La cybersecurity può essere davvero smart grazie all’utilizzo del cloud infrastrutturale di Oracle come piattaforma di modernizzazione e di miglioramento anche degli aspetti di security. In Oracle desideriamo che ogni azienda sfrutti l’agilità, la flessibilità e la scalabilità del cloud senza compromettere i propri dati o i dati dei propri clienti. In questo senso, grazie alle nostre soluzioni le aziende incrementano i propri standard di security beneficiando di un insieme di funzionalità cybersec native, sempre attive (per esempio encription ubiquitos), con controlli e azioni di bonifica e remediation automatizzati (per esempio patching, vulnerability scanning), basato e disegnato sui principi di Zero Trust Security ereditabili e sfruttabili da ogni applicazione sviluppata in aggiunta.

L’approccio Zero Trust è certamente un ulteriore elemento cardine per un programma CyberSmart, dove il ruolo dell’identificazione e autenticazione continua di network, utenti, dispositivi e workload rappresenta la chiave per superare con successo il concetto di sicurezza perimetrale oramai inefficace in un mondo IT completamente distribuito e diffuso, come abbiamo diffusamente trattato nel white paper Approaching Zero Trust Security with Oracle Cloud Infrastructure. L’approccio Zero Trust Security consente di implementare servizi e architetture molto più resilienti, ad esempio, agli attacchi ransomware, isolando e riducendo se non eliminando by-design possibili superfici di attacco e diffusione.

Altro fattore chiave: l’automazione e l’implementazione dei cosiddetti security assessment. Tali processi di valutazione del grado di protezione devono essere ripensati per essere continuativi, ovvero non devono essere eseguiti solo una volta l’anno e non solo su carta, ma direttamente sui sistemi e automatizzati.
Ad esempio, nell’ambito dei database, che per gli hacker sono sempre obiettivi di primario interesse, Oracle ha messo a disposizione Data Safe che in modalità SaaS consente di effettuare security&configuration assessment sui database Oracle ovunque essi risiedano (on prem, cloud) fornendo raccomandazioni per azioni correttive secondo i dettami GDPR / CIS / STIG, offrendo in aggiunta funzionalità di sensitive data discovery, masking e auditing (Oracle Database Assessment con Data Safe).

Quali le iniziative organizzative da intraprendere?

Ritengo che l’approccio Cybersecurity first possa rappresentare una buona pratica anche per le iniziative organizzative. In questo senso, è fondamentale il ruolo del CISO (Chief Information Security Officer) che, soprattutto nelle aziende di medio-grandi dimensioni, deve necessariamente confrontarsi direttamente con il board esercitando la necessaria autorevolezza per poter attivare il programma di cybersecurity assieme a tutte le altre business unit.

Secondo aspetto, la consapevolezza che la security e la protezione del dato siano responsabilità di ogni singolo soggetto coinvolto (applicativi, infrastrutture, operation) e non semplicemente demandata al CISO che però deve avere l’abilità di agire come un ‘consulente di fiducia’ per i propri colleghi nella definizione di un percorso migliorativo e non deve essere percepito esclusivamente nella veste di controllore. Inoltre, ragionando nell’ottica che un data breach sia probabile più che possibile, è necessario avere un piano di comunicazione pronto all’uso e che preveda differenti scenari.

Per quanto riguarda l’adozione del cloud, è fondamentale avere un’approfondita comprensione delle funzionalità di security messe a disposizione dal Cloud Service Provider e utilizzarle compiutamente, ma ancora più importante, comprendere le proprie responsabilità in ambito security e data protection rispetto a ciò che è di competenza del Cloud Service Provider.

Gartner ha previsto che entro il 2025, oltre il 99% dei data breach nel cloud saranno sarà originato da errate configurazioni o errori umani da parte degli utilizzatori finali. Questi dati sono un’ulteriore conferma dell’utilità di sfruttare l’automazione, l’intelligenza artificiale e i servizi nativi messi a disposizione dalla piattaforma cloud, nonché un valido motivo per sposare l’automazione anche in ambito security, il che consente agli specialisti di security di impiegare il loro tempo e le loro competenze su mansioni di livello più alto.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

La definizione di Return on Security Investment (ROSI) suggerita dalla European Union Agency for Cybersecurity (ENISA), e introdotta nel 2012, è ancora molto attuale perché mette in relazione il rischio economico aggregato (Annual Loss Exptectancy), la probabilità connessa al suddetto rischio e il costo associato alla soluzione per mitigare o rimuovere tale rischio.

Oracle interviene su tutti questi fattori per amplificare quanto più possibile il ROSI, tra questi vi sono:
• la quasi totalità dei servizi e delle funzionalità di security di Oracle Cloud sono messe a disposizione senza costi addizionali in quanto inclusi nella piattaforma OCI;
• l’automazione aiuta altresì a ridurre i costi progettuali oltre agli errori umani;
• in ambito cybersecurity le competenze sono tra le risorse più rare e importanti quindi Oracle si è impegnata negli ultimi mesi a fornire accesso gratuito ai propri corsi di formazione e di certificazione.

Confidiamo che questo approccio collaborativo e proattivo contribuisca allo sviluppo di programmi cyber sempre più smart. Le prospettive sono incoraggianti, infatti abbiamo già raccolto importanti riscontri dai CIO e CISO, inoltre, sulla base e delle informazioni attualmente disponibili, il PNRR avrà anche un capitolo di spesa dedicato cyber.

Leggi tutti i nostri articoli su Oracle

TeamSystem acquista Storeden e potenzia l’ecommerce per Pmi

TeamSystem ha annunciato l’acquisizione del 100% del capitale sociale di Storeden, azienda fondata dal gruppo Projectmoon di Villorba (Treviso), con alto posizionamento nel segmento ecommerce per le Pmi.

L’operazione, riporta una nota di TeamSystem, è in linea con la strategia di potenziamento della value propositon tecnologica per completare le soluzioni di digitalizzazione della catena del valore delle aziende.

L’acquisizione di Storeden, prosegue la nota, permetterà a TeamSystem di supportare le Pmi anche attraverso una piattaforma di ultima generazione che permette di sviluppare in modo semplice e immediato un ecommerce personalizzato in base alle singole esigenze di business.

La piattaforma di ecommerce di Storeden è nativamente sincronizzata con marketplace globali come Amazon, Alibaba, Ebay, e con i social network.

Integrata con le soluzioni cloud per Pmi di TeamSystem (come Fatture In Cloud, Cassa, Enterprise Cloud) Storeden avrà una suite unica sul mercato volta ad aiutare le imprese a beneficiare delle opportunità del digitale.

Per TeamSystem l’operazione è stata gestita dalla direzione di M&A con il supporto degli avv.ti Gerardo Carbonelli e Edoardo Marseglia di Gianni & Origoni per l’area legale, mentre la due diligence finanziaria è stata condotta con il supporto di EY con un team composto da Marco Ginnasi e Luca Locatelli. I venditori sono stati assistiti Gaetano e Francesco Sirone dello studio Due Esse per gli aspetti finanziari e contabili e dall’avvocato Luigi Russo per l’area legale.

Leggi tutti i nostri articoli su TeamSystem

Salesforce, la smart cybersecurity è la pietra d’angolo del mondo cloud

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Tommaso Fè, Head of Platform Italy di Salesforce.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

In un mondo cloud la cybersecurity per sua natura deve essere smart. Nel senso che un’infrastruttura moderna è in grado di ridurre al massimo i grattacapi e le operazioni più routinarie ai professionisti dell’IT e al contempo li rende capaci di costruire le policy e le compliance adatte alla mission dell’azienda in modo semplice e rapido.
Salesforce in questo senso lavora per cercare di tutelare la sicurezza del dato a 360 gradi dando le funzionalità di base all’IT per la massima sicurezza dello stack tecnologico (Infrastruttura, Networking, Firewall) e fornendo ulteriori strumenti sempre più raffinati per definire regole di sicurezza del dato per gli attacchi di tipo “inside” che nelle aziende digitali sono sempre più diffusi e recano i danni maggiori.
Un Crm deve essere in grado di gestire il cliente nel suo intero ciclo di vita e quindi proteggere i dati dall’interno diventa un fattore fondamentale per mantenere il “trust” a 360 gradi. Ciò libera anche gli utenti di business dei vincoli applicativi e di conseguenza abbatte i tempi e i costi altrimenti allocati alle manutenzioni che, come noto, pesano notevolmente sui budget IT e ne limitano le strategie evolutive.

Tommaso Fè, Head of Platform Italy di Salesforce

Quali sono gli elementi tecnologici che lo consentono?

Gli strumenti fondamentali oggi nelle aziende sono quelli che permettono di rendere armonica la gestione della privacy legata al GDPR e la protezione e il monitoraggio dei dati per prevenire gli inside data leak.
Il tema GDPR sicuramente non è solo un aspetto legato alla gestione del dato del cliente con i vari titoli diffusi come la pseudo-anonimizzazione e i processi di diritto all’oblio ma anche rispetto alla encryption dei dati. L’aspetto fondamentale dell’encryption dei dati legato alla capacità dell’azienda di utilizzare delle proprie chiavi di criptazione all’interno dei sistemi cloud utilizzando i sistemi definiti Bring your own key in modo da creare il legame di trust tra aziende e cloud provider nell’ottica della sicurezza del cloud. Attivare politiche di criptazione personalizzate agevola il percorso di digitalizzazione all’interno dell’azienda perchè crea un sentimento positivo di transizione al cloud anche per le aziende più scettiche e resistenti al cambiamento.
Il secondo aspetto legato all’inside data leak è ancora più critico perché va a toccare l’equilibrio tra ciò che l’azienda deve fare per rendere sicuro il proprio “segreto industriale” e la fiducia verso i propri dipendenti. In questo senso le applicazioni per il monitoraggio intelligente sono sicuramente un modo migliore di gestire questa fiducia rispetto ai sistemi di monitoraggio hardware. Proteggere il dato aziendale diventa fondamentale al momento in cui quel dato viene consultato o si richiede di essere salvato in un luogo diverso da quello preposto (applicando sistemi di monitoraggio applicativi cloud) favorendo la prevenzione rispetto che l’investigazione post incidente.

Quali le iniziative organizzative da intraprendere?

La prima e unica iniziativa da intraprendere è l’informazione e la conoscenza delle modalità di gestione della sicurezza nell’ecosistema IT e nelle organizzazioni di business preposte al controllo CISO e DPO. Se si parla troppo genericamente di cybersecurity si rischia di prendere decisioni che possono essere estreme (nessuna sicurezza o troppa sicurezza): solo conoscendo le modalità di gestione si potrà avere IT dinamici che supportano al 100% progetti di trasformazione digitale e non si sentono aggrediti o de-responsabilizzati rispetto al passato. La sicurezza, soprattutto nel cloud, è un’opportunità enorme per gli IT perché si passa realmente da una sicurezza da officina a una sicurezza di logica, che lega la mission dell’azienda con le competenze tecnologiche e può permettere all’IT di essere protagonista fondamentale della strategia aziendale.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Il ritorno sull’investimento è il fattore più importante sulla cybersecurity ed è anche quello forse meno evidente quando si va a calcolare il ROI di progetti digitali. Se pensiamo che la maggior parte dei data breach e data leak iniziano dall’interno ci rendiamo conto che la sicurezza informatica è passata da un fattore di competenza tecnologica a un fattore di competenza del dato. Conoscere le tecniche informatiche di hacking, al netto degli eclatanti attacchi recenti a grandi multi-nazionali è diventato un fattore di rischio marginale rispetto a perdere una lista clienti su azione diretta di un dipendente con una conoscenza informatica basica. Il danno è significativamente più probabile, diffuso e pericoloso. Perciò adottare strumenti cloud capaci di rendere Smart la gestione di questi fattori diventa un investimento che ha un altissimo rendimento.

Microsoft: la cybersecurity è la prima tappa di ogni viaggio tecnologico

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Carlo Mauceli, National Digital Officer Microsoft Italia.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Nel rispondere a questa domanda mi vengono in mente le parole di Giovanni Falcone “L’importante non è stabilire se uno ha paura o meno, è saper convivere con la propria paura e non farsi condizionare dalla stessa. Ecco, il coraggio è questo, altrimenti non è più coraggio ma incoscienza”. È esattamente quello che le aziende vivono, perché esiste un retaggio culturale secondo il quale la sicurezza costituisce un freno alla flessibilità lavorativa. È quanto di più sbagliato si possa pensare e Microsoft rappresenta l’esempio più evidente: da anni, infatti, in azienda si può lavorare in modalità smart, senza rinunciare alla sicurezza. La sicurezza è la prima preoccupazione di ogni viaggio tecnologico.
Sentire parlare di industria 4.0, di mobilità, di hybrid work e di nuove tecnologie senza avere al centro della propria strategia la sicurezza, significa non offrire servizi al passo con i tempi. Pertanto, se le tecnologie moderne sono il mezzo attraverso il quale lo smart working può essere garantito, la sicurezza rappresenta quella garanzia necessaria per svilupparlo e implementarlo in modo sereno e flessibile.

Carlo Mauceli, National Digital Officer Microsoft Italia

Quali sono gli elementi tecnologici che lo consentono?

Nel momento in cui un’azienda decide di implementare un nuovo servizio o nuove applicazioni o di migrare le proprie soluzioni legacy verso piattaforme più moderne, efficienti e sicure, le tecnologie cloud sono ormai considerate irrinunciabili.
Sul mercato ci sono diverse tipologie: cloud pubblico, servizi cloud offerti da specifici provider ed erogati attraverso risorse pubbliche, cloud privato, servizi e componenti hardware utilizzati in modo esclusivo da un singolo cliente, cloud ibrido che unisce le principali componenti di entrambi i modelli e cloud iperconvergente.
Quest’ultima soluzione è senz’altro la più indicata per sfruttare appieno i vantaggi del cloud, perché consente di gestire i servizi e le risorse nel modo più funzionale, indipendentemente dal fatto che l’asset sia in cloud pubblico, privato o on-premise nei data center aziendali.
Le soluzioni iperconvergenti rappresentano anche un’interessante opportunità nell’ambito di processi di rinnovamento dei data center e consentono di realizzare soluzioni cloud ibride e di concertare anche installazioni complesse. con una buona semplicità di configurazione e mantenimento attraverso una dashboard unica, indifferentemente da dove fisicamente si trovi il server sul quale è necessario intervenire.
Tuttavia, con queste tecnologie le organizzazioni devono superare il concetto di perimetro aziendale, inteso come spazio al cui interno ogni risorsa è al sicuro perché protetta da device dedicati come appliance o firewall.
Le tecnologie cloud, infatti, impongono un approccio più fluido: le risorse hardware possono essere disponibili anche utilizzando infrastrutture non di proprietà e sulle quali la singola azienda non ha pieno controllo.
Alle aziende è quindi richiesto un nuovo approccio culturale nel considerare quali siano i reali confini della propria infrastruttura: per consuetudine si tende a considerare fattori di rischio i singoli PC e i dispositivi IT ma, in un ecosistema sempre più connesso, le aree potenzialmente pericolose sono anche altre.
Le aziende devono infatti valutare tutti i possibili attacchi informatici derivanti dalla pluralità dei dispositivi connessi al di fuori della propria rete aziendale, e considerare tutti gli end-point che lo smart working porta con sé. Questo nuovo approccio culturale si applica quindi a tutte le componenti informatiche presenti in azienda, siano esse moderni dispositivi IIoT (Industrial Internet of Things), vecchi macchinari connessi alla rete, postazioni di lavoro tradizionali o device connessi da remoto.
Si tratta di mettere a punto una nuova strategia di sicurezza non più legata a un perimetro da proteggere, ma flessibile per quanto riguarda le minacce e la loro provenienza. Diventa, quindi, di primaria importanza la protezione dei dati e la loro gestione, soprattutto nel delicato processo di trasferimento del dato su piattaforme Cloud.

Quali le iniziative organizzative da intraprendere?

Dopo anni di budget cospicui allocati ad acquistare tecnologie all’ultimo grido e risultate talvolta insoddisfacenti, è giunto il momento sia per i responsabili della sicurezza sia per quelli aziendali di rivedere le priorità degli investimenti in cybersecurity come parte dell’approccio strategico di business aziendale.
La cybersecurity deve diventare uno degli elementi costituenti della strategia di business in modo che qualsiasi rischio di sicurezza sia correttamente pesato e pensato all’interno dell’intero sistema di gestione aziendale.
Da quando la digitalizzazione ha iniziato a permeare il mercato, cambiando il modo di lavorare nell’industria e nel commercio, le strategie di business non hanno quasi mai tenuto conto in modo appropriato della sicurezza informatica. Anche oggi, in molti consigli di amministrazione e nei board aziendali sono pochi coloro che si possono dire esperti di cybersecurity.
Questa mancanza di conoscenza non consente di comprendere pienamente i rischi e soprattutto gli impatti sul business che deriverebbero da un caso di effrazione digitale e conseguente furto di dati aziendali e personali. Per troppi anni il tema della sicurezza è stato affrontato come una sfida puramente tecnica dettata dalla tecnologia e dalle normative.
Un altro elemento molto importante della strategia di cybersecurity riguarda il modello organizzativo, che deve includere ruoli di governance e di gestione del rischio così da essere in grado di sviluppare una strategia ben definita e di allinearla alle esigenze del business.
Ulteriore obiettivo è quello di sviluppare una cyber resilienza ovvero la capacità di rimanere operativi durante una violazione informatica quando dovesse verificarsi, perché “restare in vita”, in termini di business, riesce solo a chi sa mantenere operativi i suoi sistemi operativi, anche sotto attacco. Questo concetto è trasversale a tutta l’azienda perché abbraccia persone, procedure e asset, ovvero elementi diversi che non devono essere trascurati in un piano omnicomprensivo.
Un punto di partenza assolutamente imprescindibile è avere la consapevolezza di cosa accada all’interno della propria infrastruttura.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

I dati dell’ultimo report Clusit ci dicono che gli attacchi informatici hanno avuto a livello globale nell’ultimo anno un impatto economico pari al 6% del PIL. C’è un proverbio che dice “chi più spende, meno spende”. Ecco, direi quindi che è fondamentale non sottovalutare i rischi e dedicare il giusto budget agli investimenti in cybersecurity per evitare costi, o mancati introiti, molto più ingenti a danno avvenuto.

Leggi tutti i nostri articoli su Microsoft e la cybersecurity

Il digitale moltiplica i punti di contatto dello studio professionale

Consulenza d’Impresa di Torino è un grande Studio dove si esprime la multiprofessionalità favorita da una digitalizzazione diffusa.

Consulenza d’Impresa è uno studio grande, conta circa 70 collaboratori, 40 circa dei quali sono commercialisti, distribuiti nelle sedi di Torino, Rivoli, Ivrea e Milano. La sua crescita è avvenuta seguendo direttrici ben precise: aggregazione di professionalità, acquisizioni, digitalizzazione.

Sotto il tetto comune di via Treviso a Torino, convivono e cooperano commercialisti, avvocati e consulenti del lavoro.

La logica è quello di poter seguire il cliente da tutti i punti di vista e per tutte le sue necessità imprenditoriali – spiega Federico Rocca, socio dello Studio –. L’integrazione porta alla buona gestione del cliente e delle sue problematiche. Il problem solving aggregato offre al cliente un servizio migliore e l’evidenza dei nostri risultati, costantemente in crescita, ne è una assoluta conferma”.

La clientela è industriale e professionale, senza distinzioni di grandezza e settore produttivo.
Tra i nostri clienti troviamo imprese industriali e produttive di ogni dimensione, dalla microimpresa alla multinazionale, e il nostro approccio è sempre caratterizzato dall’accurata adesione alle necessità”.

Federico Rocca Studio Consulenza d'impresa
Federico Rocca, socio dello Studio Consulenza d’impresa

Oltre alla specializzazione professionale dei soci, e in generale dei collaboratori dello Studio, l’approccio customizzato alla clientela è agevolato dalla estrema digitalizzazione delle attività.
Dove è possibile l’automazione, l’abbiamo praticata. Abbiamo la fortuna di collaborare ormai da decenni con Wolters Kluwer Tax & Accounting Italia. Il nostro consulente ICT, attraverso il proprio partner Insoft Osra, ha seguito passo passo lo sviluppo tecnologico dello Studio e ci ha affiancato nella transizione digitale che ha avuto il suo punto più elevato con l’introduzione della fatturazione elettronica. Oggi la tecnologia è data per scontata ma vent’anni fa non era così ed è proprio allora che il processo evolutivo tecnologico di Consulenza d’Impresa si è avviato. Sempre insieme a Wolters Kluwer Italia siamo cresciuti digitalmente e posso tranquillamente affermare che siamo riconoscenti alla tecnologia che i nostri partner ci hanno portato.Siamo assolutamente votati al digitale, senza il quale una crescita dello Studio non sarebbe nemmeno ipotizzabile”.

Federico Rocca ripercorre brevemente l’introduzione della fatturazione elettronica B2B.

È stata una scelta felice. Fattura SMART è un applicativo che ci ha soddisfatto in pieno e che condividiamo volentieri con i nostri clienti. La scelta dell’applicativo di fatturazione dei clienti è stata, ed è, ovviamente libera ma posso con soddisfazione affermare che diverse centinaia di clienti ci hanno seguito sulla strada di Fattura SMART. L’interpretazione di Wolters Kluwer Italia nello sviluppo di un tool di fatturazione elettronica è stata talmente user friendly che anche il nostro cliente più digitalmente refrattario utilizza e apprezza la funzionalità plug and play e l’estetica delle dashboard dell’applicativo”.

Federico Rocca non manca di sottolineare l’importante sviluppo che è derivato da Fattura SMART.

Le SMART Skills rappresentano un modo del tutto nuovo di avvicinare al concetto di ERP un numero impressionante di microimprese e di piccole attività professionali. La visione che ha spinto Wolters Kluwer Italia allo sviluppo di un ecosistema digitale intorno a Fattura SMART risponde con puntualità alle necessità normative e offre allo stesso tempo ai piccoli imprenditori e alle partite IVA la possibilità di estrarre dati e KPI da analizzare e utilizzare”.

Recentemente a Consulenza d’Impresa è stato presentato Genya CFO, un software che consente, partendo da una situazione contabile o da un bilancio, di ottenere automaticamente una ricca serie di indici di bilancio, nonché la gestione del rating bancario, grazie anche all’analisi del documento della Centrale dei Rischi e Medio Credito Centrale.

Il software in cloud di Genya di fatto permette di gestire tutte le attività contabili e fiscali con un’unica applicazione, così da fornire allo Studio e ai Clienti un quadro chiaro della situazione base per la consulenza strategica e la valutazione di eventuali rischi o soluzioni per migliorare l’intero complesso societario.

Genya CFO è un punto di arrivo, naturale per società dimensionate, ma prospettico per aziende in fase di crescita. Ecco perché in Studio apprezziamo particolarmente le SMART Skills di Fattura SMART. Perché rappresentano il primo passo verso un’analisi più strutturata e integrata, quella necessaria alla crescita e allo sviluppo dell’impresa, quella nella quale è mandatorio utilizzare strumenti di analisi avanzata” conclude Federico Rocca.

Cisco, la smart cybersecurity nasce dalle tecnologie integrate

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Fabio Panada, Technical Security Architect di Cisco Italia.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

La cybersecurity riguarda oggigiorno ciascuno di noi: sono ormai anni che ne sentiamo parlare in diverse sfaccettature, ma è chiaro che aspetti di sicurezza digitale e protezione dei dati hanno a che fare con qualunque progetto aziendale. Smart può essere il modo di affrontare i problemi legate alle minacce informatiche e come questo si integra nei processi consolidati da tempo. Ma devono essere considerate smart anche le tecnologie che scegliamo: nel recente Cisco Security Outcomes Study abbiamo ad esempio notato che le aziende che utilizzano tecnologie integrate hanno una probabilità sette volte maggiore di raggiungere alti livelli di automazione dei processi, ma non solo: aumenta del 40% la capacità di rilevare una minaccia informatica.

Fabio Panada, Cisco

Quali sono gli elementi tecnologici che lo consentono?

Le tecnologie che abbiamo oggi a disposizione consentono di affrontare e gestire il rischio con strumenti semplici, efficaci e automatizzati. La tecnologia è da tempo venuta in aiuto a chi opera quotidianamente all’interno della sicurezza informatica ma riuscire ad utilizzare le soluzioni tecnologiche in modo corretto è ciò che fa la differenza. Cloud e automazione sono due elementi molto importanti, il Cisco Security Outcomes Study rileva che coloro che hanno scelto architetture basate su cloud hanno il doppio delle probabilità di tenere le loro soluzioni aggiornate ed essere quindi più competitivi, mentre l’automazione raddoppia le prestazioni del personale meno esperto, sostenendo in questo modo l’eventuale carenza di competenze in ambito security. Non dobbiamo però dimenticarci che il fattore umano, in una disciplina così dinamica, è un elemento fondamentale.

Quali le iniziative organizzative da intraprendere?

I processi e l’organizzazione sono elementi imprescindibili per un piano di sicurezza informatica adeguato; l’adozione di percorsi di formazione strutturati per la consapevolezza del rischio informatico, è un’operazione ormai comunemente utilizzata in varie tipi di aziende. Servono chiarezza e comunicazione costante tra i diversi team, cercando di evitare la complessità.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

È una domanda a cui non è facile rispondere: il ritorno dell’investimento in termini di livello di sicurezza per un’azienda dipende infatti da tanti fattori. Investire in Cybersecurity serve a proteggere le informazioni, a evitare i danni all’immagine del brand e a proteggere asset sempre meno fisici. Ad esempio, il nuovo Cisco Privacy report 2022 segnala che le aziende che hanno investito nella privacy hanno avuto, in media, un ROI pari a 1,8 volte l’investimento fatto, un trend in crescita per il terzo anno consecutivo.

Smart cybersecurity, Dell Technologies: come si calcola il ROI

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Ecco cosa ci ha risposto Fabio Zezza, che è Country Lead delle Data Protection Solutions di Dell Technologies.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Più che può, la cybersecurity deve essere smart. Le tecnologie di cui disponiamo sono immensamente più veloci, efficaci ed intelligenti rispetto a quelle di solo qualche anno fa; si pensi all’effetto dirompente che sta avendo l’introduzione dell’intelligenza artificiale nel contesto della sicurezza al punto da diventarne parte fondante in ambito di autenticazione, threat detection e recovery. Allo stesso tempo, anche la fruizione di queste tecnologie è sempre più smart, con modelli a consumo o in modalità SaaS-based che possono essere attivati rapidamente e scalare on demand.

Fabio Zezza, che è Country Lead delle Data Protection Solutions di Dell Technologies

Quali sono gli elementi tecnologici che lo consentono?

Da una parte possiamo utilizzare tecnologie cloud native che semplificano l’adozione e consolidano molteplici strumenti in una singola soluzione di threat intelligence, detection and response. Ne è un esempio il servizio Managed Detection and Response di Dell Technologies e basato su tecnologia Secureworks: un virtual SOC globale dotato di analisti di sicurezza, operativo 7×24 per monitorare, prevenire, rilevare, analizzare e rispondere ai cyber attack, erogato in forma di subscription.
Dall’altra abbiamo strumenti avanzati di data protection in grado di isolare i dati critici rimuovendoli dalla superficie d’attacco e mettondoli al riparo in un digital vault – una una vera e propria cassaforte digitale. In caso di ransomware, ad esempio, Dell Technologies è in grado di ripristinare i dati attraverso una copia di sicurezza isolata dall’ambiente di produzione e verificata, cioè non compromessa dal malware, grazie alla sua Cyber Recovery Solution. Questo è reso possibile dall’adozione di un software intelligente, CyberSense, che integra un motore di intelligenza artificiale e machine learning in grado di individuare proattivamente l’azione compromissiva di un eventuale malware.

Quali sono le iniziative organizzative da intraprendere?

A primo posto metterei la definizione di una chiara e univoca responsabilità in ambito cyber security in azienda. Il CISO (Chief Information Security Officer) è il ruolo direzionale in grado di affiancare, alle competenze tecnologiche e organizzative, le conoscenze del business e la capacità di governare team complessi e trasversali in ambito sicurezza. E’ a questa figura che le organizzazioni più mature guardano oggi per portare avanti iniziative di cyber security. Tuttavia, esistono ancora diverse realtà in cui non esiste una specifica funzione di Information Security, spesso incardinata sotto l’IT, dove il responsabile della sicurezza è lo stesso CIO. Questo tipo di configurazione si rivela spesso inefficiente a fronte di progetti di sicurezza sempre più multidisciplinari. Accanto a questo aspetto organizzativo, va certamente ricordata l’importanza di una corretta gestione del fattore umano, che continua ad essere la prima vulnerabilità e la principale area di intervento – soprattutto formazione e rivisitazione dei processi – per le aziende. In ultimo, la predisposizione di procedure di test continuo, tanto in fase pre che post attacco in modo da poter milgiorare la postura complessiva di sicurezza.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Sorprendentemente, gli investimenti in cybersecurity, e in senso più esteso cyber resilience, possono generare dei ROI molto alti.
BCG (Boston Consulting Group) ha sviluppato una vera e propria formula per calcolare questo genere di ROI: [(Perdite attese prima del progetto) – (perdite attese dopo il progetto) – (costo del progetto)] / costo del progetto.
Se applichiamo questa metodologia a perdite spesso quantificabili in diversi milioni di euro per le aziende attaccate è evidente come ogni euro investito in ambito cyber possa portare, in caso di attacco, ROI a doppia cifra. Per il 2021 si stima che siano stati oltre 6.000 miliardi di dollari i costi addizionali e i mancati ricavi delle aziende dovuti ai cyber-attacchi: un dato che mette in evidenza quanto la cybersecurity debba essere considerata dalle aziende non solo uno strumento di protezione, ma una leva strategica di innovazione e crescita.

Vmware: le cose da fare per ridefinire la sicurezza e renderla smart

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Ci ha risposto Sabino Trasente, Senior Business Solution Strategist VMware Semea.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Per essere davvero smart, è necessario per un’azienda ripensare le strategie di cybersecurity per cercare di rispondere a tutte queste esigenze: la visibilità è ancora tutto e bisogna dare la priorità al controllo della rete distribuita; prepararsi agli attacchi ransomware; colmare le lacune nella tecnologia e nei processi legacy; ripensare la sicurezza e renderla un servizio distribuito; fare una sicurezza cloud-first, con le dovute cautele.
È necessario dunque ripensare alla sicurezza come una parte intrinseca e distribuita dell’impresa moderna, incorporando continuamente tutti gli aspetti dello stack tecnologico per fornire una sicurezza più efficace attraverso un approccio Zero Trust (o architettura Zero Trust). Ciò significa un approccio connesso, che unisce i punti critici di controllo tra: utenti, dispositivi, applicazioni e reti. La sicurezza deve essere una parte integrante dei punti di controllo e distribuita fin dove i punti di controllo si trovano, all’interno dell’infrastruttura. Le informazioni devono essere contestualizzate, combinando i dati provenienti da tutte le fonti, in modo intelligente e condividendo questo contesto tra gruppi diversi, per ridurre i silos.
Bisogna dapprima mettere in sicurezza i dati. La protezione deve concentrarsi sulla riduzione della superficie di attacco, e questo inizia con la micro-segmentazione. Una forte strategia di micro-segmentazione impedisce alle minacce di diffondersi lungo il vettore est-ovest e mantiene l’azienda il più sicura umanamente possibile, aggiungendo funzionalità automatizzate che semplificano l’applicazione delle politiche di sicurezza in futuro.
Poi serve segmentare i dispositivi. Proprio come la micro-segmentazione tiene gli utenti fuori dalle aree a cui non possono accedere, così anche i dispositivi e/o accesso a Internet possono essere segmentati lontano dai flussi di rete, applicazioni e dati critici.
Infine bisogna proteggere l’endpoint. Utilizzare una sicurezza legacy sull’endpoint non è efficace per prevenire attacchi sempre più avanzati. Servono capacità di rilevamento robuste, non sono contro I malware conosciuti ma anche contro il ransomware. Serve inoltre una gestione integrata e semplice delle soluzioni, non con un approccio a silos, per evitare che il personale addetto alla cybersecurity spenda la maggior parte del tempo a manutenere la tecnologia, invece che scoprire le minacce. Un esempio è una singola console cloud-based dalla quale gestire gli endpoint, investigare gli incidenti e smistare gli alert. Serve un modo per visualizzare velocemente la timeline di un attacco, riuscendo a tracciare come e da dove la minaccia entra e se si può spostare lateralmente, incluso un meccanismo di reporting puntuale per documentare la root cause evitare di subire lo stesso attacco in futuro. Servono soluzioni cloud based, software defined, aggiornate costantemente. Se le soluzioni non hanno gli ultimi avanzamenti in termini di protezione dagli attacchi, risulta difficile rispondere efficacemente soprattutto con un ambiente IT e una forza lavoro sempre più distribuita.

Quali sono gli elementi tecnologici che lo consentono?

Per ottenere ciò, occorre mettere in pista alcune tecnologie abilitanti, che vanno dal Digital Workplace, che consente ai dipendenti di lavorare ovunque si trovino garantendo esperienze sicure e senza intoppi, il Secure Access Service Edge (SASE) ossia la convergenza di cloud networking e cloud security per semplicità, scalabilità, flessibilità e sicurezza pervasiva, il modern Endpoint Protection, che abilita una gestione moderna e nativa per il cloud per semplificare le operation IT, proteggere gli endpoint e migliorare l’esperienza dei dipendenti da tutti i dispositivi, la Software Defined Network, un approccio al networking che utilizza controller basati su software o interfacce di programmazione delle applicazioni (API) per indirizzare il traffico sulla rete e comunicare con l’infrastruttura hardware sottostante Tutti questi elementi concorrono a consentire alle organizzazioni di accelerare sulla strategia zero-trust.

Quali sono le iniziative organizzative da intraprendere?

È fondamentale intraprendere un approccio DevSecOps, che integra la sicurezza delle applicazioni e dell’infrastruttura fin dall’inizio del ciclo di sviluppo, offre il vantaggio competitivo di un team unificato, perché la sicurezza è uno sport di squadra. Forrester Consulting ha analizzato per conto di Vmware le attuali dinamiche dei rapporti tra team IT, security e sviluppo includendo i risultati nella ricerca Bridging the Developer and Security Divide. Secondo la ricerca, gli addetti alla sicurezza che devono garantire la protezione delle organizzazioni per cui lavorano spesso escludono gli sviluppatori dall’attività di pianificazione security, chiamandoli in causa solo quando è il momento di applicare le procedure, e questo non fa che complicare rapporti già delicati. Le organizzazioni in cui i team di sicurezza e sviluppo hanno un rapporto positivo possono ridurre il ciclo di vita dello sviluppo del software di cinque giorni per ogni release rispetto alle aziende dove questo rapporto non esiste, a dimostrazione dell’impatto di questa sinergia sul time-to-market e sul vantaggio competitivo.
Lo studio fornisce inoltre diverse raccomandazioni: avere una vision solida che parta dall’alto per ridurre i conflitti tra le priorità e per dotare i team degli strumenti e dei processi di cui hanno bisogno; includere gli specialisti della sicurezza nei team di sviluppo invece di imporre la sicurezza dall’alto; parlare un linguaggio comune con gli sviluppatori per eliminare gli attriti tra i team.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Consideriamo che, mentre una parte del ROI viene realizzata gradualmente, la mitigazione delle potenziali perdite associate con un attacco prende forma immediatamente. In un rapporto di Ibm Security sui costi della violazione dei dati nel 2021, il costo medio di un attacco informatico in Italia si aggira sui 3,61milioni di dollari , con alcune variazioni a seconda del segmento di mercato: si va, ad esempio, da 1,93 milioni di dollari della Pubblica Amministrazione a 5,72 milioni di dollari del settore finanziario. Queste stime sono basate su quello che viene definito ABC – Activity Based Costing composto dal rilevamento dell’attacco (investigazione, assessment, gestione crisi), costi di notifica dell’attacco agli utenti coinvolti (email, comunicazione con regulators), risposte ex-post (help desk, legal, multe), danno di immagine (system downtime, perdite di clienti).
Pur trattandosi di stime, ci danno la misura di quanto sia importante essere preparati e avere la consapevolezza dell’impatto negativo che il non implementare una corretta strategia di cybersecurity avrà sull’organizzazione.

Sap: la cybersecurity in azienda non può che essere smart

Fra fine gennaio e inizio febbraio, a brevissima distanza, si sono susseguite due giornate a chiaro stampo cybersecurity, quella della data protection, rivolta prevalentemente a educare alla salvaguardia dei dati personali, e quella per rendere Internet un luogo più sicuro. Converremo che le giornate mondiali hanno un senso se i temi che dettano vengono colti e svolti non solamente per un giorno, ma quotidianamente.
Abbiamo quindi voluto simbolicamente far partire una call to action, rivolgendoci ad alcune aziende di riferimento sullo scenario italiano, spostando l’asticella un po’ più in alto.
Sappiamo, infatti, che il tema della protezione dati, non nuovo, vive da sempre un problema di attrattività all’interno delle aziende, che se non obbligate per legge, difficilmente fanno un passo più del richiesto per investire in sicurezza e in protezione dati.
Ma riteniamo che qualcosa stia cambiando, ma vogliamo dare una spinta in più nel fare proseliti, nel raccogliere adesioni, senza ambire a che siano entusiastiche
Ci siamo posti dunque nella posizione di capire come rendere la cybersecurity attraente in azienda, come lo sono le tecnologie smart sul piano personale.
Così ci ha risposto Roberto Fraccapani, Head of Presales di Sap Italia.

Può la cybersecurity essere davvero smart nell’azienda di oggi?

Con una battuta veloce, direi che la cybersecurity non può essere smart oggi, ma deve esserlo. Le minacce informatiche si stanno evolvendo, si stanno intensificando e hanno sempre più successo nel raggiungere applicazioni critiche e dati sensibili, anche in aziende apparentemente forti in questo ambito.
Il fatto è che le minacce di oggi sono più organizzate, finanziate e mirate che mai e motivate da guadagni economici, monetari e politici. Se la strategia di un’azienda non è supportata da misure e soluzioni di sicurezza effettive, ha un rischio esponenzialmente maggiore di violazioni.

Roberto Fraccapani, Head of Presales di Sap Italia

E una violazione può danneggiare la fiducia conquistata a fatica dall’azienda con clienti e partner e portare a costose infrazioni delle norme. La buona notizia è che si possono creare nuovi livelli di fiducia digitale che mitighino i rischi su applicazioni, processi, dati e modelli di business, proteggere le informazioni personali che l’impresa raccoglie e archivia, e fare di questi elementi un motivo di differenziazione sul mercato.
Ciò richiede un approccio intelligente, automatizzato e sostenibile alla sicurezza informatica e dei dati. Come Sap forniamo soluzioni e servizi integrati che aiutano a proteggere le applicazioni e le informazioni aziendali, li abbiamo sviluppati per essere incorporati nella progettazione di ogni processo di trasformazione digitale e per contribuire a semplificare la conformità alle normative in costante evoluzione per la protezione delle informazioni personali.

Quali sono gli elementi tecnologici che lo consentono?

Più un’azienda accelera la sua trasformazione digitale e sposta le sue applicazioni nel cloud, più ha bisogno che la sicurezza sia automatizzata e integrata, in poche parole smart. Proprio come gli investigatori seguono gli indizi per trovare i colpevoli e arrestarli, i detective informatici devono seguire le briciole di pane per identificare l’origine di una violazione dei dati e misurare la portata dei dati interessati. Ma questa è solo una parte del lavoro. E si spera non la più frequente.
In modo più proattivo, il ruolo del dipartimento di sicurezza IT all’interno di un’organizzazione è prevenire gli incidenti al fine di proteggere le informazioni e l’organizzazione stessa. A tale scopo, la maggior parte dei dipartimenti di sicurezza IT sfrutta una varietà di strumenti a loro disposizione, come ad esempio mascheramento dei dati in modo che le informazioni sensibili non siano disponibili per tutti gli utenti, governance degli accessi per garantire che gli utenti siano adeguatamente autorizzati dai loro ruoli e profili e che gli accessi permissivi siano ridotti, accessi protetti con criteri di password. Ma anche qui bisogna fare molta attenzione: che senso ha disporre di strumenti anche sofisticati di sicurezza se le persone usano ancora “123456” come chiave per accedere alla cassaforte?
Per tornare al mondo Sap, faccio un esempio semplice relativo all’ERP (Enterprise Resource Planning), la base su cui Sap è stata fondata 50 anni fa.
Immaginate il sistema Erp come un edificio per uffici in una città (Internet) con migliaia di criminali. Tutte le finestre e le porte sono chiuse. Siamo sicuri al 100% di essere al sicuro? Purtroppo no, perché i ladri trovano sempre nuovi modi per irrompere. È un continuo atto di offesa e difesa da parte dell’attaccante e del difensore che migliora i propri metodi e strategie per avere successo. Il miglior blocco è inutile se gli attaccanti (interni) sono già in casa. Inoltre, un sistema di allarme non proteggerà necessariamente la casa se non si attiva. Pertanto, vi è un’elevata esposizione al rischio.
In entrambi gli scenari, l’obiettivo è rilevare i casi in tempo reale per generare avvisi il più rapidamente possibile. L’elemento tecnologico che può aiutare è una soluzione software che riesca ad agire su entrambi i fronti.
Nel nostro specifico caso, sappiamo che non tutti i nostri clienti dispongono di centri operativi di sicurezza interni per monitorare e proteggere le loro applicazioni mission-critical dalle crescenti minacce alla sicurezza informatica. Ecco perché abbiamo creato Sap Enterprise Threat Detection, una soluzione che unisce un potente software e un servizio gestito da esperti di sicurezza Sap per aiutare le imprese difendersi dagli attacchi informatici e salvaguardare il proprio business. E la definiamo una soluzione intelligente perché è uno strumento di gestione delle informazioni e degli eventi di sicurezza (SIEM) che utilizza l’artificial Intelligence in tempo reale consentendo di rispettare le normative sulla protezione dei dati e l’audit e rilevare le minacce alla sicurezza informatica esterne e interne.

Quali sono le iniziative organizzative da intraprendere?

La sicurezza informatica è una funzione multiforme, che richiede a tutti gli attori della catena, dagli stakeholder interni come i dipendenti alle parti esterne come i fornitori che possono avere accesso ad alcune aree del sistema aziendale, di partecipare e agire in modo responsabile.
Un’organizzazione ha diverse leve da attivare per proteggersi: innanzitutto sviluppando un solido framework di sicurezza informatica, che include pratiche e tecnologie all’avanguardia che permettono di rilevare e monitorare continuamente i sistemi core.
Una seconda area di grande attenzione dev’essere il reporting per aumentare la visibilità e le informazioni dettagliate sulle minacce e le vulnerabilità del sistema, l’efficacia del programma delle operazioni di sicurezza nel tempo e le opportunità di miglioramento per migliorare continuamente e costruire la resilienza. Il poter contare su report affidabili, certi e live (cioè in real time) è indispensabile anche per promuovere una cultura interna più sensibile al tema della sicurezza e far partire azioni correttive e precise con ritorni immediati.
Un’efficace strategia di governance permette di identificare i rischi di sicurezza informatica all’interno del proprio landscape e assegnare la priorità in base agli obiettivi aziendali, all’entità della vulnerabilità e ai requisiti normativi. I requisiti di mitigazione del rischio si basano quindi sui risultati e sull’analisi.
Infine, un’ultima iniziativa importante riguarda l’allineamento tra processi, persone e tecnologia per determinare come gestire, assegnare priorità e rispondere a un rischio.

E se davvero fosse smart, un euro speso in cybersecurity che rendimento avrebbe per l’azienda?

Secondo l’ultimo rapporto Anitec-Assinform la spesa in cybersecurity in Italia nel 2021 è stata stimata intorno a 1,39 miliardi di euro con un aumento del 12,4% rispetto al 2020, aumento maggiore rispetto a quello stimato per il mercato digitale. Un trend che dovrebbe confermarsi nel prossimo triennio, con un tasso di crescita medio annuo del 13,1% e una spesa che supererà i 2 miliardi di euro nel 2024.
Inoltre, i dati rilevati dal Fastweb Security Operations Center (SOC) registrano nel periodo gennaio-giugno 2021 36 milioni di eventi malevoli nel nostro Paese, in aumento del 180% rispetto allo stesso periodo dell’anno precedente.
La vera domanda che dobbiamo porci è: se aziende pubbliche e private italiane non avessero investito 1,39 miliardi quali conseguenze avremmo avuto? Quali ricadute sul loro profitto, sulla loro reputazione, sul rapporto di fiducia instaurato con clienti e partner e in ultima analisi sullo sviluppo economico del nostro Paese?

WhiteJar, gli hacker etici italiani vogliono lasciare il segno (positivo)

WhiteJar, la community italiana di hacker etici, affiancherà il Laboratorio nazionale di Cybersecurity del Cini (Consorzio Interuniversitario Nazionale per l’Informatica) nella Cyberchallenge.it, kermesse che, giunta alla sesta edizione, è un’iniziativa per la ricerca e la formazione di giovani, dai 16 ai 24 anni, che possano contrastare i criminali informatici.

Promossa con il supporto del Ministero della Difesa e riconosciuta dal Ministero dell’Istruzione come progetto per la valorizzazione delle eccellenze, la Cyberchallenge.it è un’iniziativa di chiaro stampo gamification, che lo scorso anno ha avuto oltre 5.000 partecipanti.

Secondo Luca Manara, ceo di Unguess, “oggi i professionisti della cybersecurity in Italia sono ancora troppo pochi per gestire la mole di lavoro che ci aspettiamo debba essere gestita nei prossimi mesi per salvaguardare i dati sensibili che ogni vengono condivisi online“. Per questo WhiteJar (progetto creato con l’ex-Kaspersky Aldo Del Bo’) supporta l’iniziativa per sensibilizzare i giovani al tema e formare in modo qualificato i professionisti di domani, che si fonda sulle competenze e sul lavoro degli ethical hacker.

Gli hacker buoni di WhiteJar sono reclutati in base a elevati standard di competenza tecnica e reputazione, e lavorano in aziende ed enti pubblici su una piattaforma di testing secondo una modalità collaborativa, basata sulla condivisione dell’intelligenza diffusa.

Per supportare la Cyberchallenge si terranno lezioni di addestramento, verranno illustrati casi studio reali e chiarito un metodo per essere i futuri hacker etici e accedere alla competizione locale, il 1 giugno, e quella nazionale il 30 giugno e il 1 luglio.

Chi è WhiteJar

WhiteJar è un servizio di Bug Security Bounty Program cosiddetto “made in the crowd“: una community di hacker etici certificati in Italia di cui si conosce identità e storia e che mettono al servizio di aziende ed enti pubblici il loro sapere per sventare gli attacchi dei pirati informatici. Le centinaia di ethical hacker, supervisionati da una figura senior che applica un sistema interno di validazione, testano le vulnerabilità di un sistema e offrono la strategia per porvi rimedio. WhiteJar è un servizio di Unguess che opera nelle aree della software quality, user experience, customer experience e cybersecurity.

Data Cloud, come sfruttare al meglio le opportunità fornite dai dati

Per scoprire il vero potere del Data Cloud e l’impatto positivo che la sua adozione può avere sul business, Snowflake ha organizzato Data For Breakfast, un evento dedicato, in programma a Milano, The Westin Palace Hotel, il prossimo 31 marzo.

Che si metta in primo piano il business o la tecnologia, una cosa non cambia: la necessità dì caricare, integrare, analizzare e condividere facilmente i dati in modo sicuro, potendo godere dei massimi livelli di prestazioni, flessibilità e scalabilità.

Molte soluzioni analitiche operano su silos di dati differenti, aumentando la complessità per i professionisti IT e ritardando il time to value per i professionisti che invece hanno bisogno di insight basate su dati, affidabili e tempestive.

Una moderna piattaforma Data Cloud consente di automatizzare molte attività essenziali, da come i dati vengono memorizzati ed elaborati alla gestione delle transazioni, alla sicurezza, alla governance e alla gestione dei metadati. E permette di ottenere:

  • Un’architettura di dati condivisa e multi-cluster su qualsiasi cloud
  • Una condivisione dei dati sicura e governata in tempo reale
  • Near-zero maintenance erogata as a service per tutti i workload di dati

Snowflake Data Cloud è una piattaforma unificata in grado di connettere sia le aziende che i data provider ai dati rilevanti per il loro business.

Supporta una vasta gamma di soluzioni per l’elaborazione dei dati, l’integrazione dei dati e l’analisi ed è in grado di gestire una vasta gamma di workload tra cui data engineering, data lake, data science, data sharing ed exchange.

Per scoprire il vero potere del Data Cloud e l’impatto positivo che la sua adozione può avere sul business, Snowflake ha organizzato Data For Breakfast, un evento dedicato, in programma a Milano, The Westin Palace Hotel, il prossimo 31 marzo.

Nel corso dell’evento verrà presentata la Snowflake Data Cloud con la testimonianza diretta di organizzazioni che ne hanno già potuto verificare i vantaggi sul campo.

L’evento è assolutamente gratuito.

ISCRIVITI ALL’EVENTO DATA FOR BREAKFAST

 

Vodafone apre un centro europeo di ricerca e sviluppo per reti Open Ran

Vodafone ha aperto il primo centro di ricerca e sviluppo in Europa dedicato al progresso dell’architettura di microchip per alimentare le nuove reti Open Ran.

Il centro è ospitato nel nuovo hub di competenze digitali di Vodafone a Málaga, in Spagna, che è diventato operativo da oggi.

Cinquanta persone dedicate allo sviluppo di Open Ran si uniranno ai 650 esperti ingegneri software, architetti e tecnici che avranno sede presso l’hub.

Circa venti fornitori specializzati nella progettazione e sviluppo di architetture di chip si uniranno a Vodafone per migliorare le capacità di Open Ran.

L’obiettivo del Centro di ricerca e sviluppo è la creazione di un forte ecosistema per la progettazione del silicio in Europa.

Uno dei principali punti di forza di Open Ran è che separa l’hardware e il software in una stazione base mobile, consentendo un mix di apparecchiature di diversi fornitori.

Collaborando con i fornitori all’architettura e alla progettazione di microchip, Vodafone intende promuovere una maggiore interoperabilità all’interno dell’ecosistema di rete.

Vodafone implementerà le soluzioni di silicio sviluppate congiuntamente nelle sue piattaforme per fornire prestazioni ed efficienze migliorate man mano che le richieste di capacità di rete aumentano.

Linkiller, la app per tutelare la propria identità digitale

Tutela Digitale, realtà italiana che opera nel campo della cyber reputation, ha creato l’applicazione Linkiller, capace di eliminare o deindicizzare in pochi passaggi gran parte dei contenuti ritenuti lesivi e diffamatori, come foto e video non autorizzati pagine e profili falsi sui social network.

Presupposto all’efficacia dell’applicazione è la considerazione che nell’era di internet e dei social network l’identità ha acquisito una dimensione digitale della quale non si ha sempre un totale controllo, come dimostrano le storie di persone e professionisti alle prese con problemi reputazionali di diversa natura: dal revenge porn a vicende giudiziarie con piena assoluzione sino alle campagne d’odio.

linkiller

Linkiller è disponibile sui principali app store. Una volta scaricatala è necessario registrarsi, indicare il link indesiderato e monitorare, in tempo reale, la sua gestione sul web.

Gabriele Gallassi, co-founder e Head of Business, spiega in una nota che Tutela Digitale riceve “richieste di ogni tipo, da persone di qualunque età, dal ragazzino che vuole far rimuovere un video imbarazzante pubblicato dal proprio genitore, al professionista che ha subito un processo da cui è stato assolto, ma di cui continua a circolare solo la notizia del rinvio a giudizio, fino alla soubrette che ha cambiato vita e che quindi non si riconosce più nelle immagini del suo passato che possono purtroppo incidere negativamente sulla nuova professione“.

Stabilita la fattibilità dell’intervento, utilizzando un algoritmo reputazionale sviluppato da Tutela Digitale, l’applicazione gestisce la rimozione del contenuto lesivo e permette all’utente di verificare, tramite notifiche push direttamente dall’applicazione, il numero di link eliminati e l’andamento del processo di rimozione e de-indicizzazione.

L’eliminazione avviene in tempi brevi: se non si presentano particolari problematiche si parla di pochi giorni, nei casi più semplici anche poche ore.

I professionisti di Tutela Digitale (legali ed esperti in ingegneria reputazionale) supervisionano costantemente l’andamento delle attività.

Come commenta nella nota Sveva Antonini, co-founder e Head of Legal Department di Tutela Digitale, “Nonostante online siano a disposizione format per segnalare il contenuto da rimuovere, la gestione in modo indipendente risulta spesso difficile a causa delle diverse policy adottate dalle piattaforme. Linkiller ha l’obiettivo di semplificare la vita delle persone perché contenuti non veritieri, che non rispecchiano la nostra reale identità, possono generare rapidi impatti negativi su cui è necessario agire tempestivamente”.

Linkiller

Sase, cos’è e perché è il futuro della gestione IT

Il Sase, Secure Access Service Edge, è posizionato per diventare “the next big thing”. Esistono varie interpretazioni di quello che Sase veramente significa. Illuminante quella di Samir Desai, Director Sase Product Management di Gtt global network.

Oggi molte aziende stanno valutando quale forma in futuro dovrebbe assumere il lavoro nella loro organizzazione. Alcuni stanno adottando, o l’hanno già fatto, un modo di lavorare completamente a distanza, altri potrebbero optare per una modalità ibrida e altri ancora potrebbero riprendere il lavoro in ufficio a tempo pieno. Ma a prescindere da dove i dipendenti lavorano, avranno bisogno dello stesso livello di accesso a strumenti, servizi e applicazioni. I dipendenti che potenzialmente accedono alla rete da una varietà di posti diversi modificano il perimetro della rete aziendale, e questo fatto induce a una nuova serie di considerazioni sulla sicurezza.

Predisporre adeguate misure di sicurezza informatica sta diventando ancora più critico per i team IT, poiché la possibile superficie di attacco per una rete aziendale aumenta con il lavoro a distanza.

Il Secure Access Service Edge (Sase) è un concetto emergente che mira a soddisfare meglio le esigenze di sicurezza delle aziende che necessitano di accordi flessibili per i loro dipendenti. Sase ottiene questo obiettivo implementando una gamma di funzionalità di sicurezza in un’unica piattaforma cloud.

Anche la connettività di rete è perfettamente integrata nella piattaforma, il che consente alle applicazioni utilizzate dagli utenti di fornire le migliori prestazioni possibili. Poiché SASE è ancora relativamente agli inizi, il mercato dà molte interpretazioni diverse di ciò che SASE realmente è, rendendo potenzialmente difficile per le aziende decidere di quale soluzione hanno realmente bisogno.

L’ascesa di Sase

Se ripensiamo all’inizio della pandemia, l’obiettivo principale era adattare la piattaforma IT a un ambiente di lavoro remoto. Il repentino cambio di abitudini ha innescato la crescente necessità di un accesso sicuro a risorse di dati vitali, dal momento che proteggere la rete aziendale dalle vulnerabilità era diventata una priorità assoluta per i responsabili IT di ogni azienda. Oggi le organizzazioni stanno rivolgendo la loro attenzione all’ultima tendenza nel rafforzamento dell’accesso sicuro alla rete, Secure Access Service Edge (Sase).

Ma cosa significa veramente Sase?

Samir Desaj, Director Sase Product Management di Gtt global network, ci ricorda che Sase è un termine coniato per la prima volta da Gartner nel 2019, definito come un’offerta basata su cloud che combina le funzioni di SD-WAN con funzionalità capaci di migliorare le prestazioni e la sicurezza, come il cloud access security broker (CASB) e l’accesso alla rete zero trust (ZTNA) .

Da quando questo termine è comparso il mercato si è gradualmente espanso, ma la definizione esatta di come dovrebbe essere un’implementazione SASE è ancora in evoluzione. Esistono diversi approcci all’implementazione di SASE, e ciascuno di essi comporta sia vantaggi che sfide.

Samir Desaj, esperto di Sase di Gtt

L’ideale teorico, dice Desaj, sarebbe avere un unico vendor di tecnologia capace di fornire una soluzione Sase completa. Sfortunatamente, questo approccio è ostacolato dal fatto che la maggior parte dei vendor oggi sul mercato non è in grado di fornire l’intero spettro dei componenti chiave di Sase, e la maggior parte delle organizzazioni che stanno implementando Sase si trova a dover selezionare più fornitori. Per mitigare la complessità, una soluzione che preveda due vendor può essere un giusto compromesso, con un provider focalizzato su SD-WAN e funzionalità di rete e un altro sulle varie funzionalità di sicurezza.

È abbastanza comune anche l’approccio con tre o più vendor, che prevede più di un fornitore per le componenti di sicurezza della soluzione. Tuttavia alcuni dei principali vendor stanno operando per arrivare a fornire una soluzione completa e gli analisti prevedono che la maggior parte delle organizzazioni cercherà di consolidare i fornitori man mano che il mercato matura.

Per molte aziende questa situazione ha reso Sase una nuova frontiera da esplorare, con una miriade di caratteristiche, funzionalità e limitazioni da comprendere e governare per poter ottimizzare la gestione sicura della propria rete.

Cosa fa il Sase oggi

Nonostante l’aspetto un po’ tentacolare di questo mercato agli inizi, secondo Desaj Sase è pronto a diventare “the next big thing” per la sicurezza della rete aziendale, poiché promette di ridurne complessità e costi, migliorarne le prestazioni e la latenza e consentire alle aziende di adottare un approccio zero-trust per l’accesso alla rete. Ma il problema è che, poiché ognuno ha la propria interpretazione di cosa significhi veramente Sase, è difficile definire l’aspetto di un vero fornitore Sase.

Gli utenti ottengono l’accesso alla rete in base a identità, dispositivo e applicazione, piuttosto che all’indirizzo IP o alla posizione fisica. Il vantaggio è presto detto: questa scelta supporterà nuovi modi di lavorare quando usciremo dalla pandemia, e datori di lavoro e dipendenti potranno scegliere se lavorare in ufficio, da casa o seduti in un bar nelle vicinanze.

Per Desaj le organizzazioni dovranno trovare il giusto equilibrio tra la gestione dell’accesso dei loro utenti e una modalità di accesso da remoto efficace e sicura alle risorse aziendali. Collaborando con un partner di servizi gestiti, che può aiutare a definire e implementare policy in base ai requisiti di sicurezza specifici di un’azienda, queste ultime saranno in grado di adattare in modo flessibile le proprie reti ai giusti requisiti di sicurezza man mano che il lavoro ibrido diventerà la quasi normalità.

Nell’ambito del paradigma Sase, il principale perimetro di sicurezza passa da un ambiente LAN aziendale altamente sicuro ma inflessibile alla focalizzazione sugli end-point come parte di un approccio Zero Trust Network Access (ZTNA).

Questo approccio si basa sul principio della fiducia appropriata al rischio, che viene continuamente valutata e adattata per conformarsi ai requisiti di sicurezza di un’azienda, ed è la soluzione più adatta per consentire l’accesso sicuro alle applicazioni cloud utilizzate dai dipendenti che lavorano in ufficio, a casa o in altri ambienti.

Ciò di cui le aziende devono essere consapevoli, tuttavia, è che poiché questa è a tutti gli effetti una nuova tecnologia, i fornitori stanno ancora perfezionando le loro soluzioni. Il percorso odierno verso SASE dovrebbe prendere in considerazione questo fatto, e le aziende non dovrebbero affrettarsi ad adottare l’ultima tendenza tecnologica ma, invece, fare un passo indietro e considerare quali sono le loro effettive esigenze.

Perché è il futuro

Secondo Gartner, entro il 2025 almeno il 60% delle aziende – in aumento rispetto al 10% riscontrato nel 2020 – avrà strategie e tempistiche esplicite per l’adozione di SASE per l’accesso di utenti, filiali ed edge. Quando coloro che dovranno prendere le decisioni in merito inizieranno a pensare attentamente a come implementare questa tecnologia nel miglior modo possibile, alcune domande chiave potranno essere di aiuto nel processo decisionale.

Per prima cosa, secondo Desaj, dovrebbero chiedersi se la soluzione considerata aiuta a risolvere le loro sfide aziendali. E poi, la soluzione soddisfa le loro esigenze di connettività stabile e di user experience? Il servizio è allineato alla loro strategia di gestione del rischio? Fornirà il livello di robustezza della sicurezza che si aspettano e desiderano?

Le aziende dovranno guardare alla propria rete in modo più olistico. Invece di assemblare una miriade di soluzioni di rete e di sicurezza, cercheranno soluzioni più integrate e contribuiranno a ridurre la complessità migliorando anche la loro posizione in tema di sicurezza. Tutte queste nuove tecnologie e pratiche consentiranno alle aziende di adattarsi meglio a un modello di impresa e di forza lavoro distribuita più flessibile, che inevitabilmente continuerà a influenzare i requisiti di rete e di sicurezza per il prossimo futuro.

Col tempo Sase diventerà popolare nella misura in cui l’IT sarà capace di gestire senza interruzioni la rete e la sicurezza contemporaneamente. In caso di dubbio è sempre consigliabile lavorare con un consulente di fiducia, che sia in grado di dimostrare una profonda comprensione delle tecnologie rilevanti, e sia anche capace di passare attraverso ogni fase del processo di sviluppo e protezione della rete per aiutare un’organizzazione a determinare la soluzione di sicurezza giusta per le proprie esigenze.

Cloud nazionale, si parte con 723 milioni di euro

Pubblicato il bando per il Polo Strategico Nazionale: parte la gara europea per la gestione dei servizi cloud per la Pubblica Amministrazione italiana. Le offerte si presentano entro il 16 marzo.

È stato pubblicato il bando per la realizzazione del Polo Strategico Nazionale (PSN), elemento sistemico infrastrutturale che, con la creazione di un vero e proprio cloud nazionale, nel giro di cinque anni dovrà gestire la maggior parte dei dati della Pubblica amministrazione italiana.

La proposta per la creazione del Polo, su cui si basa la gara, è stata individuata dal Dipartimento per la trasformazione digitale a dicembre 2021, secondo il modello di partenariato pubblico privato.

Riporta una nota del Ministero per l’Innovazione tecnologica e la transizione digitale che la procedura è affidata a Difesa Servizi S.p.A., società in house del Ministero della Difesa, in qualità di centrale di committenza.

La proposta messa a gara prevede l’investimento di 723 milioni di euro da parte del soggetto aggiudicatario per l’erogazione di servizi di cloud pubblico e privato in grado di garantire supervisione e controllo da parte delle autorità preposte su dati e servizi strategici.

La gara è europea, ed è bandita con la vigilanza dell’Autorità Nazionale Anticorruzione (Anac).

La gara revede l’affidamento della realizzazione e della gestione di un’infrastruttura ad alta affidabilità, localizzata sul territorio nazionale e idonea ad ospitare dati e servizi pubblici considerati critici o strategici, garantendo massima sicurezza, continuità e affidabilità.

L’operatore economico selezionato dovrà costituire una società che sarà sottoposta alla disciplina nazionale in materia di golden power.

La scadenza per la presentazione delle offerte è alle ore 16 del 16 marzo 2022.

Il bando e gli allegati sono disponibili sul sito di Difesa Servizi.

La realizzazione del Polo Strategico Nazionale costituisce la missione del Piano Nazionale di Ripresa e Resilienza (Missione 1, componente 1, investimento 1.1 Cloud PA/Polo Strategico Nazionale) per accelerare la trasformazione digitale della Pubblica amministrazione e ha l’obiettivo di portare il 75% delle amministrazioni italiane ad utilizzare servizi in cloud entro il 2026.

Tutte le amministrazioni centrali, le aziende sanitarie locali e le principali amministrazioni locali potranno attingere alle risorse economiche previste dalla Missione 1 del PNRR per migrare i dati e i servizi verso il Polo Strategico Nazionale.

La creazione del PSN è uno dei tre obiettivi fondamentali previsti dalla Strategia Cloud Italia, insieme alla classificazione dei dati e dei servizi pubblici da parte dell’Agenzia per la cybersicurezza nazionale (ACN) e la migrazione verso il cloud di dati e servizi digitali della Pubblica Amministrazione.

Il PSN dovrà effettuare la migrazione dei dati e servizi delle amministrazioni senza alterazioni (garantendo la modalità lift and shift) e abilitando servizi di cloud privato, ibrido in modalità Infrastructure as a service (IaaS) e Platform as a Service (PaaS), anche sfruttando tecnologie scalabili (hyperscaler)

Nel far questo dovrà essere conforme alle disposizioni europee in materia di localizzazione e trattamento dei dati e garantire soluzioni idonee a risolvere i problemi giuridici posti dell’applicazione extraterritoriale della normativa di Paesi extra Unione Europea.

L’Europa mette l’etichetta sulla sua cybersecurity

0

A Bruxelles il 24 e 25 maggio 2022 si terrà la conferenza internazionale EU Cybersecurity Act, pensata per aiutare la comunità tecnologica che lavora sugli standard a prepararsi all’evoluzione di scenari basati sul rischio volti ad affrontare la frammentazione del mercato nell’UE.

L’EU Cybersecuroty Act è nelle prime fasi di sviluppo ecreerà alla fine un corpo europeo indipendente e ad ampio raggio di regolamentazione della sicurezza informatica come parte dell’obiettivo del mercato unico digitale.

Intanto, promuovere la sicurezza informatica nell’Unione Europea sostenendo al contempo le imprese ICT che offrono servizi di cybersecurity è nata la Cybersecurity Made in Europe Label, prima e unica etichetta di qualità per le aziende erogata dal Comitato Nazionale per la Ricerca in Cybersecurity,

In Italia vi partecipano il Consiglio nazionale delle ricerche con l’Istituto di informatica e telematica (Cnr-Iit), il Consorzio interuniversitario nazionale per l’informatica (Cini), eil Consorzio nazionale interuniversitario per le telecomunicazioni (Cnit).

Il servizio è già attivo e si rivolge alle aziende che hanno sede legale e mercato principale sul territorio europeo e in UK.

I requisiti per ottenere l’etichetta “Cybersecurity Made in Europe Label” sono, oltre alla sede legale in Europa, la dimostrazione delle aziende di operare principalmente sul mercato europeo e l’adesione al protocollo di Enisa per la sicurezza e affidabilità dei prodotti informatici e alle politiche europee sul Gdpr.

Il Cybersecurity Made in Europe Label è un progetto della European Cyber Security Organisation (Ecso), organizzazione non profit che lavora al fianco della Commissione Europea per le politiche sulla sicurezza informatica.

L’obiettivo è dare un bollino di qualità alle aziende che forniscono servizi nel settore, per certificare la loro provenienza e aumentarne la visibilità sul mercato europeo e internazionale.

L’etichetta permetterà alle aziende di entrare in una lista di fornitori di alta qualità e garantirà loro riconoscibilità verso clienti, partner commerciali e potenziali investitori.

L’etichetta è sinonimo di una visione unitaria, coordinata e di appartenenza ad una ben identificabile comunità dell’innovazione.

Anie, le nuove cariche del gruppo system integrator reti di Tlc

Luigi Piergiovanni e Paolo Poggioli saranno Presidente e Vice Presidente per il quadriennio 2022-2026 del gruppo system integrator Tlc di Anie.

L’Assemblea Privata del Gruppo System Integrator Reti di TLC di Anie, il gruppo che all’interno di Federazione Anie raccoglie le istanze delle imprese che svolgono un ruolo essenziale per lo sviluppo dell’infrastruttura di Telecomunicazioni e nella digitalizzazione del Paese, ha eletto Luigi Piergiovanni e Paolo Poggioli rispettivamente Presidente e Vice Presidente, con incarichi a rotazione al termine del primo biennio di mandato. Sono stati, inoltre, scelti i membri della squadra di Presidenza e approvati gli indirizzi generali del programma di attività per il quadriennio 2022-2025.

Luigi Piergiovanni ricopre il ruolo di Direttore Tecnico Commerciale di Sielte SpA mentre Paolo Poggioli è a capo della Funzione Procurement & Supply Chain di Sirti SpA.

Piergiovanni ha sottolineato l’importanza di rinforzare la rappresentanza del Gruppo ampliando il numero di imprese associate. Tra le priorità del suo programma affrontare subito il problema della carenza di risorse umane nel settore che si sta manifestando proprio in questo momento cruciale, dove grazie ai grandi piani di sviluppo della rete di telecomunicazioni sono previsti ingenti investimenti.

Paolo Poggioli

L’obiettivo che si pone il Gruppo è di lavorare per cogliere le nuove opportunità previste nel settore delle telecomunicazioni e le sfide dei piani di sviluppo degli operatori delle TLC, che richiedono un rilevante potenziamento dell’attuale capacità produttiva del sistema italiano, stimabile in ulteriori 10.000 risorse rispetto a quelle già impiegate.

La squadra di Presidenza è così composta: Lucio Giudici – BI&S; Riccardo Giunta – TELEBIT; Carlo Gorga – SITE; Marta Mazzone – CEIT; Filippo Panzavolta – VALTELLINA e Pierluigi Pastore – MEDINOK.

Le aziende presenti nel Gruppo sono al momento 16 tra le più importanti imprese di system integration e rappresentano un settore da 2,5 miliardi di euro di fatturato nel 2019 con circa 25.000 addetti diretti.

A oggi al Gruppo hanno aderito Algor, Alpitel, Bi&S, Calzavara, Ceit, Comitel, Eco.Net, Idra, Medinok, Sensi, Sertori, Sielte, Sirti, Site, Telebit, Valtellina.

Rosenberger Osi metterà la sua tecnologia nel motore del cloud europeo

Rosenberger Osi si unisce a eco–Association of Internet Industry e sarà un nuovo membro del progetto Gaia-X per un cloud europeo.

Rosenberger OSI si è unita all’Associazione dell’Internet Industry in Germania eco e alle iniziative affiliate EuroCloud Germania e EuroCloud Native (ECN) e diventerà partner del progetto internazionale GAIA-X.

L’obiettivo delle nuove collaborazioni in EuroCloud Deutschland ed eco è promuovere e discutere standard di alta qualità, integrità delle soluzioni e dei componenti per il cloud europeo.

Eco è la più grande associazione europea dell’Internet Industry e rappresenta gli interessi di oltre 1.100 membri provenienti da oltre 70 paesi. Con ai suoi membri, l’associazione contribuisce allo sviluppo di Internet, promuove nuove tecnologie, infrastrutture e mercati, definisce le linee guida e rappresenta gli interessi dei suoi membri nella politica e negli organismi internazionali.

L’iniziativa affiliata EuroCloud Germania è impegnata nel recepire e indirizzare la domanda di servizi cloud sul mercato tedesco. Anche l’associazione EuroCloud Native (ECN), che si rivolge ai fornitori di soluzioni e servizi pubblici basati sul cloud, è collegata a questo network.

Rosenberger Osi parteciperà al lavoro dell’associazione come partner tecnologico iper i più grandi data center europei. L’attenzione è rivolta a servizi sostenibili e a soluzioni di cablaggio potenti e performanti.

Dall’inizio del 2021 l’Associazione eco ha anche assunto il project management dei Servizi Federali del progetto europeo Gaia-X del Ministero federale tedesco dell’economia e della protezione del clima (BMWi). Gaia-X riunisce rappresentanti della ricerca e dell’economia a livello internazionale per promuovere un’infrastruttura di dati europea sicura e in rete. In un ecosistema digitale aperto e trasparente, i dati e i servizi devono essere resi disponibili, uniti, condivisi e utilizzati. La fornitura di tecnologie tramite servizi di data center sarà sostenuta da Rosenberger Osi, che in qualità di esperto di cablaggio promuoverà sempre più il networking.

Leggi tutti i nostri articoli su Gaia-X

css.php