Home Autori Articoli di Patrizia Godi

Patrizia Godi

2196 ARTICOLI 0 COMMENTI

Il multicloud è diventato il nuovo multiculturalismo

0

ll multicloud è passato da esperimento provvisorio a componente fondamentale nello sviluppo delle strategie It. Dagli sviluppatori ai team di sicurezza, i carichi di lavoro migrano sempre più verso il cloud, qualunque sia la forma scelta.

In particolare – spiega Tristan Liverpool, Systems Engineering Director di F5 Networks – l’adozione del cloud ha alimentato un cambiamento profondo nel modo in cui le organizzazioni approcciano lo sviluppo e la delivery delle app. Una trasformazione che appare evidente, per esempio, se pensiamo ai modelli cloud basati su SaaS, che offrono alle aziende la libertà di scegliere esattamente dove distribuire le operazioni cloud riducendo al contempo i costi”.

Tristan Leverpool
Tristan Liverpool, Systems Engineering Director di F5 Networks

Avere a che fare con un contesto multi-cloud ha chiaramente stimolato nuove modalità di fare business, più agili e olistiche, legate, per esempio, all’adozione sempre più diffusa di pratiche DevOps, NetOps e SecOps. “In questo modo – prosegue Liverpool lo sviluppo delle applicazioni è migrato sempre più dalle infrastrutture locali alle infrastrutture cloud, comportando per le aziende la necessità di ripensare a come le diverse funzioni aziendali siano coinvolte e si relazionino con i nuovi approcci allo sviluppo del software. I team aziendali hanno tutti requisiti e modalità di lavoro differenti, quindi è basilare trovare un equilibrio che offra risultati su tutta la linea senza sollevare attriti o dover ricorrere a compromessi”.

Il cloud, ovvero la delizia dei DevOps

La cultura DevOps è incentrata sulla velocità e sull’innovazione continua. Il cloud consente a sviluppatori e DevOps di raggiungere esattamente questo obiettivo fornendo una piattaforma standardizzata, efficiente e ideale per test, implementazione e produzione. “Consente – aggiunge Liverpool – un processo di sviluppo più fluido che corrisponde al ritmo con cui i DevOps possono avviare le applicazioni, senza sacrificare stabilità, scalabilità e sicurezza. C’è sempre spazio per eventuali cambiamenti rapidi dell’ultimo minuto relativi alla integrazione e alla delivery continuative.

I team DevOps, quindi, possono considerare il cloud come una nuova norma ed estensione della propria infrastruttura di rete. Ciò significa abbracciare completamente gli ambienti di cloud pubblico nativi, per gestire le prestazioni delle applicazioni all’interno del cloud, nonché sfruttare i modelli SaaS per il contenimento dei costi e per supportare la scalabilità dell’innovazione.

Il cloud come risposta per i NetOps

Anche il ruolo dei NetOps sta cambiando – sostiene Liverpoolnon abbiamo più a che fare con team che gestiscono e monitorano risorse hardware e software. Ora abbiamo persone focalizzate sulla costruzione di un ecosistema di rete multi-componente, capace di supportare un’ampia varietà di obiettivi aziendali.
Man mano che cresce la quantità di carichi di lavoro spostati sul cloud, cresceranno le richieste ai team NetOps affinché si adattino rapidamente e passino dall’adozione di strumenti manuali e processi più lenti a sistemi più efficienti, compatibili con modelli DevOps agili”.

Ai NetOps è inoltre richiesto di raggiungere – afferma Liverpool – la parità dal punto di vista dell’automazione rispetto ai team che si occupano dello sviluppo delle app. Se non riescono a tenere il passo con continui aggiornamenti dell’applicazione, infatti, diventeranno presto il collo di bottiglia nello sviluppo delle applicazioni”.

Per Liverpool fortunatamente, il problema è stato risolto proprio grazie ai servizi cloud SaaS che rendono oggi possibile ai NetOps gi affrontare aree specifiche del business, nelle quali le reti legacy limitano l’innovazione, e indirizzare successivamente infrastrutture digitali più fluide per collaborare meglio con altri team.

Il cloud come estensione della security

Da sempre le operation adottano Kpi predefiniti in termini di livello della sicurezza e di servizio, il che può spiegare perché il loro approccio all’adozione della tecnologia sia generalmente più conservativo.

Se si desse loro la scelta – precisa Leverpol – i team di sicurezza opererebbero con reti zero-trust – e giustamente, dal loro punto di vista”.

In effetti, come ha rivelato una recente ricerca di F5 incentrata sui comportamenti di DevOps e NetOps, la sicurezza nel cloud è spesso un “ripensamento” per la maggior parte degli sviluppatori, in quanto assegnano la priorità alla velocità rispetto alle problematiche di sicurezza e affidabilità.

È importante comprendere – sostiene Liverpool – che i servizi cloud possono rappresentare un prolungamento per i team di sicurezza, fornendo loro le informazioni e gli strumenti necessari per tenere il passo con un panorama delle minacce in costante evoluzione. Tali servizi sono anche in grado di garantire la giusta governance in modo da monitorare e bilanciare le esigenze di innovazione e controllo (per esempio tramite dashboard e report)”.

Nella nuova era definita dal software – aggiunge Liverpool – l’adozione del cloud è decisamente una leva positiva per lo sviluppo di applicazioni critiche per il business. Questo perché il mercato non solo richiede processi di produzione maggiormente efficaci, ma perché il nostro mondo, incentrato sulle applicazioni, richiede velocità e affidabilità nel servizio”.

Bisogna ricordare sempre – conclude Liverpool – che tutti i team aziendali alla fine operano con il medesimo scopo: supportare una delivery continuativa di applicazioni di qualità. La collaborazione e le partnership sono più facili da sostenere quando tutte le parti condividono la medesima piattaforma che distribuisce le app e hanno accesso all’analitiche sottostanti per affinare e ridefinire gli obiettivi. Il giusto approccio multi-cloud e il suo supporto devono quindi essere inclusivi, cioè considerare in modo equo i team che si occupano dell’infrastruttura, gli sviluppatori e gli utenti aziendali. Le barriere culturali all’adozione del multi-cloud stanno scomparendo ed è essenziale collaborare nel cloud per non rischiare di rimanere indietro rispetto alla curva dell’innovazione, essendo sicuri di comprenderne tutte le implicazioni e coglierne le opportunità”.

Il toolkit di PwC per un’intelligenza artificiale eticamente responsabile

PwC ha messo a punto un ToolKit per un’intelligenza artificiale (IA) eticamente responsabile per aiutare le aziende, a contrastare l’approccio frammentario allo sviluppo e all’integrazione dell’Ia, che le sta esponendo a rischi potenziali e per imparare a comprendere, sviluppare e integrare specifiche per l’Ia.

Il Toolkit consiste in un pacchetto flessibile e scalabile di competenze globali concepito per consentire e supportare la valutazione e lo sviluppo dell’intelligenza artificiale all’interno delle aziende, personalizzato in base alle esigenze specifiche e al livello dell’Ia implementato.

PwC ha individuato cinque aree sulle quali le aziende devono concentrarsi, personalizzandole in base alle proprie esigenze in termini di strategia, progettazione, sviluppo e impiego dell’IA. Tali aree sono: governance, etica e normative, interpretabilità e capacità esplicativa dei sistemi di IA, solidità e sicurezza dei sistemi di Ia pregiudizi ed equità dei sistemi di IA.

Per PwC solo concentrandosi di queste aree infatti è possibile considerare i possibili impatti etici dell’IA a partire dalla pianificazione strategica e incorporarli quindi in un processo di governance efficace, contribuendo così a contrastare la crescente preoccupazione pubblica rispetto a temi quali equità, fiducia e affidabilità.

Come parte del Toolkit di PwC per una IA eticamente responsabile, grazie a un sondaggio diagnostico, le aziende possono valutare la propria comprensione e applicazione di pratiche IA etiche e responsabili. Tra maggio e giugno del 2019, circa 250 persone coinvolte nello sviluppo e nell’impiego dell’IA hanno completato il processo di valutazione.

Predominano immaturità e incoerenza

I risultati hanno mostrato immaturità e incoerenza nella comprensione e nell’applicazione di pratiche IA responsabili ed etiche. Solo il 25% degli intervistati dichiara di considerare in via prioritaria le implicazioni etiche di una soluzione di IA prima di metterla in atto, mentre uno su cinque (20%) ha processi chiaramente definiti per l’identificazione dei rischi associati all’IA.

Oltre il 60% si affida, invece, a processi informali di sviluppo o non dispone di alcuna procedura documentata.

Esistono già parametri o considerazioni rispetto a un’intelligenza artificiale etica, tuttavia la loro applicazione non è stata costante. Il 56% avrebbe difficoltà a spiegare le motivazioni nel caso in cui l’Intelligenza Artificiale della propria azienda facesse qualcosa di scorretto.

E oltre la metà degli intervistati non ha formalizzato l’approccio alla valutazione dell’IA rispetto ai rischi di discriminazione, adducendo come motivazioni mancanza di conoscenza, strumenti e valutazioni ad hoc. Il 39% di chi applica l’IA su larga scala dichiara di essere “abbastanza” sicuro di sapere come arrestare il proprio processo di IA se qualcosa andasse storto.

Sms, piacciono agli utenti e fanno bene al business

La telefonata viene considerata troppo invasiva e l’email e whatsapp rischiano di perdersi tra gli altri messaggi. È l’Sms il mezzo preferito dal pubblico, in particolare per ricordare appuntamenti e confermare prenotazioni. Il dato emerge da un’indagine di Skebby.it, la piattaforma web di servizi professionali di Sms marketing, in cui ben il 79% delle persone apprezza questa tipologia di notifiche e promemoria. Più in dettaglio, viene giudicata molto utile nel 31,08% dei casi, abbastanza utile nel 24,72% e mediamente utile nel 23,20%.

Nella ricerca, che si è svolta dal 27 maggio al 12 Luglio 2019 su un campione di 938 persone su tutto il territorio nazionale, l’Sms sicolloca in prima posizione (32,20%) come canale preferito con cui ricevere reminder e altri tipi di avvisi, seguito dalle e-mail e poi da whatsapp. Mentre la telefonata, con un gradimento appena dello 0,96%, risulta essere decisamente la meno amata dagli intervistati.

Grazie al minor affollamento e alla scarsa presenza di messaggi indesiderati, l’Sms balza in testa nelle preferenze per ciò che riguarda le comunicazioni transazionali tra chi ha indicato di ritenerle utili per ricordare appuntamenti (47,29%) o per conferme di prenotazione (33,33%).

infografica-Skebby-ReminderSe si vanno, infine, ad analizzare i dati in base all’età, emerge come nella fascia tra i 25 e i 34 anni sia ben il 46,8% a preferire gli Sms per reminder e avvisi, probabilmente grazie alla minor invasività della sfera privata rispetto ad altri strumenti.

 

Pagamenti digitali: le cinque sfide dell’innovazione tecnologica

Come vengono fronteggiate le nuove sfide imposte dall’innovazione tecnologica e finanziaria? Quali sono gli insight sul futuro dei pagamenti digitali? Avere una risposta a queste domande era l’obiettivo alla base delle interviste fatte da Intergic agli e-commerce manager del proprio network.

La ricerca si è focalizzata su cinque aree: operation, sicurezza, conversion rate, provider e sguardo al futuro.

I motivi della scelta

Le attività di operation, ovvero la gestione quotidiana dei pagamenti, rappresentano il task più impegnativo per gli e-commerce manager italiani. Lo conferma il 44% degli intervistati. Segue chi ritiene la gestione dei rimborsi un’attività particolarmente time consuming (35,6%). Solo il 9% di chi ha negozi fisici, invece, afferma di gestire tutti i pagamenti online e in store con un unico provider.

Monitorare la sicurezza è un ulteriore fattore importante per gli intervistati. Il 50% dichiara di avere un tasso medio di chargeback compreso tra 1% e 5%. Il 52,3% monitora e ritiene fondamentale l’analisi di pagamenti rifiutati dal provider al checkout. Mentre per quanto riguarda il binomio 3D Secure e Conversion Rate, per il 43,2% degli ecommerce manager il 3D Secure rappresenta un mezzo che peggiora il Conversion Rate del checkout. Il 22,7% dichiara di non riscontrare nessun impatto negativo rilevante, il 20,5% non monitora questa relazione, mentre per il 13,6% rappresenta un aspetto che migliora il CR.

Sempre riguardo il Tasso di Conversione, il numero di step necessari per effettuare il checkout è il fattore più importante per un metodo di pagamento (65,9%). Il 54,4% pensa invece sia fondamentale il monitoraggio dei metodi di pagamento preferiti dagli utenti. Appena il 17%, ritiene il monitoraggio del CR una delle attività più complesse nella gestione dei pagamenti.

Per quanto riguarda invece la scelta del Provider, un terzo degli intervistati pensa sia fondamentale l’integrazione in white label sul proprio ecommerce. Mentre per il 56,8% le commissioni percentuali rappresentano un elemento di valutazione importante per la scelta. Tra i metodi più utilizzati dagli utenti, PayPal occupa più del 25% dei checkout per il 75% degli ecommerce, mentre carte di credito/debito pesano meno del 25% in almeno 1 ecommerce su 4.

Il ruolo di voice payment e criptovalute

La ricerca fa inoltre una previsione circa le future modalità per i pagamenti digitali. Il voice payment diventerà una prerogativa su cui focalizzarsi per non trovarsi impreparati. Dialogare con gli assistenti vocali sarà sempre più comune e questi dispositivi dovranno mettere a disposizione un sistema di pagamento che sfrutti l’intelligenza artificiale. In quest’ottica, molte fintech stanno lavorando per rendere sicuro e regolato un sistema di approvazione ormai sempre più vicino.

Riguardo invece l’utilizzo delle criptovalute e la blockchain per i pagamenti digitali, attualmente non si sa chi avrà la meglio, ma è indiscutibile che il numero di utenti stia aumentando. Molti PSP stanno risolvendo il problema della volatilità del valore convertendo immediatamente le crypto in valute “comuni”.

Aruba, i quattro trend della digital trasformation

Aruba Enterprise ha realizzato una panoramica sui maggiori trend relativi alle richieste ricevute nel corso di questa prima metà 2019. Per quanto riguarda i servizi di Cloud e Data Center sono emersi quattro macro-trend.

Servizi Cloud Enterprise in crescita

Si è manifestata la richiesta di migrare la propria infrastruttura It in cloud, orientandosi sempre più spesso verso l’outsourcing nei data center. Sono sempre di più infatti le grandi aziende che necessitano di un’infrastruttura cloud dedicata per sfruttare tutti i benefici a livello di controllo e personalizzazione, oltre alla riduzione dei costi e alla razionalizzazione del proprio installato necessaria nelle infrastrutture di dimensioni e complessità consistenti.

Sempre più aziende verso l’Hybrid Cloud

Il concetto di data center aziendale è cambiato, spingendosi progressivamente verso l’It ibrido e l’esternalizzazione del proprio data center. E anche secondo Gartner, entro il 2020 il 90% delle organizzazioni adotterà servizi di infrastruttura basati sul cloud ibrido. Questo perché si tratta di un approccio che consente di gestire in modo pratico le integrazioni tra istanze fisiche e cloud e di andare oltre i limiti dell’infrastruttura cloud pubblica. Inoltre, particolare interesse è stato riscontrato nella possibilità di interconnettere tramite collegamenti network di livello 2 il servizio di Private Cloud con hardware fisici del cliente all’interno dello stesso data center, con l’obiettivo di migliorare esponenzialmente le interconnessioni fra le piattaforme e considerare la possibilità di delegare la gestione dell’infrastruttura al personale Aruba.

Disaster Recovery as a service e Data Center Extension

Sono sempre più numerose le aziende che chiedono di progettare soluzioni adatte alla protezione dei propri dati, garantendosi un secondo sito in cui localizzarli e da cui ripristinarli in caso di disastro. Questo rappresenta, inoltre, un requisito fondamentale in ottica di conformità al Gdpr. Tra i servizi più richiesti in tal senso ci sono quelli di Disaster Recovery e di backup virtualizzati ed erogati in cloud, insieme alle infrastrutture di backup dedicato in appliance e ai servizi di Business Continuity.

Cresce la richiesta di colocation e di cage dedicati

Contrariamente a quanto si pensi, la crescita della richiesta di cloud non sta rallentando la domanda di data center puro. Questo è dovuto alla capacità di espansione che il data center può garantire e mettere a disposizione della crescita esponenziale che un business può avere. A farne richiesta sono soprattutto le aziende che per motivi di compliance hanno bisogno di utilizzare hardware proprietario e decidono di migrare la loro infrastruttura e installarla presso chi fa del data center il proprio mestiere, beneficiando di certificazioni sul massimo livello di affidabilità, compliance normativa e sicurezza, aspetti non facilmente replicabili on-premise.

Per quanto riguarda i Trust Service, i servizi fiduciari qualificati dedicati alla dematerializzazione e certificazione dei processi delle aziende, sono stati riscontrati da Aruba due macro-trend.

  • anzitutto aumenta anche la richiesta di software per la dematerializzazione dei processi aziendali.  Questo rappresenta un passaggio importante nell’ottimizzazione dei flussi e sempre più aziende se ne sono rese conto. Processi efficienti sono sinonimo di competitività sul mercato e lo spostamento verso il paperless porta importanti risparmi di tempo e risorse. L’azienda che riesce a gestire in modo efficace tutti i processi a prescindere dal supporto cartaceo compie un passo strategico in ambito di lean organization, oltre che di impatto ambientale. Tra i servizi più richiesti in tal senso ci sono i processi di firma digitale che coinvolgono più esigenze come nel caso della firma automatica massiva, a cui si aggiunge la timbratura digitale dei documenti informatici e conservazione digitale a norma.
  • Secondo Aruba spesso, inoltre, si ricevono richieste di integrazione del servizio di Posta Elettronica Certificata e relative soluzioni avanzate, che vanno a unirsi ai processi di firma. La Pec è ormai parte imprescindibile per la semplificazione della gestione delle comunicazioni interne ed esterne, garantisce l’invio in digitale di comunicazioni con valore legale, equiparato a una raccomandata con ricevuta di ritorno, certificandone il contenuto. Nello specifico, quando le aziende hanno necessità di snellire tempi e flusso delle informazioni e certificare le comunicazioni, richiedono soluzioni di taglio enterprise che implicano uno sviluppo e un approccio personalizzato per rispondere all’esigenza esatta.

 

Contact center, prestazioni migliori con l’intelligenza artificiale

Il 94% dei business decision maker aziendali riconosce la capacità dell’intelligenza artificiale di trasformare le performance del proprio contact center.

Il dato emerge dalla ricerca “AI: The De Facto for Contact Center Experience” realizzata da Vanson Bourne in collaborazione con Avaya tra 2.800 IT e business decision maker di 17 paesi, con il 32% degli intervistati dalle Americhe, il 43% dall’area EMEA e il 25% dall’Asia Pacifico.

L’indagine evidenzia anche che per l’81% degli intervistati non adottare correttamente tecnologie di intelligenza artificiale comporterà un costo per la propria azienda per tutto il prossimo decennio. Tuttavia, il 42% delle organizzazioni ha ammesso di essere attualmente solo al 40-60% del processo di implementazione di sistemi Ia all’interno dei contact center.

La stragrande maggioranza delle organizzazioni coinvolta nel sondaggio utilizza l’IA all’interno del proprio contact center per migliorare il self-service dei clienti (47%), risolvere i loro problemi più velocemente (44%) e prevederne le esigenze (41%); il rapporto ha però anche rilevato che oltre un terzo degli intervistati per interagire con i clienti utilizza chatbot, considerati da alcuni executive una delle forme più elementari di Intelligenza artificiale.

Il sondaggio ha però messo in luce che gli intervistati intendono andare oltre i chatbot, ma hanno bisogno di supporto per compiere questa evoluzione in modo efficace.

Andare oltre i chatbot nei contact center

Anche se solo un quarto (25%) delle organizzazioni intervistate ha completato l’implementazione di una strategia di IA, oltre la metà (51%) intende espandere il numero di aree del proprio business in cui l’IA viene utilizzata. Per esempio, circa il 40% del campione vorrebbe prevedere le intenzioni dell’interlocutore attraverso l’analisi del linguaggio e/o analizzarne le reazioni emotive per ottimizzare la gestione dell’esperienza e il coinvolgimento via telefono.

A fronte della crescente importanza dell’IA, l’85% dei decision maker ritiene necessario un maggiore supporto di terze parti per integrare completamente la tecnologia nel proprio contact center.

I vantaggi di una strategia di IA

Una volta adottate tecnologie di IA, il 55% degli intervistati ha notato sia una migliore esperienza per i clienti che una loro maggiore soddisfazione. Inoltre, almeno un terzo degli intervistati ha evidenziato altri benefici attesi come l’analisi predittiva, l’incremento del fatturato e l’aumento del ciclo di vita dei dispositivi. Quando si tratta di sviluppare una soluzione di IA in-house o di acquistare da terzi, il 52% degli intervistati ha indicato come preferibile un mix di sviluppo interno e di terze parti.

OntheMap, la piattaforma di geomarketing che sfrutta l’IA

La combinazione dei modelli statistici di TradeLab con la competenza tecnologica di Noovle hanno dato vita a OnTheMap, piattaforma di geomarketing avanzata, erogata in modalità SaaS (Software as a Service), che collega i dati economici a Google Maps e digitalizza l’intero processo di analisi statistica.
OntheMap coniuga l’esperienza di TradeLab nell’analisi territoriale economico-competitiva con quella sviluppata da Noovle nella creazione della piattaforma GeoCMS, un Content Management System erogato dal cloud di Google per gestire le informazioni georeferenziate.

Gli algoritmi di intelligenza artificiale

Grazie ad algoritmi di Intelligenza Artificiale, e per mezzo di un’interfaccia semplice, la soluzione è in grado di fornire tempo reale le informazioni utili per la valutazione delle potenzialità di sviluppo su un determinato territorio, definendone le caratteristiche di domanda (in termini di consumi aggredibili) e offerta (valutando il presidio dei competitor presenti).
OnTheMap dispone di informazioni geocodificate quali indicatori demografici, indici di reddito, il valore dei consumi mensili familiari e i livelli di presidio competitivo. Gli algoritmi previsivi e i valori parametrici che costituiscono il modello di TradeLab S.E.M. (Site Evaluation Model) consentono di ottenere una stima del fatturato potenziale di un’attività commerciale, sia in base alla capacità di spesa dell’utenza locale sia in base al numero di competitor presenti nella stessa area.

Intuitive rappresentazioni cartografiche

Le complesse elaborazioni eseguite dal motore di OnTheMap vengono poi rappresentate in maniera semplice e intuitiva su una delle cartografie disponibili (Mappa, Satellite, Terreno, Street View e Earth); Google Places arricchisce inoltre la base informativa con la presenza di tutti i POI (Point of Interest) del territorio italiano.

Siamo solo all’inizio della storia di OnTheMap –ha detto Piergiorgio De Campo, Direttore Generale e Co-Founder Noovle – e stiamo già lavorando a nuove soluzioni di Big Data Analysis in grado di  generare algoritmi sempre più performanti e di offrire API avanzate che consentano l’integrazione con i sistemi informativi dei nostri clienti”

“Con OnTheMap abbiamo soddisfatto il fabbisogno espresso dai nostri clienti di coniugare la nostra capacità di analisi e l’affidabilità dei nostri algoritmi predittivi con la flessibilità della piattaforma in Cloud sviluppata da un partner all’avanguardia. OnTheMap è il punto di partenza dello sviluppo di strumenti e servizi a matrice digitale finalizzati a semplificare e velocizzare i processi decisionali delle imprese e migliorarne la relazione con il mercato potenziale di riferimento”, ha affermato Massimo Viganò, CEO e Co-Founder di TradeLab.

Storage NetApp C190, soluzione flash per piccole imprese

Lo spazio di archiviazione non basta più? Siete insoddisfatti delle prestazioni del vostro storage? NetApp forse ha la soluzione che fa per voi. Si chiama AFF C190, ed è una soluzione di storage all-flash scalabile ed economica, progettata in particolare per l’impiego all’interno di una piccola impresa.

Essere una piccola impresa spesso significa avere a disposizione un team IT più snello, forse persino un responsabile dell’IT che svolge anche altre mansioni. L’intuitivo software di gestione C190, assicura NetApp, è facile da usare senza un team specializzato e facile da gestire perché permette di creare una fornitura di storage in meno di dieci minuti.

Con C190 è possibile consolidare e gestire tutti i file di una PMI e bloccare i dati da un singolo sistema, aumentando l’efficienza. È possibile anche connettersi al servizio cloud preferito con facilità e fare il backup, stratificare o trasferire i dati automaticamente.

La giusta scalabilità

Le piccole imprese hanno bisogno di soluzioni di archiviazione che siano su misura rispetto alle loro esigenze. Proprio per questo C190 è stato pensato, sostiene NetApp, per consentire di archiviare più dati a un costo inferiore. L’archiviazione flash consente anche di avere un tempo di risposta delle applicazioni particolarmente veloce. Per una PMI, aumentare l’efficienza significa avere più tempo e più denaro da dedicare ad altre priorità, come la crescita dell’azienda.

Uno storage attento alla sicurezza

L’aumento degli incidenti ransomware e dei furti di dati negli ultimi anni ha messo in evidenza quanto siano esposti ad attacchi molti ambienti lavorativi. A ciò è da aggiungere che il regolamento generale sulla protezione dei dati dell’Unione Europea e legislazioni simili in tutto il mondo richiedono cambiamenti significativi nel modo in le cui società gestiscono i dati personali.

NetApp AFF C190 è particolarmente attento all’aspetto sicurezza. Se si verifica un incidente, grazie alla replica simultanea non si perderanno mai più i dati importanti per l’azienda. Anche le transazioni in sospeso vengono salvate grazie al backup integrato coerente con l’applicazione. I dati dell’applicazione sono crittografati e sicuri ed è possibile controllare l’accesso ai dati, vitale per rispettare le leggi sulla protezione dei dati e sulla privacy.

Un investimento per il futuro

Infine, i professionisti dell’It che desiderano una soluzione flash a basso costo per modernizzare e semplificare la propria infrastruttura rendendola future-proof, grazie alle nuove funzionalità di archiviazione di NetApp AFF C190, hanno accesso a un sistema di archiviazione di file efficiente e ad alte prestazioni in grado di adattarsi alle evoluzioni future del business.

Email sotto attacco, l’instant messaging è l’alternativa

Barracuda Networks ha reso noti i risultati del rapporto Mail Security Trends del 2019 che ha esaminato le esperienze e attitudini sullo stato attuale della sicurezza della posta elettronica di 660 dirigenti, collaboratori individuali e team manager che ricoprono ruoli di sicurezza It di diversi settori nelle Americhe, Emea e Asia-Pacific.

Nel complesso, lo studio indica che mentre la maggior parte dei professionisti It ritiene più efficaci i propri sistemi di sicurezza e-mail rispetto a un anno fa, gli attacchi continuano ad avere un impatto significativo sulle aziende. Lo ha affermato il 74% degli intervistati.
Gli effetti più comuni citati sono stati la perdita di produttività dei dipendenti, i tempi di inattività, l’interruzione dell’attività e i danni alla reputazione del team It.
Quasi tre quarti degli intervistati hanno riferito di vivere livelli di stress più elevati, preoccupandosi della potenziale sicurezza della posta elettronica anche quando non sono al lavoro ed essendo costretti a lavorare di notte e nei fine settimana per affrontare i problemi di sicurezza della posta elettronica.

Phishing e ransomware le principali preoccupazioni

Il 43% delle organizzazioni è stato vittima di un attacco di spear-phishing negli ultimi 12 mesi. Il 78% delle organizzazioni ha affermato che il costo delle violazioni della posta elettronica è in aumento e il 66% che gli attacchi hanno avuto un costo monetario diretto per la loro organizzazione nell’ultimo anno.

Più di tre quarti delle organizzazioni hanno dichiarato che i loro dipendenti non riescono a individuare email sospette. Ci sono preoccupazioni crescenti in relazione alle minacce interne e su Office 365. Il 79% dei professionisti It è preoccupato per gli attacchi e le violazioni derivanti dall’organizzazione. Il 92% degli utenti di Office 365 ha problemi di sicurezza.
Barracuda ha condotto anche un’indagine su 260 decisori in aziende Emea di diversi settori per capire quali siano le misure adottate per la sicurezza della posta elettronica, come si colloca la mail security nella lista delle priorità e come si sono attrezzate le aziende per rispondere agli inevitabili attacchi.

Dallo studio emerge che le aziende sono consapevoli – e spesso già vittime – della nuova ondata di minacce legate alla mail. L’87% prevede che tali minacce si diffonderanno ulteriormente nei prossimi 12 mesi. Non sorprende perciò che ben il 75% abbia osservato negli ultimi 3 anni un costante aumento degli attacchi diretti alla propria organizzazione.

Nell’ultimo anno, quasi la metà (47%) ha subito attacchi ransomware, il 31% è stato vittima di attacchi Bec (business email compromise) e addirittura il 75% ammette di essere stato vittima di attacchi di brand impersonation.

Il punto più vulnerabile è sempre l’email

Purtroppo, malgrado gli alti livelli di consapevolezza, molte aziende ammettono di essere largamente impreparate in tema di email security. Nonostante lo strumento sia usato dagli anni ‘90, ben il 94% sostiene che l’email è ancora oggi l’elemento più vulnerabile dell’infrastruttura di sicurezza aziendale.

Prevedibilmente, il personale dell’area finanza è il più colpito: il 57% indica questo dipartimento come quello che subisce più attacchi. Quel che sorprende è invece l’aumento degli attacchi al dipartimento assistenza clienti. Un non trascurabile 32% lo ha indicato come il più attaccato, fatto che potrebbe indicare un nuovo trend.

In assenza di un’adeguata formazione del personale, questi attacchi continuano ad andare a buon fine. Però la formazione è ancora in larga misura insufficiente in molte delle organizzazioni. Il 29% viene formato una volta all’anno e il 7% dice di non avere mai ricevuto alcun tipo di formazione.

La mancanza di formazione fa sì che le persone siano confuse o addirittura all’oscuro in relazione ai protocolli di sicurezza: il 56% afferma che alcuni dipendenti non aderiscono alle policy di sicurezza. Di questi, il 40% dice che i propri dipendenti eludono in qualche modo le policy, con i rischi che ne derivano per l’ambiente It aziendale. Entrambi i problemi possono essere risolti con programmi di formazione regolare e approfondita.

Per il 38% il cui budget per la sicurezza aumenterà nel corso del prossimo anno, è auspicabile abbia deciso di dedicare una parte di tale budget alla formazione sulla sicurezza. Tuttavia, siccome nel 62% dei casi gli investimenti in sicurezza rimarranno uguali o diminuiranno, probabilmente le organizzazioni stanno cercando altri modi per ridurre le minacce veicolate dalla posta elettronica.

Più di un terzo (36%), per esempio, sta implementando soluzioni di instant messaging, come Slack o Yammer, per ridurre il traffico email.

Cloud e multicloud protagonisti nell’automazione della rete

Dalle infrastrutture fisiche a quelle virtuali fino al cloud (e ora multi-cloud). Le reti stanno diventando sempre più diversificate e per i professionisti di Internet la gestione in tali ambienti ibridi rappresenta una sfida sempre più rilevante.

Nel corso di Cisco Live 2019, Kentik ha condotto un sondaggio presso oltre 380 professionisti della rete per comprendere in che modo le aziende e le organizzazioni affrontino la sua gestione.

L’automazione della rete sta prendendo forma

L’85% degli intervistati ha dichiarato che la propria organizzazione ha uno o più tipi di automazione. Eppure solo il 27% ha affermato che la propria organizzazione è “estremamente preparata” o “molto preparata” per l’automazione completa. Tuttavia, si sono fatti importanti progressi rispetto al solo 15% degli intervistati che si sentivano “estremamente” o “molto” preparati nel sondaggio di Kentik del 2018.

Il passaggio al cloud, e in particolare al multi-cloud, è uno dei fattori alla base della necessità di automazione della rete. Mentre il 76% degli intervistati ha confermato di utilizzare i servizi cloud, quasi un quarto (24%) ha affermato che la propria organizzazione non è ancora passata al cloud. Di quelli che hanno adottato servizi cloud, il 60% lavora in un ambiente multi-cloud.

Il traino è il settore energetico

Al di fuori dell’ambito tecnologico, il settore energetico è il più preparato per la completa automazione. Tra tutti gli intervistati che operano nel settore energetico, il 30% ha riferito che la propria organizzazione è “estremamente preparata” o “molto preparata” per la completa automazione. Nel settore sanitario, solo il 3% ha dichiarato che la propria organizzazione è “molto preparata” per la completa automazione. Gli intervistati governativi hanno dichiarato di essere “per nulla preparate”, (21%).

I processi di rete come la conformità e la risposta agli incidenti hanno meno probabilità di essere automatizzati. Il (53%) degli intervistati utilizza l’automazione per la configurazione della rete. La gestione delle policy è stata il secondo processo più automatizzato, citato dal 40% degli intervistati. Processi come conformità, risposta agli incidenti e scoppio del cloud hanno ricevuto tassi di risposta più bassi.

Sempre più apprendimento automatico

In crescita del 20% rispetto al 2018, il 65% degli intervistati ha affermato che l’apprendimento automatico è ora estremamente importante “o molto importante” per la gestione della rete. Ciò riflette sia la costante maturazione e il comfort di Ml come tecnologia, sia la marcia incessante della complessità, facendo sì che i professionisti della rete cerchino aiuto nel ridurre i tempi e gli sforzi necessari per monitorare e risolvere i problemi delle prestazioni della rete e delle applicazioni in ambienti ampi e complessi.

L’adozione di IOps tra i professionisti della rete è, invece, in una fase molto precoce, ma l’industria sembra pronta ad aiutare la gestione della rete. Solo il 22% degli intervistati ha riferito che le proprie organizzazioni stanno oggi attivamente utilizzando( o stanno pianificando di utilizzare) gli strumenti AIOps. Tuttavia, chiare maggioranze stanno dando la priorità all’automazione e alla lL, che sono due dei tre principali elementi fondamentali di AIOps (il terzo è l’integrazione e l’arricchimento dei dati). Ciò delinea un brillante futuro per gli approcci AIOps agli strumenti, alle tecnologie e alle pratiche di gestione della rete.

Unified Commerce, perché i retailer devono cogliere l’opportunità

Lo Unified Commerce è una tendenza che si manifesta in tutto il mondo e che anche in Italia sta diventando uno dei fattori di differenziazione più importanti per i brand. I consumatori, infatti, sono sempre più spesso alla ricerca di esperienze di acquisto su più canali, in cui le barriere che separano digitale e in-store vengano meno e la brand experience risulti univoca e coerente.

Già oggi il cliente omnichannel rappresenta per le aziende un’opportunità molto rilevante, vista la garanzia di accedere a un target più fidelizzabile – acquista 4 volte l’anno dal medesimo rivenditore, contro le 2 del consumatore classico – e che spende in media il 30% in più (dati Adyen Unified Commerce Index 2019).

Visual Adyen 1Ma questo è solo uno dei vantaggi da tenere in considerazione nel valutare l’opportunità di intraprendere una strategia di unified commerce. Adyen, la piattaforma di pagamento, ne suggerisce cinque.

Pensare come i clienti

I clienti non pensano per canali di acquisto separati e lo stesso dovrebbero fare le aziende, puntando a offrire un’esperienza che unisca il meglio di online, mobile e in-store. È questo l’obiettivo di Primadonna Collection, che sta trasformando, il suo approccio sia al punto vendita sia al panorama digitale. Grazie alla configurazione di un nuovo sistema di casse, al lancio del sito e-commerce con navigazione ottimizzata da un motore di intelligenza artificiale e all’arrivo dell’app ufficiale, che coniuga shopping online con ritiro in negozio e interazione tra negozio fisico e sito online, per offrire un’esperienza di acquisto amplificata. In questo modo, Primadonna è in grado di intrecciare relazioni più profonde e personalizzate con i clienti, offrendo loro una esperienza di acquisto moderna e completa di nuovi servizi.

Cogliere l’opportunità dello shopping contestuale

Acquistare ovunque e in qualsiasi momento. Per esempio, scorrendo il feed di Instagram. È la nuova frontiera dello shopping contestuale e offre incredibili opportunità per far crescere le vendite. Gli utenti ne sentono sempre di più l’esigenza, in particolare Millennials e Generazione Z: 2 consumatori su 5 fra 18-24 anni (dati 451 Research) dichiarano che la possibilità di acquistare direttamente sui social aumenterebbe il loro shopping online. E per le aziende si tratta di un trend da non farsi sfuggire.

Gestire meglio i resi

La restituzione di un prodotto può rappresentare un elemento di conflitto tra merchant e cliente ed è dunque un fattore assolutamente da non sottovalutare – soprattutto da chi fa business in Europa, che vanta tassi di reso generalmente più alti che nel resto del mondo. Com’è possibile ottenere il massimo anche nella gestione dei resi? L’utilizzo di una piattaforma unificata permette, per esempio, di sfruttare riferimenti incrociati che mettono in relazione prodotto e pagamento, oppure di offrire la possibilità di riconsegnare i prodotti acquistati online direttamente in negozio o viceversa, così da rimuovere ogni possibile ostacolo all’acquisto dovuto alla preoccupazione per un eventuale reso.

Guadagnare dalla lotta alle frodi online

Le frodi sono e continuano a essere un argomento delicato per le aziende che vendono prodotti attraverso più canali, soprattutto per quanto riguarda l’e-commerce, dove il 4,09% degli ordini risulta essere fraudolento. Una strategia virtuosa di approccio al problema deve prevedere, da un lato, un contrasto efficace e mirato, dall’altro non deve rischiare di compromettere la fluidità dell’esperienza di pagamento che potrebbe tradursi in un peggioramento della relazione con il cliente, con rischi di perdite per l’azienda ancora maggiori.

Spotify, per esempio, ha adottato Adyen Revenue Protect per contrastare le molteplici tipologie di frodi online e far sì che i pagamenti ricorrenti vadano a buon fine, minimizzando il tasso di abbandono involontario e, dunque, sostenendo in questo modo il suo modello di business basato sulle sottoscrizioni.

Intercettare gli shopper internazionali

Se pensiamo che i turisti cinesi spendono in media 4 volte di più (416 euro) di un consumatore tradizionale e che in un segmento come quello del lusso nel 2025 rappresenteranno da soli il 44% dell’intero comparto, diventa da subito lampante quali enormi opportunità di guadagno ci siano per le aziende che investono nel target internazionale.

Visual Adyen 3Per farlo in modo efficace, però, è necessario innanzitutto permettere ai clienti di pagare nel modo che più preferiscono. Per esempio, attraverso digital wallet – come Alipay e WeChat – il cui utilizzo ha registrato un +400% negli acquisti in store nell’ultimo anno.

La trasformazione digitale della gestione delle risorse umane

Secondo la ricerca “Gartner 2019-2021 Strategic Roadmap for Hcm Technology Investments”, entro il 2025, la metà delle aziende di medie e grandi dimensioni a livello mondiale avrà investito in una suite Hcm (human capital management) basata sul cloud per la gestione amministrativa dei talenti e delle risorse umane.

Per Gartner, la tecnologia Hcm in cloud rende la funzione Hr più agile. E le Hr devono essere più agili se vogliono affrontare sfide come la trasformazione delle competenze richieste, l’assunzione e la fidelizzazione dei dipendenti in un mercato dei talenti ristretto, la trasformazione della forza lavoro e l’esigenza di una maggiore diversità nelle imprese. In altri termini, la funzione Hr deve essere più agile per aiutare l’intera azienda a essere a sua volta più agile.

I cambiamenti continui possono rappresentare una sfida, ma, come ha detto Robynne Sisco, Cfo di Workday, “è importantissimo avere la capacità di adattarsi e reagire, indipendentemente dalla mentalità e dalla progettualità o dalla tecnologia utilizzata, E questo non solo per sé ma anche per la propria azienda”.

Sabine Hagege
Sabine Hagege, product strategy director Hcm di Workday

“Una trasformazione – ha affermato Sabine Hagege, product strategy director Hcm di Workday – può dirsi compiuta, anche nel senso di saper comprendere bene il valore delle soluzioni digitali, se si è stati in grado di esaminare in maniera approfondita l’attuale stato dell’azienda e il suo potenziale stato futuro”. Secondo il report di Gartner, nei prossimi anni l’Hcm richiederà una mentalità agile, orientata dalla funzione Hrma con il coinvolgimento di tutta l’azienda, in una sperimentazione continua. Nell’idea di Hagege, “gli ingredienti principali della trasformazione digitale della funzione HR includono la volontà di realizzare il cambiamento in azienda, un allineamento tra Hr e It e una roadmap strategica per la digitalizzazione del luogo di lavoro”.

Realizzare il cambiamento in azienda

La trasformazione digitale della funzione Hr non si riduce a una semplice riprogettazione dei processi. Nel report viene evidenziato che le aziende devono saper affrontare sfide quali contesti di lavoro mutevoli, la flessibilità degli accordi di lavoro, un panorama normativo volatile e mercati del lavoro sempre più ristretti. ”L’intreccio tra tutte queste tendenze –ha sottolineato Hagege – mette a dura prova le strutture organizzative, i processi e le tecnologie abilitanti esistenti, a livelli e con una complessità tali da risultare scoraggianti e potenzialmente travolgenti”.

L’errore che commettono molte aziende quando adottano nuove tecnologie è copiare i processi esistenti nel nuovo sistema, anziché impegnarsi a completare la trasformazione della gestione delle risorse umane.

L’autocompiacimento non è concesso nell’attuale contesto aziendale, dove tutto avviene velocemente – ha sottolineato Javier Delgado, managing director di Business Network Builders, società di servizi professionali che ha adottato un unico sistema per la gestione finanziaria, le risorse umane e l’automazione dei servizi professionali –. Se volevamo proseguire il nostro trend di crescita, dovevamo innovarci utilizzando servizi cloud moderni per trasformare il nostro business, diventare più agili e mantenere la nostra qualità di servizio al cliente.”

Il successo dell’implementazione della tecnologia Hcm dipende dalla capacità della funzione Hr di essere lungimirante e di apportare i cambiamenti che supportano la riprogettazione dell’organizzazione. Secondo il report tale riprogettazione avviene su tre pilastri:

• Riprogettare le strutture, per esempio passare da gerarchie rigide a gruppi più fluidi, come team, tribù e coorti.
• Riprogettare le competenze, passando da cataloghi o database di competenze e abilità rigidi a ontologie flessibili.
• Riprogettare i processi, sulla base degli input provenienti dalle altre due forme di riprogettazione.

Allineare le HR e l’IT

La riprogettazione aziendale, come indica il nome, non riguarda unicamente la funzione Hr. Quest’ultima deve prendere le redini del cambiamento, evidenzia il report, ma le altre funzioni, in particolare l’It, devono lavorare in tandem con essa.

Un articolo di Deloitte Insights del 2018 sulle tendenze relative al capitale umano globale fa eco alla ricerca di Gartner argomentando che i responsabili senior non possono lavorare isolati. Ora si rendono conto che devono andare oltre il loro ruolo funzionale e devono operare come un team, precisa l’articolo. In questa nuova organizzazione, il management combina la responsabilità funzionale e delle business unit con il lavoro trasversale in team, per gestire l’azienda come un network agile.

Cathy Armor, direttrice Risorse umane di Cambridge University Press, ha contribuito al passaggio alla soluzione Hcm della sua azienda. La sua esperienza avvalora i risultati delle ricerche di Gartner e Deloitte: “Una delle cose migliori che abbiamo fatto è stato costituire un project team trasversale alle diverse funzioni: It, Hr, legal, paghe, project management. È fondamentale avere questi stakeholder al tavolo e assicurarsi il coinvolgimento di tutti coloro che guideranno il progetto.

Una roadmap strategica per digitalizzare il luogo di lavoro

“La digital disruption è entrata in tutti i settori e in tutte le funzioni aziendali e l’Hr non fa eccezione – ha affermato Hagege –. Nel valutare l’adozione della tecnologia Hcm, i team devono ragionare in termini sia di breve sia di lungo termine nonché di agilità della tecnologia in un’ottica futura”.

Quando la società di servizi professionali Booz Allen Hamilton ha adottato una soluzione Hcm, Sarah St. Clair, vicepresidente delle risorse umane, ha capito che la trasformazione non sarebbe avvenuta dall’oggi al domani: “È uno sforzo costante, evolutivo. Ma la tecnologia continua a cambiare. Nel nostro ruolo di responsabili di una funzione aziendale  dobbiamo essere in grado di capire a fondo gli obiettivi e la cultura aziendale e saper seguire le nuove tecnologie a un ritmo che ci consenta di trarne il massimo vantaggio e che metta anche i nostri dipendenti nelle condizioni di adottarle pienamente.”

Per quanto riguarda la tecnologia Hcm, secondo la ricerca Gartner molte aziende sono a metà della loro transizione da soluzioni on-site a soluzioni basate sul cloud per la gestione dei talenti e delle risorse umane strategiche. Le imprese devono rivalutare la loro roadmap strategica, ripensare tutto il loro contesto di applicazione della tecnologia HCM e pianificare i cambiamenti necessari per gli anni a venire.

Guardare al futuro

Entro il 2025, secondo il report Gartner, il 20% delle aziende a livello mondiale con più di 5.000 dipendenti avrà istituito una prassi relativa alle innovazioni in materia di risorse umane per facilitare la sperimentazione continua e la gestione di tecnologie sempre nuove. “ Non è chiaro – ha concluso Hagege – come il restante 80% delle imprese si stia preparando allo stato futuro della digitalizzazione del luogo di lavoro, ma se queste aziende non si stanno ponendo le domande giuste e non si stanno preparando al cambiamento, rischiano di rimanere indietro”.

Office 365, il fenomeno del furto di credenziali delle aziende

Nel 40% delle organizzazioni le credenziali di accesso a Office 365 sono state compromesse lo scorso anno. E oltre un quarto di queste ha affermato che ciò è accaduto 10 o più volte.

A dirlo sono 300 aziende con oltre 5.000 dipendenti degli Stati Uniti e del Regno Unito in un sondaggio condotto lo scorso mese di giugno da Cyren e Osterman Research. L’obiettivo di tale sondagio era comprendere meglio i problemi di gestione della sicurezza affrontati dalle aziende che utilizzano la suite di Microsoft per la posta elettronica aziendale, nonché il contesto e con quali strumenti dirigenti, responsabili It e della sicurezza stanno tentando di affrontare questi problemi.

In media, in tutte le organizzazioni intervistate, le credenziali della suite sono state compromesse 3,7 volte, con incidenti più frequenti (54%) nel Regno Unito che negli Stati Uniti (34%).

La correzione della compromissione degli account di Office 365 richiede una notevole quantità di tempo. Gli intervistati hanno indicato che il  personale addetto alla sicurezza ha trascorso 133 ore in tutte le attività relative alla risoluzione della vulnerabilità, tra cui l’identificazione delle minacce, la riparazione, la comunicazione dei problemi al personale e le relative attività di gestione del progetto. La rimozione manuale di e-mail dannose da parte del personale di sicurezza viene eseguita 6,5 volte al mese, in media, e la rimozione di una singola e-mail dannosa richiede 15 minuti.

Seg + Atp è l’approccio di sicurezza più comune

Circa l’80% delle aziende utilizza funzionalità di sicurezza aggiuntive oltre a quelle fornite nativamente in Office 365. Il che significa che il 20% si basa solo sulla protezione di base integrata. Attualmente, l’approccio di sicurezza più comune per le aziende che utilizzano Office 365 è distribuire un Secure email gateway (Seg) insieme al modulo avanzato di protezione dalle minacce di Microsoft: è stato riscontrato nel 43% delle aziende. Le appliance Seg locali sono ancora più comuni delle Sefg basate su cloud. Due terzi delle aziende interpellate utilizza almeno un tipo di Seg, con Advanced Threat Protection (Atp) di Office 365 (51%). Seguno le appliance Seg basate su hardware (49%), mentre le Seg virtuali ospitate su provider di cloud pubblici come Azure o AWS e i servizi di sicurezza della posta elettronica basati su cloud si posizionano al 37%.

Quasi la metà ha riportato azioni di phishing

Le e-mail dannose rimangono un grosso problema di sicurezza. Il 71% degli intervistati ha dichiarato di aver riscontrato violazioni da parte di malware non-ransomware, con una media di 7,2 attacchi negli ultimi 12 mesi. Il 48% ha subito phishing, con una media di poco più di un attacco al trimestre, mentre il 30% ha subito attacchi ransomware, con una frequenza media di 0,9 violazioni negli ultimi 12 mesi.

Licenze software usate, cinque motivi per acquistarle

Un mercato in crescita quello dell’acquisto di licenze software usate. Da qualche anno infatti le aziende hanno iniziato a comprendere il potenziale di risparmio che comporta. Tant’è che con l’adozione delle giuste strategie per l’acquisto e la composizione del mix di licenze, si possono ridurre i costi It fino al 70%.

Molti, tuttavia, sono ancora i pregiudizi a questo approccio da parte delle imprese. Secondo Corrado Farina, Director Sales – Southern Europe  di Relicense, ricevere una consulenza relativa alla propria dotazione software aziendale è utile e può essere svolta in qualsiasi momento, anche se le licenze non sono alla scadenza, perché una prima analisi mostra se la strumentazione software debba essere aggiornata, e questo può essere fatto anche con licenze affidabili acquistate dal mercato di seconda mano. Anzi spesso le versioni precedenti hanno il vantaggio di essere “mature”, la loro piattaforma è più stabile e quindi compatibile con un maggior numero di applicazioni senza dover sostenere costi extra per assicurare la compatibilità con gli altri software in dotazione”.

Corrado Farina - Relicense
Corrado Farina, Director Sales – Southern Europe  di Relicense

“Acquistando licenze software di seconda mano – prosegue Farina – le aziende sono in grado di personalizzare la propria strategia di licenza in base alle esigenze e alla pianificazione IT a lungo termine. Nello specifico, è possibile ottenere con precisione il software che serve davvero per il proprio ambiente IT, senza sprechi e applicazioni superflue”.

Licenze di seconda mano non software di “seconda classe”

“Le licenze – aggiunge Farina non si consumano come un qualsiasi oggetto che utilizziamo, quelle già usate sono funzionali quanto quelle nuove e offrono gli stessi vantaggi delle classiche licenze on-premise, ma a costi molto inferiori”.

L’acquisto e la vendita di software usati sono regolamentati in Ue e la legittimità di questo mercato è confermata anche dalla Corte di Giustizia Europea, qualora vengano rispettate determinate procedure. È quindi importante scegliere partner affidabili che siano in grado di tracciare il percorso del software usato e serve una documentazione completa perché la compravendita sia legalmente valida.

Non solo per grandi aziende

“La dimensione di un’aziendasottolinea Farina – non è un criterio per decidere a favore o contro il software di seconda mano. Le aziende di tutte le dimensioni possono risparmiare fino al 50-70% del loro budget IT con licenze usate”.

Gli aggiornamenti vengono effettuati fino alla fine del ciclo di vita ufficiale del software. Inoltre, non è sempre necessario utilizzare l’ultima versione del software.

“Sempre più aziende utilizzano il cloud e le offerte SaaS – conclude Farna – ma una strategia di licensing basata su cloud non è sempre la soluzione giusta per tutti. Le licenze usate possono essere utilizzate anche per soluzioni on-premise – soprattutto per Office. I servizi di base come Exchange, OneDrive, Skype per le aziende, invece, possono essere acquistati nel cloud. Questo modello ibrido fa risparmiare alle aziende il 50-60% dei costi di licenza”.

Gdpr, il 30% delle imprese europee non è ancora conforme

Nonostante sia passato più di un anno dall’entrata in vigore del Gdpr, e sia fioccata una serie di multe da parte dei regolatori, solo il 57% delle aziende è sicuro che la propria attività rispetti le regole.

Secondo un sondaggio condotto dagli European Business Awards per conto di Rsm, il divario di conformità non è dovuto a particolari problemi. Semplicemente le imprese del mercato medio faticano a comprendere e attuare la vasta gamma di direttive nei settori coperti dal regolamento.

Il consenso al trattamento dei dati

Più di un terzo (38%) delle aziende non conformi non capisce quando è necessario il consenso per conservare ed elaborare i dati, il 35% non è sicuro su come monitorare l’utilizzo dei dati personali da parte dei propri dipendenti e il 34% non capisce quali procedure sono tenuti a garantire la conformità dei contratti con fornitori terzi.infografica Gdpr

L’impatto del Gdpr sulla sicurezza informatica

Nonostante la mancanza di conformità, il Gdpr sta iniziando ad avere un impatto positivo sulla sicurezza informatica all’interno dell’UE. Quasi tre quarti (73%) delle imprese afferma che la normativa europea sulla protezione dei dati le ha incoraggiate a migliorare il modo in cui gestiscono i dati dei clienti. Il 62% afferma che ha aumentato i propri investimenti in sicurezza informatica. Tuttavia, resta ancora molto da fare: il 21% delle aziende ammette di non avere ancora adottato una strategia di sicurezza informatica.

Sicurezza, anche il marketing omnichannel in cloud è a rischio vulnerabilità

Oggi il marketing dedica alla tecnologia sempre più risorse nel tentativo di creare un’esperienza cliente omnichannel, in un mercato che ha raggiunto i 100 miliardi di dollari e la maggior parte di queste aziende sceglie di offrire i propri strumenti principalmente come servizi basati sul cloud, aprendo il fianco a problematiche di sicurezza.

“In questo contesto – spiega Holly Rollo, Senior Vice President di Rsa Security –, negli ultimi cinque anni abbiamo assistito all’enorme sviluppo e diffusione di nuove tecnologie cloud, create per rendere il coinvolgimento dei clienti sempre più personalizzato e puntuale. Dagli scambi di dati in tempo reale all’analisi predittiva, al geo targeting mobile, all’attribuzione avanzata, al commercio digitale fino alla realtà aumentata. Oggi viviamo in un mondo in cui ogni cliente lascia il proprio data footprint, e tutto avviene in un contesto di apprendimento continuo”.

Mediamente, le aziende implementano 91 servizi marketing in cloud (MarTech) a supporto della propria trasformazione digitale. Tutti sono collegati tra loro tramite un patchwork di Api come un’infrastruttura virtuale nel cloud, funzionando con una rapidità impressionante generando quello che viene definito uno “shadow It”.

Il 75% dei responsabili It dichiara che il proprio dipartimento marketing ha consapevolmente creato lo shadow It per raggiungere i propri obiettivi più rapidamente. “Come per la sicurezza informatica – aggiunge Rollo – anche nel campo del MarTech la disponibilità di competenze e giovani talenti è un problema. Per questo le organizzazioni si affidano a terze parti, che a loro volta si appoggiano alla loro rete di terze parti, e uniscono i vari pezzi attraverso Api o lo sviluppo personalizzato, in modo che tutto sia sempre operativo. È come trovarsi di fronte a una porta girevole di fornitori e consulenti con un susseguirsi continuo di progetti che durano 2-3 anni, tutti con livelli disomogenei di rispetto delle policy di accesso e dati”.

Holly Rollo Rsa Security
Holly Rollo, Senior Vice President Rsa Security

Un’esperienza cliente omnichannel permette di raggiungere l’obiettivo desiderato, ma apre anche le porte a un nuovo livello di vulnerabilità; più accessi non autorizzati, una maggiore esposizione dei dati e decisamente più rischi legati alle terze parti. Inoltre, se si considera che oltre la metà delle aziende “MarTech ha meno di tre anni – dice  Rollo – si ha a che fare con una serie di questioni legate all’essere una startup nel cloud, come il bug fixing nello sviluppo open source. Se, infine, consideriamo che solo il 10% delle imprese conduce un assesment di sicurezza prima di implementare nuovi strumenti, è possibile comprendere la portata del problema”.

La mancanza di monitoraggio

Un recente studio Rsa ha rilevato come il 73% dei responsabili It dichiari di non monitorare i servizi cloud e, una maggioranza significativa, sia convinta che il prossimo evento di sicurezza da affrontare verrà generato proprio dall’area marketing, come già successo in passato.

“Il rischio di esposizione dei dati – sostiene Rollo – oggi è quindi molto più elevato e le organizzazioni non sono pronte a rispondere su tutti i fronti (dalla sicurezza all’ufficio legale, ecc…), perché se da una parte l’infrastruttura applicativa multi-cloud è gestita da tutti, dall’altra alla fine rischia di non essere controllata da nessuno. È ormai evidente che aumentando il livello di digitalizzazione, aumenta anche il livello di rischio. Per questo motivo anche gli enti regolatori stanno diventando digitali. Da questo punto di vista, il 2018 è stato un anno importante per la protezione dei dati digitali e la privacy in tutto il mondo, spesso sotto la spinta del Gdpr europeo”.

La maggiore consapevolezza del pubblico su questi temi mette al centro il rischio per la reputazione del brand nel momento in cui la fiducia viene violata. “Le dinamiche che hanno visto coinvolte le Big Tech in questi ultimi anni – ritiene Rollo – hanno dimostrato, infatti, non solo che i nostri dati possono essere rubati, ma che potrebbero essere anche manipolati. E improvvisamente, la Big Tech si trasforma nel “Grande Fratello””.

Il primo paradosso della fiducia digitale, quindi, è il seguente: per creare un’esperienza digitale coinvolgente capace di generare maggiore confidenza e fiducia, è necessario costruire un profilo digitale del proprio cliente, che se compromesso diventa la fonte primaria di danno.

La sicurezza nelle smart city

Un secondo esempio eclatante riguarda lo sviluppo rapido delle smart city. L’obiettivo della città intelligente è ambizioso: sviluppare un centro urbano sostenibile in cui i cittadini possano prosperare. Le città maggiormente visionarie si stano avvicinando a questo modello e stanno già rapidamente adottando tecnologie all’avanguardia come il 5G, che aiuterà a velocizzare questo sviluppo.

In queste città, l’apprendimento automatico, l’adozione del mobile e la proliferazione dei sensori aggiungono intelligenza alle infrastrutture fisiche, civiche e sociali. I dati in tempo reale su traffico, pubblica sicurezza, condizioni meteorologiche o inquinamento aiuteranno a fornire risposte immediate. Le città useranno in modo più efficiente l’energia, le risorse e gli investimenti e le persone saranno in grado di prendere decisioni maggiormente consapevoli per migliorare la qualità generale della propria vita; e tutto contribuirà a offrire una migliore esperienza al cittadino.

“Queste città – afferma Rollo – potranno creare ambienti in cui l’ecosistema privato e pubblico si uniscono per portare innovazione, in modo da affrontare temi di valore a livello pubblico come la telemedicina. Contesti nei quali, però, diventerà indispensabile affidarsi a terze parti, capaci di fornire rapidamente le nuove competenze necessarie, abilitare nuovi flussi di lavoro e nuovi modi di collaborare. Terze parti che, ancora una volta, introdurranno un’ulteriore rete di fornitori e vendor che porteranno di conseguenza a nuovi rischi e pratiche di sicurezza incoerenti. Inoltre, man mano che le città integreranno i sistemi digitali connessi con le infrastrutture locali, genereranno nuovi percorsi a disposizione dei potenziali malintenzionati”.

Il paradosso digitale del futuro sarà quindi avere delle città intelligenti iper-connesse, gestite da tutti ma non controllate da nessuno.

Le città intelligenti richiederanno un rilevamento delle minacce più avanzato nel cloud, dalle infrastrutture core fino al livello dell’edge, e per essere in grado di reagire ad eventuali attacchi dovranno unire a tutto questo i protocolli globali di risposta alle violazioni e una strategia integrata di risk management. Dovranno, inoltre, raccogliere ingenti quantità di dati, che devono essere archiviati, catalogati, analizzati e protetti. Oltre alle strategie di mitigazione del rischio, le amministrazioni cercheranno modi per trasferire i rischi nel loro ecosistema e cercare iniziative di cyber policy che contribuiscano a rafforzare la sicurezza oltre i confini e la collaborazione tra pubblico e privato.

“Ecco quindi – conclude Rollo – il secondo esempio di paradosso della digital trust: l’amministrazione locale cerca di generare un clima di fiducia all’interno della comunità che stimoli l’utilizzo della tecnologia per il bene di tutti, ma aumentano i rischi che i dati e le informazioni dei cittadini vengano persi o abusati, tutto ciò potrà avere ripercussioni sulla fiducia dei cittadini stessi, non solo ostacolando l’adozione della tecnologia ma anche gli obiettivi di sostenibilità più ampi. In conclusione, ritengo che il rischio digitale introduca una portata, una velocità e una scalabilità che non abbiamo ancora del tutto compreso”.

L’approccio unificato al rischio digitale

Per questo è necessario, in primo luogo, adottare un approccio unificato al rischio digitale che prenda in considerazione l’intero ecosistema di rischio a partire dalle terze parti più vicine, e implementando il monitoraggio persistente della sicurezza delle terze parti, la conformità continua dei dati e il controllo dinamico degli accessi per armonizzare le esigenze legate ai cambiamenti della forza lavoro con le necessità di accesso dei vendor.

In secondo luogo, bisogna costruire la gestione del rischio digitale dall’inizio, a partire dal processo di business, dai protocolli, dai flussi di lavoro e dalle analitiche aziendali, in modo da pianificare la misurazione dell’esposizione al rischio ed essere pronti a collegare gli eventi al contesto aziendale.

In terzo luogo, bisogna creare un programma di gestione del rischio informatico che non si fermi al SOC (security operation center) ma lo affianchi per favorire la risposta e la mitigazione del rischio cyber nell’intera azienda.

Infine, la ricerca e formazione dei nuovi talenti non deve essere sottovalutata perché è necessario accompagnare una valida iniziativa di trasformazione digitale con un consistente programma di sviluppo delle digital skill e di formazione dei nuovi talenti, per supportare la nascita di una nuova generazione di professionisti della sicurezza e del rischio.

Wireless, le dieci principali tendenze tecnologiche

La tecnologia wireless che gioca un ruolo chiave nelle comunicazioni odierne troverà nuove forme che diventeranno centrali nei prossimi cinque anni nelle tecnologie emergenti tra cui robot, droni, veicoli a guida autonoma e nuovi dispositivi medici. Gartner ha identificato le 10 principali tendenze della tecnologia wireless per i leader dell’architettura aziendale (Ea) e dell’innovazione tecnologica.

“I leader aziendali e It devono essere consapevoli di queste tecnologie e tendenze – ha dichiarato Nick Jones, Vice President e Distinguished Analyst di Gartner –. Molte aree dell’innovazione wireless coinvolgeranno tecnologie immature, come il 5G e le onde millimetriche, e potrebbero richiedere competenze che le organizzazioni attualmente non possiedono. I leader di Ea e di innovazione tecnologica che cercano di guidare l’innovazione e la trasformazione tecnologica dovrebbero identificare e pilotare tecnologie wireless innovative ed emergenti per determinare il loro potenziale e creare una roadmap di adozione”.

Le 10 principali tendenze della tecnologia wireless individuate da Gartner sono le seguenti.

1. Wi-Fi

Il Wi-Fi esiste da molto tempo e rimarrà la principale tecnologia di rete ad alte prestazioni per case e uffici fino al 2024. Oltre alle semplici comunicazioni, il Wi-Fi troverà nuovi ruoli, per esempio nei sistemi radar, o come componente in due sistemi di autenticazione a fattori.

2. Cellulari 5G

I sistemi cellulari 5G iniziano a essere adottati tra il 2019 e il 2020. L’implementazione completa richiederà da cinque a otto anni. In alcuni casi, la tecnologia può integrare il Wi-Fi, poiché è più conveniente per reti di dati ad alta velocità in siti di grandi dimensioni, come porti, aeroporti e fabbriche. “Il 5G è ancora immaturo e inizialmente la maggior parte degli operatori di rete si concentrerà sulla vendita della banda larga ad alta velocità. Tuttavia, lo standard 5G si sta evolvendo e le iterazioni future miglioreranno in aree come l’Internet of Things (IoT) e le applicazioni a bassa latenza”, ha aggiunto Jones.

3. Vehicle-to-Everything (V2X) Wireless

Le auto convenzionali e a guida autonoma dovranno comunicare tra loro, nonché con le infrastrutture stradali. Questa comunicazione sarà abilitata dai sistemi wireless V2X. Oltre allo scambio di informazioni e dati sullo stato, il V2X può fornire una moltitudine di altri servizi, come funzioni di sicurezza, supporto alla navigazione e infotainment.

“Alla fine V2X diventerà un requisito per tutti i nuovi veicoli. Ma anche prima che ciò accada, prevediamo di vedere alcuni veicoli che incorporano i protocolli necessari – ha dichiarato Jones –. Tuttavia, quei sistemi V2X che useranno il cellulare avranno bisogno di una rete 5G per raggiungere il loro pieno potenziale”.

4. Potenza wireless a lungo raggio

I sistemi di alimentazione wireless di prima generazione non hanno offerto l’esperienza utente rivoluzionaria che i produttori speravano. La possibilità di posizionare i dispositivi su un punto di ricarica specifico permette un’esperienza utente solo leggermente migliore rispetto alla ricarica tramite cavo. Tuttavia, diverse nuove tecnologie possono caricare i dispositivi fino a un metro a distanza o su una superficie di un tavolo o di una scrivania.

“L’energia wireless a lungo raggio potrebbe eventualmente eliminare i cavi di alimentazione da dispositivi desktop come laptop, monitor e persino elettrodomestici da cucina. Ciò consentirà progetti completamente nuovi di spazi di lavoro e abitativi “, ha dichiarato Jones.

5. Low-Power Wide-Area (LPWA) Networks

Le reti Lpwa offrono connettività a bassa larghezza di banda per le applicazioni IoT in modo efficiente dal punto di vista energetico per supportare i dispositivi che richiedono una lunga durata della batteria. In genere, coprono aree molto grandi, come città o addirittura interi paesi. Le attuali tecnologie Lpwa includono Narrowband IoT (NB-IoT), Long Term Evolution for Machines (LTE-M), LoRa e Sigfox. I moduli sono relativamente economici, quindi i produttori di IoT possono usarli per abilitare dispositivi piccoli, a basso costo e alimentati a batteria come sensori e tracker.

6. Rilevamento wireless

L’assorbimento e la riflessione dei segnali wireless possono essere utilizzati a scopo di rilevamento, per esempio, come sistemi radar interni per robot e droni. Gli assistenti virtuali possono anche utilizzare il tracciamento radar per migliorare le loro prestazioni quando più persone parlano nella stessa stanza.

“I dati del sensore sono il carburante dell’IoT. Di conseguenza, le nuove tecnologie dei sensori consentono tipi innovativi di applicazioni e servizi – ha affermato Jones –. I sistemi, incluso il rilevamento wireless, saranno integrati in una moltitudine di casi d’uso, che vanno dalla diagnostica medica al riconoscimento degli oggetti fino all’interazione con la casa intelligente”.

Nick Jones
Nick Jones, Vice President e Distinguished Analyst di Gartner

7. Monitoraggio della posizione wireless migliorato

Una tendenza chiave nel dominio wireless è che i sistemi di comunicazione possano rilevare le posizioni dei dispositivi a essi collegati. Il tracciamento ad alta precisione con un’accuratezza di circa un metro sarà abilitato dal prossimo standard Iee 802.11az ed è destinato a diventare una caratteristica dei futuri standard 5G.

“La posizione è un punto chiave per i dati necessari in varie aree di business, come il marketing verso i consumatori, la catena di approvvigionamento e l’IoT. Il rilevamento della posizione ad alta precisione è essenziale per le applicazioni indoor che coinvolgono robot e droni “, ha sostenuto Jones.

8. Wireless a onde millimetriche

La tecnologia wireless a onde millimetriche opera a frequenze comprese tra 30 e 300 gigahertz, con lunghezze d’onda comprese tra 1 e 10 millimetri. La tecnologia può essere utilizzata da sistemi wireless come Wi-Fi e 5G per comunicazioni a corto raggio e larghezza di banda elevata (per esempio streaming video 4K e 8K).

9. Rete di backscatter

La tecnologia di rete backscatter può inviare dati con un consumo energetico molto basso. Questa funzione rende il 5G ideale per i dispositivi di rete di piccole dimensioni. Sarà particolarmente importante nelle applicazioni in cui un’area è già satura di segnali wireless e sono necessari dispositivi IoT relativamente semplici, come i sensori nelle case e negli uffici intelligenti.

10. Software-Defined Radio (Sdr)

La tecnologia Sdr sposta la maggior parte dell’elaborazione del segnale in un sistema radio lontano dai chip e nel software. Ciò consente alla radio di supportare più frequenze e protocolli. Tale tecnologia è disponibile da molti anni, ma non è mai decollata in quanto è più costosa dei chip dedicati. Tuttavia, Gartner prevede che i Dsp cresceranno in popolarità man mano che emergeranno nuovi protocolli. Poiché i protocolli meno recenti vengono raramente ritirati, Sdr consentirà a un dispositivo di supportare protocolli legacy, con i nuovi protocolli semplicemente abilitati tramite l’aggiornamento del software.

Cos’è il master data management e perché garantisce il controllo dei dati

In un primo tempo, il Master Data Management (Mdm) era integrato in applicazioni verticali, basate sul catalogo dei prodotti, soprattutto nel mercato della distribuzione, dove il Cio agiva da sponsor. I clienti si sono però presto resi conto che i dati fondamentali dell’azienda sono legati tra di loro e per governarli occorreva adottare un approccio globale. Questa osservazione guida le esigenze di un’organizzazione verso il cosiddetto “Mdm multidominio”.

Dopo i repository di prodotto, l’Mdm si è così gradualmente applicato ai repository dei clienti. Le organizzazioni mettono in discussione il governo dei propri database originali, dall’Erp al Crm. Con la crescita delle tecnologie digitali, sta nascendo una nuova sfida per le aziende: i nuovi parametri di governo dei dati richiedono che rivedano la propria organizzazione.

Tra frenate e accelerazioni

Cristophe Barriolade, Senior Vice President & General Manager EBX di TIBCO Software
Cristophe Barriolade, Senior Vice President & General Manager EBX di TIBCO Software

L’avvento dei Big Data – afferma Christophe Barriolade, Senior Vice President & General Manager Ebx, Tibco Softwareha paradossalmente rallentato lo sviluppo delle soluzioni Mdm, in particolare a causa del tacito messaggio associato ‘raccogli, riempi e ci occuperemo del valore in seguito’, cosa che non ha giocato molto a loro favore. Un altro ostacolo è la mancanza di dizionari o dei ruoli poco definiti riguardo ai dati che hanno causato il fallimento di molti progetti Mdm“.

Ma è la sempre maggiore importanza delle questioni legate ai regolamenti (come BCBS 239 e Solvency 2) che, cambiando il quadro di riferimento, diventa un acceleratore delle iniziative Mdm. Questi nuovi regolamenti mettono ancora più in evidenza la questione del governo dei dati (Data Governance) e incoraggiano la ricerca di nuovi modi per rendere la catena del valore maggiormente affidabile, il che rappresenta il campo di gioco ideale per l’Mdm.

Inoltre, il Gdpr contribuisce a una tendenza più recente: l’estensione dell’Mdm a tutti i dati condivisi, quali i master data, i reference data e altri metadati. Infatti, la Gdpr richiede che questi ultimi vengano gestiti in modo efficace da soluzioni dedicate. A causa di tale necessità, le aziende devono prendere in considerazione l’esigenza di collegare questi tipi di dati tra loro, cosa che spesso richiede una nuova organizzazione dedicata. Per esempio, è fondamentale classificare i dati relativi ai propri clienti secondo il consenso ottenuto, requisito che impone che i dati stessi siano collegati ai codici di classificazione che definiscono i consensi.

Le iniziative Mdm sono inseparabili da Analytics e Ai

Le aziende – aggiunge Barriolade man mano che si affacciano all’economia digitale e cercano di incrementare la propria agilità, investono molto per capitalizzare i propri dati ed essere in grado di esplorarli, manipolarli e visualizzarli. L’Mdm a supporto della mappatura e dello sfruttamento dei famosi Data Lake, essenziali per l’analisi dei Big Data, fornisce le proprie capacità di costruire cataloghi ed evitare la creazione di un vero data pool”.

Qualsiasi attività analitica – precisa Barriolade – dev’essere basata su dati affidabili per assicurare un livello elevato di sicurezza. In questo senso, i Master Data offrono le dimensioni per l’analisi, mentre i Reference Data consentono di creare gerarchie e i Metadata alimentano un catalogo per l’accesso alle sorgenti dati di un’azienda. La visualizzazione, la Data Science e il Machine Learning condividono così un repository comune. La qualità dei dati fa la differenza, fornendo un ambiente di apprendimento affidabile e controllato pe Ai”.

I nuovi campi Mdm

Anche se normalmente un’organizzazione, in seguito ad acquisizioni successive, può trovarsi con informazioni organizzate in silos, la proliferazione di soluzioni cloud, acclamate dalla comunità business, ha a sua volta, contro ogni aspettativa, creato nuovi silos che separano le informazioni all’interno dell’azienda. “Il risultato – sostiene Barriolade – è l’insorgere di problemi di consistenza dei dati, che finiscono per danneggiare i processi interni. Più che mai l’MDM si dimostra essenziale per i Cio che vogliano riconquistare il controllo della consistenza dei propri datiTra gli altri campi in cui operano le soluzioni Mdm, e che sono recentemente emersi alla ribalta del mercato, segnaliamo le iniziative per estendere Mdm a tutti i dati condivisi, come nelle società petrolifere, dove i dati sottostanti sono essenziali per una supervisione e gestione efficace di tutte le attività attraverso dashboard. L’associazione tra strumenti e dati diventa così un modo per creare valore”.

Un’altra tendenza è quella della creazione di Customer Hub o Customer Data Platform (Ccp), nuove architetture dedicate ai dati dei clienti. Questi ambienti, fondandosi in particolare sulla virtualizzazione dei dati per creare visualizzazioni a 360°, sono basati sull’Mdm che agisce come un indice e offre intelligence. La sua capacità di operare in tempo reale con una piattaforma d’integrazione ad alte prestazioni si rivela un asset potente.

Mentre le questioni legate alla compliance ai regolamenti hanno aiutato e riportare alla ribalta il tema della qualità dei dati – conclude Barriolade, molte aziende non stanno più lavorando per rendere i propri dati affidabili per necessità. Offrendo loro un asset verificato che consenta di condividere dati affidabili e consistenti in tutte le applicazioni aziendali, i deployment Mdm sono diventati una leva d’innovazione nel cuore delle promettenti tecnologie di Ai o di iniziative di virtualizzazione dei dati”.

Se i progressi in efficienza operativa e il ruolo da protagonista nel deployment delle soluzioni analitiche dimostreranno la maturità dell’Mdm, quest’ultimo resterà al centro dell’attenzione ancora per molto tempo. In un momento in cui all’ombra della concorrenza tra giganti digitali assistiamo alla convergenza di guerre economiche e tecnologiche, le soluzioni Mdm potrebbero rivelarsi la migliore garanzia per le aziende europee di mantenere la sovranità sui propri dati e la propria libertà di innovare.

Servizi gratuiti online, come ritrovare i propri dati

È un nuovo tool online quello che F-Secure mette a disposizione gratuitamente per aiutare gli utenti a scoprire quale sia il vero costo che sta dietro all’uso di alcuni dei più popolari servizi gratuiti del web, compresi i social media. In pratica, questo costo è rappresentato dalla mole di dati che è stata raccolta da Google, Apple, Facebook, Amazon Alexa, Twitter e Snapchat.

Chiamato Data Discovery Portal il tool indirizza direttamente gli utenti a quelle risorse, spesso difficili da trovare, fornite da ciascuno dei predetti giganti della tecnologia per permettere agli utenti di rivedere i dati concessi, in modo sicuro e privato.

F-Secure-Erka-Koivunen servizi gratuiti online“I dati sono un asset per qualsiasi azienda, sia che tu stia pagando per un prodotto oppure no – precisa Erka Koivunen, Chief information security officer di F-Secure –. Quessti permettono alle aziende tecnologiche di vendere miliardi in pubblicità e prodotti, alimentando quello che viene considerato come il più grande business nella storia del denaro.”

Proteggere i dati

F-Secure sta offrendo questo tool come parte della crescente attenzione dell’azienda verso la protezione dell’identità, che tutela gli utenti prima, durante e dopo le violazioni. Diffondendo la conoscenza dei potenziali costi di questi servizi “gratuiti”, il Data Discovery Portal intende aumentare la consapevolezza negli utenti che proteggere i loro dati e la loro identità è oggi più importante che mai.

Da una recente indagine di F-Secure, è infatti emerso che il 54% degli utenti Internet sopra i 25 anni teme che qualcuno possa violare i propri account social media. I dati sono sicuri se le reti delle aziende che li raccolgono sono sicure, così come le password e le tattiche usate per proteggere i nostri account. Nonostante le impostazioni che questi siti offrono siano utili, non possono prescindere dalla raccolta di dati.

Attacchi informatici, il ruolo degli Stati nazionali

Oggi ci troviamo di fronte a una nuova fase della guerra digitale, che vede gli hacker sferrare attacchi informatici su mandato di uno Stato nazionale.

E non solo con l’obiettivo di distruggere o danneggiare le infrastrutture critiche, ma anche per spiare e sottrarre segreti commerciali.

Assistiamo, infatti, a un netto aumento degli attacchi informatici promossi da Stati nazionali, secondo quanto evidenziato anche nell’ultimo Data Breach Investigations Report di Verizon. Questo mostra come nel corso dell’ultimo anno tali attacchi siano passati dal rappresentare il 12% di tutte le violazioni analizzate in passato a raggiungere il 23%.
Inoltre, oggi il 25% dei data breach registrati implica un’attività di cyber spionaggio, con una crescita del 13% rispetto all’anno precedente.
La linea del fronte nella nuova cyber guerra è quindi chiaramente delineata in tutto il mondo e le organizzazioni devono attrezzarsi di conseguenza.

Gli obiettivi

I dati raccolti dalla ‘Swedish Security and Defence Industry Association” (Soff) confermano quanto attestato da Verizon: il 25% delle violazioni implica lo spionaggio. La ricerca di Soff aggiunge però anche un’interessante ripartizione per settore: il 94% di tutti gli attacchi attualmente rivolti contro l’industria manifatturiera cela come obiettivo lo spionaggio industriale, di solito con l’intento di rubare segreti commerciali o sabotare gli impianti.

In questo contesto – afferma Paolo Arcagni, system engineer manager di F5 Networks – alcuni casi verificatisi di recente sono davvero significativi. Per esempio, quello che ha coinvolto la società software norvegese Visma che ha rivelato di essere stata presa di mira da hacker che operavano per il Ministero di pubblica sicurezza della Repubblica Popolare Cinese nel tentativo di sottrarre segreti commerciali. O il caso di Boeing, che ha rivelato come, tra il 2009 e il 2014, gli hacker cinesi siano riusciti a ottenere l’accesso alla rete per rubare 65 gigabyte di dati su velivoli militari”.

La natura e lo stile di questi attacchi non sorprendono – continua Arcagni –, perché il manufacturing, insieme alla pubblica amministrazione e al settore education, ha da sempre il potere di aggregare un grande volume di dati che riguardano obiettivi interessanti ed estremamente sensibili”.

Il Soff sostiene, inoltre, che oggi i ricercatori in ambito security trascorrano il 90% del loro tempo a esaminare attacchi mirati che implicano lo spionaggio mentre dieci anni fa, avrebbero trascorso una quantità di tempo simile dedicandosi alle campagne di cyber crime.
L’impatto finanziario associato alle violazioni dei dati, indipendentemente dallo spionaggio, è comunque diventato troppo significativo per essere ignorato. Soff aggiunge che varrebbe la pena comprendere come mai il 90% delle ripercussioni causate da un attacco informatico tenda a essere ancora nascosto (al di là degli evidenti esborsi dovuti alla mitigazione, notifica al cliente ed eventuali azioni legali).

Paolo Arcagni F5 attacchi informatici

Le tecniche evolvono

Le analisi di Infosec mostrano come nell’ultimo anno il mercato underground degli hacker sul dark web sia cresciuto a dismisura, mettendo in contatto tra loro 300 diverse community di hacker, alcune delle quali raggiungono mezzo milione di utenti registrati, tutti pieni di risorse e prodighi di consigli pericolosi.

Un altro trend preoccupante che riguarda le tecniche utilizzate dagli hacker che agiscono per conto degli Stati nazionali – spiega Arcagni – è l’impiego sempre più frequente di attacchi zero-day. Un’analisi di Cybersecurity Ventures stima che entro il 2021 si verificherà un attacco zero-day al giorno”.
Un attacco zero-day indica il primo caso in cui una vulnerabilità viene sfruttata. Quindi, sfortunatamente, a meno che vengano adottate difese adeguate, questo continuo susseguirsi di nuove minacce informatiche porterà presto le organizzazioni a dover affrontare uno scenario ingestibile.

“Un’ulteriore tecnica sfruttata con sempre maggiore frequenza è il phishingaggiunge Arcagni –. Questa tecnica vede gli aggressori, attraverso e-mail e comunicazioni fraudolente, ingannare i dipendenti, portandoli a cedere le proprie credenziali e i dettagli di log-in.”
Recenti analisi di PhishMe hanno rilevato che le email di phishing sono responsabili del 91% degli attacchi informatici, una tendenza preoccupante, che potrebbe però essere contrastata tramite un’educazione e formazione adeguata sulle minacce.

“Il numero di attacchi informatici sponsorizzati da Stati nazionali – sostiene Arcagni – è destinato ad aumentare sotto la spinta dei nuovi trend tecnologici, come il 5G o l’IoT. Le superfici di attacco, infatti, sono sempre in espansione e pronte a essere aggredite e sfruttate dai cybercriminali più attivi”.

Le nuove tecnologie aiutano nella difesa

“Sul fronte opposto – dice Arcagni – emerge fortunatamente una serie di nuove tecnologie per aiutare nella difesa. Per esempio, le soluzioni di intelligenza artificiale, che possono analizzare tutto il traffico in tempo reale per individuare comportamenti insoliti e anomalie mai riscontrate in precedenza. Queste tipologie di AI sono state espressamente progettate per comprendere come il traffico dovrebbe funzionare e segnalare autonomamente i problemi man mano che si verificano”.

A prescindere da quale sia l’insieme delle tecnologie adottate, sia oggi che nel futuro, per contrastare le nuove minacce informatiche è necessario applicare sempre di più una sicurezza a tutti i livelli e su ogni superficie: endpoint, infrastruttura e applicazioni.

“Le applicazioni, in particolare – sottolinea Arcagni – richiedono policy coerenti, intelligenti e adattabili, ovunque esse risiedano (in un ambiente on-premise, nel cloud o nel multi-cloud). Proteggere il perimetro, infatti, non è più sufficiente e le tecniche di autenticazione moderne, come il ‘principio del privilegio minimo’ e l’autenticazione a due fattori, dovrebbero essere ormai adottate di default.

“Le organizzazioni – conclude Arcagni – devono continuare a impegnarsi per rivedere e aggiornare le impostazioni e gli strumenti di sicurezza in modo costante, eseguendo test di penetrazione regolari per monitorare e migliorare il comportamento del personale.
In futuro, dovranno anche adoperarsi per controllare meglio l’attività Byod che sfugge alle regole, e garantire che tutto il personale sia dotato degli strumenti necessari per svolgere al meglio e in sicurezza il proprio lavoro. È un mondo pericoloso e sarà difficile riuscire a essere sempre un passo avanti, ma la prevenzione e la formazione continua ci potranno aiutare”.

Data Management, i quattro elementi chiave

Il 44% delle aziende ritiene che la gestione dei dati sia fondamentale per il proprio successo nei prossimi due anni. Questo dato emerce dal report Cloud Data Management report 2019 di Veeam, che ha coinvolto oltre 1.500 aziende leader a livello globale.

Tra le realtà che utilizzano il data management nel modo più efficiente emergono quattro elementi comuni: il cloud, la consapevolezza, le capacità e la cultura.

Scalare grazie al cloud

Le statistiche della Commissione Europea mostrano che oltre la metà delle aziende dell’Ue utilizza attualmente servizi avanzati di cloud computing per applicazioni software in ambito finanziario e contabile, per la gestione delle relazioni con i clienti (Crm) o per applicazioni enterprise. Questa percentuale è in aumento grazie alla stratificazione dei servizi a valore aggiunto, che consente alle aziende di sfruttare l’intelligenza artificiale, l’apprendimento automatico, l’analisi dei big data, la ricerca vocale e di immagini per trarre il maggior valore commerciale possibile dai dati in loro possesso.

Il concetto è supportato dal fatto che quasi i tre quarti delle aziende (72%) utilizza il Cloud Data Management per consentire un impiego più intelligente dei dati all’interno di tutta l’azienda. I business leader reputano che il data management permetta di ottenere benefici attraverso l’aumento della produttività, il mantenimento della stabilità aziendale e il miglioramento della capacità di prevedere e prendere le decisioni più adatte al contesto. La maggioranza (77%) ha dichiarato di utilizzare soluzioni Software as a Service, citando l’affidabilità, la flessibilità e la sicurezza dei dati come i tre principali motivi.

Investire con consapevolezza

Dai risultati del report di Veeam, si evince che i Cio devono poter fare affidamento sull’infrastruttura It e sulla sua capacità di aiutare le aziende a essere reattive e pronte. Incidenti come le interruzioni di servizio possono minare questa fiducia, ostacolare l’innovazione e danneggiare la percezione dell’azienda da parte dei clienti. Quasi tre quarti (73%) delle aziende dichiara di non essere in grado di rispondere alla richiesta degli utenti di avere un accesso ininterrotto alle applicazioni e ai dati. Questo spiega in parte perché solo il 25% dei business leader ha dichiarato di avere piena fiducia nella propria capacità di affrontare le sfide digitali.

Oltre a investire in soluzioni affidabili, scalabili e flessibili per far fronte a problemi mission-critical come il backup, il disaster recovery e la protezione dei dati, le aziende hanno bisogno delle giuste competenze e delle capacità necessarie a gestire il loro patrimonio dati in modo corretto. Ecco perché i business leader prevedono una spesa media di 41 milioni di dollari per l’implementazione di tecnologie in grado di creare un business più intelligente entro i prossimi 12 mesi.

Combinare le potenzialità tecnologiche e umane

È chiaro che le aspettative di ciò che il data management può offrire all’azienda sono molto alte, così come la richiesta di un ritorno sull’investimento tecnologico. Una volta implementate le nuove tecnologie, i business leader si aspettano di ottenere i primi benefici finanziari in nove mesi e quelli operativi in sette mesi.

Affinché i risultati possano essere visibili in breve tempo, le aziende devono assicurarsi di avere le competenze interne necessarie per potersi avvalere dei nuovi sistemi implementati. La stragrande maggioranza (91%) delle aziende ritiene che le competenze digitali dei dipendenti siano vitali per il successo. Questo a volte richiede una trasformazione culturale, in particolare quando un’azienda sta cercando di stabilire dei processi decisionali che utilizzino i dati.

Stabilire una cultura basata sui dati

Il cloud è un grande equilibratore per le aziende in grado di eliminare il superfluo in termini tecnologici. La maggior parte delle aziende sta producendo dati a una velocità enorme, c’è quindi una grande attenzione su come questi dati devono essere gestiti, analizzati e utilizzati per facilitare il processo decisionale. Un’azienda può produrre enormi quantità di dati, ma se il management stesso non adotta una cultura basata sui dati, può diventare un grave onere piuttosto che un vantaggio.

Secondo l’indagine di Veeam Più di due terzi (69%) dei business leader concorda sul fatto che la cultura aziendale deve diventare più aperta e favorevole al cambiamento durante la digital transformation, mentre il 93% è concorde sul fatto che anche l’atteggiamento della leadership dovrà cambiare. Il Cloud Data Management è una grande opportunità che deve essere prima accettata ai livelli più alti dell’organizzazione per poi essere condivisa e implementata in tutta l’azienda.

In sintesi, costruire solide basi digitali incentrate sulla disponibilità dei dati sarà vitale per il futuro di qualsiasi organizzazione. In questo contesto, la tecnologia non è mai stata così importante per favorire il successo di un’azienda. Le aziende di tutto il mondo si affidano a un’ampia gamma di piattaforme digitali per gestire innumerevoli e diverse attività: dal mantenimento delle luci accese alla creazione di offerte innovative per i propri clienti.

PalmSecure, per Fujitsu l’archiviazione della password è biometrica

Fujitsu ha scelto di mandare in pensione le password.

Con il nuovo portafoglio di soluzioni per la sicurezza PalmSecure semplifica infatti l’utilizzo dell’identificazione biometrica in una grande varietà di applicazioni di uso quotidiano.

Più in dettaglio, PalmSecure è composta da quattro elementi principali: Biometric Authentication, PalmSecure Id Engine, Id GateKeeper, Id LifePass e Id Login V2. Questa nuova proposta è pensata per l’accesso fisico agli edifici o ai data center. Ma anche per l’accesso al client computing e a ogni genere di applicazione attraverso una Api (Application Programming Interface). Il nuovo portafoglio permette di usare una varietà di applicazioni per l’autenticazione biometrica che non richiedono l’inserimento di password.

PalmSecure consente infatti alle aziende di dotarsi del più alto livello di sicurezza biometrica aumentando nel contempo la praticità dal punto di vista degli utenti ed evitando costosi interventi da parte dei service desk per ripristinare le password dimenticate.

Mettendo a disposizione tutti gli ingredienti necessari a confezionare rapidamente soluzioni per l’autenticazione biometrica pratiche e facili da usare, il portafoglio PalmSecure mette la sicurezza dell’accesso biometrico alla portata praticamente di qualsiasi applicazione. Basata su un nuovo matching server centrale, la soluzione rafforza la sicurezza eliminando la necessità di inserire le credenziali dello stesso utente che deve accedere da differenti sedi, dispositivi, applicazioni o servizi. La semplicità di integrazione con applicazioni e apparecchiature di ogni genere viene facilitata da una API completa che estende l’identificazione biometrica a casistiche d’utilizzo che vanno dall’ingresso ai data center fino alle credenziali utente per i macchinari industriali e il Single Sign-On (SSO) per ogni tipo di applicazione.

Identificazione sicura attraverso il palmo della mano

Il sistema di autenticazione PalmSecure non richiede invece alcun contatto avvalendosi di una tecnologia biometrica sviluppata da Fujitsu nel riconoscimento dell’immagine combinata con una tecnica messa a punto da BioSec Group per autenticare gli utenti secondo il particolare pattern prodotto dalle vene del palmo della mano. I pattern delle vene sono propri di ciascun individuo e contengono caratteristiche dettagliate permettendo così di formare un modello specifico per ogni utente.

L’algoritmo di autenticazione avanzata di PalmSecure produce un livello estremamente elevato di precisione e versatilità applicativa. Una percentuale di falsi positivi inferiore allo 0,00001% (uno su 10 milioni) e di falsi negativi dello 0,01% (uno su 10.000). Il lettore contactless è igienico e non invasivo, favorendo così un altissimo grado di accettazione da parte degli utenti.

Lightning Engine, la biometria vocale di Nuance elimina la passphrase

Combina reti neurali di quarta generazione (DNN), biometria vocale e comprensione del linguaggio naturale (Nlu) per offrire nei canali vocali esperienze più personalizzate e vicine a quelle umane. Parliamo di Lightning Engine, il nuovo strumento di intelligenza artificiale di Nuance grazie al quale basta un unico comando fornito vocalmente a uno smart speaker, a un assistente virtuale o IVR per permettere al sistema di capire chi sta parlando e che cosa vuole. Il tutto in appena mezzo secondo.

Lightning Engine velocizza il riconoscimento

Fino ad ora, lo standard di settore relativo all’autenticazione di un utente tramite l’analisi della biometria vocale con una frase breve avveniva attraverso una elima la passphrase specifica. Lightning Engine dimezza le tempistiche della frase standard, consentendo alle organizzazioni di convalidare l’identità di una determinata persona attraverso espressioni naturali più velocemente rispetto all’orecchio umano.

Lightning Engine consente infatti agli utenti di impostare un profilo vocale univoco come parte della registrazione dell’account di un’organizzazione. Quando contattano quell’organizzazione attraverso un canale vocale tutto ciò che devono fare è parlare in modo naturale e la loro identità verrà confermata quasi immediatamente. Da quel momento inizia un’interazione personalizzata: non sono richieste password o domande basate sulla conoscenza.

Finanziamento online, le proposte October e Cnh Industrial per le Pmi

La piattaforma di finanziamento online per le Pmi October e Cnh Industrial, società attiva nel campo dei capital goods, hanno siglato un accordo per promuovere l’accesso delle piccole e medie imprese a strumenti di finanziamento alternativi.

La partnership mira a stimolare l’utilizzo da parte delle Pmi del peer-to-peer (P2P) lending come modalità di finanziamento complementare al tradizionale canale bancario, al fine di diversificare le fonti di credito.

La disintermediazione del credito

Per mostrare ai suoi partner la strada della diversificazione delle fonti di finanziamento, Cnh Industrial otterrà simbolicamente un credito di 100 mila euro da prestatori privati sulla piattaforma October. In questo modo, il Gruppo consentirà al suo network di Pmi di ottenere un finanziamento sulla piattaforma October a condizioni agevolate (0 euro di commissioni) per la fase di lancio. L’obiettivo è creare un ecosistema più forte dove i gruppi di grandi dimensioni supportano le realtà più piccole nell’accesso al credito.

Grazie alla sua consolidata rete commerciale e alla sua organizzazione, Cnh Industrial contribuirà a promuovere richieste di finanziamento da parte di piccole e medie imprese che potranno contare sul sostegno della vasta community internazionale di 17.000 prestatori privati e investitori istituzionali di October.

Attualmente, attraverso la divisione di captive financing, sotto i marchi Cnh Industrial Capital e Iveco Capital, i 12 marchi commerciali di Cnh Industrial offrono ai loro con-cessionari e clienti servizi finanziari su misura per l’acquisto, il leasing o il noleggio dei loro prodotti.

Dal canto suo, October completa l’offerta di servizi finanziari di Cnh Industrial Capital proponendo finanziamenti da 30 mila a 5 milioni di euro a favore di progetti innovativi specifici da parte di alcuni selezionati clienti di Case Construction Equipment e Iveco, tramite un processo online semplice e veloce nei 5 paesi in cui opera (Italia, Spagna, Francia, Germania e Paesi Bassi).

Il modello di business di October permette alle imprese di ottenere finanziamenti da prestatori privati (attraverso la piattaforma) e investitori istituzionali (attraverso veicoli dedicati), in pochi giorni.

Trustpilot: da Seo ad Aeo, l’uso della voce crea una nuova sfida nelle ricerche

Nel 2017 Amazon  ha venduto “milioni di dispositivi” in tutto il mondo e il suo dispositivo più di successo è stato Echo Dot. Milioni di persone stanno facendo i propri acquisti con Alexa e l’uso di Alexa tramite Fire TV  è aumentato dell’889%. Inoltre, Amazon Echo è stato venduto 5 volte di più tra il terzo trimestre del 2016 e l’ultimo trimestre del 2017.

Questo ci dice che Amazon sta andando molto bene – afferma Claudio Ciccarelli, Country Manager di Trustpilot Italia –, ma che dire di Google? Google aveva annunciato di aver venduto un dispositivo Google Home ogni secondo in un post sul suo blog, ovvero più di 6 milioni di dispositivi all’inizio di gennaio. Sembra perciò che anche Google stia andando bene. E se teniamo conto dell’iPhone di Apple, dei prodotti HomePod e del numero di dispositivi Android che utilizzano Google, vediamo che sta iniziando a delinearsi una nuova tendenza nelle ricerche dei consumatori“.

La ricerca vocale è in continua crescita

Il 22% dei consumatori utilizza già assistenti vocali per aiutarsi nei propri acquisti. E, mentre la ricerca vocale rappresenta già il 20% di tutte le ricerche, viene stimato da Comscore che entro il 2020 il 50% delle ricerche sarà fatto con la voce.

Claudio Ciccarelli Trustpilot
Claudio Ciccarelli, Country Manager di Trustpilot Italia

Cosa dovrebbero fare le aziende per affrontare la sfida della ricerca vocale? Secondo Ciccarelli “le aziende hanno capito cosa rappresenti la sfida di Internet per il proprio business: avere un sito Web e promuoverlo sui canali digitali per attrarre potenziali clienti e sviluppare il proprio business. Uno dei canali più popolari è la Search Engine Optimization, comunemente chiamato Seo, che consiste nel posizionare il proprio sito web attraverso parole chiave pertinenti sui motori di ricerca in modo gratuito. La ricerca vocale ha un impatto diretto sulle strategie Seo delle aziende: i motori di ricerca stanno gradualmente diventando motori di risposta e stanno migliorando i loro algoritmi per essere in grado di rispondere alle domande degli utenti con certezza”.

Per Trustpilot l’ottimizzazione dei motori di ricerca non è più l’unica opzione da tenere in considerazione. Infatti, l’ascesa della ricerca vocale sta trasformando i motori di ricerca in “motori di risposta”, che richiedono una strategia e un insieme di fattori differenti per garantire risultati soddisfacenti. Questa strategia è conosciuta come Aeo, ottimizzazione dei motori di risposta.

La particolarità delle ricerche vocali – sostiene Ciccarelli  – è che sono più lunghe e spesso formulate come domande (comunemente definite come ricerche long-tail). I motori come Google gestiscono questo tipo di query attraverso un display specifico, che comparirà sopra i risultati tradizionali: si chiama “posizione zero“, che è semplicemente una risposta a una domanda, visualizzata direttamente, senza visitare una pagina web. La sfida per le aziende sarà, quindi, quella di ottimizzare la propria strategia Aeo per occupare questo spazio e fornire risposte alle domande degli utenti di Internet”.

Gli italiani si fidano degli algoritmi per la protezione dei dati

In collaborazione con YouGov, e con il supporto della dottoressa Jessica Barker, psicologa esperta nella natura umana della cybersecurity, Palo Alto Networks ha realizzato la ricerca Trust In The Digital Age, indagine, che ha coinvolto 10.317 persone, di cui 1.021 in Italia, ha fornito una panoramica dettagliata delle abitudini e dei comportamenti umani quando si utilizza Internet e della conoscenza e consapevolezza delle misure di protezione da mettere in atto per navigare in modo coscienzioso e sicuro, senza rischi per i dati.

La prima domanda relativa all’attribuzione delle responsabilità di sicurezza segna subito una differenza tra l’Italia e il resto del campione. Gli italiani, infatti, sono gli unici in Europa che preferirebbero affidare la propria sicurezza a Intelligenza Artificiale, algoritmi e macchine intelligenti (38%). A livello europeo (Italia inclusa), invece, una media del 36% ha più fiducia nell’uomo, al quale affiderebbe la responsabilità della gestione della protezione della propria identità e informazioni.

Proprio grazie alle tecnologie disponibili, il 49% degli italiani può dedicare meno tempo e preoccupazione alla sicurezza dei propri dati. E lo stesso vale per gli altri paesi europei, con una media del 43% che si mostra fiduciosa.

Attenti a non perdere i dati personali

Il 60% degli italiani sta facendo tutto il possibile per evitare di perdere dati personali. Questo comportamento attento e consapevole è condiviso anche in Europa, con una media del 66% dei rispondenti. Si tratta di un’attenzione che forse deriva anche dall’ansia causata dall’incertezza sui metodi per proteggere i dati online (40% sia in Italia che in media in Europa).

Alla domanda relativa alla responsabilità della protezione dei dati, che consentiva risposte multiple, in Italia il 43% si sente direttamente responsabile, il 32% la attribuisce invece alle forze dell’ordine, il 30% la considera un compito degli Internet provider e il 24% degli operatori di rete mobile.

Un dato decisamente positivo emerso dall’indagine di Palo Alto Networks è che, nonostante la miriade di tentativi di violazione e furto di dati ben noti alle cronache, il 55% degli italiani dichiara di non essere mai stato coinvolto in un attacco informatico. Chi invece ne è stato vittima, segnala tra i vari danni subìti: furto di identità (10%), perdita economica (10%), perdita di dati (10%) e richiesta di riscatto (8%).

Sophos, la tecnologia corre più veloce degli It manager

“Il puzzle impossibile della Cybersecurity” è il titolo della nuova ricerca di Sophos che rivela come gli It manager siano circondati dalle minacce e stiano lottando per tenere il passo a causa della mancanza di competenze in materia di sicurezza, budget e tecnologia aggiornata.

La ricerca dello specialista di cybersecurity ha coinvolto 3.100 It decision maker di aziende di medie dimensioni negli Stati Uniti, Canada, Messico, Colombia, Brasile, Regno Unito, Francia, Germania, Australia, Giappone, India e Sud Africa.

Diversi metodi di attacco per massimizzare l’impatto

La ricerca di Sophos evidenzia come le tecniche di attacco siano estremamente diversificate e spesso colpiscano su più livelli, incrementando la difficoltà nella difesa delle reti.

Un It manager su 5 cinque non sa identificare l’origine dell’attacco e la varietà delle minacce fa sì che, inevitabilmente, nessuna strategia difensiva sia del tutto inattaccabile.

La varietà, le molteplici fasi e le dimensioni degli attacchi odierni si stanno dimostrando molto efficaci nel loro scopo. Per esempio, il 53% delle vittime di un attacco informatico è stato colpito da un’e-mail di phishing, il 30% da ransomware, mentre il 41% ha dichiarato di aver subito una violazione dei dati.

I punti deboli della strategia di sicurezza

Agli intervistati Sophos ha chiesto quali siano le tre minacce più dannose. Il 75% ha indicato exploit del software, le vulnerabilità non “patchate” e/o le minacce zero-day, il 50% il phishing mentre solo il 16% ha citato gli attacchi alla supply chain come il rischio maggiore, e questo è un dato allarmante in quanto sottovalutando questo aspetto, l’esposizione al rischio aumenta sensibilmente.

Mancanza di competenze in materia di sicurezza

Secondo l’indagine di Sophos, il 26% del tempo del team degli It manager viene dedicato esclusivamente alla gestione della sicurezza e l’86% di loro concorda sul fatto che le competenze in materia di sicurezza andrebbero migliorate. Mentre l’80% vorrebbe un team con maggiori competenze specifiche al fine di rilevare, investigare e rispondere agli incidenti di sicurezza.

Anche il reclutamento di nuovi talenti è un problema e il 79% degli intervistati afferma infatti che individuare questa tipologia di risorse sia una sfida molto complessa.

Per quanto riguarda il budget da allocare per l’It security, il 66% ha dichiarato che è inferiore a quello realmente necessario. La mancanza di aggiornamento degli asset tecnologici è un altro aspetto problematico secondo il 75% degli intervistati. 

Vendosoft, si risparmia con l’usato garantito Microsoft e Adobe

Grazie a Vendosoft, società specializzata nella compravendita di licenze software nuove e usate Microsoft e Adobe, anche le aziende italiane possono risparmiare sull’acquisto dei software necessari per la propria attività sfruttando l’opportunità della “seconda mano”.

Il software usato rappresenta oggi una valida alternativa per tutte le aziende interessate a ottenere notevoli risparmi. Ed è qui che entra in gioco la tedesca Vendosoft: in qualità di Microsoft Silver Partner e Adobe Certified Reseller, garantisce licenze software a norma di legge, certificate e a condizioni economicamente vantaggiose, per offrire a enti pubblici, imprese e organizzazioni di tutti i settori e dimensioni un significativo risparmio sulle spese It.

I vantaggi

L’argomento principale a favore dell’acquisto di licenze usate è il basso costo. Il software di seconda mano Microsoft e Adobe può costare fino al 70% in meno rispetto al software nuovo. Ma si ha comunque la certezza che rimanga sempre aggiornato dal punto di vista tecnico e della sicurezza fino al termine del ciclo di vita del supporto, che normalmente ha una durata compresa tra i sette e i dieci anni.

Come funziona

Con ogni fornitura, Vendosoft garantisce licenze conformi al produttore, bolle di consegna e fatture, certificazioni della catena di fornitura da parte di un revisore contabile, disco di installazione e codici volume licensing per acquistare, in piena legalità, software usato Microsoft e Adobe. Il tutto in modalità multilingue, come multilingue sono le licenze software, l’offerta e il processo di ordinazione.

Grazie alla collaborazione con dei revisori contabili, inoltre, la società garantisce la trasparenza dell’intera catena di fornitura e la rimozione del software da parte dell’acquirente iniziale, come previsto dalla normativa europea. Ciò consente a ogni cliente di affrontare con la massima serenità eventuali audit da parte dei produttori di software.

In Italia Vendosoft opera dalla seconda metà del 2018 e ha già stretto rapporti con una trentina di clienti e oltre cento prospect: “Abbiamo firmato il più importante contratto di tutta l’azienda con un’importante realtà nel mondo dei trasporti, capace di risparmiare con noi circa 750mila euro – racconta Andrea Migoni, responsabile commerciale della filiale italiana –. Operiamo su un mercato potenzialmente enorme, visto che ci sono circa 20mila imprese con oltre cento dipendenti e il 98% di queste usa licenze Microsoft o Adobe. Per questo ci siamo posti l’obiettivo di raggiungere i 1.100 clienti nel 2020, quando pensiamo di produrre circa 3,7 milioni di fatturato”.

 

Capgemini, intelligenza artificiale per contrastare le minacce informatiche

Secondo il nuovo studio “Reinventing Cybersecurity with Artificial Intelligencedel Capgemini Research Institute, le imprese stanno incrementando gli investimenti in sistemi di intelligenza artificiale per difendersi dagli attacchi informatici di nuova generazione. Due terzi (69%) delle imprese riconoscono di non essere in grado di rispondere alle minacce critiche senza il supporto dell’Ia.

Intelligenza artificiale come abilitatore necessario per la cybersecurity

Il 56% degli intervistati (850 senior executive della sicurezza It e delle operation di 10 nazioni) afferma che i cybersecurity analyst della loro azienda si sentono sotto pressione a causa della vasta gamma di dati da monitorare al fine di rilevare e prevenire gli attacchi informatici. Inoltre, sono notevolmente aumentati i tipi di attacchi informatici che richiedono un intervento immediato o che i cyber analyst non sono in grado di risolvere abbastanza rapidamente, come attacchi hacker che interessano applicazioni time-sensitive (il 42% dichiara di aver assistito a un incremento, in media, del 16%) e attacchi automatizzati e machine-speed, che si trasformano tanto velocemente da non poter essere neutralizzati attraverso i tradizionali sistemi di risposta (il 43% degli intervistati ha dichiarato di aver registrato un aumento, in media del 15%).

Trovandosi di fronte a queste nuove minacce, una netta maggioranza delle aziende intervistate (69%) ritiene di non essere in grado di rispondere agli attacchi informatici senza l’utilizzo dell’Ia, mentre il 61% dichiara di aver bisogno dell’Ia per identificare le minacce più critiche. Un dirigente su cinque ha detto al Capgemini Research Institute che la propria azienda ha subito una violazione della sicurezza informatica nel 2018. Il 20% di queste violazioni ha comportato per l’azienda un costo di oltre 50 milioni di dollari.

Aumentano gli investimenti in sicurezza

Una netta maggioranza dei dirigenti è d’accordo sul fatto che l’Ia sia fondamentale per il futuro della sicurezza informatica. Il 64% degli intervistati da Capgemini ha dichiarato che l’Ia permette di ridurre il costo di rilevazione degli attacchi informatici e delle azioni di risposta agli stessi, in media del 12%. Il 74% ha affermato che questa tecnologia consente di avere tempi di risposta più brevi, infatti riduce del 12% il tempo necessario per rilevare le minacce, intervenire per bloccare le violazioni informatiche e implementare le patch. Il 69% degli intervistati ha detto di ritenere che l’Ia migliori l’accuratezza del rilevamento delle violazioni, mentre il 60% che la tecnologia permette di incrementare l’efficienza dei cybersecurity analyst, riducendo il tempo di analisi dei falsi positivi e migliorando la produttività.

Quasi la metà degli intervistati (48%) ha affermato che nel 2020 i budget a disposizione per l’implementazione dell’Ia per la sicurezza informatica aumenteranno di quasi un terzo. In termini di implementazione, il 73% delle aziende sta eseguendo dei test sugli use case dell’Ia nel quadro della cybersecurity. Solo un’azienda su cinque ha utilizzato l’Ia prima del 2019, ma l’implementazione è destinata a incrementare in maniera esponenziale: quasi due imprese su tre (63%) prevedono di utilizzare l’Ia entro il 2020 per rafforzare i propri meccanismi di difesa dagli attacchi informatici.

Digital transformation, i player industriali sono pronti

A livello mondiale i sei settori che secondo l’analisi M&A di Ey hanno intrapreso in maniera attiva un percorso di digital transformation sono principalmente riconducibili alle industry dell’automotive, all’industrial automation e all’ambito industriale in senso stretto (prodotti e servizi industriali).

Mentre, le aziende target di queste operazioni societarie sono attive nell’industrial automation, computer software/hardware/servizi, e-commerce e telecomunicazioni. L’analisi di Ey, tra bidder industriali e target dal mondo digital, ha coperto gli ultimi quattro anni, dal 2014 al 2018.

Dallo studio, condotto sui deal a livello globale, che ha coinvolto imprese industriali e target digitali, emerge un mondo digital in rapida ascesa, che rapisce l’attenzione soprattutto del Nord America e dell’Europa, dove è avvenuto il 75% delle transazioni analizzate dallo studio per il 2018.

In particolare, nel 2018 i cosiddetti “bidder industriali puri” hanno investito per il 49% dei casi nell’industrial automation e nel computer software per il 38%. Nello stesso anno, il Nord America e l’Europa risultano le aree geografiche che hanno registrato una maggiore digitalizzazione, con il 37% del deal nel computer software e il 40% nell’industrial automation.Macchine

Più in generale, in detto periodo, le acquisizioni sono più che raddoppiate, passando dalle 50 transazioni del 2014 alle 108 nel 2018, con i settori dei servizi industriali e dell’automotive tra quelli che più di tutti hanno investito nella digitalizzazione dei propri processi produttivi.

Le sfide della digital transformation

Per quanto riguarda il computer software, le sfide della trasformazione digitale, sono focalizzate sui sistemi di monitoring da remoto/ tempo reale (25% dei deal), sulla gestione integrata di data analytics e sensori di movimento/sicurezza, cosiddetti business & security management (25%) e sui sistemi di fleet management (13%), applicati sia ai mezzi di trasporto (si pensi alla geolocalizzazione, alla diagnostica dello stato dei veicoli in tempo reale), sia all’urban mobility. 

Stringendo il campo sull’Italia, due i punti che emergono su cui riflettere: nel 2018, circa l’11% dei deal in Europa coinvolge bidder italiani, di cui il 25% sono player del settore automotive e il 75% sono player industriali puri; i deal italiani hanno riguardato principalmente target dal mondo dell’industrial automation (75% dei deal italiani) e dei computer software (25%) con un’equa distribuzione di deal domestici (50%) e cross-border (50%).

 

Sicurezza, attacchi informatici potenziati con l’intelligenza artificiale

Oggi le persone che sferrano attacchi alla sicurezza hanno la possibilità di sfruttare l’apprendimento automatico per creare nuove tipii di attacchi. Nonostante ciò, stanno invece concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi dell’intelligenza artificiale esistenti.

Questo è quanto emerge dal rapporto pubblicato dal consorzio Sherpa “Security Issues, Dangersand Implications ofSmart Information Systems”, il progetto dell’Ue che studia l‘impatto dell’intelligenza artificiale sull’etica e sui diritti umani a cui ha aderito anche F-Secure nel 2018.

Gli usi dannosi dell’intelligenza artificiale

I ricercatori hanno identificato infatti una varietà di usi potenzialmente dannosi per l’intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale. E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi alla sicurezza informatica, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di Ia esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, e così via.

Per Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare sorprendente per molte persone. “Le credenze popolari attorno all’intelligenza artificiale fanno pensare che l’Ia si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di Ia su base regolare“.

Gli attacchi alla sicurezza con Sybil

Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l’Ia utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o sminuire determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.

Il problema dei contenuti falsi

Ma forse l’applicazione di Ia più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l’intelligenza artificiale ha raggiunto un punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Talend, nelle imprese è aperto il dibattito sulla qualità dei dati

Meno di un terzo dei data specialist (31%), tra cui analisti, data scientist e responsabili della qualità dei dati, è pienamente fiducioso nella capacità di fornire rapidamente dati affidabili all’interno della propria azienda.

Lo rivela una survey di Talend condotta da Opinion Matters dal titolo “Data Trust Readiness” e che ha coinvolto 763 professionisti dei dati (dirigenti e operativi) di tutto il mondo.

Divario tra management e operation

Secondo l’indagine, c’è un significativo divario di percezione tra i professionisti più senior e il middle management It (i professionisti dei dati a livello operativo): i primi sono sostanzialmente più sicuri nelle capacità delle loro aziende. Nonostante l’importanza di garantire velocità e affidabilità dei dati, solo l’11% degli intervistati ritiene che la propria azienda abbia raggiunto l’eccellenza sia in termini di velocità sia di integrità.

Nel complesso, le persone che operano a più stretto contatto con i dati confidano meno nelle capacità delle loro aziende di avere fiducia nei propri dati, infatti solo il 31% dimostra alti livelli di fiducia. Per contro, il 46% degli intervistati a livello dirigenziale è fiducioso nella capacità delle proprie organizzazioni di fornire dati affidabili in tempi rapidi.

Per quanto riguarda la conformità normativa, uno dei criteri chiave per valutare la fiducia, il 52% degli intervistati a livello dirigenzialedichiara di essere molto ottimista relativamente al raggiungimento della conformità con le normative sui dati, mentre la percentuale scende al 39% tra i professionisti del dato che possono essere responsabili di apportare concretamente delle modifiche per garantire la conformità.

La fiducia nella qualità dei dati rimane bassa

L’indagine mostra che solo il 38% degli intervistati ritiene che le proprie aziende eccellano nel controllo della qualità dei dati. Meno di uno su tre (29%) dei professionisti del dato è convinto che i dati della propria azienda siano sempre accurati e aggiornati.

Secondo il sondaggio, solo il 34% dei professionisti del dato crede nella capacità delle proprie aziende di portare a termine con successo un processo di integrazione dei dati in tempo reale a 360 gradi. Mentre gli intervistati a livello dirigenziale si sentono di nuovo più sicuri (46%) in merito a questo proposito.

Data4, al via il quarto datacenter di ultima generazione

L’operatore europeo Data4 ha aperto presso il Campus digitale di Cornaredo, nei pressi di Milano, il suo quarto datacenter iper-connesso.

La peculiarità di questo datacenter è il rafforzamento dell’aspetto “Next Generation”, un design ancora più modulare ed eco-performante (che consente alta scalabilità), una più facile gestione, nonché l’allineamento con i criteri di sostenibilità ambientale a livello europeo del Gruppo, garantendo livelli di massima sicurezza fisica e di efficienza energetica.

L’inaugurazione del quarto datacenter costituisce un passo importante all’interno di un’operazione più ampia e strutturata che prevede, su un arco temporale di cinque anni, un piano di investimenti per il nostro Paese di circa 250 milioni di euro.

Balocco al lavoro con la virtualizzazione di Hpe SimpliVity

Ridurre la complessità del sistema informativo sia in termini di infrastruttura sia di carico, preservando la sicurezza e disponibilità dei dati aziendali memorizzati su storage. Questa la necessità che era emersa all’interno del dipartimento IT dell’azienda dolciaria Balocco. Incuriosito dalla soluzione SimpliVity proposta da HPE, il team IT di Balocco ne ha voluto approfondire le caratteristiche.

Questa analisi lo ha convinto dell’opportunità di mettersi in casa una piattaforma server virtualizzata e preconfigurata, dove risorse di elaborazione, storage, rete e software di gestione si governano da un’unica appliance.

Non solo prestazioni

In un periodo in cui le minacce informatiche sono pressoché quotidiane, i fattori che hanno influenzato la scelta di Balocco sono stati la sicurezza di poter contare su una gestione integrata e a costo zero del backup e la possibilità di effettuare restore anche granulari in tempi rapidi, prestazioni assicurate da HPE SimpliVity. Inoltre, la soluzione HPE è risultata la più semplice da amministrare anche dal punto di vista della gestione ordinaria.

Non avendo come obiettivo unico il miglioramento delle performance IT, Balocco ha potuto toccare con mano anche i plus di una migrazione condotta in tempi davvero rapidi: è servita meno di una giornata lavorativa per mettere in opera e far funzionare la nuova infrastruttura HPE SimpliVity.

Appena implementata, l’offerta hyperconverged firmata HPE ha, inoltre, permesso all’IT di Balocco di riportare dentro HPE SimpliVity sia una virtual machine dedicata a IBM Domino, sia una macchina server esternalizzata e al servizio di un applicativo di Business Intelligence.

Tutto questo, in aggiunta a una migliore risposta delle applicazioni in uso in azienda, ha comportato una drastica riduzione dei tempi di manutenzione dell’intera infrastruttura, con aggiornamenti software effettuati in ore, non più in giorni.

Bottega BaloccoNuove necessità

Oltre a migliorare le prestazioni e semplificare l’infrastruttura, con il passaggio a HPE SimpliVity, Balocco, ha ridotto le virtual CPU e la virtual RAM assegnata ad alcune macchine, che ora lavorano meglio con meno risorse.

Nel corso del 2019 si concluderà una serie di investimenti che ha portato all’ampliamento della superficie produttiva e all’introduzione di diverse nuove tecnologie: linee produttive, magazzini più efficienti, laboratori di analisi microbiologiche e un centro di ricerca & sviluppo.

Gli investimenti IT a breve termine saranno mirati a consolidare l’infrastruttura esistente e ad ampliare la rete LAN, anch’essa basata su apparati HPE.

Digital divide, per Deloitte è anche nei board dei servizi finanziari

Secondo Deloitte in Italia nel settore dei servizi finanziari le competenze digitali nei board non corrono di pari passo con gli investimenti in It. Tanto che i membri dei CdA con una radicata esperienza in campo tecnologico sono meno del 10%.

È questo il quadro che emerge dal report Tech Explosion e Digital Disruption nei Financial Services: i Board italiani sono pronti? di Monitor Deloitte, uno studio volto a rilevare il “quoziente digitale” dei Consigli di Amministrazione su un panel di 12 player fra i principali istituti di credito e gruppi assicurativi.

Nel settore dei Financial Services, a fronte di un elevato livello di spesa in tecnologia nel 2018 (con valori che hanno raggiunto il 7,5% dei ricavi, quattro punti percentuali sopra alla media), specialmente da parte degli istituti di credito e delle compagnie assicurative, il livello di digitalizzazione del board resta limitato.

Infatti, tempo la banca era vista come mero istituto di credito, ma questa definizione non rappresenta più in pieno l’evoluzione che sta interessando il settore, dove le aziende sviluppano modelli di business open abilitati dalle tecnologie digitali e in grado di produrre risultati da “Revenue multiplier”.

Il divario digitale dei board

La ricerca evidenzia come l’evoluzione tecnologica stia creando un digital divide nel mondo dei servizi finanziari. In quanto i modelli aziendali basati sulla tecnologia crescono più velocemente, sono caratterizzati da moltiplicatori di ricavi più elevati e sono maggiormente premiati dagli investitori.

La tecnologia sta portando a un ripensamento strutturale dei business model nel settore finanziario e la governance delle aziende deve strutturarsi adeguatamente per gestire l’impatto del digitale e guidare le scelte strategiche del futuro.

Secondo i risultati del report, soltanto all’interno di 4 tra i Cda selezionati si trovano consiglieri con profili tech-oriented.

L’indagine condotta ha evidenziato inoltre come il “quoziente digitale” nei Cda di tutte le aziende bancarie e assicurative sia ancora basso, con meno del 10% dei consiglieri con esperienza professionale o accademica in tali aree. Le competenze tecnologiche e, più ingenerale, la differenziazione di profili all’interno dei board risulta essere estremamente limitata se paragonata alla complessità delle sfide future.

Il “Cda digitale” di domani

Secondo Monitor Deloitte, per vincere sul mercato gli istituti di credito e le compagnie di assicurazioni devono colmare il gap in termini di quoziente digitale e allineare le competenze dei Cda ai piani strategici che disegnano. Un board con esperienza digitale, caratterizzato da competenze e profili eterogenei, è un indispensabile strumento di governo della complessità e della trasformazione digitale.

I profili tech-savvy, secondo Monitor Deloitte, diventeranno sempre più frequenti tra le nuove nomine dei board e il responsabile aziendale dell’area tecnologica, che molto spesso governa anche gli ambiti Digital, Innovation e Trasfomation, dovrà essere in grado di interagire in modo più proattivo con il Cda, mostrando i benefici di business che una determinata soluzione tecnologica garantisce all’azienda.

Celli Group, beverage dispensing con la realtà aumentata

0

Celli Group ha adottato intelliDraught, la piattaforma IoT progettata con ThingWorx e l’Augmented Reality Vuforia di Ptc per conoscere in tempo reale tutti i parametri operativi della spillatura.

IntelliDraught è una piattaforma IoT che permette alle aziende di beverage di conoscere in tempo reale tutti i principali parametri operativi che attengono alla spillatura dei loro prodotti.

Tra questi troviamo lo stato del sistema (tempi di fermo, stato manutentivo, assorbimento elettrico del compressore frigorifero e così via), la qualità della bevanda somministrata (temperatura di servizio, corretta percentuale di miscelazione e così via) nonché le abitudini di consumo (quantità, stagionalità, fasce orarie e così via).

La disponibilità dei dati ma, soprattutto, la loro gestione offrono notevoli benefici a vari livelli. In primo luogo alle aziende produttrici di bevande, che acquistano e installano in tutto il mondo i sistemi di spillatura prodotti da Celli, per esempio in termini di supervisione della rete retail, della manutenzione predittiva e del monitoraggio dei consumi. Ai clienti finali è possibile assicurare una qualità costante e sempre al top della bevanda che viene somministrata – che si tratti di birra, soft drink o acqua trattata –, mentre nel suo complesso la disponibilità di informazioni smart rende la supply chain più agile ed efficiente lungo l’intera catena.

Esperienza unica grazie alla realtà aumentata

L’innovazione che caratterizza la soluzione IntelliDraught è ulteriormente arricchita dall’utilizzo della realtà aumentata. Grazie a Vuforia Studio, la soluzione di Ar integrata nella piattaforma ThingWorx di Ptc, è stato infatti possibile amplificare il potenziale combinato del 3D e dell’IoT per offrire un’esperienza di realtà aumentata tramite cui migliorare la fruizione del sistema.

La disponibilità in real time dei dati operativi e la loro contestualizzazione all’interno di un digital twin basato sulla geometria 3D di Creo, la piattaforma di Ptc dedicata alla progettazione, abilita nuove modalità di interazione con i sistemi di spillatura. Nel caso specifico, la tecnologia Ar di Vuforia, se utilizzata con dispositivi wearable, come per esempio i Microsoft Hololens, consente di vivere esperienze immersivi per gestire, per esempio, sessioni di formazione a distanza, così come interventi di manutenzione guidata.

Marketing digitale

Fruendo dell’app Vuforia su device mobili, quali smartphone o tablet, si apre invece una serie di altre opportunità, che possono essere sfruttate da un lato per gestire al meglio la somministrazione delle bevande al banco da parte del gestore del locale (per esempio prevenendo in anticipo l’esaurimento di un fusto durante una serata particolarmente affollata), dall’altro lato per regalare all’avventore una customer experience unica e integrata con le azioni di marketing digitale che le grandi aziende di beverage possono ideare sui vari target di avventori al fine di aumentarne l’engagement.

Gdpr, come il Garante Privacy supporta imprese e professionisti

Partirà a settembre il progetto Smedata dedicato al Regolamento (Ue) 2016/679 – Gdpr, nato da una partnership tra il Garante per la protezione dei dati personali italiano e l’Autorità per la protezione dati della Bulgaria.

Obiettivo dell’iniziativa è il supporto delle piccole e medie imprese e dei professionisti impegnati nell’adeguamento ai nuovi adempimenti normativi in materia di protezione dei dati personali e i soggetti che operano nella consulenza giuridica.

Non solo. Il progetto si ripropone anche di elaborare una metodologia per definire uno strumento di autovalutazione e sensibilizzazione, fornendo pure un approccio sostenibile per la loro implementazione. E di sostenere la comprensione e la compliance con il Gdpr attraverso lo sviluppo di uno strumento software innovativo.

Le iniziative previste

Il progetto, co-finanziato da fondi della Commissione europea e sviluppato in Italia in collaborazione con il Dipartimento di Giurisprudenza dell’Università degli Studi Roma Tre, prevede una serie di importanti iniziative.

Tra questi troviamo l’organizzazione di seminari di formazione e convegni e lo sviluppo di uno strumento di auto-valutazione che aiuti le Pmi negli adempimenti previsti dalla normativa in materia di protezione dati.

A ciò si aggiunge la realizzazione di una app gratuita, ricca di contenuti informativi, per rendere più semplici e immediati l’aggiornamento e l’informazione degli imprenditori e dei consulenti privacy che supportano le Pmi, oltre che per diffondere la conoscenza dei nuovi diritti garantiti dal Regolamento presso tutti i soggetti interessati.

Come partecipare

Gli incontri formativi di Smedata prenderanno avvio il 18 settembre da Firenze, per poi proseguire a Salerno (26 settembre), Milano (3 ottobre), Cosenza (22 ottobre), Genova (29 ottobre) e Roma (5 novembre). Le modalità di partecipazione, il programma degli eventi e le informazioni sul progetto saranno disponibili sul sito del Garante per la protezione dei dati personali.

 

Capgemini, alle aziende conviene usare eticamente l’IA

Un approccio etico all’utilizzo dell’intelligenza artificiale(IA) sta diventando fondamentale per conquistare la fiducia delle persone: il dato emerge da un nuovo studio del Capgemini Research Institute.

Gli intervistati hanno infatti affermato che sarebbero più fedeli, disposti ad aumentare gli acquisti, o a sostenere le aziende che dimostrano di fare un uso etico dell’IA. Lo studio, dal titolo Why addressing ethical questions in AI will benefit organizations, ha coinvolto 1.580 dirigenti di grandi aziende in 10 paesi e oltre 4.400 consumatori in sei paesi.

Chi utilizza eticamente l’IA sarà premiato

eticaIl 62% dei consumatori intervistati ha dichiarato di riporre una maggiore fiducia in un’azienda le cui interazioni con i sistemi di IA vengono percepite come etiche. Il 61% ha invece affermato di essere disposto a condividere esperienze positive con amici e familiari, il 59% che l’uso etico dell’IA incrementerebbe il proprio grado di fidelizzazione con un’azienda e il 55% che questo si tradurrebbe in un aumento dei prodotti acquistati e in un incremento dei feedback positivi sui social media. Al contrario, quando le interazioni tra i sistemi di Ia e i consumatori generano problemi di natura etica, questi minacciano sia la reputazione sia i profitti. Il 41% degli intervistati ha dichiarato che si lamenterebbe qualora un’interazione con i sistemi di Ia portasse a problemi etici, il 36% richiederebbe una spiegazione e il 34% smetterebbe di rivolgersi a tale azienda.

I problemi etici dei sistemi di IA

I dirigenti di 9 aziende su 10 ritengono che l’utilizzo dell’IA abbia generato problemi etici negli ultimi 2-3 anni. Per esempio nel settore sanitario per quanto riguarda la raccolta di dati personali dei pazienti senza il loro consenso, oppure in quello bancario e assicurativo, per via dell’eccessivo utilizzo di decisioni machine-led senza aver avvisato prima il cliente. La cause riscontrate da un lato evidenziano le pressioni per l’implementazione dell’IA, dall’altro l’assenza di un approccio e di risorse dedicate all’aspetto etico dell’implementazione dei sistemi di IA.

Consumatori, dipendenti e cittadini sono preoccupati

Quasi la metà degli intervistati (47%) ritiene di aver sperimentato almeno due tipi di utilizzo dell’IA che, negli ultimi 2-3 anni, hanno dato luogo a problemi etici. La maggior parte (74%) ha dichiarato di volere maggiore trasparenza quando si trova a usufruire di un servizio erogato tramite l’IA, mentre il 72% vuole sapere se la tecnologia li stia trattando in modo equo. Più di tre quarti dei consumatori (76%) ritiene che ci dovrebbe essere una regolamentazione aggiuntiva sull’utilizzo dell’Ia da parte delle aziende.

Il 51% dei dirigenti ritiene che sia importante garantire l’etica e la trasparenza dei sistemi di IA. Le organizzazioni stanno anche adottando azioni concrete quando vengono poste loro questioni etiche. La ricerca ha rilevato che il 41% dei dirigenti senior riferisce di aver abbandonato completamente i sistemi di IA che sollevavano problemi etici.

Prioritario definire un approccio etico

Per indirizzare le preoccupazioni dei consumatori e guadagnare un vantaggio competitivo nell’utilizzo etico dell’IA, è necessario progettare i sistemi fin dal principio per rispondere a queste esigenze. In tal senso, Capgemini raccomanda un approccio strategico che tenga in considerazione tutti i principali stakeholder dell’ecosistema.

CxO, business leader e responsabili per la fiducia e l’etica aziendale devono stabilire una strategia e un codice di condotta per l’utilizzo etico dell’IA, sviluppare adeguate procedure di adozione per i dipendenti e per le applicazioni basate sull’IA, creare strutture di governance etica e garantire responsabilità per i sistemi di IA e costruire team eterogenei per assicurare un’elevata sensibilità su tutto lo spettro delle questioni etiche.

Le funzioni che hanno un contatto diretto con il pubblico, come risorse umane, marketing, comunicazione e servizio clienti devono garantire un uso etico nell’applicazione dell’Ia, informare ed educare gli utenti per costruire fiducia nei sistemi di IA, fornire supporto e assistenza nell’interazione con l’IA e comunicare tempestivamente eventuali criticità correlate all’IA sia all’interno dell’azienda che verso il consumatore. I responsabili in ambito IA, dati e It devono cercare di garantire il più possibile trasparenza e comprensione dei sistemi, una corretta gestione dei dati per mitigare i potenziali rischi, il monitoraggio continuo per verificarne precisione e accuratezza e l’utilizzo di strumenti tecnologici che assicurino l’etica nell’IA.

Sviluppatori It: i limiti di un lavoro necessario

Quali sono i peggiori aspetti del lavoro degli sviluppatori It? Lo rivela una ricerca dal titolo Impact of Low-code on It Satisfaction sviluppata da Idg per conto di Appian.

Al primo posto si posiziona il tempo speso nell’identificare e risolvere problemi relativi alle applicazioni, seguono i limiti di tempo e le scadenze improrogabili. Quindi troviamo il tempo sprecato su attività ripetitive di codifica e la mancanza di opportunità di lavoro su progetti strategici.

Condotto tra marzo e aprile 2019 su un campione di 150 leader It (da C-level a director) e 150 sviluppatori It ingegneri/architetti del software di aziende con più di 1.000 dipendenti, il sondaggio ha anche messo in relazione lo sviluppo in low-code con i livelli di soddisfazione professionale in ambito It.

L‘80% degli intervistati concorda sul fatto che il low-code sia utile per l’automazione di attività di sviluppo ripetitive, quali la codifica di form e delle regole di business. Più di due terzi (68%) concorda sul fatto che il low-code sia uno strumento valido per lo sviluppo di applicazioni mission-critical. Mentre quasi l’80% ritiene che l’utilizzo del low-code permetta agli sviluppatori di avere più tempo per lavorare su progetti di un livello superiore.

Tecnologie emergenti

In aggiunta, l’86% degli sviluppatori It concorda sul fatto che le tecnologie emergenti stiano creando pressioni sui reparti It aziendali. Questa pressione si fa sentire più spesso sotto forma di richieste di sviluppo di nuove applicazioni e di richieste di integrazione tra le stesse tecnologie emergenti e i dati e i sistemi legacy preesistenti. Le applicazioni per la generazione delle revenue e per il miglioramento delle performance che gli sviluppatori ritengono essere più richieste dalle organizzazioni sono, nell’ordine, quelle che migliorano la customer experience o aumentano il coinvolgimento del cliente (68%), quelle che ottimizzano le operazioni interne e i processi (61%) e quelle che promuovono l’innovazione (57%).

Applicazioni per la customer experience

Nonostante le applicazioni dedicate alla customer experience siano le più richieste, meno del 50% degli intervistati sostiene che la propria organizzazione aziendale sia “estremamente o molto” pronta a integrare l’intelligenza artificiale e la Robotic process automation nei flussi di lavoro legati al servizio clienti. A causa di uno scenario It frammentato, il campione esaminato stima che i responsabili dei servizi siano costretti oggi ad aprire una media di 5 schermate diverse per ottenere una visione completa del cliente.

Sviluppare applicazioni più intuitive e user-friendly è l’ostacolo principale, cui seguono la sicurezza dei dati e l’uso di tecnologie emergenti per una maggiore conoscenza del cliente.

Manufacturing italiano: secondo EY servono ancora innovatori

In Italia solo una minima parte delle aziende prese in esame dal “EY Digital Manufacturing Maturity Index 2019″ , in tutto il 14%, mostra il raggiungimento di uno stato più avanzato di sviluppo digitale caratterizzato da progettualità 4.0 evolute. Si tratta di aziende con sistemi informativi in grado di scambiare informazioni verticalmente, dalle macchine all’Erp (o cloud) e con un buon livello di integrazione delle informazioni lungo tutto il processo produttivo, comprese le altre funzioni aziendali.

Verso la trasformazione digitale

Il 49% delle aziende, invece, sta mettendo le basi per una gestione digitale dei processi, mentre circa un terzo (37%) si trova in una fase iniziale e sperimentale di trasformazione digitale e ha implementato soltanto progetti pilota di integrazione verticale all’interno dell’azienda. All’interno del campione, solo una minima parte delle aziende (5%) possiede un sistema strutturato e automatizzato di integrazione dei dati con fornitori e/o clienti.

Risulta marcato il divario tra piccole e grandi aziende, in particolare su alcuni temi specifici come l’utilizzo di tecnologie innovative. Infatti, la maggior parte delle grandi aziende (il 70%) ha un piano di sviluppo definito e ha introdotto al proprio interno tecnologie innovative e di industria 4.0, sfruttando anche i benefici fiscali previsti in tema di innovazione e rispetto dell’ecosistema. Le piccole e medie realtà, invece, hanno incontrato ostacoli lungo il percorso di adozione di tecnologie digitali e di accesso agli incentivi e si mostrano deboli in tema di cultura aziendale, governance del cambiamento e strategia dello sviluppo.

Gli ostacoli

Dall’indagine di Ey emerge inoltre che i principali ostacoli nel percorso di digitalizzazione delle aziende manifatturiere siano la limitata cultura digitale (85%) e l’individuazione di figure professionali adeguate (84%). Più della metà del campione ha avviato un percorso di formazione tradizionale, solo il 12% ha un programma di sviluppo delle competenze digitali, il 30% riconosce di avere una limitata conoscenza del digitale.

Resta infine ancora ristretto il numero di realtà manifatturiere che ha realizzato operazioni societarie afferenti al mondo dell’industria 4.0.

Easy Folder digitalizza e archivia tutti i documenti degli studi legali

Easy Folder è la soluzione dedicata agli Studi legali di Gruppo Tadi volta a facilitare il reperimento e riutilizzo dei documenti cartacei. Attraverso l’impiego di una stampante multifunzione, permette infatti una veloce e sicura trasformazione di documenti cartacei in formato digitale e all’archiviazione degli atti in formato elettronico.

In una nota la società dice che Easy Folder per gli Studi Legali è intuitivo e di facile utilizzo. I documenti in formato cartaceo vengono immessi sull’alimentatore dello scanner della multifunzione per essere convertiti in Pdf editabili con un semplice clic.

Anche i documenti già in formato digitale non editabile, quali immagini o foto, si possono convertire in Pdf con la stessa procedura di quelli di carta. L’avvocato o l’operatore decide a priori come il sistema deve archiviare i documenti convertiti e in quali cartelle in rete deve salvarli per essere utilizzati per il copia/incolla.

Archiviazione e ricerca

La logica di memorizzazione si imposta all’atto dell’installazione del servizio secondo le indicazioni del titolare e non dipende dalle decisioni autonome dei singoli operatori. Si possono anche impostare procedure di archiviazione per facilitare, per esempio, la memorizzazione di pratiche relative alla clientela con cognomi esteri.

Inoltre, si memorizzano non solo documenti cartacei direttamente sulla multifunzione ma anche quelli in formato digitale ricevuti da posta elettronica o altra fonte sui  pc, usando le medesime procedure operative.

Qualsiasi documento archiviato è ricercabile navigando tra le cartelle di rete o per contenuti con i comandi dei sistemi di base Windows o Apple. Se il sistema multifunzione è in uso in uno Studio Associato è possibile suddividere i documenti addebitandoli ai singoli Associati.

 

Come deve essere un data center green secondo Aruba

Oggi è diventato fondamentale adoperarsi per trovare “strategie green” e “consumare” in maniera intelligente, impegnandosi quindi a fare un uso corretto dell’energia e favorire l’uso delle energie rinnovabili.

Il ruolo dei data center nella sfida per abbattere le emissioni di CO2 e tagliare i costi energetici è sicuramente centrale.

Per rendere un data center a impatto zero – spiega Gabriele Sposato, Direttore Marketing di Aruba – è necessario abbracciare tutte le tecnologie green che riguardano l’alimentazione, gli Ups e i sistemi di condizionamento. Ma ovviamente il primo passo è pensare fin dalla prima fase di progettazione all’impatto che un data center avrà in termini di consumo energetico”.

Gabriele Sposato, Direttore Marketing di Aruba

Quando un’azienda progetta un nuovo data center – continua Sposato – deve pensare fin dall’inizio, oltre che a come garantire la massima affidabilità, sicurezza e prestazioni, anche a come raggiungere la massima efficienza e risparmio energetico. Grazie a questo modello, oggi Aruba riesce mediamente a risparmiare l’emissione circa 18 milioni di tonnellate di CO2 l’anno”.

Il Global Cloud Data Center di Aruba

Per esempio, Global Cloud Data Center di Aruba, il data center campus più grande d’Italia vicino Milano, utilizza energia rinnovabile con certificazione di Garanzia di Origine (Go) ossia proveniente da fonti rinnovabili. A ciò si aggiunge l’energia rinnovabile autoprodotta nel sito. Nello specifico, il data center si avvale di una centrale idroelettrica di proprietà che si trova all’interno del campus tecnologico e di numerosi pannelli fotovoltaici che ricoprono parte delle pareti. È anche da queste fonti che si garantisce parte dell’approvvigionamento ‘intelligente’ e sostenibile di energia.

Per rendere un data center realmente green – aggiunge il responsabile della societàè necessario proporre un data center al massimo dell’avanguardia, rispettando al contempo le necessità del pianeta, non pesando inutilmente con l’emissione di sostanze serra dannose ed evitando il consumo di risorse energetiche non riproducibili. Un data center green, se realizzato con strutture e metodi avanzati, attenti all’autoproduzione e alle fonti rinnovabili, o a una combinazione di questi aspetti, può contribuire a garantire che la propria potenza sia 100% rinnovabil!e.

Non da ultimo – sottolinea Sposato – è necessaria una presa di coscienza per capire che è essenziale investire in quelle fonti che devono essere vicine al luogo in cui poi si utilizza l’energia, per evitare tutti gli sprechi dovuti ai trasporti”.

Se si considera infatti la produzione di energia, nelle fasi di trasformazione e di trasporto se ne perde il 30/40%: questo viene meno con la produzione in loco, e a parità di costi. “Per le aziende che consumano grandi quantità di energia – sottolinea Sposato – dovrebbe essere obbligatorio guardare alle forme di autoproduzione o, dove non possibile, quantomeno alla cogenerazione ad alto rendimento”.

Se si cominciasse a mettere insieme tutti questi sforzi e ad applicarli a tutti i settori industriali – conclude Sposato – si farebbe una differenza enorme, conducendo una partita vincente sia per le imprese, sia per l’ambiente. Si tratta di una procedura che prima di tutto è eticamente corretta ma che, inoltre, comporta meno sprechi, consente di gestire più liberamente i prezzi e rende più competitive le aziende dal punto di vista commerciale”.

MyElmec, sistemi informatici e asset digitali sempre sotto controllo

MyElmec è la dashboard integrata di Elmec informatica che permette di risparmiare tempo grazie ai processi automatizzati che aiutano a monitorare 24/7 gli asset digitali di un’azienda e l’infrastruttura It. Si tratta di un’unica piattaforma che permette di vedere in tempo reale quanto succede su device come stampanti, pc e notebook e sull’infrastruttura monitorando tutti i configuration item come server, storage, switch e firewall.

Più di uno strumento di governance

MyElmec si propone come folla piattaforma strategico per chi lavora nel mondo dell’It. Non è infatti solo uno strumento di governance. Grazie a processi automatizzati, alcune azioni più operative, vengono velocizzate permettendo così alle figure che si occupano di tecnologie all’interno delle aziende di abbandonare azioni meccaniche e farraginose dell’operatività quotidiana, guadagnando tempo per lo sviluppo delle strategie. Il portale è disponibile anche in versione mobile sia per Android sia per iOS e l’app è in grado di notificare in tempo reale agli addetti ai lavori situazioni di criticità sugli asset sotto monitoraggio.

La metodologia DevOps

Lo sviluppo del portale ha previsto il coinvolgimento della metodologia DevOps, che nasce dall’idea di un’integrazione tra gli sviluppatori e chi controlla ed eroga prodotti e servizi, ossia gli addetti alle operation. DevOps vuole eliminare “l’effetto silos”, evitando l’esistenza di compartimenti stagni, ovvero, reparti che, nel processo produttivo, si occupano solo della propria parte, senza pensare a quello che avviene prima e dopo la loro attività.

L’utilizzo di questa metodologia ha portato a un cambiamento nei processi aziendali e nell’ideazione del progetto stesso. Nel suo sviluppo sono inoltre stati coinvolti 20 clienti pilot, in ottica win-win, che hanno permesso da una parte a Elmec di capire le esigenze, ricevendo feedback in tempo reale, e dall’altra ai clienti stessi di ottenere in tempi rapidi uno strumento pronto per l’uso.

Compuware migliora la gestione multipiattaforma con il machine learning

Compuware ha reso disponibili i nuovi analytics di zAdviser, che consentono ai team di sviluppo e delivery delle applicazioni di prendere decisioni basate sui dati che migliorano la qualità, la velocità e l’efficienza del software mainframe, così come i miglioramenti di Ispw e l’integrazione con Git che modernizzano le pipeline del codice mainframe.

Analytics avanzati

Gli analytics avanzati derivano dall’utilizzo di Ispw, la principale soluzione mainframe di Continuous Integration/Continuous Delivery (Ci/Cd) insieme a zAdviser, un servizio gratuito per i clienti Compuware che fa leva sul machine learning per migliorare continuamente lo sviluppo del software mainframe e i risultati di delivery. I clienti possono ora unire i loro dati di utilizzo Ispw con i Kpi di software delivery da zAdviser per capire come lavorano i loro team e dove impiegare in modo più efficace le risorse future.

Attraverso le dashboard di zAdviser, i team possono visualizzare i vincoli nel cambiare il codice sorgente e concentrare i loro sforzi di sviluppo per soddisfare meglio le esigenze aziendali e dei clienti

Con zAdviser inoltre, i clienti Ispw possono ora identificare il codice che contribuisce al debito tecnico e determinare azioni immediate e ottimali, come rivitalizzare e rifattorizzare il codice mainframe essenziale sulla piattaforma o eliminare il codice obsoleto. Questo gli consente di iniziare a fare piccoli passi che aumentano la fiducia e portano a grandi miglioramenti in termini di qualità, velocità ed efficienza.

Ispw assicura poi che le pipeline del codice mainframe dei clienti siano sicure, stabili e snelle durante tutto il ciclo di vita DevOps. Attraverso una funzionalità di Promotion Analysis ampliata, Ispw identifica automaticamente le dipendenze in maniera tale che un numero elevato di componenti possa essere distribuito in modo sicuro.

Per esempio, se viene modificato un copybook, tutti i programmi correlati che sono stati compilati e che sono pronti per essere promossi possono essere verificati prima della distribuzione. I team di sviluppo possono accorgersi di componenti che erano stati trascurati e di altri problemi che si verificano nelle fasi iniziali del ciclo di vita, aiutandoli ad evitare problemi a valle nel processo Ci/Cd. In definitiva, questo accelera la velocità di build e deploy del codice sul mainframe e nel lavoro multipiattaforma.

L’approccio DevOps “open borders” di Compuware consente ai clienti anche di integrare gli strumenti basati su mainframe in una toolchain DevOps multi-vendor e multipiattaforma. In linea con questo approccio, Compuware ha ampliato l’integrazione di Ispw e Git, il software per il controllo delle versioni per molti team di sviluppo distribuito.

Lavorare con sicurezza con il codice sorgente

L’integrazione aiuta gli sviluppatori con poca esperienza sul mainframe a lavorare con sicurezza con il codice sorgente. Le modifiche in Git adesso sono automaticamente sincronizzate nel mainframe in cui le funzionalità di build, deployment e fallback di Ispw possono essere sfruttate in una pipeline Ci/Cd. Utilizzando metodi coerenti per tutto il codice su tutte le piattaforme, i clienti otterranno una visibilità costante nelle loro diverse codebase e faciliteranno il processo di gestione del codice ovunque all’interno dell’azienda.

Infine, Compuware offre ora un servizio end-to-end personalizzato che sfrutta gli specialisti Ispw esperti e best practice comprovate per supportare Ispw.

Terzo settore, Gestione Associazione 4.0 è conforme al GDPR

1

Per gestire gli enti del terzo settore c’è il software Gestione Associazione 4.0. Il programma gestionale, pensato espressamente per il mondo dell’associazionismo, si propone come soluzione software completa per la gestione dei dati di un’associazione. In questo senso, è in grado di rispondere alle esigenze di qualunque tipo di associazione e organizzazione no profit, tra cui associazioni culturali, albi, ordini professionali, circoli, Enti del Terzo Settore, enti filantropici (associazioni o fondazioni), Onlus, associazioni di volontariato, associazioni sportive,  e così via.

Consente l’archiviazione e la ricerca dei dati dei soci e dei relativi pagamenti, nonché della prima nota per la registrazione dei movimenti contabili. Permette, inoltre, la stampa delle domande di adesione (conformi al Gdpr), delle tessere, delle ricevute di pagamento e di schede e tabelle riepilogative. Inoltre, consente la ricerca dei dati di soci, pagamenti e movimenti contabili a partire da qualunque campo.

Grazie a Gestione Associazione 4.0 sarà possibile risalire in ogni istante ai soci a partire da qualsiasi campo (per esempio dal numero di tessera), nonché di tenere sotto controllo i totali degli importi dei pagamenti ricevuti, oltre che consentire la gestione della prima nota. In qualsiasi momento sarà possibile estrapolare gli elenchi dei soci la cui iscrizione è in scadenza, per contattarli e sollecitare il pagamento per il rinnovo.

Contestualmente a un pagamento sarà possibile modificare la data di scadenza della tessera del socio. Il programma consente poi la stampa dei moduli di adesione, delle tessere dei soci e delle ricevute di pagamenti.

La reportistica permette di visualizzare, stampare ed esportare dati relativi all’albo dei soci, ai soci in scadenza ed ai pagamenti ricevuti, con statistiche mensili e report per mese e per anno.

Oltre al shareware, tre versioni con più funzioni

Il software, distribuito come shareware, può essere scaricato gratuitamente dal sito e consente di gestire al massimo cinque soci e dieci movimenti contabili, per una valutazione completa delle funzionalità prima di procedere alla registrazione. Per gestire un numero illimitato di soci è possibile registrare il software, in una delle tre versioni disponibili: Light, Standard e Professional.

La versione Light ha un costo di registrazione di 59 euro e permette la gestione dell’albo dei soci, senza limiti di tempo o di numero di soci gestiti. Non consente l’accesso alle funzionalità di gestione dei pagamenti e della prima nota.

La versione Standard ha un costo di registrazione di 79 euro e consente la gestione dell’albo dei soci e dei pagamenti, senza limiti di tempo né di numero di soci o di pagamenti gestiti. Non permette però l’accesso alla funzionalità di gestione della prima nota.

La versione Professional ha un costo di registrazione di 99 euro e consente la gestione dell’albo dei soci, dei pagamenti e della prima nota, senza limiti di tempo né di numero di soci, di pagamenti o di movimenti contabili gestiti. È la versione più completa e abilita l’accesso a tutte le funzionalità del programma.

Una volta registrato il software, sarà possibile utilizzarlo senza limiti di tempo nella versione scelta. I dati del programma sono memorizzati direttamente sul PC dell’utente e nessuna informazione viene condivisa in rete: l’utente avrà controllo completo dell’archivio e non avrà necessità di connettersi ad Internet per lavorare.

Data Literacy Project, online il nuovo forum per condividere idee

Data Literacy Project, la community nata con lo scopo di rendere la società più familiare con i dati, ha ora un nuovo forum ufficiale. Al suo interno individui e organizzazioni possono interagire con leader e influencer del settore per condividere idee in grado di alimentare l’alfabetizzazione dei dati.

La Data Literacy consente a tutti di fare domande sui dati, prendere decisioni e comunicare le proprie idee agli altri. Il Data Literacy Project, promosso dai soci fondatori Qlik, Accenture, Cognizant, Experian, Pluralsight, Chartered Institute of Marketing e Data to the People nell’ottobre 2018, mira a creare una società in grado di dialogare con i dati e pone l’alfabetizzazione al centro del successo individuale e organizzativo.

L’afabetizzazione dei dati

Questo forum ufficiale della community sarà l’epicentro della conversazione sull’alfabetizzazione dei dati, in cui le persone possono trovare risposte alle proprie domande, avviare discussioni su argomenti rilevanti, condividere suggerimenti e idee, e fornire il proprio supporto agli altri partecipanti, in direzione di un mondo guidato dai dati.

Recentemente è stato annunciato l’Advisory Board del Data Literacy Project, formato da esperti rilevanti del settore: Jordan Morrow, Qlik; Paul Malyon, Experian; Jane Crofts, Data To The People; Rahul Bhargava, MIT; Meri Rosich, VISA; Chantilly Jaggernauth, Millennials e Data; Ben Jones, Data Literacy, LLC; Alan Schwarz, DataPhi Communications, LLC.

Questi leader di pensiero saranno anche attivi sul forum per fornire consulenze strategiche a sostegno dei tre impegni del Progetto di Data Literacy: ispirare le principali aziende a livello globale per rendere l’alfabetizzazione dei dati un imperativo, creare il più accessibile e completo ecosistema globale di risorse educative a favore dell’alfabetizzazione dei dati e potenziare le istituzioni educative a livello internazionale per inserire l’alfabetizzazione dei dati nel curriculum scolastico.

Trentino Sviluppo, nuovo bando a sostegno di startup e Pmi

Trentino Sviluppo ha indetto un nuovo bando di sostegno alle startup e piccole-medie imprese innovative che fa leva sul principio del “matching fund”. Le imprese in fase di sviluppo che sceglieranno il territorio provinciale quale sede legale e/o operativa, rimanendovi per almeno cinque anni, potranno infatti contare su un sostegno economico da parte della società di sistema della Provincia autonoma di Trento pari a quello che riceveranno da imprenditori, centri di ricerca privati, business angel.

I settori interessati

Fondamentale, per attivare la leva del sostegno pubblico, è quindi che le aziende siano accompagnate da un investitore privato “terzo” che le sostenga con una quota di investimento tra i 25 mila e i 200 mila euro.

I settori interessati sono il green e lo sport-tech, la meccatronica, l’agritech e la qualità della vita, ovvero le “smart specialisation” individuate dalla Provincia autonoma di Trento come traiettorie strategiche di sviluppo. Sulla misura è stato stanziato per il 2019 un budget pari a 700 mila euro.

La modalità è quella del «pari passu». Ovvero, Trentino Sviluppo si impegna a un finanziamento pari a quello che saranno in grado di raccogliere da soggetti terzi del mondo privato le singole startup e Pmi innovative, costituite come società di capitali da almeno un anno, che non hanno ancora distribuito utili e non siano frutto di scissione o di cessione di ramo d’azienda.

Sono considerati soggetti terzi le società di capitali e/o i fondi di investimento, le società di capitali (veicoli di investimenti) controllate da soggetti privati appartenenti al Club Trentino Investitori, gli investitori professionali (Sgr, banche), ma anche “Business Angel” e centri di ricerca, purché di natura privata, anche costituti in forma di società consortili.

I soggetti finanziatori privati dovranno risultare indipendenti rispetto alla società richiedente. Saranno ammessi esclusivamente apporti di capitale in denaro.

La procedura

I criteri di valutazione delle domande prenderanno in considerazioni i curriculum vitae, lo stadio di sviluppo dei prodotti e servizi offerti, il grado di innovazione, gli scenari di sviluppo, il know-how dei richiedenti, la validità del business model.

La procedura prevede un’istruttoria formale di conformità, una valutazione di merito e una seconda istruttoria da parte di un Comitato di esperti.

Le candidature dovranno pervenire via posta raccomandata o con consegna a mano, entro il 13 settembre 2019, a Trentino Sviluppo in via Zeni, 8 a Rovereto, dal lunedì al venerdì dalle ore 9.00 alle ore 12.30 o dalle ore 14.30 alle 17.00.

Vem Sistemi: gli elementi da considerare nel passaggio al cloud

L’approccio più diffuso, i vantaggi, le difficolta, l’ibrido e il rapporto con Iot e Ai spiegati da Marco Bubani, direttore innovazione di Vem Sistemi.

Il mercato del cloud oggi non è più una nicchia ristretta, ma un mercato consolidato che ha raggiunto ormai una dimensione rilevante come dimostrano le stime dell’Osservatorio Cloud Transformation: nel 2018 il mercato Cloud italiano ha toccato quota 2,34 miliardi di euro, in crescita del 19% rispetto all’anno precedente (1,97 miliardi). Ma, quali sono i principali vantaggi del cloud? Ne ha parlato Marco Bubani, Direttore Innovazione Vem Sistemi, system integrator italiano.

Il cloud è un fantastico abilitatore digitale – sostiene il manager di Vem Sistemi –. Da molti viene definito ‘la cassetta degli attrezzi dell’innovazione’ ed è una definizione che personalmente condivido. La velocità con cui i cloud provider rendono disponibili nuovi servizi e tecnologie o aggiornano quelli esistenti è ormai elevatissima e sta ulteriormente accelerando. È possibile scegliere fra servizi di basso livello con i quali costruire soluzioni proprie oppure applicazioni complete fruibili come prodotto finito o come ‘servizio’ come avviene per l’erogazione della corrente elettrica, dell’acqua o del gas”.

Secondo Bubani, i vantaggi che derivano dall’impiego del cloud sono molteplici. Fra i più evidenti cita la rapidità con cui è possibile accedere a servizi e applicazioni che prima necessitavano di pianificazione, l’approvvigionamento di hardware e software infrastrutturali e la scalabilità con la quale il cloud è in grado di seguire la crescita o il ridimensionamento dell’azienda e la possibilità di erogare servizi worldwide per chi ha organizzazioni diffuse in tutto il mondo come le grandi reti di negozi o le società multinazionali.

Marco Bubani
Marco Bubani, direttore innovazione di Vem Sistemi

Tuttavia l’utilizzo del cloud implica particolari punti di attenzione e un cambio di approccio – prosegue Bubani –. Sicurezza e Gdpr vanno attentamente considerati quando si valuta il passaggio verso il cloud. I big provider, hanno tutti datacenter localizzati in UE e forniscono garanzie di sicurezza e affidabilità esemplari. Tuttavia, ciò potrebbe non essere sufficiente a garantire il trattamento dei dati nel totale rispetto dei provvedimenti. Anche la parte contrattuale non è da trascurare, tenuto conto che le dimensioni dei colossi digitali non favoriscono grande apertura nella negoziazione delle clausole che regolamentano il rapporto fra le parti”.
Il cambio di approccio dalla logica di costi certi, fatti a investimento, a una logica di costi a consumo può essere una barriera. In quanto è raro che un’organizzazione lavori esclusivamente in cloud: le soluzioni sono quasi sempre ibride con una parte di servizi digitali in casa e una parte in cloud. “Questo è l’approccio più diffuso – aggiunge Bubani – e che richiede un’elevata capacità di integrazione fra due mondi complessi”.

È importante prendere in considerazione – afferma il direttore innovazione di Vem Sistemi – il lock-in che alcuni servizi proprietari generano: se si vuole mantenere un certo grado di libertà dal cloud provider è un aspetto da non sottovalutare. Le aziende, pur comprendendo i punti di attenzione e il cambio di approccio necessario ad affrontare questo nuovo paradigma, non sono più disposte a rinunciare ai vantaggi che il cloud offre. Una larghissima percentuale di Cio europei ha dichiarato recentemente a Gartner una diminuzione degli investimenti in datacenter locali e un conseguente aumento di risorse investite in servizi cloud. Le nuove generazioni di Cio sono sicuramente più culturalmente propense a consumare It in cloud”.

Inoltre, in base all’esperienza di Vem Sistemi – continua Bubani – capita sempre più spesso di trovare affermazioni come ‘cloud first’ nelle richieste di progetto delle aziende, che prima di fare un investimento IT valutano l’opzione cloud. D’altro canto, chi ha già fatto la scelta di avere una parte del sistema informativo in cloud, si aspetta tutti i servizi a corredo anche in quell’ambiente (sicurezza, backup, monitoraggio, controllo solo per citarne alcuni)”.

La scelta del cloud provider: aspetti di cui tenere conto

Scegliendo un Cloud provider – sostiene Bubani – gli aspetti di cui tener conto sono davvero tanti e variano a seconda del servizio che si sta considerando. Se si parla di “big digital”, ognuno ha le sue peculiarità ed è più forte su alcuni aspetti rispetto ad altri. Per esempio, c’è chi ha servizi di analisi dei dati più sviluppati e chi ha integrazioni con sistemi tradizionali più spinti di altri. In generale, il consiglio è di affidarsi a un Cloud System Integrator in grado di accompagnare l’azienda nel suo personale percorso verso il cloud. Inoltre, sono da analizzare anche il livello di affidabilità del provider, la gestione degli aspetti legati alla sicurezza e i servizi messi a disposizione. Ormai tutti i principali provider offrono servizi di sicurezza, riservatezza e tutela del dato tecnicamente molto avanzati e certificati da innumerevoli analisti internazionali (servizi di crittografia, segregazione, monitoraggio degli accessi, autenticazioni a più fattori etc.). Più complesso invece è garantire il rispetto delle normative legate a policy comportamentali che sono slegate dalla mera componente tecnologica”.

Il cloud ibrido

Per la distribuzione delle risorse cloud sono disponibili diverse opzioni, per esempio il cloud pubblico, privato e ibrido. Tutti e tre gli scenari offrono vantaggi simili in termini per esempio di prestazioni, affidabilità e scalabilità, ma il metodo di distribuzione scelto dipende dalle esigenze aziendali. “È sempre più diffusa – spiega Bubani – la necessità di spostare carichi di lavoro in cloud mantenendone una parte in casa, oppure di lavorare in senso opposto: ovvero, sviluppare servizi molto rapidamente sfruttando i vantaggi e le tecnologie del cloud per poi riportarli in locale per motivi di latenza del dato, per esempio. Inoltre, sta anche aumentando la necessità di lavorare in modalità multi-cloud, sfruttando il meglio di ogni cloud provider. Non credo esista una reale alternativa al cloud ibrido: i cloud ibridi combinano l’infrastruttura locale, o cloud privati, con i cloud pubblici, in modo da consentire alle organizzazioni di sfruttare i vantaggi di tutte le piattaforme che devono integrarsi e convivere. È per esempio possibile usare il cloud pubblico per la posta elettronica basata sul Web e il cloud privato o un’altra infrastruttura locale per operazioni con dati aziendali sensibili, come quelle finanziarie. Il cloud ibrido offre così alle aziende più flessibilità e possibilità di sviluppo attraverso una gestione dinamica”.

Cloud, IoT e AI

L’unione ideale tra Iot e Intelligenza Artificiale non è possibile senza una piattaforma e un’architettura abilitanti. L’Ai ha bisogno dell’IoT per ottenere le enormi quantità di dati che le occorrono per generare previsioni utili e di valore. “L’Iot, che genera un’enorme mole di dati – conclude Bubani – ha bisogno dell’Ai per estrarne il valore. Il cloud è l’ambiente ideale dove i due si incontrano: possibilità di sfruttare algoritmi di Ai allo stato dell’arte, scalabilità infinita per la gestione dei dati, servizi di connessione fra il mondo fisico e quello virtuale e logico. Un modello da perseguire non nel lungo periodo, ma ora per essere competitivi”.

Il salto di qualità IT di Stevanato Group con HPE

Già una quindicina di anni fa Stevanato Group si era posta l’obiettivo di lavorare nella direzione di una business continuity reale. In questo senso, l’azienda, che ha sede in provincia di Padova e da oltre 70 anni si occupa del packaging primario in vetro e delle tecnologie di lavorazione del vetro, nel 2006 ha scelto di utilizzare HPE BladeSystem per l’infrastruttura server e HPE 3PAR per lo storage.

Ma è con la recente introduzione di 4 frame HPE Synergy attestati su 2 storage HPE 3PAR in tecnologia All Flash (uno per ciascun data center, per un totale di 40 lame di calcolo), che l’azienda ha realizzato il vero salto di qualità.

Controllo centralizzato

In previsione delle future trasformazioni digitali delle sue applicazioni, proprio la duttilità e la versatilità di Synergy hanno conquistato l’interesse di Stevanato Group, che nello storage All Flash 3PAR ha, poi, identificato la piattaforma dati ideale per supportare le evoluzioni in atto.

Oggi, l’intera infrastruttura messa a punto in Italia lavora a supporto di tutti e 14 gli impianti produttivi sparsi nel mondo, indipendentemente dalla loro collocazione geografica, realizzando i desiderata aziendali di una IT gestita, ma soprattutto erogata, in maniera centralizzata.

Inoltre, la scelta di supportare la crescita attraverso le architetture HPE ha anche permesso a Stevanato Group di ridurre i costi di gestione dell’IT, grazie alla possibilità di fare affidamento su un’infrastruttura solida.

Stevanato Group HPEUna maggiore potenza di calcolo

Da qui la scelta di utilizzare la piattaforma Synergy come base per l’architettura dei sistemi informativi del futuro di Stevanato che, per i suoi processi di trasformazione, lavora da sempre per garantire condizioni di alta affidabilità e performance all’intero impianto informativo.

Un’esigenza, quest’ultima, ancora più sentita ora che la collaborazione di Stevanato con alcune startup, l’Università Ca’ Foscari di Venezia e l’Università degli Studi di Padova, sta portando alla realizzazione di applicazioni che necessitano di sistemi capaci di un’elaborazione estremamente avanzata.

Intelligenza artificiale e formazione fondamentali per i dipendenti italiani

L’84% dei dipendenti italiani ritiene che l’Intelligenza Artificiale (IA) avrà un impatto sullo svolgimento del proprio lavoro nel prossimo futuro. E addirittura il 69% ritiene che se l’Intelligenza artificiale o l’automazione venissero introdotte all’interno della propria azienda avrebbero un impatto positivo sulle attività quotidiane, fornendo un aiuto per portare a termine i propri compiti in modo più efficiente.

Questi sono alcuni dei risultati emersi dal report Tech Skills 2019 realizzato da Docebo, azienda attiva nel settore delle piattaforme eLearning basate su IA. L’azienda ha effettuato il sondaggio in Italia intervistando 400 impiegati adulti (uomini e donne).

In generale, vi è una visione ben definita di quantol’Intelligenza artificiale sia in grado di migliorare significativamente lo svolgimento delle attività. Con la continua introduzione di nuove tecnologie da parte delle aziende, il mondo del lavoro è sempre più dipendente dall’utilizzo della tecnologia e l’IA viene vista come un’opportunità e come uno strumento utile, la cui applicazione porterebbe senza dubbio dei benefici.

Per quanto concerne il tema della formazione, il 30% ha risposto di necessitare di formazione per tecnologie che non utilizza in azienda e il 20% ha addirittura affermato che il datore di lavoro non offre formazione tecnica.

Maggiore formazione sulle nuove tecnologie

Un altro dato significativo è riscontrabile in un 10% degli intervistati che teme di poter perdere il lavoro da un momento all’altro e in un 14% che riscontra mancanza di opportunità di apprendimento.

Il 57%, se dovesse scegliere, vorrebbe maggiore formazione nell’utilizzo delle nuove tecnologie come l’Intelligenza artificiale piuttosto che migliorare le competenze trasversali cosiddette “soft skills”. E ancora il 57% vorrebbe ricevere maggiore formazione nell’analisi dei dati, nel coding e nell’uso del software.

Se il 54% degli intervistati afferma che il datore di lavoro ha introdotto una nuova tecnologia o un processo basato sulla tecnologia per quanto concerne il proprio lavoro, il 40% afferma il contrario.

Sempre in tema di formazione è interessante notare come il 38% affermi di aver ricevuto formazione ma di averne bisogno in quantità maggiore e quasi il 7% di non aver mai ricevuto una formazione adeguata.

C’è quindi un grande interesse verso la formazione legata alle nuove tecnologie perché sia l’individuo sia le aziende si rendono conto sempre più di quanto questa abiliti e renda più efficienti. Questo pensiero viene rafforzato dal 52% degli intervistati che, in termini di competenze, vorrebbe ricevere maggiore formazione nell’utilizzo di nuove tecnologie/software per portare a termine un’attività o migliorarne l’efficienza.

css.php