Home Autori Articoli di Donato Corvi

Donato Corvi

4929 ARTICOLI 5 COMMENTI

Disney e OpenAI: accordo storico su Sora per l’AI generativa nel video

The Walt Disney Company e OpenAI hanno raggiunto un accordo strategico che segna una svolta nel rapporto tra intelligenza artificiale generativa e industria dell’intrattenimento. Disney diventa il primo grande partner di licensing dei contenuti per Sora, la piattaforma di OpenAI dedicata alla generazione di video brevi, aprendo la strada a nuove forme di storytelling che mettono direttamente i fan al centro del processo creativo.

L’intesa ha una durata triennale e mira a coniugare l’innovazione tecnologica con la tutela della creatività, dei diritti degli autori e della sicurezza degli utenti, in un momento in cui l’AI sta ridefinendo profondamente i modelli di produzione e fruizione dei contenuti digitali.

Sora e i personaggi Disney: creatività guidata dai fan

Grazie all’accordo di licensing, Sora potrà generare video social di breve durata a partire da prompt forniti dagli utenti, utilizzando un insieme selezionato di oltre 200 personaggi appartenenti agli universi Disney, Marvel, Pixar e Star Wars. I fan potranno creare e condividere contenuti ispirati a personaggi iconici, ambientazioni, costumi, oggetti di scena e veicoli, senza includere sembianze o voci di talent reali.

L’iniziativa non si limita alla creazione individuale. Una selezione curata di questi video generati con Sora sarà resa disponibile in streaming su Disney+, trasformando i contenuti fan-inspired in una nuova estensione dell’esperienza della piattaforma.

ChatGPT Images e la generazione visiva dai grandi universi narrativi

Accanto ai video, l’accordo prevede anche l’utilizzo di ChatGPT Images, che permetterà agli utenti di generare immagini complete partendo da poche parole, attingendo allo stesso patrimonio di proprietà intellettuale. Anche in questo caso, l’uso è limitato ai personaggi e agli elementi narrativi concessi in licenza, escludendo esplicitamente voci e likeness di persone reali.

Si tratta di un’estensione significativa delle capacità creative offerte dall’AI generativa, che consente ai fan di interagire con mondi narrativi consolidati in modo più diretto e personalizzato, pur all’interno di confini chiari e regolamentati.

Disney cliente strategico di OpenAI

Oltre al licensing dei contenuti, Disney diventa uno dei principali clienti di OpenAI. Il gruppo utilizzerà le API di OpenAI per sviluppare nuovi prodotti, strumenti ed esperienze, anche a supporto di Disney+. Parallelamente, ChatGPT verrà distribuito ai dipendenti Disney come strumento di lavoro, a supporto delle attività interne e dei processi creativi e operativi.

Questo aspetto dell’accordo sottolinea come l’intesa non sia limitata alla sperimentazione creativa, ma coinvolga anche l’adozione strutturale dell’AI all’interno dell’organizzazione.

Investimento da un miliardo di dollari e visione di lungo periodo

L’accordo prevede anche un investimento finanziario rilevante. Disney effettuerà un investimento in equity da 1 miliardo di dollari in OpenAI e riceverà warrant per l’acquisto di ulteriori quote. Una mossa che rafforza il legame strategico tra le due aziende e segnala una visione di lungo periodo sul ruolo dell’AI generativa nell’evoluzione dell’intrattenimento.

La transazione resta soggetta alla definizione degli accordi definitivi, alle necessarie approvazioni societarie e alle consuete condizioni di chiusura.

AI responsabile e tutela dei creatori

Un punto centrale dell’intesa è l’impegno condiviso sul fronte dell’uso responsabile dell’intelligenza artificiale. Disney e OpenAI hanno ribadito la volontà di adottare un approccio human-centered, che protegga la sicurezza degli utenti, rispetti i diritti dei creatori e prevenga la generazione di contenuti illegali o dannosi.

L’accordo include misure specifiche su trust e safety, politiche adeguate all’età degli utenti, controlli per evitare abusi e meccanismi per garantire il rispetto dei diritti dei titolari dei contenuti, oltre alla tutela delle persone rispetto all’uso della propria voce e immagine.

Le dichiarazioni dei vertici di Walt Disney e OpenAI

“L’innovazione tecnologica ha sempre modellato l’evoluzione dell’intrattenimento, creando nuovi modi per raccontare e condividere grandi storie”, ha dichiarato Robert A. Iger, CEO di The Walt Disney Company. “L’avanzamento rapido dell’intelligenza artificiale rappresenta un momento cruciale per il nostro settore e, attraverso questa collaborazione con OpenAI, estenderemo in modo ponderato e responsabile la portata del nostro storytelling, rispettando e proteggendo i creatori e le loro opere.”

Dal lato OpenAI, Sam Altman ha sottolineato il valore simbolico e industriale dell’accordo. “Disney è il punto di riferimento globale per lo storytelling. Questa partnership mostra come le aziende dell’AI e i leader creativi possano collaborare in modo responsabile, promuovendo innovazione, rispettando la creatività e aiutando le opere a raggiungere nuovi pubblici.”

Verso nuove esperienze su Disney+

Nel quadro dell’accordo, OpenAI e Disney collaboreranno per utilizzare i modelli di OpenAI nello sviluppo di nuove esperienze dedicate agli abbonati Disney+, ampliando le modalità con cui il pubblico può interagire con storie e personaggi iconici.

La generazione dei primi video fan-inspired con Sora e ChatGPT Images, basati sui personaggi concessi in licenza, è prevista per l’inizio del 2026, segnando l’avvio concreto di una nuova fase per l’AI generativa applicata all’intrattenimento.

AI generativa in banca: si espande l’accordo tra BBVA e OpenAI

La collaborazione tra OpenAI e BBVA entra in una nuova fase, con un ampliamento che punta a integrare in modo strutturale l’intelligenza artificiale nei processi chiave del gruppo bancario. L’obiettivo non è sperimentare soluzioni isolate, ma rendere l’AI uno strumento operativo quotidiano per migliorare efficienza, qualità del servizio e capacità decisionale, mantenendo al centro sicurezza, governance e responsabilità.

L’iniziativa si inserisce in una strategia più ampia di BBVA, che da anni investe nella digitalizzazione come leva competitiva, e conferma il ruolo dell’AI generativa come tecnologia abilitante per il settore finanziario, ormai matura per un’adozione su larga scala.

OpenAI e BBVA: dalla sperimentazione all’adozione diffusa dell’AI generativa

L’estensione della collaborazione segna il passaggio da una fase di test controllati a un modello di utilizzo più esteso e trasversale. L’AI viene integrata negli strumenti interni utilizzati dai dipendenti, con l’obiettivo di supportare attività come l’analisi dei dati, la redazione di documentazione, il supporto alle decisioni e la gestione delle interazioni con i clienti.

In questo contesto, i modelli di OpenAI diventano una componente della piattaforma tecnologica di BBVA, adattati alle esigenze specifiche del settore bancario. Non si tratta di soluzioni “general purpose”, ma di applicazioni contestualizzate, addestrate e governate secondo policy interne rigorose.

Efficienza operativa e qualità del servizio al centro della strategia

Uno dei pilastri della collaborazione riguarda il miglioramento dell’efficienza operativa. L’AI generativa consente di ridurre il tempo necessario per svolgere attività ripetitive o a basso valore aggiunto, liberando risorse che possono essere dedicate a funzioni più strategiche.

Allo stesso tempo, l’adozione dell’AI ha un impatto diretto sulla qualità del servizio al cliente. L’uso di strumenti intelligenti permette di fornire risposte più rapide, coerenti e personalizzate, migliorando l’esperienza complessiva senza rinunciare al controllo umano nei processi più sensibili.

Sicurezza, governance e controllo dei dati

Nel settore bancario, l’adozione dell’intelligenza artificiale è inseparabile dal tema della sicurezza. La collaborazione tra OpenAI e BBVA è strutturata per garantire che i dati utilizzati restino sotto il pieno controllo dell’istituto finanziario e non vengano impiegati per l’addestramento dei modelli al di fuori degli ambiti concordati.

La governance dell’AI è un elemento centrale del progetto. BBVA definisce regole chiare sull’utilizzo dei modelli, sui casi d’uso consentiti e sui meccanismi di supervisione, in linea con i requisiti normativi e con le aspettative di clienti e autorità di vigilanza.

Un modello di collaborazione per il settore finanziario

L’espansione dell’accordo rappresenta anche un caso di riferimento per l’intero settore finanziario. Dimostra come l’AI generativa possa essere adottata in contesti altamente regolamentati senza compromettere sicurezza, conformità e affidabilità.

“L’intelligenza artificiale deve essere uno strumento che rafforza la fiducia, non che la mette in discussione”, è il principio che guida l’approccio di BBVA, e che trova nella collaborazione con OpenAI un supporto tecnologico e metodologico.

L’AI come leva strategica di lungo periodo

Più che un progetto tecnologico, l’iniziativa va letta come una scelta strategica di lungo periodo. L’integrazione dell’AI nei processi bancari apre la strada a nuovi modelli operativi, a una maggiore capacità di adattamento e a una relazione più evoluta con i clienti.

Per OpenAI, la collaborazione con BBVA rappresenta un esempio concreto di applicazione dell’AI generativa in ambito enterprise, mentre per la banca è un passo ulteriore verso un modello di istituto data-driven, in cui l’intelligenza artificiale diventa parte integrante del modo di lavorare e di creare valore.

Akamai: nel 2026 il web cambia forma tra intelligenza artificiale, sicurezza e nuove sfide per la fiducia digitale

Il web sta entrando in una fase di trasformazione strutturale. Secondo Akamai, nel 2026 l’intelligenza artificiale non sarà più un semplice supporto all’esperienza digitale, ma il motore centrale dell’ecosistema online, capace di ridefinire il modo in cui utenti e aziende interagiscono, scoprono informazioni e costruiscono fiducia.

Il cambiamento non riguarda la fine di internet, ma la sua evoluzione. Il modello storico basato su pagine, link e navigazione sequenziale sta progressivamente lasciando spazio a sistemi AI in grado di comprendere il contesto, anticipare i bisogni e agire per conto degli utenti. Come già avvenuto con l’era dot-com, si apre una nuova fase economica, fondata non più solo sulla presenza online, ma sulla progettazione, gestione e sicurezza di sistemi intelligenti.

Akamai, dalla ricerca ai sistemi AI-first: come cambia l’accesso alle informazioni

Uno degli ambiti destinati a cambiare più rapidamente è la ricerca online. Il tradizionale paradigma “cerca e clicca” viene messo in discussione da interfacce conversazionali AI-first, pensate per diventare la nuova porta d’ingresso al web. In questo scenario, l’utente non naviga più tra risultati e collegamenti, ma dialoga con sistemi capaci di sintetizzare informazioni, prendere decisioni e suggerire azioni.

Per le aziende, questo significa un cambio radicale delle logiche di visibilità. Non sarà più sufficiente ottimizzare i contenuti per i motori di ricerca tradizionali: diventerà centrale essere riconosciuti come fonti affidabili dagli ecosistemi di intelligenza artificiale che mediano l’accesso alle informazioni. Anche il paid placement è destinato a evolvere, trovando spazio direttamente all’interno delle risposte generate dall’AI.

AI enterprise: dalla sperimentazione alla maturità operativa

Sul fronte enterprise, il 2025 ha rappresentato un momento di disillusione. Molti progetti di intelligenza artificiale hanno prodotto risultati limitati, generando grandi volumi di workslop e mostrando i limiti di approcci troppo generalisti. Secondo Akamai, il 2026 segnerà un passaggio verso una maggiore maturità, con l’adozione di modelli linguistici specializzati e soluzioni AI integrate in strumenti verticali, progettati per rispondere a esigenze concrete di business.

Da questa evoluzione emergerà anche un nuovo divario competitivo. Le organizzazioni capaci di accumulare valore reale grazie all’AI consolideranno il proprio vantaggio, mentre altre rischieranno di trovarsi a gestire un crescente debito da intelligenza artificiale, fatto di complessità, costi e risultati non allineati agli obiettivi.

Sicurezza e fiducia digitale sotto pressione, afferma Akamai

La fiducia digitale sarà uno dei temi più critici del 2026. L’evoluzione delle minacce informatiche metterà ulteriormente sotto stress utenti e organizzazioni. Tra i fenomeni più rilevanti emergono i deepfake video in tempo reale, sempre più convincenti e difficili da distinguere dal reale, capaci di colpire non solo i consumatori ma anche le aziende.

Parallelamente, i cybercriminali inizieranno a sfruttare l’intelligenza artificiale per automatizzare attacchi sofisticati su larga scala, prendendo di mira infrastrutture critiche e organizzazioni di grandi dimensioni. A tutto questo si aggiunge la crescente fragilità delle infrastrutture digitali globali, sempre più centrali per l’economia e la società, ma anche più esposte a guasti, interruzioni e attacchi mirati.

Architetture AI più piccole, specializzate e controllabili

In questo contesto, cambia anche l’architettura dell’intelligenza artificiale. I grandi modelli generalisti stanno progressivamente lasciando spazio a sistemi più piccoli, specializzati ed efficienti, meglio controllabili e più adatti ai contesti aziendali. Il futuro dell’AI non sarà una corsa alla dimensione dei modelli, ma alla loro capacità di generare valore reale in modo sicuro, affidabile e sostenibile.

“Stiamo entrando in una fase in cui l’intelligenza artificiale smette di essere una promessa e diventa una responsabilità”, ha commentato “nel 2026 vedremo chiaramente la differenza tra chi utilizza l’AI come leva strategica, integrandola in modo sicuro e consapevole nelle proprie infrastrutture, e chi invece ne subirà complessità e rischi. Il futuro del web sarà definito non solo dall’innovazione, ma dalla capacità di costruire fiducia in un mondo sempre più automatizzato”..

OVHcloud accelera su IA e quantum: tutti gli annunci dell’OVHcloud Summit 20

All’OVHcloud Summit, l’evento dedicato al futuro delle tecnologie cloud che riunisce oltre 2.000 partecipanti, OVHcloud annuncia le sue più recenti novità. Quattro annunci strategici rispondono alle nuove esigenze dell’IA e delle tecnologie quantistiche, progettati per permettere alle organizzazioni di sfruttare strategicamente queste evoluzioni. Tra queste emergono: una nuova soluzione per creare digital twin professionali, infrastrutture IA potenziate per l’inferenza, un programma pensato per accompagnare i software vendor in un percorso di trasformazione abilitato dalla IA agentica e il lancio della prima offerta Quantum-as-a-Service dell’azienda. Il Gruppo riafferma inoltre la propria ambizione di accelerare il proprio sviluppo a livello internazionale.

Tre grandi cambiamenti dirompenti che hanno recentemente stravolto convinzioni radicate: il risveglio politico dell’Europa rispetto alla sua dipendenza digitale, la determinazione delle imprese europee a riconquistare l’autonomia tecnologica e la rivoluzione portata dall’IA. Oggi tutti riconoscono che generare domanda è essenziale per favorire l’emergere di leader digitali. In questo contesto, voglio ribadire l’ambizione di OVHcloud: diventare un provider globale di cloud e IA capace di supportare l’intera economia e svolgere un ruolo sistemico”, afferma Octave Klaba, Presidente del Consiglio di Amministrazione e CEO.

Abilitare la creazione di digital twin professionali

La chat OmisimO AI di OVHcloud ora è alimentata dall’agente di coding SHAI. Gli sviluppatori possono così utilizzare un ambiente affidabile per costruire e orchestrare agenti IA capaci di eseguire compiti quotidiani, agendo di fatto come digital twin professionali.

Nuove infrastrutture IA  disponibili con SambaNova

Grazie a SambaNova, OVHcloud può distribuire nuovi acceleratori dedicati all’inferenza su larga scala (RDU), offrendo opzioni di calcolo ad altissima capacità sia per carichi a bassa latenza sia per elaborazioni batch. Queste soluzioni supportano casi d’uso che richiedono prestazioni affidabili per l’elevata parallelizzazione dei thread. Gli utenti potranno quindi eseguire agenti IA dalle prestazioni estremamente elevate.

Supporto ai software vendor con il programma “Get your SaaS ready for AI”

OVHcloud lancia un programma di collaborazione su larga scala rivolto ai vendor SaaS, per aiutarli a integrare la IA agentica nelle loro soluzioni. L’iniziativa comprenderà sessioni di formazione, condivisione del codice, hackathon e integrazione nel marketplace OmisimO di OVHcloud.

Implementazione della prima soluzione Quantum-as-a-Service per democratizzare le tecnologie quantistiche

 

Octave Klaba
Octave Klaba

OVHcloud, la cui gamma di emulatori quantistici è già utilizzata da oltre 1.000 utenti, ha lanciato la Quantum Platform, la prima offerta europea di Quantum-as-a-Service checonsente l’accesso all’Orion Beta QPU di Pasqal da 100 qubit ed entro la fine del 2027 integrerà altri otto sistemi, sette dei quali europei. Questa innovazione offre alle aziende un accesso semplificato ai computer quantistici e la capacità di affrontare le sfide tecnologiche di domani.

Il calcolo quantistico ridefinirà i confini economici grazie a una potenza di calcolo e simulazione senza precedenti. OVHcloud si posiziona in prima linea in queste innovazioni, coinvolgendo e trainando l’intero ecosistema”, aggiunge Octave Klaba.

Impegno e innovazione in chiave di ecosistema: l’approccio di OVHcloud alle nuove sfide

IA, innovazione cloud, sicurezza e sovranità, espansione internazionale ed esperienza cliente sono i temi centrali dell’edizione 2025 dell’OVHcloud Summit. Al contempo, il Gruppo rafforza il proprio impegno verso la crescita internazionale: dopo il lancio delle zone 3-AZ a Parigi e, più recentemente, a Milano con le soluzioni Public Cloud ora disponibili, OVHcloud annuncia l’apertura di una zona 3-AZ a Berlino per rispondere alle esigenze di resilienza dei clienti tedeschi.

Durante l’evento, il keynote, le sessioni tematiche e le testimonianze dei clienti saranno incentrati sull’analisi dei trend, sulla decodifica delle trasformazioni tecnologiche e sulla proposta di soluzioni concrete. Manager del Gruppo Bouygues, di LCH SA, di Bitdefender e CommerzReal condivideranno le loro prospettive sulle principali sfide attuali: sicurezza e resilienza del cloud, sovranità tecnologica ed economica e innovazione di nuova generazione. Le soluzioni presentate rafforzano ulteriormente la capacità di OVHcloud di rispondere alle priorità strategiche dei clienti.

Un approccio collettivo è essenziale per realizzare con successo progetti ambiziosi. Il nostro ecosistema riunisce digital starter e digital scaler, nonché istituzioni pubbliche e grandi aziende quotate, sia in Francia sia a livello internazionale. I nostri servizi e le nostre soluzioni li supportano e favoriscono la collaborazione che guida la trasformazione digitale della società”, conclude il CEO di OVHcloud.

 Consolidamento della presenza in Italia: dal datacenter alla zona 3-AZ di Milano

In questo contesto di espansione internazionale e novità tecnologiche all’avanguardia si inserisce l’apertura del datacenter italiano di OVHcloud, operativo da ottobre 2025 con VPS di ultima generazione, che rappresenta in tal modo il primo polo nel Sud Europa con disponibilità immediata di soluzioni VPS. Questa infrastruttura si configura come leva strategica per le imprese che intendono accelerare la crescita, garantire la conformità normativa e ottimizzare le performance dei propri servizi in Italia e in Europa. L’offerta assicura latenza ultra-ridotta per le applicazioni locali, con elevata disponibilità, hosting dei dati in territorio italiano in piena conformità con le normative europee, oltre a prestazioni elevate, resilienza e scalabilità.

E’ da poco entrata in piena operatività la zona 3-AZ di Milano, che garantisce resilienza, scalabilità e sicurezza potenziate per i carichi di lavoro enterprise. Con la zona 3-AZ di Milano  i clienti possono accedere alle soluzioni Public Cloud, beneficiando dell’intero stack tecnologico: Storage, Network, Managed Kubernetes Services e Managed Database sono ora disponibili, per rispondere alle esigenze più sofisticate del mercato.

Il modello 3-AZ è progettato per applicazioni critiche che richiedono alta disponibilità e massima resilienza. Ogni regione è composta da 3 Availability Zone indipendenti, con datacenter distanti tra loro alcune decine di chilometri, ciascuno dotato di alimentazione e connessioni di rete separate. Questo approccio garantisce bassa latenza, sicurezza elevate e continuità dei servizi.

Agentforce 360 for AWS: Salesforce punta su Bedrock per agenti AI affidabili

Salesforce compie un passo importante nel rafforzamento della propria strategia sull’intelligenza artificiale enterprise annunciando un’estensione strutturale della partnership con Amazon Web Services (AWS): al centro di questa collaborazione c’è Agentforce 360 for AWS, una nuova soluzione sviluppata congiuntamente che funzionerà interamente sull’infrastruttura globale e sicura di AWS, offrendo accesso diretto ai modelli fondativi disponibili tramite Amazon Bedrock. L’obiettivo è chiaro: rimuovere gli ostacoli che ancora frenano l’adozione dell’AI nelle grandi organizzazioni, in particolare su fiducia, governance e rapidità nel generare valore.

Agentforce 360 for AWS: un percorso guidato per l’adozione dell’AI nelle imprese

Agentforce 360 for AWS nasce per rispondere a una richiesta sempre più esplicita da parte delle aziende: disporre di agenti AI potenti, ma allo stesso tempo affidabili e coerenti con gli investimenti cloud già in essere. La soluzione sarà disponibile esclusivamente su AWS Marketplace a partire dai primi mesi del 2026 e punta a semplificare radicalmente il procurement dell’AI, grazie a un modello di acquisto e fatturazione integrato che consente di accelerare il ritorno sugli investimenti e di sfruttare incentivi clienti allineati.

“Le aziende che si affidano a Salesforce e AWS vogliono agenti AI potenti, affidabili e in linea con i loro investimenti nel cloud”, ha spiegato Brian Landsman, CEO di AppExchange ed EVP of Global Partnerships di Salesforce, sottolineando come Agentforce 360 for AWS integri guardrail di fiducia e un percorso di adozione semplificato attraverso AWS Marketplace.

Amazon Bedrock come motore di ragionamento di Agentforce 360 for AWS

Dal punto di vista tecnologico, Agentforce 360 for AWS utilizza Amazon Bedrock come motore di ragionamento della piattaforma Agentforce. Questo consente ai clienti di accedere direttamente a foundation model ad alte prestazioni, sviluppati da alcuni dei principali attori dell’intelligenza artificiale, e di impiegarli all’interno delle funzionalità di Prompt Builder. La disponibilità di modelli diversi permette alle imprese di scegliere l’approccio più adatto ai propri casi d’uso, mantenendo il controllo sul comportamento degli agenti e sulla qualità delle risposte.

“Unendo la varietà di modelli disponibili tramite Amazon Bedrock alla piattaforma affidabile di Salesforce, offriamo alle imprese la sicurezza, la flessibilità e la semplicità di procurement necessarie per accelerare le loro iniziative AI”, ha dichiarato Ruba Borno, VP of Global Specialists and Partners di AWS.

Trasparenza, auditabilità e settori regolamentati

Un elemento distintivo di Agentforce 360 è l’Atlas Reasoning Engine, progettato per garantire trasparenza nel modo in cui gli agenti ragionano, pianificano ed eseguono le azioni. Nella configurazione su AWS, questo motore può essere alimentato anche dai modelli Claude di Anthropic ospitati su Amazon Bedrock. La rilevanza di questa caratteristica emerge soprattutto nei settori altamente regolamentati, dove ogni azione dell’agente genera automaticamente una traccia di audit immutabile, a supporto dei requisiti normativi più stringenti.

Accanto a questo, Agentforce 360 Prompt Builder consente di portare all’interno dell’organizzazione un’AI generativa affidabile, basata su prompt accurati e contestualizzati sui dati del cliente. Il Prompt Builder mette a disposizione un ventaglio di modelli tra cui scegliere, inclusi alcuni modelli Claude e modelli Amazon come Nova Lite e Nova Pro, offrendo flessibilità senza compromettere il controllo.

Procurement unificato e controllo dei costi

La scelta di rendere Agentforce 360 disponibile su AWS Marketplace non è solo tecnica, ma anche strategica. Basandosi sul successo già registrato dalle soluzioni Salesforce su questo canale, l’acquisto tramite Marketplace consente ai clienti di consolidare gli investimenti in AI sull’intero stack tecnologico, accedere a incentivi di acquisto aggiuntivi e gestire le soluzioni Salesforce con una vista unificata sulle spese IT. A questo si aggiungono prezzi privati e fatturazione consolidata tramite AWS, che permettono di sfruttare budget già approvati e ridurre la complessità dei processi di procurement.

Sicurezza e governance al centro dell’architettura

Dal punto di vista della sicurezza, Agentforce 360 for AWS è progettato per operare interamente all’interno della Salesforce Trust Boundary. La soluzione è integrata nativamente nella Salesforce Platform tramite Hyperforce ed è protetta dall’Agentforce Trust Layer. Questa architettura enterprise crea un perimetro controllato in cui il traffico verso i modelli linguistici rimane all’interno del cloud privato AWS di Salesforce, evitando che i dati dei clienti vengano archiviati o utilizzati per l’addestramento da provider esterni.

L’intero workflow dell’agente, dall’accesso iniziale ai dati fino all’azione finale, è completamente governato, auditabile e conforme. Un’impostazione che risponde alle esigenze delle imprese più attente ai temi di compliance, data sovereignty e controllo dei processi decisionali automatizzati.

Disponibilità e prospettive

Agentforce 360 for AWS sarà disponibile su AWS Marketplace nei primi mesi del 2026. Con questa mossa, Salesforce e AWS consolidano una collaborazione che va oltre la semplice integrazione tecnologica, proponendo un modello di adozione dell’AI enterprise che combina potenza, sicurezza e semplicità operativa. Un approccio pensato per trasformare gli agenti AI da sperimentazioni isolate a componenti affidabili e governati dei processi aziendali.

Attendo il tuo OK per procedere con il workflow post-articolo.

Gemini Deep Research spiegato: architettura, benchmark e limiti operativi

Gemini Deep Research e Interactions API sono, di fatto, la mossa con cui Google prova a trasformare la “ricerca assistita” da funzione consumer a componente sviluppabile: un agente in grado di pianificare, cercare sul web, colmare gap informativi e sintetizzare un report citato, richiamabile via API e pensato per task che durano minuti, non secondi. L’annuncio è datato 11 dicembre 2025 e mette sul tavolo due pezzi: l’agente Gemini Deep Research (in preview) e l’Interactions API come endpoint unificato per modelli e agenti.

Cos’è davvero Gemini Deep Research: non un modello, ma un workflow gestito

Google definisce Deep Research come un agente ottimizzato per attività di “context gathering” e sintesi a lunga esecuzione: il punto non è rispondere bene a una domanda singola, ma iterare in autonomia su più passaggi, con un ciclo che include pianificazione, query, lettura, identificazione di lacune e nuove ricerche fino a convergere su un report strutturato. In altre parole, è un’architettura “research loop” preconfezionata, esposta come servizio.

Sul piano tecnico, Google lega il “core di ragionamento” a Gemini 3 Pro, descritto come il modello più “factual” della casa e addestrato per ridurre le allucinazioni e massimizzare la qualità del report in compiti complessi. La parte interessante non è solo il modello, ma l’addestramento e il comportamento: si parla esplicitamente di reinforcement learning multi-step applicato alla ricerca, con l’obiettivo di migliorare accuratezza e profondità quando l’agente naviga “in profondità” nei siti per trovare dati specifici.

Interactions API: l’endpoint che “capisce” stato, tool call e background

Il motivo per cui Deep Research arriva “via Interactions API” non è cosmetico. Interactions API nasce come interfaccia nativa per gestire contesti complessi tipici delle app agentiche: messaggi, “thoughts”, chiamate a strumenti, risultati degli strumenti e stato della sessione, il tutto con la possibilità di spostare parte della gestione della history lato server e di eseguire loop lunghi in background. È anche, nelle parole di Google, un’unificazione: un solo endpoint REST (/interactions) che può parlare con un modello (parametro “model”) o con un agente (parametro “agent”).ì

Questa distinzione è cruciale: Deep Research, in questa fase, non passa da generateContent. È disponibile esclusivamente tramite Interactions API ed è in anteprima.

Benchmark e numeri: HLE, DeepSearchQA e BrowseComp come cartina di tornasole

Google accompagna l’annuncio con numeri su tre benchmark che, oggi, sono diventati “moneta” nelle comparazioni di agenti di ricerca. Nell’articolo ufficiale si parla di risultati SOTA su Humanity’s Last Exam (HLE) e su DeepSearchQA, oltre a un “best” interno su BrowseComp. I valori dichiarati sono 46,4% sull’intero set di HLE, 66,1% su DeepSearchQA e 59,2% su BrowseComp.

Qui c’è un messaggio implicito: Google sta posizionando Deep Research come agente affidabile e “completo” più che come “chat veloce”. E infatti DeepSearchQA è costruito proprio per misurare la completezza (comprehensiveness) su task a catena causale, dove ogni passo dipende dall’analisi precedente, e dove conta non solo la precisione nel trovare un fatto, ma anche il recall nel non lasciarsi dietro pezzi necessari. La suite include 900 task “causal chain” su 17 ambiti.

gemini google

DeepSearchQA: perché Google open-source un benchmark (e cosa misura davvero)

DeepSearchQA viene presentato come risposta a un limite pratico: molti benchmark, dice Google, non catturano la complessità della ricerca multi-step reale. L’idea è valutare agenti che devono costruire una risposta esaustiva, non “indovinare” un singolo dato. C’è anche un punto metodologico interessante: DeepSearchQA viene usato come strumento diagnostico per quantificare il valore del “thinking time”, cioè quanto migliora la performance quando si concede all’agente più step di ricerca e ragionamento.

Nella stessa sezione compare un concetto tipico dei sistemi agentici: confrontare pass@1 e pass@8 per mostrare quanto la verifica su traiettorie parallele aiuti l’affidabilità (l’agente esplora più percorsi e poi consolida). È una logica più vicina al “metodo” che al singolo output.

Cosa puoi costruire: sintesi ibrida (web + documenti) e output governabili

Dal punto di vista “developer”, Google enfatizza quattro capacità che, sommate, descrivono un prodotto pensato per workflow aziendali:

Gemini Deep Research può combinare dati del web pubblico e documenti caricati (PDF, CSV, documenti), con gestione di contesti ampi e possibilità di mettere molto background direttamente nel prompt.

Il report è “steerable” via prompting: puoi imporre struttura, titoli, sottotitoli e persino richiedere tabelle e formattazioni. Nella documentazione viene esplicitato che il formato va definito nell’input, con esempi che chiedono sezioni e tabelle comparative.

Le citazioni sono un punto dichiarato: l’obiettivo è fornire sourcing granulare per permettere la verifica dell’origine delle affermazioni.

Sono menzionati anche output strutturati (schema JSON) nell’articolo di annuncio, ma la documentazione tecnica indica che, al momento, l’agente Deep Research non supporta output strutturati. Tradotto: la direzione è chiara, ma alcune feature sono ancora in assestamento e va letto bene cosa è “promesso” a livello di roadmap vs cosa è effettivamente disponibile oggi.

Il modello operativo: background obbligatorio, polling e stati della ricerca

Qui non c’è da edulcorare: Deep Research non è pensato per una chiamata sincrona. Nella doc è scritto che le attività possono richiedere diversi minuti e che bisogna usare esecuzione in background impostando background=true, poi fare polling fino allo stato completed (o gestire failed). Il pattern è: crei un’Interaction, ricevi subito un oggetto parziale con un id, poi interroghi l’API fino al completamento. (Google AI for Developers)

Esempio (Python) riportato nella documentazione, qui riscritto in modo fedele nei parametri chiave:

import time
from google import genai

client = genai.Client()

interaction = client.interactions.create(
    input="Research the history of Google TPUs.",
    agent="deep-research-pro-preview-12-2025",
    background=True
)

while True:
    interaction = client.interactions.get(interaction.id)
    if interaction.status == "completed":
        print(interaction.outputs[-1].text)
        break
    if interaction.status == "failed":
        print(interaction.error)
        break
    time.sleep(10)

Il nome dell’agente indicato è deep-research-pro-preview-12-2025 e, sempre secondo Google, Interactions API “currently supports” proprio quell’agente in questa fase. (Google AI for Developers)

Strumenti disponibili: web di default, file_search opzionale (e sperimentale)

Per impostazione predefinita, Deep Research ha accesso al web pubblico con strumenti come google_search e url_context senza che tu debba dichiararli nel prompt o nella configurazione. Se vuoi aggiungere anche i tuoi dati, devi esplicitare tool e store per file_search, che viene indicato come ancora sperimentale. (Google AI for Developers)

Questo è il punto che, in produzione, cambia tutto: l’agente può fare “due diligence” o “market scan” incrociando web e materiali proprietari. Ma è anche il punto dove aumenta il rischio di leakage se la governance è approssimativa, perché stai mettendo in contatto due mondi che spesso, in azienda, si tengono separati per ragioni di compliance. La stessa documentazione cita rischi legati al contenuto web e raccomanda di verificare le citazioni, oltre a richiamare il tema dell’esfiltrazione quando si mescolano dati interni e navigazione web. (Google AI for Developers)

Streaming e “osservabilità” del processo: cosa puoi vedere e cosa no

La doc prevede streaming con stream=True insieme a background=True per ricevere aggiornamenti in tempo reale sul progresso. Però c’è una condizione: per vedere passaggi intermedi e aggiornamenti, vanno abilitati i “thought summaries” in agent_config; altrimenti lo stream può limitarsi ai risultati finali. La stessa sezione spiega anche come recuperare interaction_id e usare un event_id per riprendere lo stream dopo una disconnessione. (Google AI for Developers)

In pratica: Google sta mettendo basi per la “telemetria” applicativa degli agenti, che è un tema enorme quando sposti agentic loops in server-side background e devi capire perché un report ha preso una certa direzione.

Limiti e vincoli: quello che oggi non puoi fare (e devi sapere prima di prometterlo a un cliente)

Ci sono alcuni paletti espliciti che, se ignorati, ti fanno perdere tempo in fase di design:

L’agente Deep Research è in anteprima e passa solo da Interactions API; niente generate_content. (Google AI for Developers)

Il tempo massimo di ricerca è 60 minuti e “la maggior parte” dei task dovrebbe chiudersi entro 20 minuti: va considerato nella UX e nei timeout applicativi. (Google AI for Developers)

Non sono supportati input audio. (Google AI for Developers)

La doc segnala che, al momento, non puoi fornire strumenti di function calling personalizzati o server MCP remoti all’agente Deep Research; inoltre viene indicato che non supporta pianificazione approvata da persone e (sempre nella doc) output strutturati. Questo è un punto da tenere d’occhio perché l’annuncio “marketing” e la doc tecnica non sempre vanno allo stesso passo. (Google AI for Developers)

Interactions API è in beta pubblica, quindi schemi e feature possono cambiare. (Google AI for Developers)

Dove Google dice di volerlo portare: Search, NotebookLM, Finance e Vertex AI

Nel post di annuncio, Google scrive che Deep Research “soon” arriverà anche in prodotti come Google Search, NotebookLM e Google Finance, oltre a un upgrade nella Gemini App. È anche citato il lavoro per portarlo su Vertex AI per il mondo enterprise. Qui la lettura è semplice: la stessa capability viene “impacchettata” sia come funzione per utenti finali, sia come building block per sviluppatori e aziende. (blog.google)

Casi d’uso: due diligence e ricerca scientifica, con esempi citati

Google cita già utilizzi in ambiti ad alta precisione come servizi finanziari, biotech e market research. Un esempio è la due diligence: aggregare segnali di mercato, analisi competitor e rischi di compliance da web e fonti proprietarie per accelerare la fase iniziale del lavoro. Un altro è l’ambito biomedicale: viene citata Axiom Bio, che lavora su sistemi AI per prevedere la tossicità dei farmaci, e che avrebbe usato Deep Research per ottenere maggiore profondità e granularità nella ricerca preliminare su letteratura biomedica. (blog.google)

Cosa cambia per chi sviluppa: dal “prompt” alla “pipeline di ricerca”

Se finora molte app “AI” hanno usato il modello come generatore di testo, qui il paradigma diventa pipeline: un’interazione che dura, che ha stato, che usa strumenti e produce un artefatto (report) che spesso sarà consumato da altri sistemi (CRM, strumenti di BI, knowledge base, sistemi di ticketing). Ed è qui che Interactions API prova a togliere attrito: server-side state, background execution, schema più leggibile per storie agentiche e, per i modelli, supporto a tool MCP remoti (attenzione: questo vale per i modelli; l’agente Deep Research ha limitazioni specifiche citate in doc).

Immagine concettuale: un’interfaccia “research console” con una timeline di step (query, lettura, gap, nuova query), a sinistra i documenti interni (PDF/CSV) e a destra i risultati web, al centro un report con citazioni.

Alt consigliato: “Gemini Deep Research via Interactions API: agente che combina web pubblico e documenti aziendali per generare report citati e strutturati”.

Riferimenti testuali

Riferimento interno (testuale): “la documentazione Gemini API per Interactions API e Deep Research”.

Riferimento esterno (testuale): “il technical report di DeepSearchQA pubblicato da Google”.

Se mi dai l’OK, passo al workflow post-articolo (titoli SEO + permalink, tre meta description 135–145 caratteri con conteggio, riassunto 300 caratteri, post LinkedIn 500–600 caratteri).

OpenAI GPT-5.2, il nuovo modello di frontiera per il lavoro professional

OpenAI presenta GPT-5.2 come l’evoluzione più avanzata della sua famiglia di modelli di fascia alta, progettata per rispondere in modo specifico alle esigenze del lavoro professionale e dei flussi operativi complessi. Il modello nasce in un contesto in cui gli utenti ChatGPT Enterprise dichiarano già risparmi giornalieri significativi, compresi fra quaranta e sessanta minuti al giorno, con punte superiori alle dieci ore settimanali per i profili più intensivi. GPT-5.2 non è quindi un’evoluzione incrementale, ma un tentativo di fornire prestazioni paragonabili a team specializzati nelle attività che richiedono sintesi, precisione, continuità, lunga memoria operativa e orchestrazione autonoma di strumenti software.

Il modello viene rilasciato in tre varianti pensate per scenari differenti, chiamate GPT-5.2 Instant, GPT-5.2 Thinking e GPT-5.2 Pro. In ChatGPT queste versioni sono accessibili nei piani a pagamento e differiscono per profondità analitica, capacità di ragionamento, gestione dei tempi di risposta e livello di accuratezza. Instant privilegia la velocità e la conversazione quotidiana, Thinking è progettato per processi più complessi e ragionamenti multi-step, mentre Pro rappresenta l’opzione avanzata con la migliore affidabilità nelle domande difficili e nelle attività tecniche ad alto valore.

Una nuova struttura cognitiva orientata al lavoro reale

GPT-5.2 introduce un approccio più maturo alla gestione del contesto lungo. Si tratta di un’evoluzione che permette al modello di mantenere la coerenza all’interno di conversazioni estese, documenti articolati, progetti multi-file e flussi di lavoro che si sviluppano nel corso di molte interazioni. La finestra di contesto rimane di livello “book-length”, ma la stabilità migliora sensibilmente rispetto a GPT-5.1, riducendo fenomeni di deriva dalle istruzioni iniziali e aumentando la capacità di mantenere linee argomentative coerenti.

Particolare attenzione è stata dedicata alla capacità di integrare informazioni sparse, tipicamente presenti in documenti lunghi o nei repository di codice con molteplici dipendenze. I benchmark interni mostrano che GPT-5.2 è in grado di recuperare e correlare informazioni anche quando disposte in modo non lineare, consentendo analisi di testi normativi, report finanziari, dossier scientifici e contratti complessi senza smarrire gli elementi chiave.

benchmark chatgpt

Benchmark e prestazioni: una lettura completa dei dati pubblicati

Sul fronte delle performance, GPT-5.2 si distingue in misura significativa. Nel benchmark GDPval, progettato per misurare la qualità del lavoro professionale attraverso venticinque categorie di compiti e quarantaquattro professioni, il modello supera o eguaglia la performance di specialisti umani nel settanta virgola nove per cento dei casi. Il benchmark non valuta semplici risposte a domande, ma deliverable concreti come presentazioni commerciali, analisi tecniche, fogli di calcolo articolati, proiezioni finanziarie, strutturazione di turni ospedalieri, materiali video e schemi operativi. Il tempo di realizzazione risulta undici volte più rapido rispetto a un professionista umano e il costo stimato è inferiore all’uno per cento, mantenendo una qualità complessiva paragonabile alle uscite di team specializzati. Un giudice indipendente ha descritto l’output come “il lavoro di un’azienda professionale con uno staff dedicato, completo di layout studiato e suggerimenti solidi”, confermando il salto qualitativo osservato.

Nel dominio finanziario il miglioramento è quantificabile: GPT-5.2 Thinking mostra un incremento del nove virgola tre per cento nella capacità di produrre modelli finanziari validi rispetto a GPT-5.1, utilizzando come riferimento modelli a tre stati e analisi LBO tipiche degli analisti di investment banking. Si tratta di scenari dove precisione, coerenza logica e rispetto delle regole contabili rappresentano criteri fondamentali.

Nel campo dell’ingegneria del software GPT-5.2 Thinking stabilisce nuovi livelli di riferimento con il cinquantacinque virgola sei per cento su SWE-Bench Pro, un benchmark che misura la capacità di risolvere problemi reali all’interno di repository multipli e in linguaggi diversi. Il risultato è accompagnato da un ottanta per cento su SWE-Bench Verified, dimostrando una capacità crescente di implementare correzioni, refactoring, nuove funzionalità e interventi complessi all’interno di codebase realistiche. I tester che hanno sperimentato il modello in scenari front-end riportano miglioramenti significativi nella comprensione del layout grafico, nella gestione della logica di interazione e nella costruzione autonoma di interfacce anche tridimensionali.

Nel settore scientifico GPT-5.2 Pro ottiene oltre il novantadue per cento nel benchmark GPQA Diamond, dedicato a domande graduate-level di fisica, chimica e biologia, mentre GPT-5.2 Thinking tocca il quaranta virgola tre per cento nel benchmark FrontierMath, che valuta competenze di matematica esperta spesso associate a ricercatori specializzati. Nei test ARC-AGI, orientati al ragionamento astratto, GPT-5.2 Thinking supera il cinquanta per cento nella versione più avanzata del benchmark, segnando un progresso nella capacità di individuare pattern relazionali e regole implicite.

Una visione più robusta per grafici, GUI e analisi tecniche

Dolcemente ma con continuità, OpenAI sta potenziando la componente visiva dei suoi modelli. GPT-5.2 interpreta con maggiore precisione grafici scientifici, cruscotti interattivi, diagrammi tecnici e interfacce software complesse. Il modello riduce sensibilmente gli errori nel riconoscimento delle relazioni spaziali e nella lettura di elementi strutturati come assi, legende, indicatori percentuali e serie temporali. Un esempio pratico riguarda l’identificazione dei componenti principali di una scheda madre in immagini a bassa qualità, dove GPT-5.2 localizza con maggiore precisione le regioni funzionali rispetto alla generazione precedente.

Tool calling e agenti a lunga catena operativa

GPT-5.2 Thinking raggiunge un’affidabilità prossima al novantanove per cento nel coordinamento autonomo di strumenti software in scenari multi-step, come dimostrato dai benchmark che simulano l’assistenza clienti attraverso numerose operazioni concatenate. La capacità di pianificare sequenze lunghe e di scegliere autonomamente quando e come usare gli strumenti disponibili rappresenta una componente essenziale nella costruzione di agenti che non si limitano a rispondere, ma portano a termine attività strutturate fino al completamento.

Un punto importante è la capacità del modello di mantenere il filo logico attraverso molte chiamate agli strumenti e molti turni conversazionali consecutivi. Questo comportamento apre la strada a scenari dove il modello può operare come un assistente con memoria operativa estesa, coordinare processi aziendali, interagire con database e applicazioni interne, eseguire controlli e verifiche e riportare risultati in forma strutturata.

Sicurezza, governance e gestione delle conversazioni sensibili

GPT-5.2 estende l’approccio di sicurezza già adottato nella generazione precedente, adottando un sistema raffinato di safe completion progettato per ridurre allucinazioni, risposte inappropriate e contenuti rischiosi. I progressi sono documentati nelle analisi interne che evidenziano significativi miglioramenti nella gestione delle conversazioni riguardanti la salute mentale. Per GPT-5.2 Instant l’adeguatezza delle risposte passa da zero virgola ottocento ottantatre a zero virgola novecento novantacinque, mentre per GPT-5.2 Thinking cresce da zero virgola seicento ottantaquattro a zero virgola novecento quindici. È inoltre presente un sistema di age prediction che permette di identificare utenti minorenni e attivare automaticamente livelli di protezione aggiuntivi.

Disponibilità, prezzi e architettura infrastrutturale

OpenAI sta distribuendo GPT-5.2 progressivamente ai piani ChatGPT a pagamento, mantenendo GPT-5.1 come modello legacy per un periodo limitato. Nelle API, le tre varianti sono offerte con prezzi differenziati, con GPT-5.2 Pro come opzione premium. Nonostante il costo per token sia superiore rispetto ai modelli precedenti, l’efficienza aumenta grazie a un minor numero di iterazioni necessarie per raggiungere un risultato professionale.

L’addestramento del modello è stato eseguito sull’infrastruttura Azure utilizzando GPU NVIDIA H100, H200 e configurazioni GB200-NVL72, tecnologia che rappresenta un pilastro della collaborazione strategica tra OpenAI, Microsoft e NVIDIA per sostenere la crescita dei frontier model.

Gli impatti per il mercato italiano

Per le imprese italiane GPT-5.2 introduce la possibilità di automatizzare parti sempre più ampie del lavoro professionale, migliorare l’accuratezza dei processi di analisi e accelerare cicli decisionali che richiedono sintesi complesse. Nel contesto nazionale, dove molte aziende stanno sperimentando iniziative di AI agentica e consolidando le prime architetture di dati integrate, GPT-5.2 offre un set di funzionalità che copre operazioni amministrative, finanza, operation, procurement, compliance, marketing analitico e sviluppo software.

L’evoluzione del modello invita i responsabili IT a una riflessione più ampia: la potenza del modello non sostituisce la necessità di governance, qualità dei dati e definizione chiara dei processi. La competizione internazionale nel settore dei frontier model spinge verso architetture che non dipendono solo dalle capacità dei modelli, ma dall’interazione tra strumenti, dati, sicurezza e orchestrazione degli agenti. In questo scenario GPT-5.2 rappresenta un passo avanti concreto, ma è l’ecosistema aziendale a determinarne il valore reale.

Come cambierà l’IT nel 2026: le previsioni di VEM sistemi tra AI-ready, geopatriation e sicurezza

Il 2026 si preannuncia un anno di trasformazioni significative per le imprese italiane, spinte dall’adozione sempre più diffusa dell’intelligenza artificiale, dalla modernizzazione delle infrastrutture e dalla ricerca di un equilibrio sostenibile tra tecnologia, sicurezza e benessere dei dipendenti. In questo contesto, VEM sistemi condivide le proprie predictions per il 2026, individuando i trend chiave che guideranno lo sviluppo IT, l’innovazione, la gestione dei dati e la governance aziendale, delineando uno scenario in cui tecnologia, processi e persone si intrecciano, offrendo alle aziende nuove opportunità di efficienza, sicurezza e crescita sostenibile.

Governance dell’AI

Nel 2026 l’adozione dell’AI da parte delle aziende sarà sempre più diffusa, sebbene spesso ancora non pienamente governata. È un passaggio naturale: l’AI sta entrando rapidamente nei processi, negli strumenti e nelle decisioni quotidiane delle aziende. Di conseguenza, cresce la necessità di supportare le imprese nel definire una governance efficace, che garantisca un utilizzo consapevole, sicuro e allineato alle loro priorità di business.

In questo ambito, osserviamo due esigenze sempre più evidenti. La prima riguarda la regolamentazione dell’uso dell’AI: molte aziende chiedono un accompagnamento consulenziale per stabilire policy interne, linee guida e processi che permettano ai collaboratori di utilizzare l’AI in modo controllato, evitando rischi legati alla condivisione involontaria di informazioni sensibili o strategiche verso piattaforme pubbliche. Il tema della sicurezza, infatti, è trasversale: dietro alle opportunità di efficientamento portate dall’AI si nascondono nuove superfici d’attacco e nuove forme di esposizione dei dati.

La seconda esigenza riguarda il “da dove cominciare”. Molte aziende usano l’AI già integrata nei prodotti che utilizzano quotidianamente, ma non hanno ancora una visione chiara di come sfruttarla in modo mirato e vantaggioso. Qui entra in gioco la consulenza strategica che prevede il supporto ai clienti nell’analisi dei loro processi per individuare le aree dove l’AI può generare valore reale. L’approccio è simile a quello della digitalizzazione: senza un’analisi preliminare, si rischia di “automatizzare le inefficienze”. Per questo il primo passo è comprendere se il processo è ottimizzato; solo allora l’AI può portare benefici concreti, soprattutto nelle attività ripetitive, dove permette di ridurre errori, velocizzare le operazioni e migliorare la qualità complessiva del lavoro.

L’evoluzione dei Data Center verso Data Center AI ready

Nel 2026 assisteremo a un’accelerazione decisa verso data center progettati nativamente per sostenere i carichi computazionali dell’AI. L’evoluzione dell’intelligenza artificiale, infatti, non riguarda solo gli algoritmi ma anche – e soprattutto – le infrastrutture che devono alimentarli. I data center diventeranno sempre più AI-ready, cioè architetture pensate fin dall’inizio per supportare workload ad altissima intensità, garantire prestazioni elevate e mantenere stabilità, efficienza e continuità operativa.

Se l’AI rappresenta il “cervello”, i data center ne sono i “muscoli”: strutture in grado di generare, sostenere e scalare la potenza necessaria. Questo implica investimenti su GPU, sistemi di raffreddamento avanzati e capacità energetiche di nuova generazione.

Proprio il tema energetico sarà uno dei punti più critici e discussi nel 2026. L’AI è notoriamente energivora e richiede infrastrutture che sappiano garantire potenza elettrica, efficienza e sostenibilità. Vedremo quindi una crescente attenzione a modelli di alimentazione innovativi, ottimizzazione dei consumi, recupero del calore e utilizzo responsabile delle risorse idriche. I data center saranno chiamati a trovare un equilibrio tra crescita della capacità computazionale e sostenibilità ambientale, riducendo l’impatto energetico senza limitare la possibilità di scalare i servizi AI.

Cloud e AI e la geopatriation dei dati

Marco Bubani, Direttore Innovazione VEM sistemi
Marco Bubani, Direttore Innovazione VEM sistemi

L’anno prossimo il rapporto tra cloud e AI sarà ancora più stretto: la maggior parte dei modelli continua infatti a funzionare su infrastrutture degli hyperscaler, erogate in modalità as-a-service e quindi profondamente legate alle piattaforme cloud globali. Tuttavia, proprio questa interdipendenza sta accelerando un nuovo trend ormai evidente: non più solo repatriation, ma geopatriation. Le aziende stanno diventando sempre più sensibili al dove i propri dati vengono realmente elaborati, trasformati e utilizzati per alimentare applicazioni e servizi strategici.

Questa attenzione sta alimentando un crescente interesse verso provider regionali e regional data center, capaci di offrire servizi cloud e AI con maggiori garanzie di localizzazione e sovranità dei dati. Anche se gli hyperscaler assicurano la residenza dei dati in Europa, restano comunque realtà americane o cinesi soggette alla governance dei propri Paesi d’origine — un elemento che molte aziende europee valutano con crescente cautela.

Parallelamente, vediamo un aumento dei progetti orientati alla costruzione di isole di data center per l’AI on-prem, così da allenare i modelli direttamente all’interno dell’azienda. Una scelta che risponde all’esigenza di controllo totale su dati.

Il trend chiave del 2026 sarà quindi proprio la geopatriation: riportare “a casa”, in senso geografico, normativo e strategico, la gestione dei dati e dei modelli AI. Una direzione che ridefinisce il rapporto tra cloud, AI e sovranità digitale, aprendo nuove opportunità per i provider regionali e per chi saprà offrire infrastrutture affidabili, trasparenti e pienamente allineate agli standard europei.

Observability

Nel 2026 la observability diventerà sempre più centrale per le aziende e per chi eroga servizi IT. Non si tratta più solo di monitorare lo stato di salute di infrastrutture o applicazioni: l’obiettivo è comprendere le cause e i motivi alla base di eventuali anomalie o problemi.  Con infrastrutture sempre più distribuite, complesse e articolate, diventa fondamentale disporre di strumenti che consentano di avere una visione completa, puntuale e predittiva dello stato dei sistemi, riducendo rischi operativi e ottimizzando le performance dei servizi erogati.

In questo contesto, VEM sistemi sta investendo significativamente: la piattaforma storica MyVem è stata completamente rinnovata e, attraverso il progetto Glass – annunciato al VemLive 2025 – offre agli operatori strumenti avanzati per comprendere e tenere sotto controllo lo stato di salute delle infrastrutture. Glass rappresenta un passo avanti verso una gestione proattiva e intelligente, dove osservare significa anche anticipare e prevenire criticità, garantendo maggiore efficienza e sicurezza alle aziende clienti.

Modernizzazione applicativa: infrastrutture e applicazioni sempre più distribuite

Nel 2026 la modernizzazione applicativa continuerà a trasformare il modo in cui le aziende progettano e gestiscono i propri sistemi IT. Le applicazioni non saranno più un unico blocco monolitico, ma diventeranno sempre più composte da componenti distribuite, ognuna ottimizzata per funzionare nel contesto più efficiente.

Ad esempio, alcune parti di un’applicazione possono essere eseguite internamente, on-prem, mentre altre componenti che richiedono capacità di AI vengono eseguite su hyperscaler, dove la disponibilità e la scalabilità della tecnologia sono maggiori. Questa modularità consente alle aziende di integrare più facilmente funzionalità avanzate come l’AI, combinando prestazioni elevate, flessibilità e costi ottimizzati.

La conseguenza naturale è una infrastruttura più distribuita e applicazioni più frammentate, che richiedono strumenti avanzati per essere governate efficacemente.

Cybersecurity

Nel 2026 la cybersecurity rimarrà un trend trasversale, strettamente collegato a ogni evoluzione applicativa e infrastrutturale. Ogni cambiamento digitale apre infatti nuovi scenari di minaccia: l’AI non è più solo uno strumento di innovazione, ma anche un acceleratore di sofisticazione per gli attacchi informatici. Le minacce stanno diventando più economiche, accessibili e personalizzabili grazie all’AI, aumentando la loro velocità, capacità e potenziale impatto sulle aziende.

Di fronte a questo scenario, chi deve proteggere le infrastrutture digitali ricorre all’AI per difendersi dall’AI. Stanno emergendo soluzioni che aiutano le aziende a comprendere e governare l’uso interno dell’AI, prevenendo rischi derivanti da comportamenti non controllati, come il prompting di dati sensibili.

Allo stesso tempo, le piattaforme di detection & response evolvono: grazie all’AI, è possibile supportare gli analisti nella selezione e correlazione degli eventi critici, filtrando e individuando solo le situazioni di reale pericolo. L’AI gioca un ruolo fondamentale anche nell’incident response, permettendo di reagire più rapidamente alle minacce e allineandosi a requisiti normativi come quelli della NIS2, che richiedono piani di risposta efficaci e tempestivi.

Per VEM sistemi e per la sua controllata Certego, il 2026 sarà quindi un anno in cui la cybersecurity continuerà a intrecciarsi con l’AI, offrendo nuove opportunità di protezione, automazione e governance, trasformando la difesa digitale in un processo più proattivo e intelligente.

Multi-agent AI

Il 2026 segnerà l’inizio della diffusione della Multi-agent AI. Il prossimo anno sarà possibile iniziare a vedere i primi agenti AI in grado di dialogare tra loro, scambiarsi informazioni e collaborare per svolgere compiti più complessi di quelli gestibili da un singolo agente.

Questi agenti sono addestrati su modelli di linguaggio ampi, ma con un focus verticale sulle funzioni specifiche che devono assolvere, rendendoli altamente specializzati e capaci di interagire sia con gli esseri umani sia tra di loro. La cooperazione tra agenti permette di affrontare processi articolati, generando risultati più sofisticati e integrati rispetto a quanto possibile fino a oggi.

Guardando oltre, si intravede anche il potenziale passaggio dell’AI nel mondo fisico, sebbene questo trend sarà più graduale a causa di questioni etiche e normative. Nel 2026, quindi, la Multi-agent AI rappresenterà il primo passo verso un ecosistema in cui agenti collaborativi e intelligenti potranno gestire attività complesse, aprendo nuove possibilità applicative e strategiche per le aziende.

Work-life balance e collaboration

Anche per il prossimo anno le aziende continueranno a mettere al centro il work-life balance, cercando soluzioni tecnologiche che consentano ai dipendenti di conciliare vita lavorativa e privata senza compromettere produttività e collaborazione. I sistemi di collaboration – quelli che oggi permettono di dialogare, condividere e coordinare il lavoro in modo fluido – continueranno a evolversi, arricchiti da funzionalità di AI e interfacce sempre più intuitive.

Dopo l’esperienza del lavoro da remoto post-Covid, le aziende hanno compreso che né il lavoro totalmente a distanza né il ritorno esclusivo in ufficio rappresentano il modello ideale. Ciò che emerge è un equilibrio dinamico, dove spazi fisici condivisi e strumenti digitali avanzati convivono, permettendo alle persone di collaborare e gestire il proprio tempo in maniera più equilibrata.

Nel 2026, quindi, le tecnologie di collaboration non saranno solo strumenti operativi, ma leve strategiche per costruire ambienti di lavoro più flessibili, inclusivi e orientati al benessere dei dipendenti.

Microsoft e Dolomiti Energia puntano su AI generativa e agentica per il futuro del settore Energy

Gruppo Dolomiti Energia e Microsoft Italia annunciano un nuovo accordo di collaborazione triennale focalizzato sull’adozione estensiva dell’AI generativa e agentica, in linea con le priorità del piano industriale del Gruppo energy, che vede Digitalizzazione e Sostenibilità al centro del suo percorso di crescita. La nuova intesa si fonda proprio su una visione comune orientata a innovazione e sostenibilità e capitalizza la consolidata collaborazione tra i due player, che da anni cooperano sul fronte Cloud, Gestione dei Dati e Cybersecurity con l’obiettivo di accelerare la trasformazione digitale del Gruppo Dolomiti Energia e di contribuire all’evoluzione dell’intero comparto Energy & Utility.

Nell’ambito del nuovo accordo il Gruppo Dolomiti Energia potrà beneficiare ancora una volta delle risorse e delle competenze di Microsoft, non solo ai fini di un cambiamento tecnologico al passo con i tempi, ma anche a supporto di un più profondo cambiamento culturale e operativo a prova di futuro. Nell’era dell’AI generativa e agentica le due aziende puntano a:

  • sviluppare insieme progetti ad alto impatto in ambiti strategici come il supporto ai dipendenti, le operation, il customer service, la sostenibilità e la sicurezza, facendo leva su tutta la tecnologia AI di Microsoft per automatizzare i processi e creare agenti ad hoc – spaziando quindi dall’assistente conversazionale Microsoft 365 Copilot e dagli agenti ready-to-use integrati, ai modelli di Azure Open AI Service, alle piattaforme per la creazione di agenti personalizzati Copilot Studio ed Azure AI Foundry;
  • condividere know-how reciproco, che sarà strategico per la realizzazione di applicazioni verticali di valore per il Gruppo Dolomiti Energia e con impatto sull’intera filiera Energy, beneficiando anche dell’accesso a programmi di accelerazione esclusivi come Microsoft AI L.A.B. per sperimentare sul campo i prototipi in un ambiente sicuro e per agevolarne l’adozione.

La collaborazione tra le due aziende si concentra anche su formazione e sviluppo delle competenze. Proprio in una logica di cambiamento culturale e operativo trasversale al gruppo, i dipendenti saranno coinvolti in percorsi formativi personalizzati e potranno anche beneficiare delle iniziative di skilling e del supporto degli specialisti Microsoft per acquisire expertise e certificazioni utili a trarre il meglio dall’AI come leva per amplificare produttività, creatività e ingegno.

Stefano Granella, CEO e General Manager del Gruppo Dolomiti Energia
Stefano Granella, CEO e General Manager del Gruppo Dolomiti Energia

“L’intesa con Microsoft Italia rappresenta un passo fondamentale nel nostro piano di evoluzione”, ha dichiarato Stefano Granella, CEO e General Manager del Gruppo Dolomiti Energia. “Questa collaborazione ci permette di realizzare un futuro in cui l’innovazione tecnologica migliora concretamente la vita delle persone. L’intelligenza artificiale utilizzata con una visione e principi etici chiari, rafforza la competitività della nostra organizzazione, migliora l’efficacia dei servizi ai clienti e crea nuove opportunità per dipendenti e stakeholder.”

 

 

Vincenzo Esposito, Amministratore Delegato di Microsoft Italia
Vincenzo Esposito, Amministratore Delegato di Microsoft Italia

“Siamo orgogliosi di consolidare la nostra collaborazione con il Gruppo Dolomiti Energia, un partner che condivide la nostra visione sull’importanza strategica dell’innovazione responsabile”, ha affermato Vincenzo Esposito, Amministratore Delegato di Microsoft Italia. “La nostra missione è fornire non solo la tecnologia più avanzata, ma anche le competenze e gli strumenti per governarla al meglio. Metteremo a disposizione i nostri programmi e i nostri specialisti per supportare il Gruppo Dolomiti Energia nello sviluppo di soluzioni di AI generativa e agentica efficaci, sicure e sostenibili e per accompagnare il Gruppo nel proprio percorso di crescita su scala nazionale. Questa alleanza è la prova di come un approccio strategico all’AI possa generare un impatto positivo e duraturo per le aziende, le persone e l’ambiente. L’impegno congiunto di Microsoft e Gruppo Dolomiti Energia mira a definire un nuovo standard in un settore chiave per la competitività del Paese, dove l’intelligenza artificiale può alimentare un modello di business più efficiente, sostenibile e d’impatto per tutti gli ambiti della nostra esistenza.”

Nell’arco del prossimo triennio, la roadmap di collaborazione tra i due player si svilupperà su diversi focus sotto la guida di Edoardo Fistolera, Responsabile ICT & Digital del Gruppo Dolomiti Energia:  

  • Potenziare la produttiva, attraverso l’utilizzo sempre più estensivo di Microsoft 365 Copilot e dei suoi agenti per ottimizzare le attività ripetitive e liberare tempo per attività a maggior valore. Le prime applicazioni di Copilot stanno già dando risultati interessanti. Lo strumento è stato accolto favorevolmente dai dipendenti, si rileva un impatto significativo sulla qualità dell’output e si stima un supporto potenziale fino a 10-12 ore al mese per ogni utilizzatore.
  • Rendere più intelligenti i processi, mediante agenti in grado di automatizzare flussi complessi e attività ad alta intensità operativa.
  • Personalizzare la customer experience, per offrire servizi su misura, supporto proattivo e interazioni più rapide ed efficaci in linea con la vocazione customer-centrica di Dolomiti Energia e con l’ambizione di sviluppare relazioni sempre più coinvolgenti e durature con i clienti.
  • Valorizzare la Sostenibilità, grazie all’applicazione dell’AI per favorire modelli di business e processi sempre più sostenibili e grazie a progetti sperimentali di efficienza energetica coerenti con l’impegno carbon-negative dei due player.
  • Garantire la Sicurezza, attraverso un approccio trasversale di AI for Security e Security for AI volto ad assicurare cybersecurity, compliance e business continuity, fondamentali in un settore critico come quello dell’energia e al centro dell’impegno per una Responsible AI di Microsoft.

F5 amplia la partnership con NetApp: AI più veloce e dati protetti dalla minaccia quantistica

0

F5 ha annunciato l’espansione della collaborazione con NetApp, l’azienda di infrastrutture dati intelligenti, per potenziare la delivery ad alte prestazioni dei dati per l’AI e preparare le organizzazioni all’era della Crittografia Post-Quantistica (PQC). Questa iniziativa si basa su una partnership consolidata tra F5 e NetApp e mira a rispondere alla crescente domanda di soluzioni sicure, resilienti e scalabili per carichi di lavoro AI e ambienti di storage S3.

L’Application Delivery and Security Platform (ADSP) di F5, abbinata all’infrastruttura dati intelligente per l’AI basata sulla tecnologia NetApp, supporta un throughput ad alte prestazioni e consente alle imprese di scalare la delivery dei dati AI, proteggendosi al contempo dalle minacce informatiche in continua evoluzione, comprese quelle derivanti dai progressi nel calcolo quantistico.

Per i workload AI, l’utilizzo combinato delle soluzioni di entrambe le aziende ottimizza il trasferimento di grandi dataset grazie ad avanzate funzionalità di bilanciamento del carico, prioritizzazione del traffico e analytics in tempo reale. Questo garantisce throughput, resilienza e delivery sicura dei workflow AI/ML su architetture di storage S3 enterprise-grade di NetApp. Inoltre, la soluzione congiunta consente alle imprese di proteggere i flussi di dati sensibili su S3 dalle minacce “harvest now, decrypt later”, assicurando una protezione duratura dei dati con minime interruzioni operative.

“Le imprese si trovano sempre più spesso a dover bilanciare la necessità di prestazioni applicative eccezionali con l’esigenza di una cybersecurity robusta,” ha dichiarato John Maddison, Chief Marketing Officer di F5. “La nostra collaborazione con NetApp mira a semplificare gli scenari di delivery dei dati AI ad alte prestazioni, consentendo allo stesso tempo ai clienti di adottare gradualmente la readiness per il post-quantum. Grazie a soluzioni all’avanguardia per TLS 1.3, cifrature moderne e gestione globale del traffico, stiamo aiutando le organizzazioni a scalare le proprie infrastrutture rafforzando al contempo la sicurezza dei dati.”

Crittografia Post-Quantistica: le novità per una sicurezza dei dati pronta per il futuro e prestazioni AI scalabili

Inoltre, i clienti possono utilizzare soluzioni di Crittografia Post-Quantistica complementari sia di F5 che di NetApp per gestire il rischio crescente rappresentato dagli sviluppi dell’informatica quantistica, offrendo misure di sicurezza all’avanguardia per proteggere i flussi di dati S3 sensibili. Il Quantum computing, destinato a rivoluzionare diversi settori grazie alla capacità di eseguire calcoli ben oltre le capacità dei computer classici, nel prossimo futuro potrebbe anche compromettere gli attuali standard crittografici. Ciò crea una preoccupazione urgente per le organizzazioni, in particolare con l’ascesa della strategia “harvest now, decrypt later”, in cui gli aggressori sottraggono dati crittografati con l’intenzione di decrittografarli in un secondo momento, quando il Quantum computing sarà in grado di compiere questa impresa. Per mitigare in modo proattivo queste minacce, F5 BIG-IP supporta meccanismi ibridi di scambio delle chiavi e algoritmi approvati dal NIST per comunicazioni sicure resistenti al Quantum computing, fornendo inoltre supporto aggiuntivo per la PQC nei cluster NetApp StorageGRID.

Queste soluzioni consentono alle organizzazioni di passare gradualmente a pratiche di crittografia quantistica sicure senza grandi interruzioni. Un approccio consigliato prevede l’adozione universale del protocollo TLS 1.3 per creare una solida base per la preparazione alla PQC, fornendo handshake più veloci, latenza ridotta e maggiore efficienza della larghezza di banda. Per facilitare l’implementazione, le soluzioni F5 ADSP supportano la crittografia ibrida, che consente l’interoperabilità tra i sistemi e aiuta a modernizzare i framework di crittografia evitando revisioni architetturali. Le soluzioni sottolineano la priorità di adottare algoritmi quantum-resistant per gli asset ad alto rischio, come le cartelle cliniche dei pazienti e i dati finanziari, riducendo al minimo il consumo di risorse per i dataset meno sensibili. Questo approccio garantisce che le aziende siano meglio preparate per l’era quantistica, consentendo una crittografia sicura e mantenendo al contempo le prestazioni e l’efficienza operativa.

“La collaborazione con F5 sottolinea il nostro impegno nel fornire soluzioni di eccellenza alle aziende di oggi”, ha affermato Spencer Sells, Vicepresident, Global Alliances di NetApp. “Sfruttando le ultime innovazioni di NetApp StorageGRID con le tecnologie avanzate di gestione del traffico e crittografia quantistica sicura di F5, i clienti possono liberare tutto il potenziale dei flussi di lavoro AI e proteggere i dati critici”.

MongoDB anticipa il 2026 dell’intelligenza artificiale: memoria, agenti e sviluppo test-first

0

Il 2026 sarà un anno di passaggio decisivo per l’intelligenza artificiale, non tanto per l’arrivo di un’ipotetica AGI, quanto per l’assestamento di modelli, pratiche e architetture che determineranno come le aziende adotteranno l’AI su larga scala. Le tre previsioni dei leader di MongoDB convergono su un punto chiave: l’AI smetterà di essere un esperimento incontrollato e diventerà un sistema robusto, governato, misurabile e integrato nei flussi di lavoro reali.

Secondo l’azienda, il 2026 vedrà l’evoluzione simultanea di tre direttrici: modelli sempre più potenti ma sotto vincolo di efficienza e responsabilità; processi di sviluppo che abbandonano il “vibe coding” per un approccio rigoroso, test-first e con l’essere umano nel loop; agenti intelligenti che iniziano a collaborare oltre i confini aziendali, sostenuti da nuovi livelli di memoria, sicurezza e governance.

Insieme, questi elementi delineano un anno in cui l’AI diventa meno spettacolo e più infrastruttura: meno hype, più maturità tecnica. Un contesto in cui vinceranno le organizzazioni che sapranno governare modelli, processi e agenti con la stessa attenzione che oggi riservano ai sistemi mission-critical.

Le previsioni di MongoDB per il 2026

Pete Johnson, Field CTO, AI, MongoDB: 

Per quanto si voglia parlare di Intelligenza Artificiale Generale (AGI), ci troviamo ancora in una fase in cui la maggior parte dei casi d’uso dell’AI automatizza attività ridondanti, ma trae beneficio da controlli con l’essere umano nel loop. Le organizzazioni che utilizzano l’AI per svolgere lavori che storicamente richiedevano un forte dispendio di risorse umane, ma poi ricorrono alle persone per verificare con attenzione ciò che l’AI produce, applicare framework di governance e mantenere la responsabilità lungo tutto il ciclo di vita dei dati, avranno più successo.

Tre elementi da osservare nel mercato dell’AI nel 2026 saranno:

  1. un’ulteriore ondata di vendor di LLM che ogni trimestre cercheranno di superarsi a vicenda in termini di funzionalità;
  2. i vendor di LLM che prestano attenzione al consumo energetico e all’efficienza registreranno risultati finanziari migliori rispetto a quelli che non lo fanno;
  3. abbiamo visto che il 2023 è stato l’anno della diffusione mainstream dei LLM, il 2024 quello della Retrieval Augmented Generation, e il 2025 l’anno degli agenti nelle loro fasi iniziali. Per la più ampia comunità di sviluppatori, il 2026 sarà caratterizzato dalla Agentic Memory, ben oltre i semplici paradigmi di memoria a breve e lungo termine.

Paul Done, Head of Modernisation, MongoDB: 

L’euforia di oggi per il vibe coding, in cui si lancia l’AI su un problema sperando nel meglio, è destinata a finire presto. Le persone stanno capendo che non si può costruire un business su codice approssimativo e insicuro. Nonostante le crescenti pressioni su CTO e CIO affinché modernizzino in modo rapido e sicuro, la prossima evoluzione dello sviluppo potenziato dall’AI sarà strutturata, test-first e con l’essere umano nel loop, non basata sulle vibe cioè sensazioni.

Credo che il vero valore enterprise dell’AI stia emergendo dietro le quinte, in particolare nel refactoring dei sistemi legacy e nella scalabilità sicura. Le aziende stanno utilizzando l’AI per costruire piattaforme moderne con flussi di lavoro potenziati che accelerano gli sviluppatori invece di sostituirli.

Queste iniziative AI integrate e trasparenti si stanno rivelando altamente efficaci negli ambienti enterprise. Gli sviluppatori mantengono il controllo del flusso, ma l’AI lo rende più veloce e intelligente. I nostri clienti nel settore finanziario e pubblico stanno già osservando risultati concreti, ed è chiaro che i flussi di lavoro AI strutturati e incentrati sulle persone sono il futuro dello sviluppo moderno.

Max Marcon, Director of Product Management, MongoDB: 

Nel 2026, inizieremo a vedere gli agenti AI andare oltre gli esperimenti condotti da singole aziende e passare a una collaborazione limitata tra organizzazioni, anche se in modo ancora cauto e deliberato. Al momento, la maggior parte delle aziende si concentra sugli aspetti fondamentali: assicurarsi che gli agenti si comportino in modo sicuro, accedano solo ai dati appropriati e operino all’interno di un quadro di governance chiaro. La piena interoperabilità tra gli agenti è ancora agli inizi, un po’ come lo era l’Open Banking nel suo primo decennio.

Ciò che renderà tutto questo possibile saranno modi affidabili per consentire agli agenti di tracciare il contesto nel tempo e livelli di memoria che permettano loro di comprendere lo stato gli uni degli altri. Sicurezza e fiducia devono sempre essere al centro, e quando verranno combinate con precisione e una governance solida, si creerà un ambiente in cui i team potranno iniziare a prendere decisioni sicure e ottenere risultati eccellenti.

Il 2026 non sarà ancora l’anno delle reti di agenti completamente autonome e interaziendali, ma sarà l’anno in cui inizieremo a vedere create le basi pratiche.

Cisco investe in World Labs per accelerare l’AI spaziale

Cisco ha annunciato che Cisco Investments, il ramo aziendale che si occupa di venture capital, sta investendo in World Labs Technologies, Inc., una startup di AI specializzata in intelligenza spaziale. World Labs, fondata dalla Dott.ssa Fei-Fei Li, pioniera della visione artificiale spesso definita la “madrina dell’AI”, sta guidando il prossimo cambio di paradigma nell’AI. L’azienda fa si che le macchine possano comprendere e interagire con ambienti 3D, sfruttando l’intelligenza spaziale simile a quella umana, con il potenziale di trasformare settori come il gaming e la robotica.

“La prossima grande evoluzione delle piattaforme nell’AI si svilupperà attorno all’intelligenza spaziale”, ha dichiarato Jeetu Patel, Presidente e Chief Product Officer di Cisco. “Insieme a Fei-Fei e al team di World Labs, stiamo accelerando lo sviluppo di un futuro in cui l’AI assume un ruolo attivo nell’ambiente fisico, con agenti e dispositivi capaci di trasformare interi settori, aumentare le capacità umane e favorire un aumento significativo della produttività.”

Martin Casado, General Partner di a16z
Martin Casado, General Partner di a16z

“World Labs è guidata da un’unica passione: far progredire l’AI per aumentare il potenziale umano e generare un impatto sul mondo reale” ha dichiarato Fei-Fei Li, Co-fondatrice e CEO di World Labs. “La leadership di Cisco nell’ambito delle infrastrutture sicure e scalabili è un elemento abilitante fondamentale per la prossima generazione di AI e per l’evoluzione dell’AI fisica. Siamo entusiasti di collaborare per realizzare la nostra visione.”

“L’evoluzione dell’AI dall’intelligenza linguistica a quella spaziale segna il prossimo salto rivoluzionario, poiché i modelli si muovono oltre la comprensione del linguaggio per dedicarsi al ragionamento, alla generazione e all’interazione con il mondo fisico. World Labs è un pioniere in questa frontiera con i Large World Models”, ha affermato Martin Casado, General Partner di a16z. “Condividiamo da tempo la visione di Fei-Fei sull’intelligenza spaziale e intravediamo un enorme potenziale nel cambiare il modo in cui l’AI interagisce con il mondo. L’investimento di Cisco riflette l’importanza di un’infrastruttura sicura e scalabile per far progredire questa nuova era dell’AI”.

Questo investimento strategico in World Labs sottolinea l’impegno di Cisco per portare innovazione su più fronti, compresi la Ricerca e Sviluppo (R&S), investimenti, fusioni e acquisizioni e partnership strategiche nel panorama dell’AI. Supportando il lavoro pionieristico di World Labs nello sviluppo di LWM, Cisco conferma il suo ruolo di fornitore di infrastrutture critiche per l’era dell’AI, permettendo ai clienti di tutto il mondo di sfruttare la potenza di un’AI sicura e affidabile attraverso applicazioni digitali e fisiche.

Biometria e sicurezza: i rischi reali delle password che non si possono cambiare

Che si tratti di un’impronta digitale per sbloccare lo smartphone o del riconoscimento facciale per accedere a un servizio, l’autenticazione biometrica è diventata sinonimo di comodità e sicurezza avanzata. Il suo fondamento è semplice: ognuno è la propria password. Questa unicità biologica è difficile da replicare, eliminando di fatto la necessità di password complesse e offrendo una solida prova di identità nelle transazioni digitali.

Tuttavia, la stessa caratteristica che rende i dati biometrici così sicuri è anche la fonte della loro più grande vulnerabilità. A differenza di una password, i tratti biometrici non possono essere reimpostati. Una volta compromessi, lo saranno per sempre. Il vero rischio, quindi, non risiede negli algoritmi di riconoscimento, che sono diventati incredibilmente precisi, ma nell’ecosistema che li circonda: il modo in cui i dati vengono acquisiti, archiviati e condivisi.

Le conseguenze di una compromissione irreversibile

Quando un hacker ruba una password, la soluzione è semplice: modificarla. Ma cosa succede quando viene rubata un’impronta digitale o una scansione facciale? Questa compromissione è irreversibile. I dati biometrici sono permanenti e, una volta esposti, possono essere riutilizzati all’infinito.

Gli attaccanti possono sfruttarli per aggirare i controlli di autenticazione, creare “deepfake” convincenti per frodi o campagne di disinformazione, o combinarli con altri dati personali per costruire identità sintetiche. Il pericolo non è solo il furto di identità, ma la perdita di controllo a lungo termine su come la propria immagine e identità vengono utilizzate.

Lezioni dalle violazioni del passato

Gli incidenti di alto profilo registrati in passato dovrebbero servire da campanello d’allarme. La violazione di Biostar 2 nel 2019 ha esposto oltre un milione di record di impronte digitali e volti a causa di una scarsa sicurezza del database. Anni prima, la violazione dell’U.S. Office of Personnel Management (OPM) ha portato alla fuga delle impronte digitali di milioni di dipendenti federali statunitensi.

In entrambi i casi, la causa principale non è stata una tecnologia biometrica difettosa, ma una cattiva igiene di sicurezza nei sistemi che archiviano questi dati critici. Ciò dimostra che anche la tecnologia più avanzata è vulnerabile se l’infrastruttura che la supporta non è adeguatamente protetta. Qualsiasi database centralizzato di dati biometrici, specialmente se su larga scala, diventa un bersaglio di altissimo valore e un potenziale singolo punto di fallimento.

Come proteggere i dati biometrici: un approccio multi-livello

Patrick Joyce, global resident CISO di Proofpoint
Patrick Joyce, global resident CISO di Proofpoint

Una protezione efficace dei dati biometrici non si affida a un’unica soluzione, ma a una strategia di difesa multi-livello e incentrata sulle persone. Le aziende devono andare oltre la semplice implementazione della tecnologia e costruire un framework di sicurezza resiliente.

 

 

I principi fondamentali includono:

  1. Ridurre l’esposizione: archiviare solo template matematici dei dati biometrici, non le immagini grezze. Questo riduce notevolmente il valore dei dati in caso di violazione.
  2. Crittografia end-to-end: crittografare tutti i dati, sia in transito che a riposo, e gestire gli accessi con controlli rigorosi.
  3. Evitare la centralizzazione: laddove possibile, evitare di creare enormi archivi centralizzati che diventano bersagli primari per gli attaccanti.

In realtà, la regola più importante è che i dati biometrici non dovrebbero mai essere l’unico fattore di autenticazione.

Crediamo in un approccio alla sicurezza basato sul rischio, che integri l’autenticazione biometrica all’interno di una strategia più estesa. Abbinando i dati biometrici ad altri fattori di autenticazione, le aziende possono implementare policy di accesso basate sul rischio, richiedendo verifiche aggiuntive solo per transazioni sensibili o attività ad alto rischio. Questa difesa a più livelli garantisce barriere aggiuntive per proteggere gli asset critici, nel caso della compromissione di un singolo fattore.

In sostanza, l’autenticazione biometrica è uno strumento potente, ma non può essere considerata uno strumento universale. La sua adozione deve essere accompagnata da una profonda comprensione dei suoi rischi unici e da un impegno a proteggere l’intero ecosistema di dati. In un panorama di minacce in continua evoluzione, la vera resilienza non deriva più da una singola tecnologia, ma da una strategia di sicurezza olistica e incentrata sulle persone, che protegga in modo efficace le identità nel mondo digitale.

SumUp potenzia il Conto Aziendale: 1,5 milioni di merchant attivi, nuove funzionalità e un percorso verso l’infrastruttura bancaria locale

0

SumUp conto aziendale continua la sua crescita nel mercato europeo dei pagamenti digitali. La fintech annuncia di aver raggiunto 1,5 milioni di commercianti attivi a livello globale sulla propria soluzione bancaria, con oltre 1 miliardo di euro di depositi complessivi. Un traguardo che conferma la strategia di SumUp come piattaforma integrata capace di unire accettazione dei pagamenti e servizi finanziari avanzati.

L’espansione del Conto Aziendale SumUp e il ruolo dell’infrastruttura locale

L’offerta SumUp conto aziendale evolve con l’introduzione di nuove funzionalità dedicate agli esercenti europei. A partire da dicembre 2025, la fintech attiva il Versamento contanti in Italia, Regno Unito, Spagna e Francia. Un servizio tipico degli istituti tradizionali, ora disponibile in pochi minuti attraverso una rete estesa di retailer partner. Il modello permette alle attività che gestiscono denaro contante di accedere più rapidamente al capitale circolante, semplificando la gestione finanziaria quotidiana.

All’inizio del 2026, l’Italia diventerà il primo mercato in cui SumUp introdurrà gli IBAN locali. Una novità particolarmente attesa dai merchant italiani, che per anni hanno utilizzato conti esteri con IBAN non locale, spesso incontrando ostacoli nei pagamenti e nei rapporti con clienti, fornitori e professionisti. Con il nuovo IBAN italiano, SumUp compie un passo ulteriore verso una piena localizzazione della propria infrastruttura bancaria, facilitando l’uso del conto come soluzione principale per la gestione finanziaria. Questa esperienza costituirà la base per introdurre l’IBAN locale anche negli altri Paesi europei.

Un ecosistema finanziario che cresce insieme agli esercenti

Combinando accettazione dei pagamenti, strumenti bancari e servizi a valore aggiunto, SumUp rafforza il suo posizionamento come partner finanziario per imprese di qualsiasi dimensione. Il conto business gratuito resta al centro dell’offerta, con accredito rapido, accesso immediato ai fondi e operatività semplificata. Il lancio del Versamento contanti e dell’IBAN locale amplia la platea di attività che possono beneficiare del Conto Aziendale SumUp e consolida un ecosistema tecnologico in continua espansione.

“Questi risultati sono più che numeri: rappresentano le basi del prossimo capitolo di SumUp. Rafforzando la nostra infrastruttura bancaria con servizi localizzati e funzionalità avanzate, ci stiamo avvicinando strategicamente a diventare un vero e proprio istituto finanziario a supporto degli esercenti europei”, afferma Luke Griffiths, Chief Commercial Officer di SumUp. “Il nostro obiettivo non è solo supportare le piccole imprese, ma crescere insieme a loro, offrendo un’esperienza finanziaria completa e affidabile”.

Una direzione confermata anche da Felix Lamouroux, SVP Global Banking: “Ogni nuova funzionalità elimina un ostacolo quotidiano per le attività commerciali. Stiamo andando oltre, permettendo ai merchant di versare in contanti i propri incassi e introducendo IBAN locali nei vari Paesi europei. La crescita dei nostri commercianti conferma l’efficacia della nostra strategia”.

Conto Aziendale Plus: la nuova proposta per business strutturati

Per rispondere alle esigenze delle imprese di dimensioni maggiori, SumUp introduce Conto Aziendale Plus, la versione premium della propria soluzione bancaria. Il servizio include carte aggiuntive, bonifici multipli, controlli finanziari avanzati e una gestione operativa più flessibile. L’obiettivo è sostenere i business in espansione con strumenti più sofisticati e un ambiente amministrativo adeguato a flussi complessi.

Verso una piattaforma finanziaria completa, modulare e scalabile

SumUp conto aziendale si posiziona oggi come un ecosistema bancario integrato che punta a unire pagamenti, servizi digitali, credito e gestione finanziaria in un unico ambiente. Le nuove funzionalità – dagli IBAN locali al Versamento contanti – rafforzano la strategia di localizzazione e rappresentano un passo decisivo verso una piattaforma sempre più completa, capace di supportare commercianti, professionisti e imprese in ogni fase del loro percorso.

Var Group e Perspective AI uniscono le forze per accelerare l’adozione dell’AI nelle imprese italiane

La collaborazione tra Var Group e Perspective AI segna un nuovo punto di svolta nell’adozione dell’intelligenza artificiale nel mid-market industriale e nei servizi. Dall’intesa nasce iSquared, una metodologia strutturata pensata per portare l’AI nei processi critici di business, superando il divario che oggi separa la sperimentazione dall’impatto reale.

Una partnership strategica per colmare il GenAI Divide

Var Group, multinazionale del digitale parte del Gruppo SeSa, e Perspective AI, realtà specializzata nell’efficientamento dei processi aziendali, hanno siglato una partnership che va oltre la semplice collaborazione commerciale. L’accordo prevede anche la possibilità per Var Group di entrare nel capitale della società, con l’obiettivo di rafforzare una visione comune: portare l’AI enteprise nei flussi operativi delle imprese, con una logica industriale e sostenibile.

Secondo le due aziende, molte organizzazioni restano bloccate nella fase di sperimentazione. Il mercato mostra un quadro frammentato: il 40% non avvia progetti di AI pur riconoscendone il valore, un altro 40% adotta strumenti di GenAI solo per attività individuali e il 20% che avvia iniziative strutturate vede tre quarti dei progetti fallire prima della fase produttiva. Per tradurre il potenziale dell’intelligenza artificiale in valore concreto, serve un approccio diverso, che parta da processi e persone prima che da algoritmi e dati.

iSquared: una metodologia per trasformare l’AI in vantaggio competitivo

La risposta a questa esigenza è iSquared, la metodologia nata dalla collaborazione tra Perspective AI e Var Group. Il modello parte da un principio netto: per attivare l’AI in modo efficace, il 70% dello sforzo deve concentrarsi sul change management, sulla revisione dei flussi operativi e sulla comprensione dei processi aziendali, mentre solo il 30% riguarda aspetti tecnologici e di data engineering.

iSquared è pensata per ridurre il rischio di implementazioni frammentate, con un percorso progressivo che valuta il valore prima dell’investimento, ridisegna i workflow end-to-end e accompagna l’impresa nel passaggio dalla fattibilità all’adozione. Il metodo include laboratori di test e strumenti specifici per permettere ai C-Level di prendere decisioni informate, trasformando la conoscenza aziendale in un asset strutturato nel tempo.

L’integrazione tra le competenze tecniche di Perspective AI e l’ecosistema di Var Group – data engineering, cloud architecture e cybersecurity – crea un’infrastruttura robusta, pensata per evolvere insieme alle esigenze dell’impresa.

Il punto di vista di Var Group

“Abbiamo imparato che applicare l’AI alle organizzazioni senza ripensare il modo di lavorare ha un impatto limitato. Dobbiamo puntare all’integrazione delle intelligenze: interconnessione, superamento della linearità gerarchica e una vera collaborazione tra persone e architetture digitali. È fondamentale riprogettare i processi e valorizzare l’input umano. Per questo sono orgogliosa di annunciare la nostra partnership con Perspective AI e la metodologia iSquared, che analizza i processi dell’impresa, identifica quelli da riscrivere e li abilita per sfruttare al massimo il valore dell’AI, con un supporto step by step. Il vero impatto non è automatico: si ottiene quando strategia, processi e persone vengono ripensati in modo coerente”, afferma Francesca Moriani, CEO di Var Group.

Il punto di vista di Perspective AI

“Per la prima volta nella storia, le aziende possono trasformare il proprio know-how, la conoscenza delle persone in un vero asset patrimoniale. L’AI non solo automatizza: è in grado di apprendere, strutturare e replicare le correlazioni di pensiero che guidano le decisioni umane. Questo significa che la conoscenza tacita diventa finalmente capitalizzabile. Ma questo salto richiede un ripensamento radicale. Introdurre l’AI senza prima comprendere processi, persone, dati e architetture preesistenti porta a costi più alti e, nella maggior parte dei casi, al fallimento dei progetti. Con iSquared abbiamo sviluppato una metodologia che accompagna le imprese proprio in questo: patrimonializzare i dati e il know-how, rendere intelligenti i flussi operativi e costruire sistemi capaci di evolvere nel tempo. E c’è un punto fondamentale: senza input umano originale, i modelli collassano. Il valore reale dell’AI nasce dall’incontro tra l’esperienza delle persone e la capacità delle macchine di amplificarla. L’uomo non è al centro per principio, ma per necessità”, dichiara Lorenzo Maternini, CEO e founder di Perspective AI.

Tech Trends 2026: le previsioni di Colt su AI, sovranità, edge e normative

0

Colt Technology Services ha pubblicato le principali tech trends di mercato che, secondo le sue previsioni, domineranno l’agenda dei CIO nel 2026. Sulla base delle opinioni dei clienti, delle informazioni di mercato e delle sue ricerche proprietarie, Colt prevede che l’inferenza AI, l’evoluzione del NaaS verso il “NaaS 2.0” e la sicurezza quantistica plasmeranno il panorama tecnologico nei prossimi 12 mesi.

Buddy Bayer Colt
Buddy Bayer

I CIO continueranno ad affrontare difficoltà nel 2026 dovendo bilanciare complessi programmi di trasformazione aziendale su larga scala, spesso incentrati sull’intelligenza artificiale, con programmi di riduzione dei costi in un contesto normativo in continua evoluzione”, ha affermato Buddy Bayer, Chief Operating Officer di Colt Technology Services. “Ma ci sono anche enormi opportunità: i programmi di AI stanno iniziando a maturare, l’infrastruttura digitale ha una capacità sempre maggiore e stiamo assistendo a un’evoluzione di soluzioni come il NaaS che stanno ridefinendo le nostre esperienze digitali. È un momento entusiasmante e, in Colt, guidiamo questo cambiamento insieme ai nostri clienti”.

Ecco il testo rielaborato: mantengo integralmente la struttura e i paragrafi che mi hai fornito, ma li rendo molto più SEO-oriented, con keyword ben distribuite e una maggiore densità semantica su intelligenza artificiale, AI 2026, AI enterprise, sovranità del dato, NaaS, sicurezza quantistica, edge computing, multi-cloud, AI regulation.

Tech Trends
Maturità dell’AI

Nuovi modi per generare ROI dall’intelligenza artificiale

Nel 2026 la maturità dell’intelligenza artificiale diventerà un fattore competitivo chiave. Le aziende continueranno a investire in AI, ma il tema centrale sarà finalmente la generazione di ROI misurabile. Una ricerca di Colt mostra che un’azienda internazionale su cinque spende 750.000 dollari l’anno in AI, mentre il 95% degli intervistati in un recente studio del MIT dichiara di non aver ancora ottenuto ritorni concreti. Questo divario tra investimento e valore si ridurrà nel 2026: i progetti di AI entreranno in fase produttiva, emergeranno nuovi modelli di monetizzazione e un numero crescente di vendor offrirà framework di valutazione della maturità dell’AI, metriche di ROI e strumenti per misurare l’impatto reale delle iniziative di AI enterprise.

Inferenza AI e Agentic AI

Nel 2026 l’inferenza dell’intelligenza artificiale raggiungerà un livello di maturità senza precedenti, passando dagli esperimenti ai carichi di lavoro reali all’interno delle infrastrutture IT. L’inferenza AI analizzerà dati in tempo reale, genererà insight operativi, abiliterà previsioni più accurate e supporterà decisioni contestuali. McKinsey prevede che entro il 2030 rappresenterà la maggior parte dei workload AI. Parallelamente, l’Agentic AI diventerà un motore chiave dell’automazione, come indica una ricerca IEEE: agenti intelligenti orchestreranno attività quotidiane dei consumatori, dalla gestione della privacy alla sanità digitale, fino alla pianificazione delle attività domestiche. L’accelerazione dell’inferenza AI alimenterà questa transizione.

Rete geografica (WAN) basata su intelligenza artificiale

Secondo Colt, molte aziende stanno valutando come ottimizzare prestazioni, latenza e sicurezza dell’infrastruttura in vista dell’esecuzione di carichi di lavoro AI sempre più pesanti. L’AI WAN sposta la conversazione verso reti geografiche software-defined progettate appositamente per l’AI, capaci di analizzare e instradare dinamicamente il traffico in funzione delle esigenze applicative. Questa evoluzione renderà la rete un elemento attivo e intelligente nell’abilitare performance affidabili e protezione dei dati nei flussi AI.

I cambiamenti nel traffico stimoleranno l’innovazione nelle tecnologie di rete sostenibili

La crescita dei workload AI trasmessi sui cavi transatlantici aumenterà in modo significativo nel 2026. Le stime indicano un salto dall’8% della capacità complessiva nel 2025 al 30% nel 2035, con un impatto notevole sulle rotte globali. Per sostenere questa domanda, partnerships internazionali e sperimentazioni tecnologiche introdurranno nuove soluzioni di rete capaci di incrementare prestazioni e resilienza senza accrescere consumi energetici ed emissioni. La sostenibilità diventerà quindi un driver dell’innovazione nelle reti AI-ready.

Intelligenza Artificiale sovrana

L’AI sovrana diventerà una priorità strategica nel 2026. Con l’incremento degli investimenti nazionali e la progressiva applicazione delle normative globali sulla governance dell’AI, governi e imprese si orienteranno verso modelli autonomi, sviluppando sistemi di AI basati su dati, infrastrutture e competenze interne. L’obiettivo è mantenere controllo tecnologico, proteggere proprietà intellettuale e garantire resilienza. L’AI sovrana assumerà un ruolo rilevante per i CIO, soprattutto nei settori regolamentati e nelle economie che puntano alla leadership nell’AI.

Modelli As-A-Service
NaaS 2.0

Il Network-as-a-Service continuerà a crescere rapidamente, alimentato da AI, edge computing, cloud ibrido e dalla necessità di adottare modelli più flessibili. Secondo una ricerca Colt, il 58% dei 1.500 CIO aumenterà l’uso di funzionalità NaaS proprio per supportare i carichi di lavoro legati all’AI. Nel 2026 emergerà il NaaS 2.0: una piattaforma di rete intelligente, automatizzata, autonoma e progettata per rispondere in tempo reale alle esigenze delle aziende AI-native. Non sarà più solo un modello operativo, ma un abilitatore strategico delle applicazioni basate su intelligenza artificiale.

Quantum security
Sicurezza quantistica

Aumentano gli investimenti nella sicurezza quantistica con l’avvicinarsi del Q Day

La crescita della potenza computazionale quantistica impone nuove priorità ai team IT. Con l’aumento della consapevolezza sui rischi post-quantistici, governi e imprese stanno accelerando gli investimenti nella sicurezza quantistica. Forrester prevede che entro il 2026 oltre il 5% del budget IT sarà destinato a tecnologie di protezione quantistica, mentre The Quantum Insider stima un CAGR superiore al 50% fino al 2030, per un mercato da 10 miliardi di dollari.
L’avvicinarsi del cosiddetto Q Day – il momento in cui i computer quantistici riusciranno a decifrare le attuali tecniche crittografiche – spingerà verso l’adozione di soluzioni come la crittografia post-quantistica (PQC) e la distribuzione quantistica delle chiavi (QKD). Il 2026 sarà un anno decisivo per test e implementazioni contro i rischi quantistici.

Tecnologie LEO – e quantistica

Il 2026 segnerà anche una forte accelerazione delle tecnologie satellitari in orbita terrestre bassa (LEO), fondamentali per la connettività nelle zone remote e per la resilienza delle infrastrutture aziendali. Colt sperimenterà l’uso della connettività LEO per distribuire chiavi quantistiche, superando i limiti di distanza della QKD terrestre e aprendo la strada a reti globali realmente protette contro il rischio quantistico. In parallelo, saranno avviate sperimentazioni spaziali e sottomarine che estenderanno ulteriormente la sicurezza quantistica.

Modelli di cloud computing ibrido
Ecosistemi multi-cloud, ibridi ed edge

Nel 2026 il multi-cloud diventerà l’approccio dominante. Le imprese cercheranno maggiore resilienza e flessibilità, abbandonando la dipendenza da un unico fornitore. API più aperte, interconnessioni sicure tra hyperscaler e servizi forniti da aggregatori renderanno l’ecosistema cloud più interoperabile e competitivo.

L’edge computing crescerà parallelamente, trainato dall’espansione dell’inferenza AI, dall’analisi real-time e dagli obblighi di data sovereignty. I provider cloud di nuova generazione porteranno capacità computazionali sempre più vicine alla fonte dei dati, mentre gli hyperscaler continueranno a investire in potenza centralizzata. Entrambe le strategie saranno indispensabili per sostenere workload AI sempre più distribuiti. Le previsioni parlano di un CAGR del 33% dal 2025 al 2033, segnale di una domanda esplosiva di architetture edge-distributed in nuove regioni.

Quadri normativi più rigorosi

Il 2026 sarà un anno cruciale per la regolamentazione dell’intelligenza artificiale e della cybersecurity. La maggior parte degli obblighi dell’AI Act europeo entrerà in vigore il 2 agosto 2026, mentre alcune regole sui sistemi AI ad alto rischio potrebbero essere posticipate. A settembre 2026 scatteranno anche gli obblighi di rendicontazione previsti dalla legge UE sulla resilienza informatica e i requisiti graduali del Data Act.

Sul fronte della governance, lo standard ISO/IEC 42001:2023 spingerà CIO e CAIO a integrare processi di AI governance nelle architetture enterprise e nelle strategie di procurement. Allo stesso tempo, Digital Services Act e Digital Markets Act avranno impatti operativi significativi.
Nel Regno Unito l’attenzione sarà rivolta al Cyber Security and Resilience Bill, mentre in Asia Giappone e Singapore introdurranno nuove misure nell’ambito dell’AI Promotion Act e della National AI Strategy 2.0. L’effetto combinato sarà un forte aumento della compliance, destinata a influenzare ogni progetto di AI enterprise.

Airgap+ si espande: i modelli di switch e router QNAP compatibili

0

QNAP ha annunciato oggi che la sua funzione di backup isolata dalla rete Airgap+ è ora supportata da alcuni switch QNAP. Questo miglioramento consente alle organizzazioni che non possono aggiungere router, o che preferiscono il controllo dei collegamenti a livello di switch, di implementare Airgap+ in una gamma più ampia di ambienti di rete e architetture di backup.

Spiega Jack Wang, Product Manager di QNAP: “L’aggiunta della compatibilità con gli switch ad Airgap+ è un passo importante verso l’offerta di opzioni di backup air-gapped più flessibili e resilienti per diverse reti aziendali. Continueremo ad ampliare il supporto per garantire che un numero maggiore di clienti possa creare una base sicura e affidabile per la protezione dei dati”.

QNAP: ecco i modelli supportati

Serie Velocità Modello
Switch Serie 7000 100GbE QSW-M7308R-4X
Switch Serie 3000 10GbE QSW-M3224-24T
QSW-M3212R-8S4T
QSW-M3216R-8S8T
QSW-IM3216-8S8T
Router Serie QHora 10GbE QHora-322
Router Serie QHora 2,5GbE QHora-321

 

Vantaggi principali del NAS QNAP con soluzione di backup isolata Airgap+

Cos’è Airgap+
Airgap+ è una funzione di QNAP, integrata in Hybrid Backup Sync (HBS 3), pensata per creare backup con vero isolamento “air-gap”: il sistema di backup rimane scollegato dalla rete tranne che durante la copia.

Come funziona
La connessione tra NAS sorgente e NAS di destinazione viene attivata solo per il tempo necessario al backup. Al termine, il sistema si disconnette automaticamente, lasciando il NAS di backup isolato e non raggiungibile da eventuali minacce.

Perché è utile
Riduce in modo significativo la superficie di attacco e protegge i backup da malware e ransomware, garantendo ripristini rapidi, sicuri e con un’elevata integrità dei dati.

  • Implementazione semplice: Airgap+ può essere abilitato direttamente sul NAS tramite le impostazioni del processo di backup HBS. Gli utenti possono selezionare facilmente la porta fisica utilizzata per la connessione di backup isolata.
  • Pronto per carichi di lavoro ad alta larghezza di banda: Il NAS QNAP e gli switch supportati offrono una connettività fino a 100GbE, ideale per la produzione multimediale, la post-produzione e gli ambienti di backup dati su larga scala.
  • Recupero più rapido: un throughput più elevato contribuisce a ridurre i tempi di ripristino, minimizzando i tempi di inattività durante le operazioni di recupero critiche.
  • Maggiore semplicità di manutenzione: Airgap+ sfrutta i dispositivi di rete QNAP supportati e non richiede alcun dispositivo air-gap dedicato, riducendo la complessità complessiva del sistema.
  • Controllo remoto dell’alimentazione: i dispositivi NAS possono essere accesi o spenti da remoto per una maggiore efficienza operativa e praticità.

Requisiti del sistema operativo

  • Switch: QSS Pro v4.3.0 (o versioni successive)
  • Router: QuRouter v2.4.2 (o versioni successive)

Leggi tutti i nostri articoli su QNAP

Vaultica debutta come nuovo player europeo dei data center enterprise

0

Vaultica inaugura il proprio percorso come realtà indipendente nel settore della colocation enterprise, dopo lo spin-off da STACK Infrastructure e l’acquisizione da parte dei fondi infrastrutturali gestiti da Apollo. L’operazione dà vita a un provider paneuropeo specializzato in soluzioni sicure, flessibili e ad alte prestazioni, con una presenza distribuita nei principali hub tecnologici del continente. Con sette data center operativi e nuovi siti in fase di sviluppo, l’azienda punta a diventare il riferimento europeo per qualità, affidabilità e interconnessione, in un mercato in cui la domanda di infrastrutture critiche continua ad accelerare.

Vaultica, una rete paneuropea costruita su sicurezza, resilienza e interconnessione

Vaultica gestisce sette strutture interconnesse situate in cinque poli metropolitani chiave: Milano, Ginevra, Copenaghen, Stoccolma e Oslo. Si tratta di ambienti di colocation alimentati da energia rinnovabile, progettati con architetture efficienti e con un approccio alla sicurezza che protegge dati e risorse dalle minacce attuali e future. L’azienda serve un portafoglio diversificato di organizzazioni, dagli operatori di telecomunicazioni ai cloud provider, fino alle istituzioni finanziarie, confermando una focalizzazione su settori mission critical che richiedono affidabilità assoluta.

Accanto all’infrastruttura, Vaultica offre servizi di connettività e assistenza on-site pensati per garantire continuità operativa e massima flessibilità. L’obiettivo è permettere alle imprese di adattare rapidamente le proprie capacità infrastrutturali all’evoluzione dei business digitali, con una relazione diretta e consultiva che rappresenta un tratto distintivo del nuovo brand.

Identità e visione: tecnologia solida, relazione con il cliente centrale

Guidata dal motto “Our technology connects. Our people go beyond.”, Vaultica costruisce la propria identità sulla combinazione tra eccellenza tecnica e attenzione alle persone. La metafora della “cassaforte digitale” sintetizza la missione dell’azienda, che punta a garantire un ambiente affidabile, resiliente e progettato per proteggere la risorsa più preziosa delle imprese: i dati.

In questo quadro si inserisce la visione tracciata dal CEO Sherif Rizkalla, che sottolinea come il nuovo brand ambisca a diventare un punto di riferimento europeo per qualità e innovazione nel settore dei data center. Come dichiarato dal CEO, “La nostra missione è connettere, proteggere e andare costantemente oltre, facendo sempre la differenza nel settore. Vaultica è nata con l’ambizione di diventare il punto di riferimento europeo per qualità, affidabilità e innovazione nel settore dei data center, offrendo una combinazione unica di tecnologie all’avanguardia e una forte attenzione alle persone. La nostra forza risiede nella capacità di ascoltare e anticipare le esigenze dei clienti, fornendo soluzioni concrete e mantenendo i più alti standard di sicurezza dei dati, mentre costruiamo relazioni di fiducia e valore grazie a un ecosistema di interconnessione pan-Europeo consolidato.”

Con questo approccio, l’azienda non propone soltanto infrastrutture, ma un modello operativo che mette al centro consulenza, prossimità e supporto continuo.

Crescita, investimenti e strategia a lungo termine di Vaultica

Con il sostegno dei fondi Apollo, Vaultica accelera il proprio piano di sviluppo. La strategia prevede nuovi investimenti nei Paesi in cui è già presente, l’ampliamento della rete paneuropea e l’ingresso in mercati ad alta domanda di connettività e capacità computazionale. Per supportare questa espansione, l’azienda avvierà nuove assunzioni mirate a rafforzare le competenze e sostenere la crescita internazionale.

In un contesto in cui la trasformazione digitale richiede infrastrutture sempre più performanti e geograficamente distribuite, Vaultica punta a diventare un asse portante per imprese, service provider e realtà finanziarie che ricercano ambienti di colocation sicuri, interconnessi e gestiti con standard operativi di livello enterprise. L’obiettivo è offrire piattaforme capaci di accompagnare l’evoluzione dei mercati, garantendo alle aziende la possibilità di crescere nei territori in cui desiderano operare.

Un nuovo riferimento europeo per la colocation enterprise

Vaultica entra nel mercato con un posizionamento chiaro: un provider paneuropeo focalizzato su sicurezza, prestazioni e relazione con il cliente. La combinazione tra infrastrutture distribuite, standard tecnici elevati e una forte impronta consulenziale definisce un nuovo modello di data center orientato al futuro, pensato per supportare le organizzazioni in un’epoca di espansione della domanda di capacità digitale, edge computing e servizi a bassa latenza.

Con la sua rete in crescita e una visione strategica supportata da investimenti solidi, Vaultica si candida a diventare un protagonista centrale dell’ecosistema europeo dei data center, offrendo una piattaforma affidabile per una crescita sostenibile e sicura.

Adobe porta Photoshop, Express e Acrobat in ChatGPT: creatività conversazionale per tutti

Adobe porta Photoshop, Adobe Express e Adobe Acrobat in ChatGPT, mettendo a disposizione dei suoi 800 milioni di utenti le sueapp creative e di produttività leader di settore.

Le app Adobe per ChatGPT si basano sulle innovazioni di Adobe nell’AI agentica, permettendo a chiunque di migliorare facilmente foto delle vacanze, creare inviti per eventi o realizzare documenti professionali semplicemente descrivendo ciò che desidera ottenere. Grazie all’unione della potenza della tecnologia creativa Adobe con l’interfaccia conversazionale di ChatGPT, le app Adobe rendono la creatività accessibile a tutti.

“Siamo entusiasti di portare Photoshop, Adobe Express e Acrobat direttamente in ChatGPT, dove la tecnologia creativa Adobe incontra l’intuitività della conversazione, permettendo a tutti di dare vita alle proprie idee”, ha dichiarato David Wadhwani, presidente Digital Media di Adobe. “Ora modificare con Photoshop è semplice: centinaia di milioni di persone possono farlo usando solo le parole, all’interno della piattaforma che già frequentano quotidianamente.”

Il lancio di Photoshop, Adobe Express e Acrobat per ChatGPT si inserisce nelle costanti innovazioni di Adobe nel campo delle esperienze conversazionali potenziate dall’AI agentica e dal Model Context Protocol (MCP).

All’inizio di quest’anno, Adobe ha presentato Acrobat Studio, uno spazio dedicato a produttività e creatività che trasformano documenti statici in ambienti interattivi guidati dall’AI, dove gli utenti possono fare domande, ottenere informazioni e creare facilmente contenuti di grande impatto a partire dai propri PDF. Durante Adobe MAX, Adobe ha introdotto gli AI Assistant per Photoshop e Adobe Express, strumenti che consentono a chiunque di creare usando le proprie parole e perfezionare i risultati con gli strumenti di livello mondiale di Adobe. Inoltre, è stata mostrata un’anteprima di un prossimo AI Assistant per Adobe Firefly, pensato per aiutare i creator a trasformare rapidamente le proprie idee in contenuti completi, lavorando su più app Adobe.

Le app creative e di produttività più importanti di Adobe ora in ChatGPT

Le app Adobe per ChatGPT portano gli strumenti principali dell’azienda anche a chi non ha ancora familiarità con le sue app. Gli utenti possono utilizzare molte delle funzionalità più diffuse direttamente nella chat, modificando i contenuti tramite comandi conversazionali o intervenendo con strumenti intuitivi, come i cursori di Photoshop per regolare luminosità e contrasto delle immagini. Accedere alle app Adobe in ChatGPT è semplice: basta digitare il nome dell’app seguito dall’istruzione desiderata.

Ad esempio, per sfocare lo sfondo di un’immagine con Photoshop, gli utenti possono scrivere: “Adobe Photoshop, aiutami a sfocare lo sfondo di questa immagine.” ChatGPT rileva automaticamente l’app e, grazie alla comprensione contestuale, guida l’utente passo passo nell’operazione.

adobe chatgpt

Cosa offre l’interazione fra Adobe e ChatGPT agli utenti

Modificare e migliorare immagini con Adobe Photoshop: intervenire su parti specifiche di un’immagine, regolare impostazioni come luminosità, contrasto e di esposizione, e applicare effetti creativi come Glitch e Glow, mantenendo la qualità dell’immagine.·

Creare e personalizzare design con Adobe Express: esplorare l’ampia libreria di design professionali di Adobe Express per trovare quello più adatto a ogni occasione, modificare testi e immagini, animare i design e perfezionare le modifiche, tutto direttamente nella chat e senza dover passare a un’altra app.

Trasformare e organizzare documenti con Adobe Acrobat: modificare PDF direttamente nella chat, estrarre testi o tabelle, organizzare e unire più file, comprimere documenti e convertirli in PDF mantenendo formato e qualità.

Acrobat per ChatGPT permette anche di oscurare facilmente informazioni sensibili. Grazie alle funzionalità integrate in ChatGPT, Adobe amplia l’accesso alle sue app più utilizzate, raggiungendo nuovi utenti nei contesti in cui già operano.

Chi desidera sfruttare pienamente la potenza e la precisione degli strumenti Adobe può passare senza soluzione di continuità da ChatGPT alle app native di Adobe e riprendere il lavoro esattamente da dove lo aveva lasciato.

Prezzi e disponibilità

Photoshop, Adobe Express e Acrobat per ChatGPT sono gratuiti per tutti gli utenti ChatGPT a livello globale e disponibili da oggi su desktop, web e iOS. Adobe Express per ChatGPT è disponibile anche su Android, mentre il supporto per Photoshop e Acrobat su Android sarà introdotto prossimamente.

AI in Italia: fiducia alta, affidabilità bassa. Cosa significa davvero

L’Italia sta attraversando una fase decisiva nell’adozione dell’AI, ma la velocità della diffusione non coincide ancora con un livello adeguato di affidabilità. È ciò che emerge dal report IDC Data & AI Impact Report: The Trust Imperative, commissionato da SAS, che evidenzia una distanza significativa fra il grado di fiducia che le aziende italiane ripongono nell’AI e la reale maturità dei sistemi che stanno implementando.

Una parte consistente delle organizzazioni si colloca nella cosiddetta zona a rischio, dove l’alta fiducia si scontra con una bassa affidabilità dei sistemi. In questo scenario diventa concreto il pericolo di adottare soluzioni non sufficientemente governate o supportate da processi di controllo maturi. All’estremo opposto, un numero non trascurabile di imprese mostra sia bassa fiducia sia bassa affidabilità, segnale di un potenziale non ancora espresso e che potrebbe emergere solo attraverso un rafforzamento delle basi di governance, qualità del dato e supervisione.

Secondo il report, soltanto il 6% delle aziende italiane raggiunge un equilibrio tra fiducia e affidabilità, una percentuale inferiore sia alla media globale sia a quella europea. Il risultato è un ecosistema che avanza nell’adozione dell’AI, ma non dispone ancora degli strumenti necessari per renderla affidabile, scalabile e sostenibile.

L’indice di impatto dell’AI cresce, ma la governance non segue lo stesso passo

L’Italia registra un indice di impatto dell’AI pari a 3,01 su 5, in linea con altri Paesi europei, mentre l’indice di affidabilità si ferma a 2,73. Questo divario evidenzia che l’AI sta generando valore, specialmente in termini di produttività, innovazione e customer experience, ma lo sta facendo su fondamenta ancora parziali. La maturità dell’AI è distribuita in modo eterogeneo: il 41% delle organizzazioni opera con iniziative orientate all’intera struttura aziendale ma con obiettivi a breve termine, mentre il 40% ha portato l’AI in modo continuativo dentro operation e servizi.

È un dato incoraggiante, perché indica che l’Italia non è più ferma ai progetti pilota. Tuttavia, la trasformazione resta esposta a rischi crescenti se l’adozione non viene accompagnata da processi di data governance robusti, modelli di controllo trasparenti e strumenti adeguati per monitorare qualità e affidabilità dei sistemi.

L’infrastruttura dati è più solida del previsto, ma non basta

Le imprese italiane mostrano un livello di maturità dei dati superiore alle attese: il 27% dispone di un’infrastruttura gestita e il 52% di un modello standardizzato, con processi chiari e governance in evoluzione. La quota di aziende con architetture immature o frammentate è inferiore alla media globale, un indicatore positivo che segnala investimenti continuativi negli ultimi anni.

Questa solidità, però, non compensa due criticità che continuano a frenare la crescita dell’AI nel Paese. La prima è la qualità dei dati: le organizzazioni italiane dichiarano difficoltà nella preparazione delle informazioni, nella piena affidabilità delle fonti e nei costi associati all’elaborazione. La seconda criticità riguarda l’accesso ai dati, ancora complesso e oneroso per una parte significativa delle aziende. Senza basi informative solide, qualsiasi iniziativa AI rischia di non scalare o di produrre risultati non affidabili.

La competenza è il vero anello mancante dell’AI in Italia

Secondo il report, la carenza di talenti è l’ostacolo più significativo alla maturità dell’AI. La mancanza di personale qualificato viene segnalata con un’incidenza nettamente superiore rispetto alla media globale. A questo si aggiungono una data governance non sempre strutturata, un numero insufficiente di figure con competenze tecniche specifiche e un supporto limitato da parte del management.

Il risultato è un rallentamento tangibile nell’evoluzione dell’AI, soprattutto nelle tecnologie emergenti come l’AI generativa e l’agentic AI, che richiedono skill avanzati e una supervisione costante.

Un mercato che cresce, ma che deve consolidare le fondamenta

Il quadro complessivo mostra un ecosistema dinamico, in rapida crescita e ormai oltre la fase sperimentale. Le imprese italiane stanno integrando l’AI nei processi in modo più esteso rispetto alla media globale, ma senza un rafforzamento deciso su governance, qualità dei dati e competenze rischiano di amplificare il divario tra fiducia e affidabilità.

L’Italia ha una base solida da cui partire e una domanda in crescita. Ora serve consolidare le fondamenta per trasformare la spinta all’adozione in valore sostenibile, risolvendo il dilemma della fiducia che oggi limita il pieno potenziale dell’intelligenza artificiale nel Paese.

Kaspersky Automated Security Awareness Platform: arriva il supporto SCORM e PDF

Kaspersky ha introdotto un aggiornamento alla sua Automated Security Awareness Platform, aggiungendo il supporto completo ai formati PDF e SCORM (Sharable Content Object Reference Model), lo standard di riferimento nel settore per la creazione e la gestione dei contenuti di e-learning. Grazie a questo miglioramento, le aziende possono ora sviluppare programmi di formazione sulla sicurezza informatica completamente personalizzati, modellati sulla propria infrastruttura, sul profilo di rischio e sulle politiche interne, continuando al contempo a beneficiare dei contenuti specialistici e delle simulazioni di phishing sviluppati dagli esperti Kaspersky.

Secondo il report “Redefining the Human Factor in Cybersecurity” di Kaspersky, la reazione dei dipendenti ai tentativi di phishing rappresenta una delle principali cause degli incidenti informatici nelle aziende a livello globale, contribuendo al 21% dei casi analizzati. Allo stesso tempo, un’altra ricerca di Kaspersky evidenzia come gli attacchi di social engineering siano destinati a crescere più di qualsiasi altra tipologia nel prossimo futuro: l’87% degli intervistati ritiene infatti che tali attacchi diventeranno ancora più efficaci grazie all’impiego di strumenti di intelligenza artificiale.

Il nuovo aggiornamento della Kaspersky Automated Security Awareness Platform (Kaspersky ASAP) affronta direttamente diverse sfide persistenti: dalla riduzione degli incidenti legati al fattore umano alla diminuzione del tempo necessario per gestire i programmi di formazione, fino alla mitigazione dei rischi normativi e di conformità e alla minimizzazione dei potenziali danni legali o reputazionali derivanti da violazioni della sicurezza informatica. Grazie al nuovo supporto SCORM, la piattaforma offre una flessibilità ancora maggiore: le aziende possono ora caricare, monitorare e gestire i propri materiali didattici basati su SCORM direttamente all’interno del sistema. Inoltre, l’introduzione del supporto ai PDF consente di accelerare la creazione e l’erogazione dei programmi formativi, sfruttando un formato immediato e semplice da produrre.

Questo aggiornamento consente alle aziende di modellare la formazione sulle proprie tecnologie, nonché sulle minacce emergenti specifiche del loro settore o della loro area geografica. Le organizzazioni che hanno già investito in corsi SCORM di terze parti o nello sviluppo di contenuti formativi interni possono ora riutilizzare senza difficoltà i moduli esistenti, tutelando gli investimenti effettuati e rafforzando al contempo la propria postura di sicurezza informatica.

La combinazione dei contenuti integrati di Kaspersky, basati su casi reali identificati dagli esperti dell’azienda, con i materiali PDF o i moduli SCORM dei clienti offre un approccio realmente completo alla gestione dei rischi legati al fattore umano. Le organizzazioni possono affiancare agli scenari aggiornati degli attacchi informatici di Kaspersky le proprie politiche interne, i flussi di lavoro specifici e le lezioni rilevanti per il settore, assicurando una formazione perfettamente allineata alle esigenze dei dipendenti e alle effettive sfide operative.

Il comportamento umano resta uno degli elementi più imprevedibili nella sicurezza informatica e, allo stesso tempo, uno dei più facili da sfruttare per gli aggressori. Con l’aggiunta del supporto SCORM alla Kaspersky Automated Security Awareness Platform, offriamo alle organizzazioni la flessibilità necessaria per sviluppare programmi di formazione realmente aderenti alle loro esigenze interne. In combinazione con i contenuti creati dagli esperti di Kaspersky e con i dati provenienti da attacchi reali, questo aggiornamento permette alle aziende di realizzare programmi di sensibilizzazione più adattivi, pertinenti e incisivi rispetto al passato”, ha commentato Svetlana Kalashnikova, Security Awareness Expert di Kaspersky.

AI agentica 2026: la visione di Google Cloud per imprese e PA italiane

Spesso, il dibattito sull’Intelligenza Artificiale è stato dominato da un clamore legato a speculazioni e scenari futuristici come l’AGI (Intelligenza Artificiale Generale).

Sebbene il percorso verso sistemi sempre più intelligenti sia reale, stiamo rischiando di trascurare il valore sostanziale e quantificabile che questa tecnologia offre alle aziende già oggi.

La mia previsione per il 2026 è chiara: l’AI Agentica sarà il fattore singolo più importante nel ridisegnare il panorama competitivo, anche in Italia. Non parliamo di chatbot “migliorati”, ma di sistemi autonomi e multi-step capaci di agire e reagire per raggiungere obiettivi complessi.  Questi sistemi devono fondarsi su standard condivisi per garantire interoperabilità e sicurezza.

Per questo supportiamo protocolli aperti come l’Agent2Agent e il nuovo Agent Payments Protocol, pensato per garantire transazioni sicure e verificate tra agenti. È un ecosistema che stiamo costruendo con partner globali e locali come Nexi, che sta integrando queste tecnologie per semplificare i pagamenti per gli esercenti europei.Le aziende italiane stanno quindi superando la fase di sperimentazione e adottando una nuova generazione di applicazioni abilitate dall’AI che trasformano direttamente le operazioni, creano modelli di business completamente nuovi e ridefiniscono radicalmente il modo in cui lavoriamo.

I flussi di lavoro “agentici” diventano parte integrante dei processi aziendali

Stiamo assistendo all’evoluzione da singoli assistenti AI a veri e propri sistemi agentici: agenti che collaborano tra loro per automatizzare processi complessi. Questo spinge l’AI oltre la semplice modalità “domanda e risposta”, verso sistemi davvero autonomi focalizzati su funzioni aziendali specifiche e ad alto valore.Per rendere tutto questo accessibile, nuove piattaforme per le imprese – come Gemini Enterprise – consentono alle aziende di orchestrare agenti AI, connetterli in modo sicuro ai dati aziendali ovunque risiedano e integrarli nel flusso quotidiano di ogni dipendente, trasformando non solo i singoli compiti ma interi processi di business.Il mio consiglio per il 2026 alle imprese italiane è questo: focalizzate l’AI agentica inizialmente su micro-attività complesse, ripetitive e ad alto volume per ottenere un ritorno sull’investimento immediato. Questi flussi stanno già trasformando settori chiave:

  • Nei servizi pubblici gli agenti automatizzeranno processi end-to-end come la registrazione dei veicoli o la gestione dei reclami dei cittadini (es. buche stradali) e l’apertura di ticket di servizio tra i vari dipartimenti. In Italia, realtà come la Regione Umbria stanno già sperimentando come l’AI possa migliorare la gestione delle segnalazioni e dei servizi ai cittadini, anticipando il potenziale degli agenti in processi critici della PA.
  • In ambito sanitario l’automazione delle attività amministrative libera il personale clinico automatizzando processi amministrativi, come le pre-autorizzazioni, permettendo ai medici di concentrarsi sulla cura del paziente.
  • Nel settore manifatturiero gli agenti possono prevedere e pianificare autonomamente le riparazioni, riducendo significativamente i tempi di fermo imprevisti e ottimizzando la catena di produzione.
Raffaele Gigantino, Country Manager Italia, Google Cloud
Raffaele Gigantino, Country Manager Italia, Google Cloud

L’AI Agentica offrirà esperienze di qualità e personalizzate

Nel 2026, gli agenti AI e i media generativi abiliteranno un servizio in stile “concierge”, creando esperienze iper-personalizzate ed emotivamente coinvolgenti. Questo avrà un impatto enorme su settori come il Fashion, il Retail e le industrie creative, dove la velocità e la personalizzazione erano precedentemente limitate. In Italia realtà come Unieuro stanno già utilizzando le nostre soluzioni per la gestione dei dati e l’AI generativa per trasformare l’esperienza omnicanale, personalizzando ogni interazione con i propri clienti – dal sito al negozio fisico.Per rendere sostenibile questa personalizzazione, i team creativi possono contare su nuovi modelli multimediali avanzati – come Veo per la generazione video cinematografica o Nano Banana Pro per l’imaging avanzato – che offrono maggiore rapidità e controllo nella produzione dei contenuti. Questi strumenti permettono di declinare una singola campagna in infinite varianti, offrendo coerenza visiva dei soggetti e possibilità di localizzazione.

Superpoteri per la sicurezza informatica

In un moderno Security Operations Center (SOC), gli analisti sono sommersi da un flusso costante di dati. Chi difende deve aver ragione ogni singola volta; chi attacca deve avere fortuna una volta sola. Nel 2026, gli agenti AI offriranno ai team di sicurezza la potenza necessaria per identificare e rispondere alle minacce con una rapidità mai vista, facendosi carico del lavoro più gravoso come l’analisi manuale e il triage, e liberando il tempo degli analisti per attività strategiche.

Innovazione e conformità: fine del compromesso nei settori regolamentati

Ma la sicurezza rappresenta solo un tassello di un quadro più complesso, soprattutto nei settori altamente regolamentati. Nel 2026 anche le aziende e le organizzazioni che fino ad ora sono state restie ad innovare e abbracciare l’AI apriranno le porte alle nuove tecnologie con maggiore fiducia, senza dover compiere una scelta tra avanzamento tecnologico e conformità normativa. Noi stiamo già gettando le fondamenta per questo futuro ad esempio con la qualifica ACN di Livello 2 che, unita alla continua evoluzione delle nostre soluzioni di sovranità digitale, conferma un principio fondamentale: è possibile innovare ai massimi livelli anche nei settori più regolamentati, garantendo sicurezza e sovranità dei dati.

L’upskilling dei talenti sarà il vero motore del valore dell’AI

Se l’ondata agentica del 2026 aiuterà le aziende a crescere, il fattore cruciale per il successo saranno le persone. La validità delle competenze acquisite ha una durata sempre inferiore e richiede continui aggiornamenti, rendendo difficile per individui e organizzazioni restare al passo.Sempre più spesso, nel 2026 le aziende passeranno dal semplice acquisto di soluzioni AI alla costruzione di una forza lavoro pronta per l’AI. Stiamo già assistendo a questo fenomeno anche in Italia dove, ad esempio, una realtà all’avanguardia come Credem, oltre a  integrare Gemini in Google Workspace per la produttività, ha lanciato anche un piano di oltre 30.000 ore di formazione specifica sull’AI per i propri dipendenti, mettendo il “benessere lavorativo” e le competenze al centro della trasformazione.Le aziende italiane che sapranno responsabilizzare i propri dipendenti e ristrutturare le loro operazioni attorno a questo nuovo modello guidato dagli agenti saranno i leader di mercato del prossimo decennio e guideranno la prossima fase di crescita e innovazione del Paese.

Check Point lancia Quantum Firewall R82.10: sicurezza IA e Zero Trust per reti ibride

0

Check Point annuncia il nuovo software Check Point Quantum Firewall R82.10 con 20 nuove funzionalità progettate per aiutare le aziende ad adottare in modo sicuro l’intelligenza artificiale, proteggere gli ambienti distribuiti e semplificare il modello Zero Trust nelle reti ibride.

Con la rapida adozione dell’IA, i team di sicurezza delle aziende sono sottoposti a una pressione crescente per proteggere un sempre maggior numero di dati, applicazioni e ambienti distribuiti”, afferma Nataly Kremer, Chief Product Officer di Check Point Software Technologies. “La soluzione R82.10 aiuta le aziende a passare a un modello basato sulla prevenzione, unificando la gestione, rafforzando la Zero Trust e aggiungendo protezioni che supportano l’adozione e lo sviluppo sicuro e responsabile dell’IA”.

Le aziende stanno aumentando rapidamente l’uso di strumenti di IA e lo sviluppo di LLM, espandendo la connettività tra utenti, filiali e ambienti cloud. Ciò crea nuovi rischi, tra cui minacce generate dall’IA, abuso d’identità e cambiamenti di configurazione. R82.10 affronta queste sfide con funzionalità unificate e incentrate sulla prevenzione che migliorano la visibilità, il controllo e la protezione nelle reti mesh ibride.

Con i guadagni in termini di efficienza promessi dall’IA, i professionisti della sicurezza non possono rallentare l’innovazione aziendale o rischiare di essere esclusi”, sostiene Frank Dickson, Group Vice President, Security & Trust, IDC. “I vantaggi dell’innovazione non annullano la minaccia alla sicurezza incombente introdotta dall’IA. Le aziende devono ridurre i rischi, unificare i controlli e stare al passo con gli attori malintenzionati più sofisticati. L’approccio di Check Point di integrare la sicurezza IA nello stack di rete è un approccio appropriato per migliorare rapidamente la postura di sicurezza IA di un’organizzazione”.

Check Point R82.10 introduce 20 nuove funzionalità in quattro aree fondamentali in cui le aziende devono affrontare oggi le maggiori pressioni operative. Tra le sue principali caratteristiche:

  1. Supporto all’adozione sicura dell’IA – 10 rafforza la supervisione delle attività basate sull’IA rilevando strumenti GenAI non autorizzati, ampliando la visibilità sulle applicazioni IA come ChatGPT, Claude, Gemini e monitorando l’utilizzo dell’MCP (model context protocol) per proteggere i flussi di lavoro basati sull’IA.
  2. Rafforzamento della sicurezza delle reti mesh ibride – Le organizzazioni ottengono una protezione più coerente negli ambienti distribuiti grazie alla gestione centralizzata dell’accesso a Internet per SASE e firewall, alla connettività semplificata da gateway a SASE e al miglioramento della convalida dell’identità e dello stato dei dispositivi per supportare il modello Zero Trust su larga scala.
  3. Adozione di un approccio preventivo alle minacce moderne – 10 introduce la protezione dal phishing senza ispezione HTTPS, con IPS adattivo per ridurre l’alert fatigue e nuove funzionalità sulla prevenzione dalle minacce per evidenziare configurazioni errate e lacune di postura prima che gli aggressori possano sfruttarle.
  4. Eliminare i silos con una piattaforma di sicurezza unificata – 10 espande l’architettura open-garden di Check Point con oltre 250 integrazioni. Queste integrazioni consentono alle organizzazioni di applicare i segnali di postura degli endpoint dei fornitori esistenti direttamente all’interno delle policy di Check Point, migliorando i controlli basati sull’identità e l’applicazione dello Zero Trust.

Check Point continua a fornire innovazioni di sicurezza di IA proprio nel momento in cui i clienti ne hanno bisogno”, dichiara Chris Konrad, Vicepresidente, Global Cyber, World Wide Technology. “Le loro funzionalità di sicurezza basate sull’intelligenza artificiale aiutano le organizzazioni a proteggere le attività dalle più recenti minacce informatiche, fornendo al contempo una protezione di livello aziendale per i workload sensibili dell’intelligenza artificiale, dall’addestramento dei modelli all’inferenza, senza compromettere le prestazioni”.

Il software Check Point Quantum Firewall R82.10 si integra con lo stack di sicurezza AI di Check Point, rafforzato dalla recente acquisizione di Lakera. Insieme alla piattaforma Infinity e all’architettura open-garden di Check Point, le aziende ottengono un percorso unificato per garantire un utilizzo sicuro dell’IA, automatizzare la prevenzione e garantire la resilienza nei loro ambienti ibridi.

Il potere della voce nell’IA: come Jabra prepara la prossima rivoluzione del lavoro

Con l’Intelligenza Artificiale che ridisegna flussi, ruoli e strumenti, la voce sta emergendo come la prossima grande interfaccia del lavoro digitale. Secondo una nuova ricerca condotta da Jabra in collaborazione con la London School of Economics (LSE), parlare con l’IA non è più una curiosità tecnologica, ma un comportamento che sta accelerando verso l’adozione mainstream. Una trasformazione che, se gestita con strategia e progettazione, promette di ridurre il “debito digitale” che soffoca la produttività e di rendere l’interazione uomo-macchina più naturale e umana.

Cosa rivela lo studio Jabra-LSE sull’uso della voce con l’IA

Jabra e il Behavioural Research Lab della LSE hanno analizzato come i professionisti interagiscono con l’IA generativa utilizzando la voce invece che il testo. Le evidenze non lasciano spazio a dubbi: parlare è più spontaneo, veloce e intuitivo. I partecipanti hanno descritto la voce come un mezzo che consente di esprimere idee senza l’inibizione della digitazione, con un flusso più naturale che migliora la qualità dell’interazione.

L’impatto più sorprendente riguarda però la fiducia: usare la voce con l’IA l’ha aumentata di un terzo. Una differenza che non nasce dall’età, ma dal contesto. I professionisti senior, dopo aver testato la modalità vocale, ne riconoscono rapidamente il valore nelle attività quotidiane. Al contrario, i più giovani – pur abituati a Siri o Alexa nella vita personale – risultano più diffidenti nell’adottarla in ambito lavorativo.

Un altro dato spartiacque: il 14% dei partecipanti preferisce già parlare con l’IA. È la soglia che indica l’inizio della transizione verso un uso generalizzato. Se il trend continuerà, entro tre anni la voce potrebbe diventare un pilastro del lavoro digitale.

Perché la voce cambia l’IA (e il lavoro)

La promessa è evidente: interazioni più rapide, meno frizioni e una riduzione significativa del carico di notifiche, messaggi e backlog informativo che definisce oggi il “debito digitale”. Ma la voce non è una soluzione automatica. Richiede cultura, governance, progettazione degli spazi e strumenti tecnologici adeguati.

La trascrizione accurata, la chiarezza della cattura audio e la qualità degli strumenti diventano elementi strutturali. È qui che Jabra – con la sua esperienza nei dispositivi professionali – posiziona la voce come una componente essenziale dell’ecosistema di lavoro supportato dall’IA.

Cosa devono fare ora le aziende

La ricerca è chiara: non basta introdurre nuove tecnologie vocali, serve intenzionalità. Parlare con l’IA deve diventare naturale, sicuro e produttivo. Questo significa:

  • preparare i professionisti a un nuovo modello di interazione;
  • costruire ambienti che abilitino l’uso della voce senza preoccupazioni di privacy;
  • stabilire politiche che chiariscano quando la voce aggiunge valore e quando invece altri
  • strumenti sono più appropriati;
  • investire in strumenti audio di alta qualità, perché l’IA dipende fortemente dalla precisione dei dati vocali ricevuti.

Le aziende che agiranno ora definiranno le regole del gioco della prossima era del lavoro.

Verso un futuro più umano

Lo studio Jabra-LSE indica un orizzonte netto: entro il 2028 la voce sarà centrale nel modo in cui interagiamo con l’IA. La differenza tra le imprese che guideranno il cambiamento e quelle che inseguiranno dipenderà dalle scelte dei prossimi tre anni. Investire in tecnologia audio affidabile, creare una cultura del valore della voce e aiutare le persone a sentirsi a proprio agio con l’IA significa costruire un lavoro più produttivo, più efficiente e, soprattutto, più umano.

Paramount sfida Netflix: offerta da 30 dollari per azione su Warner Bros Discovery, valutata oltre 108 miliardi di dollari

Il capitolo sull’acquisizione di Warner Bros Discovery si riapre bruscamente. Dopo che – come avevamo ricostruito nel nostro precedente articolo – Netflix aveva raggiunto un accordo da 82,7 miliardi di dollari per acquisire Warner Bros Discovery, Paramount Global sceglie una mossa inattesa: lancia un’offerta pubblica interamente in contanti da 30 dollari per azione. Una proposta ostile, formale, immediatamente eseguibile, che ribalta uno scenario che nelle ultime settimane appariva definito.

Un’offerta che sfida il “deal già deciso” con Netflix

La proposta presentata da Paramount è tecnicamente un’OPA cash rivolta direttamente agli azionisti di Warner Bros Discovery. L’obiettivo è netto: convincere il mercato con liquidità immediata, aggirando qualsiasi accordo preliminare tra Warner e Netflix.

Secondo Paramount, Warner Bros Discovery rappresenta un asset strategico per un consolidamento su larga scala dell’intrattenimento globale. La società sottolinea che l’offerta porta valore immediato agli azionisti e definisce un percorso industriale chiaro. Una dichiarazione che, in filigrana, risponde direttamente alla strategia Netflix, che aveva puntato su una visione più ampia di integrazione creativa e tecnologica.

La contromossa di Paramount: logica finanziaria contro logica industriale

Il vero punto di divergenza sta proprio nella natura delle due operazioni. L’accordo di Netflix, come analizzato nel nostro articolo precedente, aveva un respiro industriale: unificare asset creativi, consolidare franchise, integrare pipeline produttive e rafforzare la distribuzione proprietaria.

L’offerta di Paramount sceglie invece la via della concretezza immediata. Una proposta in contanti può risultare più allettante per un board reduce da anni di volatilità, soprattutto se percepita come una soluzione rapida e senza complessità di integrazione. Resta però evidente la distanza tra le valutazioni complessive: l’OPA Paramount implica un valore significativamente più basso rispetto agli 82,7 miliardi della proposta Netflix.

Quale scenario ora? Una partita che cambia forma

Il risultato di questa contesa è improvvisamente incerto. Paramount obbliga Netflix a decidere se rilanciare, difendere l’accordo già annunciato o ricalibrare l’intera operazione. Al tempo stesso, il board di Warner deve esaminare formalmente l’OPA, anche se già orientato verso Netflix. Le regole di governance impongono infatti di valutare qualsiasi offerta potenzialmente più interessante per struttura o condizioni.

Non è escluso che la pressione generata da questa nuova dinamica apra la porta a ulteriori attori interessati, in un settore dove colossi come Amazon, Apple o Disney osservano con attenzione ogni movimento di consolidamento.

Perché Paramount sceglie di muoversi adesso

Il tempismo non sorprende. Paramount si trova in una fase cruciale della propria riorganizzazione e vede nell’acquisizione di Warner un’occasione per ridefinire la propria posizione competitiva. L’operazione è una scommessa ad alto rischio, ma può ottenere due risultati: conquistare Warner o costringere Netflix a un rilancio oneroso, alterando gli equilibri competitivi.

Un mercato instabile che cambia ancora

Il settore streaming–media vive un momento di tensione strutturale: costi di produzione elevati, margini sotto pressione, saturazione degli abbonati e necessità di economie di scala sempre più ampie. L’esito dello scontro tra Netflix e Paramount non determinerà solo il futuro di Warner Bros Discovery, ma influenzerà le strategie dell’intero comparto.

Le piattaforme stanno entrando in una fase in cui la disponibilità di capitale, la profondità del catalogo e la capacità di integrare asset creativi e tecnologici diventano elementi decisivi. La partita Warner ne è un esempio: un accordo che sembrava chiuso si è trasformato nell’ennesima dimostrazione di quanto il mercato dell’intrattenimento globale sia in continua, instabile evoluzione.

Claude Code e Slack: come Anthropic integra l’AI nei flussi di sviluppo

Anthropic ha annunciato una nuova integrazione tra Claude Code e Slack che porta l’intelligenza artificiale generativa ancora più dentro il lavoro quotidiano dei team di sviluppo. Dal 8 dicembre 2025, in versione beta come research preview, è possibile delegare direttamente da Slack a Claude Code attività di debug, revisione e implementazione di piccole feature, trasformando le conversazioni in codice eseguibile senza passaggi manuali intermedi.

Dalla discussione in Slack alla modifica del codice

Nella maggior parte dei team, il contesto reale del lavoro di sviluppo non vive nei documenti formali, ma dentro Slack: segnalazioni di bug, richieste di nuove funzionalità, discussioni tra sviluppatori, commenti degli stakeholder, log di errore incollati al volo.

La nuova funzione punta esattamente a questo punto dolente: quando in un canale o in un thread compare un problema o una richiesta legata al codice, è sufficiente menzionare @Claude perché l’assistente analizzi il messaggio e il contesto circostante e apra automaticamente una sessione di Claude Code, popolata con le informazioni provenienti dalla conversazione.

In pratica, il flusso diventa:

  • il bug o la richiesta nasce in Slack
  • la discussione tra sviluppatori arricchisce il contesto (stack trace, tentativi di riproduzione, screenshot, ipotesi)
  • menzionando @Claude si chiede all’AI di prendere in carico l’attività come task di coding, senza copiare e incollare nulla in altri strumenti.

Da lì, Claude Code può indagare la causa del problema, proporre una correzione, implementare piccole modifiche al codice o refactoring mirati sulla base del feedback emerso nel thread, con una continuità di contesto che riduce tempi morti e fraintendimenti.

Instradamento automatico verso Claude Code e scelta del repository

Questa integrazione estende l’app Claude per Slack già esistente, aggiungendo la capacità di “inoltrare” i task verso Claude Code sul web.

Quando si menziona @Claude in un canale o in un thread, l’assistente:

  • valuta se la richiesta è effettivamente un task di sviluppo software
  • in caso positivo, crea una nuova sessione di Claude Code
  • raccoglie il contesto dai messaggi recenti nel canale o nel thread
  • sceglie automaticamente il repository su cui lavorare tra quelli che l’utente ha autorizzato in Claude Code sul web.

La gestione del contesto è centrale: oltre al messaggio che contiene la menzione, Claude tiene conto delle interazioni precedenti, così da avere un quadro più fedele del problema da risolvere. Questo include, ad esempio, come il bug viene riprodotto, quali tentativi sono già stati fatti, quali comportamenti anomali sono stati osservati dagli utenti o dal team.

Man mano che la sessione di Claude Code procede, l’assistente aggiorna lo stesso thread Slack da cui è partita la richiesta: con messaggi di stato, spiegazioni delle analisi in corso, anteprime delle modifiche proposte. Alla fine del processo l’utente trova nel thread:

  • il link alla sessione completa di Claude Code, per rivedere l’intero ragionamento dell’AI
  • un link diretto per aprire una pull request con le modifiche suggerite.

In questo modo l’integrazione non si limita a un “copilot da chat”, ma aggancia in modo esplicito il ciclo di vita delle modifiche al codice, fino alla PR.

Come iniziare a usare Claude Code da Slack

Dal punto di vista operativo, l’abilitazione passa da pochi passaggi:

Per prima cosa è necessario installare l’app Claude nello workspace Slack tramite lo Slack App Marketplace. Una volta installata, l’utente deve autenticarsi con il proprio account Claude, così da collegare Slack all’ambiente Claude Code sul web.

Il requisito chiave è avere accesso a Claude Code: solo così l’assistente può creare e gestire sessioni di coding collegate alle menzioni in Slack e operare sui repository autorizzati dall’utente.

Da quel momento, ogni volta che un messaggio in Slack descrive un problema, una richiesta di modifica o un’attività che ha senso tradurre in codice, è sufficiente:

  • menzionare @Claude e formulare la richiesta in modo chiaro, come si farebbe con un collega;
  • oppure indicare esplicitamente che si tratta di un task di coding, se si vuole forzare il comportamento, ad esempio: “@Claude, trattalo come task di coding su questo repository”.

Il resto – raccolta del contesto, creazione della sessione, scelta del repository, aggiornamenti nel thread – viene gestito dall’integrazione tra Claude per Slack e Claude Code.

Impatto sui team di sviluppo: vantaggi e punti di attenzione

Dal punto di vista organizzativo, questa integrazione rappresenta un passo ulteriore verso forme più mature di AI “agentica” applicata allo sviluppo software: Claude non è solo un assistente che risponde in chat, ma diventa un agente che riceve task dal luogo dove nascono (Slack), li porta nell’ambiente dove possono essere risolti (Claude Code) e restituisce al team un output pronto per entrare nel ciclo di sviluppo (pull request).

I vantaggi potenziali sono evidenti:

  • meno frizioni tra canali di comunicazione e strumenti tecnici
  • riduzione del tempo tra segnalazione del problema e proposta di fix
  • maggiore tracciabilità: il thread Slack diventa la “storia” completa del bug, dal primo report alla PR generata dall’AI
  • possibilità per gli sviluppatori di concentrarsi su attività a maggiore complessità, delegando all’AI parte del lavoro ripetitivo o meccanico.

Restano però alcuni punti di attenzione che i team dovranno gestire in modo consapevole:

  • le modifiche proposte da Claude Code richiedono comunque una revisione umana, sia per la qualità del codice sia per la coerenza con gli standard interni;
  • la scelta di quali repository autorizzare e con quali permessi è un tema di governance importante, soprattutto in organizzazioni complesse;
  • il rischio di “sovra-delegare” all’AI va bilanciato con pratiche solide di code review, documentazione e sicurezza.

Per i team che stanno già sperimentando strumenti di AI generativa nello sviluppo, l’integrazione tra Claude Code e Slack è un tassello ulteriore verso flussi di lavoro più automatizzati e continui. Per chi è ancora all’inizio, può rappresentare un punto di ingresso naturale: l’AI arriva dove gli sviluppatori passano gran parte della giornata, senza costringerli a cambiare radicalmente abitudini o strumenti.

OpenAI svela lo stato dell’enterprise AI: crescita 8x e nuovi workflow intelligenti

L’enterprise AI sta entrando nella sua fase più matura: non più tecnologia sperimentale, ma una componente strutturale dei processi aziendali. È ciò che emerge dal The State of Enterprise AI – 2025 Report di OpenAI , un’analisi basata su dati aggregati di oltre un milione di clienti business.
Nei primi cento caratteri del report è evidente un messaggio chiaro: l’intelligenza artificiale in azienda non è più un fenomeno di adozione periferica, ma una piattaforma di lavoro sempre più integrata nei workflow operativi.

Enterprise AI, l’adozione cresce: 8x nel volume dei messaggi e 320x nell’uso di modelli di reasoning

I dati del report mostrano come l’enterprise AI stia avanzando con profondità crescente nei processi aziendali. ChatGPT Enterprise ha registrato una crescita di 8 volte nel traffico dei messaggi, mentre il consumo di token di reasoning tramite API è aumentato del 320% anno su anno, segnale che i modelli più evoluti stanno diventando l’intelligenza operativa dentro prodotti, applicazioni e sistemi interni.

Una delle accelerazioni più significative riguarda i Custom GPTs e i Projects: l’uso settimanale è cresciuto di 19 volte, e il 20% dei messaggi enterprise passa ormai attraverso workflow personalizzati. Nel report viene citato il caso BBVA, che utilizza oltre 4.000 GPT interni come strumenti operativi, un esempio concreto di come l’AI venga trasformata in processi replicabili e persistenti.
Sul fronte developer, oltre 9.000 organizzazioni hanno superato i 10 miliardi di token elaborati via API, e quasi 200 hanno superato quota trilione. Codex sta diventando un acceleratore di sviluppo software end-to-end: generazione di codice, refactoring, debugging e test automatizzati.

Produttività: fino a 60–80 minuti risparmiati al giorno e nuove competenze abilitate dalla AI

Secondo il sondaggio condotto su 9.000 lavoratori provenienti da quasi 100 imprese, il 75% dichiara che l’AI ha migliorato qualità o velocità del proprio lavoro. L’impatto più tangibile è il tempo risparmiato: 40–60 minuti per giorno attivo, con punte di 60–80 minuti per data scientist, ingegneri e professionisti della comunicazione.

Il valore però non si limita al tempo. Il 75% dei lavoratori afferma di essere oggi in grado di svolgere attività prima impossibili, in particolare:

  • programmazione e revisione del codice,
  • analisi di dati e automazione di fogli di calcolo,
  • sviluppo di strumenti tecnici personalizzati,
  • progettazione di agenti e GPT su misura.

Questo fenomeno sta ridefinendo i confini dei ruoli: anche team non tecnici vedono crescere del 36% i messaggi legati a coding e data analysis.

Importante anche il divario tra gli utenti più maturi e la media. Gli utenti che risparmiano oltre 10 ore alla settimana consumano circa 8 volte più “intelligenza” (misurata in crediti) e utilizzano un ventaglio di strumenti più ampio. L’uso intensivo genera un impatto proporzionalmente maggiore.

Crescita globale e settoriale: tecnologia, sanità e manifattura corrono più di tutti

L’enterprise AI mostra dinamiche di adozione eterogenee. A livello industriale, la crescita mediana è superiore a 6x, con la tecnologia a 11x, l’healthcare a 8x e la manifattura a 7x. I settori più maturi restano professional services, finanza e tecnologia, ma sanità e industria stanno chiudendo rapidamente il gap.

Geograficamente, la crescita non è più concentrata negli Stati Uniti: Australia (+187%), Brasile (+161%), Olanda (+153%) e Francia (+146%) guidano l’accelerazione mondiale, mentre Giappone e Germania emergono come mercati strategici sia per seats Enterprise sia per utilizzo API.
Il riferimento esterno è rappresentato dal contesto di trasformazione globale descritto da numerose analisi di settore, che sottolineano come la transizione all’AI agentica sia la nuova priorità delle imprese internazionali.
Il riferimento interno riguarda invece molte discussioni aperte in ambito enterprise in Italia, dove il dibattito ruota attorno a sovranità del dato, infrastrutture e agentic AI, come raccontato più volte nei nostri approfondimenti.

Il divario tra leader e ritardatari: fino a 17x nell’uso dei tool di coding e 7x nei GPT aziendali

Il report evidenzia un gap crescente tra “frontier workers” (95° percentile) e utenti medi. I power user inviano 6 volte più messaggi e utilizzano 16 volte più strumenti di data analysis. La forbice si allarga ulteriormente sulle attività di scrittura, analisi e soprattutto coding, dove il divario arriva a 17 volte.

Lo stesso pattern compare a livello aziendale: le organizzazioni più mature generano il doppio dei messaggi per seat e 7 volte più messaggi ai GPT, dimostrando che il vantaggio competitivo nasce da workflow standardizzati, API integrate e strumenti condivisi. Chi rimane indietro spesso non ha ancora attivato i connettori interni che permettono ai modelli di accedere ai dati aziendali: un’impasse che il report definisce la principale barriera organizzativa.

Impatti di business: i casi Intercom, Lowe’s, Indeed, BBVA, Oscar Health e Moderna

Il documento include una serie di case study concreti che mostrano come l’AI generi effetti misurabili su costi, ricavi e customer experience.

Intercom ha ridotto del 48% la latenza del proprio voice agent “Fin Voice” e risolve end-to-end il 53% delle chiamate, con un abbattimento dei costi di supporto calcolato in centinaia di milioni di dollari all’anno.

Lowe’s ha lanciato Mylow e Mylow Companion, che gestiscono un milione di domande al mese per clienti e store associate, raddoppiando il conversion rate degli utenti che interagiscono con l’assistente.

Indeed utilizza spiegazioni generative per migliorare il matching: +20% di application start e +13% di success rate (interviste e assunzioni), mentre Career Scout aumenta del 38% la probabilità di essere assunti.

BBVA ha automatizzato oltre 9.000 verifiche legali all’anno (bastanteo), liberando l’equivalente di tre FTE e raggiungendo il 26% del KPI annuale di saving della divisione Legal Services.

Oscar Health ha creato chatbot integrati con dati clinici, capaci di rispondere istantaneamente al 58% delle domande su benefit e processi sanitari.

Moderna ha ridotto da settimane a poche ore una delle fasi critiche per lo sviluppo dei Target Product Profile, con impatti diretti su time-to-market e qualità decisionale.

Cosa fanno le aziende più mature: cinque leve decisive

Il report individua i comportamenti ricorrenti delle imprese leader nell’adozione di enterprise AI:

  • attivano connettori sicuri per dare all’AI accesso controllato alle informazioni aziendali;
  • standardizzano i workflow e diffondono GPT riutilizzabili;
  • investono su sponsorship esecutiva e change management;
  • rendono machine-readable la conoscenza aziendale e misurano costantemente le performance;
  • costruiscono modelli operativi che combinano governance centrale ed evangelizzazione diffusa.

Il messaggio finale è chiaro: le tecnologie sono mature, il limite oggi è la capacità organizzativa di integrarle.

Uno sguardo al futuro dell’enterprise AI

Il report si conclude indicando la direzione della prossima ondata: AI più performante su compiti ad alto valore economico, maggiore comprensione del contesto aziendale, e passaggio dalla richiesta di output all’assegnazione di workflow complessi, la vera essenza dell’AI agentica.
Le organizzazioni che sapranno integrare questi modelli nei processi di front-office, produzione, customer experience e sviluppo prodotto otterranno un vantaggio competitivo duraturo, trasformando l’AI da strumento di produttività a motore strategico di crescita.

 

Proofpoint acquisisce Hornetsecurity: operazione da 1,8 miliardi per rafforzare la sicurezza di Microsoft 365

Proofpoint ha annunciato di aver completato l’acquisizione di Hornetsecurity Group, fornitore paneuropeo leader di soluzioni basate su intelligenza artificiale per la sicurezza, la protezione dei dati, la conformità e la consapevolezza alla cybersecurity su Microsoft 365 (M365) destinate ai managed service provider (MSP) e alle piccole e medie imprese (PMI).

La conclusione dell’operazione segna una tappa fondamentale nella strategia di Proofpoint, volta a estendere la propria piattaforma di sicurezza incentrata sulla persona a organizzazioni di tutte le dimensioni attraverso un approccio appositamente studiato per il canale MSP. Grazie alla forte presenza di Hornetsecurity sul mercato europeo, e a una base di partner che serve oltre 125.000 clienti attraverso più di 12.000 MSP e partner di canale, Proofpoint amplia in modo significativo la propria portata e le proprie capacità nel segmento delle PMI.

Sumit Dhawan
Sumit Dhawan

“Siamo entusiasti di dare ufficialmente il benvenuto a Hornetsecurity in Proofpoint e di portare avanti la nostra missione di proteggere il nuovo spazio di lavoro agentico per clienti di ogni dimensione,” afferma Sumit Dhawan, CEO di Proofpoint. “Insieme, estenderemo la nostra leadership nel campo della sicurezza focalizzata su persone e agenti per salvaguardare individui, agenti AI e dati, ampliando al contempo la nostra portata a PMI e MSP grazie alla piattaforma collaudata e scalabile di Hornetsecurity. Con l’aumento della rapidità e della precisione delle minacce, la nostra esperienza combinata innalzerà il livello di innovazione e resilienza, aiutando clienti e partner di tutto il mondo a proteggere ciò che conta di più.”

La soluzione di punta di Hornetsecurity, 365 Total Protection, è la piattaforma di sicurezza cloud più completa per gli ambienti M365. Con servizi che spaziano dalla sicurezza della posta elettronica al backup, dalla conformità alla formazione sulla consapevolezza e al controllo degli accessi, la piattaforma fornisce agli MSP un pannello di controllo multi-tenant per gestire e scalare la protezione dei propri clienti, senza la complessità di dover integrare più soluzioni puntuali.

Daniel Hofmann, fondatore e CEO di Hornetsecurity
Daniel Hofmann

“Entrare a far parte di Proofpoint segna un nuovo capitolo nel nostro percorso,” ha sottolineato Daniel Hofmann, fondatore e CEO di Hornetsecurity. “Insieme, ci troviamo nella posizione privilegiata di poter fornire sicurezza M365 e protezione dei dati più efficaci agli MSP di tutto il mondo. Sulla base del nostro approccio collaudato e consolidato, incentrato sul canale, le nostre capacità combinate, la threat intelligence condivisa e la visione allineata renderanno disponibile un nuovo livello di innovazione e valore per i nostri partner e clienti a livello globale.”

Nell’ambito dell’operazione, Hornetsecurity opererà come business unit dedicata al servizio di MSP e PMI in tutto il mondo. Daniel Hofmann la guiderà con il ruolo di executive vice president e general manager all’interno di Proofpoint. Il suo executive leadership team rimarrà in carica e continuerà a promuovere innovazione di prodotto, strategia go-to-market e successo dei partner attraverso la piattaforma MSP. Clienti e partner avranno garanzia di continuità per servizio e supporto, con ulteriori vantaggi derivanti da risorse globali, ricerca e intelligence sulle minacce di Proofpoint.

In base ai termini dell’accordo, Proofpoint acquisirà Hornetsecurity per un corrispettivo totale di 1,8 miliardi di dollari. Hornetsecurity genera un fatturato ricorrente annuale (ARR) di quasi 200 milioni di dollari, con una crescita del 20% su base annua. Questa acquisizione rafforza l’impegno di Proofpoint nel mercato europeo e conferma la sua strategia di fornire una sicurezza distintiva, basata su intelligenza artificiale, a ogni organizzazione, indipendentemente da dimensioni o posizione geografica.

PMI digitali e procurement: l’Europa può sbloccare 117 miliardi con riforme mirate

Sbloccare la modernizzazione degli appalti pubblici potrebbe generare 1,8 milioni di nuovi posti di lavoro nelle digital PMI eurPMIopee, trasformando un mercato da 2.000 miliardi di euro in un motore di innovazione, crescita e competitività. A dirlo è una nuova analisi sostenuta da AWS, che fotografa con chiarezza l’occasione mancata di un segmento che, oggi, resta in larga parte inaccessibile per molte piccole e medie imprese tecnologiche.

Perché la modernizzazione degli appalti pubblici è decisiva per le digital PMI

Secondo lo studio, le digital PMI – aziende che sviluppano servizi abilitati dal digitale, dall’AI al cloud fino alla cybersecurity – rimangono ai margini degli appalti pubblici europei per quattro ragioni strutturali: complessità procedurale, costi e tempi eccessivi, regole applicate in modo incoerente e sistemi frammentati. Il risultato è evidente: il 43% di queste imprese non partecipa mai alle gare, quasi metà abbandona i bandi a metà percorso e solo il 12% dichiara un ritorno significativo sugli investimenti fatti per competere.

Se gli Stati membri raggiungessero i livelli dei Paesi più avanzati nella partecipazione delle digital PMI agli appalti, l’Europa potrebbe liberare 117 miliardi di euro di GVA e costruire fino a 1,8 milioni di nuovi posti di lavoro nelle PMI tecnologiche. Un impatto economico e sociale non marginale, che si tradurrebbe anche in un’accelerazione della digitalizzazione dei servizi pubblici.

La proposta: un modello procurement-ready per le digital PMI

La modernizzazione degli appalti pubblici, secondo l’analisi, passa da un percorso in quattro fasi pensato per rendere il procurement europeo realmente accessibile alle piccole imprese innovative:

  • Pre-market engagement
    Creare un dialogo strutturato tra domanda pubblica e offerta tecnologica, affiancando formazione per i buyer e linee guida chiare e in linguaggio semplice per le digital PMI.
  • Listing e discovery
    Avviare un gateway digitale unico a livello UE, con standard armonizzati e API aperte per rendere trasparenti le opportunità di gara e ridurre la frammentazione dei portali.
  • Bidding ed evaluation
    Semplificare documentazione e processi, ridurre i tempi di aggiudicazione e introdurre strumenti di AI-assisted evaluation che riducano gli oneri amministrativi.
  • Contracting e crescita
    Implementare sistemi di e-invoicing, piattaforme cloud per la gestione dei contratti e modelli che favoriscano il joint bidding, così da aiutare le PMI a crescere all’interno della filiera pubblica.

Per i buyer pubblici significherebbe accedere a un ventaglio più ampio di soluzioni digitali, aumentare la qualità del procurement e accelerare l’innovazione dei servizi ai cittadini. Per le digital PMI, vorrebbe dire finalmente competere in un mercato accessibile e scalabile.

Un allineamento con l’agenda digitale europea

La modernizzazione degli appalti pubblici arriva in un momento in cui l’Europa spinge su competitività, semplificazione e digital sovereignty. Piattaforme digitali, processi standardizzati e valutazioni supportate dall’AI non sono idee futuristiche: sono tasselli già previsti dalle strategie europee e in linea con i principi dell’interoperabilità e del mercato unico digitale.

Come sintetizza Arnaud David, Director European Affairs, Public Policy di AWS: “Il compito è chiaro: le digital PMI europee sono pronte a portare innovazione, e ora è il momento di modernizzare i sistemi di procurement per collaborare efficacemente con loro. Il nostro studio dimostra che l’Europa può liberare miliardi di valore economico e oltre un milione di posti di lavoro, accelerando il percorso verso un futuro più innovativo e competitivo.”

Il messaggio è diretto: gli strumenti ci sono, le imprese sono pronte, l’opportunità è sul tavolo. Tocca ora ai governi europei trasformare il procurement in una leva concreta di crescita, innovazione e competitività.

Proton Sheets, il foglio di calcolo crittografato che sfida Google ed Excel sulla privacy dei dati

Proton introduce Proton Sheets, un nuovo foglio di calcolo crittografato end-to-end pensato per aziende e team che devono gestire dati riservati senza correre il rischio che informazioni interne vengano raccolte, analizzate o utilizzate per l’addestramento di sistemi di intelligenza artificiale. L’azienda svizzera, nota per Proton Mail, Proton Drive e Proton Docs, estende così il proprio workspace orientato alla privacy con uno strumento che punta a replicare l’esperienza d’uso dei fogli di calcolo più diffusi, eliminando però la componente di esposizione dei dati.

Il lancio arriva in un momento in cui l’AI è sempre più integrata nei prodotti delle Big Tech. Per molte organizzazioni questo sta diventando un punto critico: restare produttivi senza compromettere la riservatezza delle informazioni proprietarie è una necessità concreta, non un principio astratto. Proton posiziona Sheets come una risposta a questo scenario, offrendo un ambiente di lavoro in cui la crittografia non è un’opzione, ma l’impostazione base.

Proton Sheets: cosa cambia rispetto ai fogli tradizionali

A differenza di Google Sheets o Microsoft Excel, Proton Sheets applica la crittografia end-to-end a tutti i contenuti e ai metadati, compresi elementi spesso trascurati come i nomi dei file. La conseguenza è semplice: nessuno, nemmeno Proton, può accedere ai fogli caricati o modificati dagli utenti.

Il contesto competitivo da cui nasce questa scelta è evidente. I fogli di calcolo sono uno strumento centrale per la gestione aziendale: budget, inventari, pianificazione delle attività, database operativi. La loro ubiquità li rende anche un punto di rischio. L’introduzione di Gemini all’interno di Google Fogli, accompagnata dalla raccomandazione ufficiale di non inserire contenuti confidenziali, ha amplificato il timore che questi ecosistemi possano diventare canali non intenzionali di data exposure.

Proton punta a intercettare proprio questa esigenza: utilizzare gli stessi processi di sempre, senza la percezione che ogni formula o modifica possa alimentare sistemi di analisi esterni.

“La maggior parte degli strumenti per fogli di calcolo proviene da Big Tech, e i loro modelli di business si basano sullo sfruttamento dei dati degli utenti. Con l’IA profondamente integrata in queste piattaforme, ogni pressione di un tasto può alimentare i processi di addestramento dell’IA. È un compromesso inaccettabile”, afferma Anant Vijay Singh, responsabile del prodotto Proton Drive.
“Proton Sheets offre un’alternativa che mette la privacy al primo posto e restituisce controllo e prevedibilità nell’uso dei dati sensibili”.

proton sheets

Una piattaforma familiare, ma con la privacy integrata

L’interfaccia di Proton Sheets è volutamente simile a quella degli strumenti più diffusi, così da non richiedere formazione aggiuntiva ai team. Tutto viene crittografato automaticamente, consentendo agli utenti di lavorare con diagrammi, analisi numeriche e formule senza che la produttività venga penalizzata.

Proton ha integrato nel servizio funzioni come la visualizzazione dei dati, la creazione di grafici, i calcoli rapidi con le formule più utilizzate, la collaborazione in tempo reale e l’accesso da più dispositivi. A queste si aggiunge una gestione degli accessi che permette di controllare con precisione chi può leggere o modificare un file, con la possibilità di revocare i permessi in qualsiasi momento. Anche il passaggio da strumenti esistenti è immediato: i file CSV e XLS possono essere importati e vengono automaticamente protetti dalla crittografia end-to-end.

Verso un workspace completo e coerente

Con l’integrazione di Proton Sheets, Proton Drive si avvicina alla struttura di un workspace completo, capace di coprire email, documenti, calendario e ora anche fogli di calcolo. L’azienda presenta questa evoluzione come un’alternativa reale a Google Drive per chi deve gestire dati sensibili e non può permettersi che informazioni interne alimentino sistemi esterni o vengano intercettate da algoritmi proprietari.

L’approccio resta quello che ha contraddistinto la storia di Proton: nessuna sorveglianza, nessuna raccolta occulta di informazioni, nessun utilizzo dei dati per addestrare modelli. Solo strumenti crittografati end-to-end pensati per chi deve mantenere controllo, continuità operativa e riservatezza.

Netflix acquisirà Warner Bros: accordo da 82,7 miliardi che ridisegna l’industria dello streaming

Netflix ha ufficializzato l’accordo per acquisire Warner Bros., immediatamente dopo la separazione del nuovo soggetto Discovery Global. L’operazione, già approvata dai consigli di amministrazione, attribuisce a Warner Bros. un enterprise value di 82,7 miliardi di dollari e un equity value di 72 miliardi.

Gli azionisti di Warner Bros. riceveranno 27,75 dollari per azione, di cui 23,25 dollari in contanti e 4,50 dollari in azioni Netflix, con un meccanismo di aggiustamento legato all’andamento del titolo al momento del closing. La transazione si chiuderà solo dopo la scissione della divisione reti televisive, prevista nel terzo trimestre del 2026 e soggetta al via libera degli azionisti e delle autorità regolamentari.

Con questa mossa, Netflix si assicura uno dei cataloghi più ricchi del mondo: gli studios di Burbank, il portafoglio HBO, serie e franchise iconici, archivi cinematografici e televisivi che coprono quasi un secolo. È il passo più grande mai compiuto dal gruppo, che dalla distribuzione di DVD via posta è diventato il protagonista assoluto dello streaming globale.

Dal punto di vista industriale, l’acquisizione porta Netflix a trasformarsi definitivamente in uno studio integrato, con capacità produttive e proprietarie su larga scala. L’azienda ha confermato che manterrà attivi gli studios e continuerà a distribuire i film Warner anche nelle sale, superando l’idea che ogni contenuto debba essere confinato allo streaming.

Il mercato, intanto, si prepara a un nuovo scenario competitivo: maggiore concentrazione, pochi grandi player globali e una corsa agli investimenti che spingerà gli altri operatori a rivedere strategie e modelli di business. Se approvata dalle autorità antitrust, l’operazione ridisegnerà l’equilibrio di Hollywood e segnerà un nuovo capitolo nella battaglia per il controllo del tempo libero degli utenti.

HPE accelera su networking e AI: risultati record nel Q4 2025

0

Hewlett Packard Enterprise (HPE) conclude l’anno fiscale 2025 con un quarto trimestre da record e una trasformazione ormai evidente del proprio modello infrastrutturale. I ricavi raggiungono 9,7 miliardi di dollari, in crescita del 14% rispetto all’anno precedente, sostenuti soprattutto dalla spinta del networking e dall’evoluzione delle architetture pensate per supportare i carichi di lavoro di intelligenza artificiale. È il trimestre più forte di sempre anche in termini di margine lordo e di performance operativa, confermando il cambio di passo iniziato nei mesi precedenti.

La crescita della rete è il segnale più evidente di questo percorso. Il contributo delle tecnologie integrate dopo l’acquisizione di Juniper Networks e la domanda crescente di connettività avanzata – dal campus switching alle architetture WAN, fino ai servizi di sicurezza – rendono il networking il segmento più dinamico del portafoglio HPE. L’aumento dei ricavi è accompagnato da un miglioramento della marginalità, che nel trimestre supera la media aziendale, a indicare una forte domanda per soluzioni di rete ad alte prestazioni e strettamente collegate ai nuovi deployment di AI e cloud distribuito.

Il business server resta un pilastro, ma vive una fase di transizione. I sistemi general purpose mostrano un rallentamento fisiologico, mentre cresce l’interesse per piattaforme ottimizzate per l’AI, l’HPC e l’analisi su larga scala. È un mercato che sta cambiando forma e sul quale HPE ha già impostato una roadmap orientata a soluzioni rack-scale, ambienti a bassa latenza e acceleratori sempre più integrati.

Più complesso il trimestre per l’area Hybrid Cloud, dove il rallentamento riflette la scelta di spingere soluzioni a maggior valore aggiunto sviluppate internamente. La progressione di piattaforme come Alletra MP e l’espansione dei servizi di gestione dati mostrano comunque una traiettoria positiva. GreenLake continua a crescere sia in base installata – oggi circa 46.000 clienti – sia in ricavi ricorrenti, con un ARR che supera i 3,2 miliardi di dollari e segna un incremento del 62% su base annua.

Il posizionamento dell’azienda emerge chiaramente dalle parole del CEO Antonio Neri: “HPE ha chiuso un anno di trasformazione con un quarto trimestre forte, segnato da crescita profittevole ed esecuzione disciplinata. Abbiamo completato l’acquisizione di Juniper Networks, ampliato le nostre attività nell’AI e nel cloud e accelerato l’innovazione in tutto il portafoglio, creando lo slancio necessario per avanzare nelle nostre priorità strategiche nel 2026.”

L’insieme dei risultati compone un quadro di consolidamento e riposizionamento. La rete diventa il motore primario della crescita, i ricavi ricorrenti aumentano e le infrastrutture orientate all’intelligenza artificiale assumono un ruolo decisivo nell’evoluzione del modello HPE. Il 2025 si chiude così come un anno di passaggio, con basi solide per un 2026 in cui l’azienda punta ad accelerare ulteriormente su AI, networking avanzato e cloud ibrido.

I segnali chiave del trimestre HPE

• Record storico di ricavi trimestrali e margine lordo.
• Networking in forte crescita su tutte le linee, dalla WAN alla sicurezza.
• GreenLake oltre 46.000 clienti e ARR in aumento del 62% anno su anno.
• Server in transizione verso workload AI e HPC.
• Hybrid Cloud sostenuto dalle soluzioni sviluppate internamente e da una crescita strutturale della componente dati.
• Free cash flow trimestrale di 1,9 miliardi di dollari, superiore alle attese.

Stormshield punta sulla crescita nel defence: a Krystlik lo sviluppo commerciale

0

Stormshield annuncia che Jocelyn Krystlik assumerà da subito la responsabilità dello sviluppo commerciale nel settore della difesa, oltre al suo ruolo di responsabile della Software Business Unit.

Krystlik è entrato in Stormshield (precedentemente Arkoon) nel 2008. Dopo i primi anni nel team Professional Services, dove ha partecipato a incarichi di consulenza, dal 2010 ha curato anche progetti di formazione. Nel 2014 è stato promosso a Product Manager e Pre-Sales Manager, prima di diventare, nel 2019, Manager della Software Business Unit, ruolo in cui guida un team di 40 persone.

Stormshield è già ben radicata nel settore della difesa, in particolare nei mercati NATO e presso aziende dei settori difesa, industria e tecnologia. Con la nuova posizione dedicata allo sviluppo commerciale, l’azienda mira a rafforzare ulteriormente la sua presenza sul mercato, approfondire le partnership esistenti e individuare in modo più strutturato nuovi ambiti di crescita. Tra questi figurano non solo soluzioni per la protezione delle reti e delle comunicazioni, ma anche offerte di Data Centric Security, sempre più integrate in piattaforme e sistemi tattici.

Nella mia nuova funzione potrò collaborare ancor più strettamente con i protagonisti del settore della difesa e rafforzare le partnership già in essere”, afferma Krystlik. “È un’ottima opportunità per supportare i nostri clienti in un contesto che evolve rapidamente.”

Il rafforzamento delle attività nel comparto defence avviene sullo sfondo di un marcato aumento degli attacchi informatici complessi contro reti e sistemi militari. Di fronte a minacce sempre più mirate, forze armate e aziende della difesa stanno intensificando gli investimenti nella protezione delle infrastrutture critiche, nella sicurezza dei dati e in strategie di difesa proattive.

Parallelamente, i governi stanno aumentando gli investimenti nella cyberdifesa, mentre l’adozione di soluzioni avanzate come intelligenza artificiale, crittografia quantistica e architetture Zero Trust alimenta ulteriormente la domanda di soluzioni integrate e resilienti. Inoltre, nuove normative come NIS2 e ARC accentuano questa dinamica imponendo standard di sicurezza più elevati nei settori strategici.

“Il settore della difesa, che già rappresenta il 30% del nostro fatturato, è un pilastro portante della nostra strategia di crescita”, sottolinea Pierre-Yves Hentzen, CEO di Stormshield. “La creazione della nuova funzione dedicata allo sviluppo commerciale conferisce una maggior struttura al nostro approccio e rafforza la nostra presenza in mercati in forte espansione”, aggiunge Hentzen. “Riflette chiaramente il nostro impegno a supportare a lungo termine i nostri partner nello sviluppo di soluzioni innovative e sovrane.”

IBM designata fornitore critico ICT sotto DORA: cosa cambia per la finanza europea

L’Unione Europea ha ufficialmente designato IBM come fornitore ICT di terze parti critico nell’ambito del Digital Operational Resilience Act (DORA), il nuovo regolamento che ridisegna le regole della resilienza operativa nel settore finanziario. Si tratta di un riconoscimento che colloca IBM in un perimetro normativo particolarmente stringente, riservato ai provider considerati essenziali per la continuità dei servizi digitali delle istituzioni finanziarie europee.

Un passaggio chiave nella strategia di resilienza europea

Con l’entrata in piena operatività di DORA, la solidità dell’intera catena ICT diventa un elemento strutturale della stabilità del mercato finanziario. L’UE ha deciso di intervenire non solo sugli operatori regolamentati, ma anche sui fornitori esterni che forniscono infrastrutture, piattaforme e servizi critici. La designazione di IBM indica che una parte significativa dell’operatività digitale del settore finanziario europeo si appoggia a servizi ritenuti “sistemici” per continuità, affidabilità e pervasività.

Implicazioni dirette per IBM

Lo status di fornitore critico comporta un livello di supervisione elevato da parte delle autorità europee. IBM dovrà garantire una governance più trasparente dei propri processi ICT, rafforzare la gestione del rischio operativo, dimostrare livelli avanzati di sicurezza e continuità e mettere in campo meccanismi strutturati di monitoraggio e reporting. È un cambiamento che trasforma il ruolo del provider: da semplice erogatore di servizi a componente vigilata dell’infrastruttura finanziaria europea.

Cosa cambia per le istituzioni finanziarie

Per banche, assicurazioni, fintech e operatori regolamentati, la designazione ha un effetto immediato sulla gestione del rischio e sulla compliance. Avere un fornitore ICT riconosciuto come critico offre una maggiore certezza sul livello minimo di resilienza operativa garantito dal provider, ma impone allo stesso tempo una maggiore attenzione alla fase contrattuale, alla gestione delle dipendenze e alla verifica continua dei requisiti previsti da DORA.

La vigilanza europeo-centrica punta infatti a ridurre la concentrazione del rischio su pochi grandi player e ad aumentare la trasparenza complessiva della catena di fornitura. La designazione di IBM si inserisce esattamente in questa logica: rendere più controllabile un ecosistema ormai dominato da infrastrutture complesse, distribuite e insostituibili.

Un nuovo equilibrio tra innovazione e controllo

L’introduzione di DORA e la designazione dei fornitori critici come IBM rappresentano l’evoluzione naturale di un settore che ha fatto della digitalizzazione l’elemento fondante dei propri servizi. L’obiettivo non è rallentare l’adozione di tecnologie avanzate come AI, cloud ibrido o analytics, ma garantire che l’innovazione non generi vulnerabilità sistemiche.

Nel caso di IBM, il nuovo ruolo di fornitore critico ICT sotto DORA implica una responsabilità aggiuntiva: assicurare che le proprie piattaforme globali rispondano a requisiti di resilienza compatibili con un mercato che non può permettersi interruzioni o compromissioni. E per il settore finanziario europeo significa poter contare su un provider la cui operatività è osservata direttamente dalle autorità, con l’obiettivo dichiarato di elevare il livello di protezione di tutto l’ecosistema.

Verso una maturità digitale regolamentata

La designazione segna un passaggio di maturità per la governance ICT in Europa. La resilienza operativa non è più un attributo volontario o un elemento differenziante, ma un obbligo normativo che si applica lungo l’intera filiera tecnologica. Il rapporto tra istituzioni finanziarie e provider cambia radicalmente: trasparenza, prevedibilità e continuità diventano i fattori centrali.

Il prossimo anno sarà decisivo per capire come questo nuovo modello si tradurrà nelle pratiche operative, quali adattamenti richiederà ai fornitori e come gli operatori finanziari integreranno DORA nella loro strategia tecnologica. Ma la direzione è chiara: costruire un’infrastruttura digitale più robusta, più controllabile e più coerente con la complessità dei servizi intelligenti che stanno ridefinendo il settore.

Gestione energetica dei datacenter: il modello Vertiv

La gestione energetica dei datacenter è diventata la vera linea di demarcazione tra chi riuscirà a sfruttare l’intelligenza artificiale e chi resterà indietro. In questa videointervista, Emiliano Cevenini, Senior Director EMEA Power Business Unit di Vertiv, spiega proprio come ripensare l’infrastruttura di potenza nell’era dei workload AI e offre ai professionisti ICT una chiave di lettura tecnica e strategica su come affrontare la trasformazione in corso nella gestione energetica dei datacenter.

La gestione energetica dei datacenter al tempo dell’AI

L’adozione massiva dell’AI sta modificando in profondità il profilo dei carichi IT, con densità di potenza più elevate, picchi improvvisi e requisiti di continuità che non lasciano margini di errore. In questo scenario, la gestione energetica dei datacenter non è più solo un tema di efficienza, ma diventa un fattore strutturale di progettazione e di competitività dell’infrastruttura digitale.

Cevenini sottolinea come i cluster AI stiano spingendo i datacenter verso configurazioni sempre più estreme, in cui ogni Watt erogato, distribuito e protetto lungo la catena di alimentazione ha un impatto diretto sulla capacità di erogare servizi e applicazioni in modo affidabile. Da qui nasce la necessità di un cambio di paradigma rispetto alle architetture tradizionali di potenza.

Le nuove sfide dei datacenter AI

La gestione energetica dei datacenter AI deve confrontarsi con carichi estremamente concentrati, cicli di utilizzo intensivi e una sensibilità crescente ai micro-fermi o alle degradazioni di prestazione. La classica logica “a silos”, in cui ogni componente elettrico viene pensato separatamente, non è più sufficiente quando si devono alimentare ambienti full-rack di GPU e nodi ad altissima densità.

Le organizzazioni si trovano quindi davanti a una doppia sfida: garantire resilienza e continuità di servizio, mantenendo al tempo stesso sotto controllo costi operativi, PUE e impatti ambientali. Per farlo, occorre ragionare sulla gestione energetica dei datacenter come su un sistema integrato e coerente, e non come un semplice insieme di componenti collegati tra loro.

Vertiv e l’approccio sistemico all’energia

In questo contesto, Vertiv si posiziona come partner per i datacenter mission critical che devono affrontare il salto verso architetture AI-driven. La proposta non si limita alla fornitura di singoli elementi di potenza, ma punta a un vero approccio sistemico alla gestione energetica dei datacenter, riprogettando l’intero percorso dell’energia.

Cevenini evidenzia come il valore stia proprio nella capacità di orchestrare in modo unitario progettazione, implementazione e gestione operativa dell’infrastruttura energetica, dal punto di consegna della rete fino al processore. Questo consente di garantire coerenza architetturale, prevedibilità delle prestazioni e maggiore controllo sulla risposta del sistema ai nuovi profili di carico AI.

Il Powertrain Vertiv al centro della gestione energetica

Cuore di questa visione è il concetto di Powertrain, con cui Vertiv ridisegna la gestione energetica dei datacenter seguendo l’intero flusso della potenza. Powertrain copre tutti i passaggi critici: trasformatori, quadri di distribuzione, sistemi di accumulo, protezioni e soluzioni avanzate di distribuzione elettrica fino ai rack e ai processori. Ogni anello della catena viene progettato come parte di un unico sistema, ottimizzato per carichi AI ad alta densità.

Dal punto di vista operativo l’approccio Powertrain ha un impatto diretto sulla resilienza della gestione energetica dei datacenter, perché riduce i punti di vulnerabilità e permette di governare il comportamento dell’intera catena in modo coordinato. Una progettazione integrata consente di prevedere meglio gli scenari di guasto, di strutturare ridondanze coerenti e di gestire la continuità anche in presenza di carichi altamente dinamici tipici dell’AI.

Sul fronte dell’efficienza energetica, una catena di potenza progettata come sistema unico limita le perdite, ottimizza il dimensionamento dei componenti e abilita strategie di gestione dell’energia più sofisticate, con benefici su TCO e sostenibilità. La modularità di Powertrain permette inoltre di scalare la capacità in modo graduale, aggiungendo blocchi di potenza in linea con l’evoluzione dei cluster AI e delle nuove generazioni di hardware, senza ripensare ogni volta l’intera architettura.

Il Customer Experience Center di Castel Guelfo

Un elemento chiave a supporto di questo approccio è il Customer Experience Center di Castel Guelfo, che Vertiv utilizza come piattaforma di test, demo e formazione per clienti provenienti da tutto il mondo. In questa struttura è possibile portare la gestione energetica dei datacenter dal piano teorico a quello pratico, verificando sul campo configurazioni, scenari di carico e modalità di esercizio delle soluzioni Powertrain.

E guardando avanti, Cevenini traccia uno scenario in cui la gestione energetica dei datacenter diventa sempre più una leva competitiva e non solo un vincolo operativo. In un mondo AI-driven, la capacità di garantire potenza affidabile, efficiente e scalabile determinerà quali operatori potranno sostenere davvero la crescita dei servizi intelligenti e dei modelli avanzati.

Il nuovo equilibrio tra produttività e comfort: Logitech e il futuro delle periferiche ibride

In un mercato in cui il lavoro ibrido è ormai la norma e le esigenze degli utenti si stanno spostando verso soluzioni che uniscono ergonomia, prestazioni e sostenibilità, Logitech gioca un ruolo sempre più centrale. L’evoluzione delle periferiche non riguarda più soltanto la potenza o la qualità costruttiva, ma la capacità di supportare nuove modalità di lavoro, garantire benessere e adattarsi a contesti in cui vita professionale e personale si intrecciano. Con questa prospettiva, abbiamo dialogato con Laura Canova, Marketing Manager della divisione Business di Logitech, per approfondire come l’azienda interpreti oggi le nuove abitudini digitali, l’impatto dell’intelligenza artificiale sull’esperienza d’uso e le direzioni future di un settore in piena trasformazione.

Come si sta evolvendo oggi il mercato delle periferiche?

Laura Canova Logitech
Laura Canova, Marketing Manager della divisione Business di Logitech

Il mercato delle periferiche EMEA continua a registrare una crescita costante, spinta dalla domanda di soluzioni per videoconferenze, cuffie, webcam, tastiere e dispositivi destinati agli spazi di lavoro personali. In questo scenario, Logitech si conferma un chiaro protagonista e mantiene una posizione di leadership, sostenuta dalla crescente diffusione dei modelli di lavoro ibrido e da remoto. Nel settore delle soluzioni per videoconferenze Logitech consolida la propria posizione grazie a una presenza capillare in aree strategiche e a una riconosciuta capacità di rispondere alle esigenze dei consumatori, che continuano a scegliere il brand per l’affidabilità, la qualità e l’innovazione dei suoi prodotti.

Quali tendenze emergono nel comportamento dei consumatori e delle aziende?

Le tendenze emergenti nel comportamento di consumatori e aziende rivelano una crescente attenzione verso il benessere sul lavoro, inteso non solo come equilibrio tra vita privata e professionale, ma come qualità complessiva dell’esperienza lavorativa. Sempre più aziende riconoscono nel benessere dei collaboratori un elemento fondamentale e pongono quindi l’attenzione su ambienti e strumenti che favoriscano comfort, salute posturale e produttività sostenibile In Logitech poniamo il wellbeing al centro del nostro approccio: crediamo che la tecnologia debba migliorare la vita quotidiana, non solo semplificare. Per questo progettiamo soluzioni ergonomiche che riducono la tensione muscolare, favoriscono una postura naturale, offrono prestazioni affidabili e sono facili da usare permettendo di lavorare meglio, più a lungo e con maggiore serenità.

In che modo la domanda di strumenti “ibridi” – utilizzabili sia per il lavoro sia per il tempo libero – sta influenzando la strategia di Logitech?

Logitech ha adattato la propria strategia alla crescente domanda di strumenti ibridi, progettando prodotti capaci di garantire alte performance sia in contesti lavorativi sia nel tempo libero. Esempi concreti di questa strategia sono i recentissimi MX Master 4 e la Signature Slim Solar, due periferiche progettate anche per l’ambiente “For Business”: entrambe combinano design ergonomico, funzionalità avanzate e sostenibilità, offrendo soluzioni versatili adatte a molteplici scenari professionali e confermando l’impegno di Logitech nell’innovazione orientata agli utenti ibridi.

Che ruolo giocano ergonomia, personalizzazione e silenziosità nella scelta di mouse e tastiere?

Ergonomia, personalizzazione e silenziosità giocano un ruolo centrale nella scelta di mouse e tastiere. L’ergonomia garantisce comfort durante l’uso prolungato, riducendo l’affaticamento grazie a design che supportano polso e mano in posizioni naturali. La silenziosità, infine, assicura un utilizzo discreto, fondamentale in ambienti condivisi o contesti creativi.  La personalizzazione permette agli utenti di adattare le periferiche alle proprie esigenze: grazie a strumenti come Logi Options+, è possibile configurare tasti, scorciatoie e funzioni dei dispositivi Logitech, ottimizzando il flusso di lavoro. Con Logi Tune, inoltre, è possibile gestire e ottimizzare le periferiche Logitech, come cuffie e webcam, migliorando l’esperienza complessiva di lavoro e comunicazione senza disturbi sonori.

Quali sono oggi le aspettative principali degli utenti in termini di comfort e produttività?

Gli utenti cercano strumenti capaci di offrire un’esperienza d’uso fluida e leggera, limitando al minimo la fatica fisica e migliorando al tempo stesso comfort e rendimento. Un esempio emblematico è il nuovo MX Master 4, un mouse premium pensato per rispondere a queste aspettative: il suo design ergonomico accompagna la mano in una posizione naturale, alleviando la pressione su polso e avambraccio. L’inclinazione studiata con precisione consente un utilizzo prolungato senza rigidità, mentre la disposizione intelligente dei pulsanti assicura una navigazione veloce, precisa e piacevolmente intuitiva.

Come si differenzia l’approccio tra utenti professionali e creator, gamer o smart worker?

L’approccio alla scelta delle periferiche varia significativamente tra diverse categorie di utenti. I professionisti privilegiano strumenti che aumentino la produttività quotidiana, concentrandosi su connettività stabile e sicura, efficienza operativa, comfort ergonomico e compatibilità tra più dispositivi. Cercano soluzioni affidabili che possano essere personalizzate secondo il flusso di lavoro e che rispettino criteri di sostenibilità dei materiali. I creator e i gamer necessitano di dispositivi con prestazioni elevate, tempi di risposta ridotti, funzionalità avanzate di personalizzazione e precisione nei controlli, in grado di supportare creatività, progettazione e esperienze ludiche complesse. La velocità e la reattività sono essenziali, così come la possibilità di integrare più dispositivi in modo armonioso e flessibile. Chi lavora in modalità ibrida o full remote orienta la scelta verso accessori leggeri, portatili e facilmente integrabili in ambienti di lavoro dinamici. La priorità è la flessibilità operativa, garantendo sempre compatibilità multi-device, connettività affidabile e strumenti ergonomici che facilitino il lavoro a distanza senza compromessi sulle performance.

Logitech è da sempre un riferimento per la qualità costruttiva: quali tecnologie stanno ridefinendo il concetto di “periferica intelligente”?

In Logitech crediamo che l’intelligenza di una periferica risieda nella sua capacità di adattarsi alle persone, non il contrario. Per questo l’intelligenza artificiale diventa uno strumento strategico: ottimizza i processi, migliora la collaborazione e rende ogni interazione più efficiente, unendo innovazione tecnologica e solidità costruttiva. Le soluzioni della famiglia Rally di Logitech sono tutte dotate di sistema Right Sight e Right Sound, sistemi avanzati abilitati dall’Intelligenza Artificiale, progettati per offrire un’esperienza di collaborazione virtuale ottimale, sia in termini di video che di audio. RightSight si occupa di gestire in maniera intelligente l’inquadratura durante le riunioni. La telecamera si regola automaticamente per includere tutti i partecipanti presenti nella stanza, focalizzandosi sullo spazio collettivo o, all’occorrenza, sull’oratore attivo. RightSound, invece, è progettato per garantire un audio nitido e professionale. Filtra i rumori di fondo come il suono della tastiera o quello dell’aria condizionata, equilibra i livelli delle voci per assicurare che ogni partecipante sia chiaramente udibile e riduce l’eco, migliorando la chiarezza del suono anche in ambienti con superfici riflettenti. Grazie a queste funzioni, ogni voce è chiara e distinta, indipendentemente dalla posizione della persona nella sala riunioni.  Anche il lavoro individuale beneficia dell’IA: MX Master 4 regola la precisione del cursore e propone scorciatoie intelligenti, rendendo ogni operazione più naturale ed efficace.

Il nuovo MX Master 4 introduce il feedback tattile: cosa cambia nell’interazione e come è nata questa innovazione?

Il nuovo Logitech MX Master 4 introduce un significativo cambiamento nell’interazione grazie al feedback tattile personalizzabile, che consente all’utente di “sentire” le azioni. Con questa nuova funzionalità è possibile percepire più concretamente azioni semplici come il passaggio tra diversi desktop, la regolazione dei selettori o la ricezione di notifiche, garantendo una maggiore consapevolezza dei comandi impartiti e ricevuti. Haptic Sense è inoltre personalizzabile nell’intensità e nella modalità di interazione grazie all’utilizzo di Logi Options+.

  • Quali altre funzioni evolutive vedremo nei prossimi prodotti (es. sensori adattivi, AI per la personalizzazione, connessioni multipiattaforma)?

Nei prossimi prodotti vedremo un’evoluzione sempre più profonda dell’intelligenza artificiale applicata ai sistemi di videoconferenza. In Logitech stiamo già integrando tecnologie capaci di rendere l’esperienza di collaborazione più naturale e immersiva, come dimostrano le soluzioni Logitech Sight e Rally Board 65. Attraverso algoritmi avanzati, l’IA è in grado di riconoscere i partecipanti e di adattare automaticamente inquadrature, luminosità e prospettiva, offrendo una visione sempre equilibrata e professionale di chi parla. Allo stesso modo, l’audio viene ottimizzato in tempo reale per isolare la voce, ridurre i rumori di fondo e garantire una comunicazione nitida e coerente anche in ambienti complessi.

Con dispositivi come Rally Board 65, l’intelligenza artificiale analizza la scena e regola dinamicamente la profondità, la messa a fuoco e la gestione dell’ambiente sonoro, creando una sensazione di presenza autentica. Logitech Sight, invece, offre ai partecipanti da remoto la sensazione di essere seduti al tavolo della riunione grazie alla possibilità di visualizzare i partecipanti in sala sempre frontalmente. Sight, infatti, garantisce costantemente l’angolo migliore di ripresa durante le interazioni e ricrea la naturalezza di un incontro in presenza attivando l’elaborazione intelligente dei flussi video. L’obiettivo è superare la semplice qualità tecnica per offrire esperienze di collaborazione realmente intuitive, in cui la tecnologia scompare e lascia spazio alla connessione umana.

Come si integra la sostenibilità nel ciclo di sviluppo dei prodotti Logitech?

Logitech adotta pratiche sostenibili lungo l’intero ciclo di sviluppo prodotto, applicando un approccio che mira a ridurre l’impatto ambientale sin dalle prime fasi di progettazione, passando per la selezione dei materiali, la gestione della produzione e delle confezioni, fino al riciclo.

Le prime fasi del processo di progettazione sono infatti decisive per contenere le emissioni di carbonio, poiché è in quel momento che vengono prese le decisioni chiave in grado di prevenire l’impatto ambientale di un prodotto. In questa prospettiva, Logitech promuove un’innovazione sostenibile che migliora la circolarità dei materiali e contribuisce a ridurre le emissioni complessive. A conferma di tale impegno, la collaborazione con iFixit semplifica la riparazione dei dispositivi Logitech e ne prolunga la durata, grazie alla disponibilità di pezzi di ricambio originali e guide dettagliate in più lingue, accessibili in oltre 60 paesi.

  • In che modo materiali riciclati e imballaggi ridotti contribuiscono a un posizionamento “green” senza compromessi sulle prestazioni?

L’impiego di materiali riciclati e la riduzione degli imballaggi rappresentano per Logitech un impegno concreto verso la sostenibilità, che si integra pienamente con l’eccellenza delle prestazioni. Oggi, quasi l’80% dei prodotti Logitech utilizza Next Life Plastics per diminuire in modo significativo le emissioni di carbonio e progetta gli imballaggi per eliminare la plastica monouso, riducendo sprechi e componenti superflui. Queste scelte, sostenute da un costante investimento in ricerca e innovazione, consentono di coniugare responsabilità ambientale e qualità, garantendo prodotti performanti, durevoli e coerenti con una visione autenticamente “green”.

Qual è, secondo lei, la prossima grande rivoluzione nell’esperienza d’interazione uomo-macchina?

La prossima grande rivoluzione nell’esperienza d’interazione uomo-macchina si prospetta guidata dall’integrazione avanzata di intelligenza artificiale e tecnologie tattili, che consentiranno ai dispositivi di adattarsi in tempo reale alle esigenze e ai comportamenti degli utenti. Grazie all’IA, le periferiche saranno in grado di riconoscere schemi di utilizzo, anticipare comandi e ottimizzare le funzioni in base al contesto, migliorando significativamente efficienza e precisione.

L’adozione di feedback tattile evoluto renderà l’interazione più intuitiva, permettendo agli utenti di percepire le risposte dei dispositivi in maniera immediata e naturale, con un’esperienza che si avvicina a quella sensoriale reale. Parallelamente, il controllo vocale e il riconoscimento dei gesti potrebbero trasformare radicalmente le modalità di input, riducendo la necessità di tastiere e mouse tradizionali e aprendo nuove possibilità per ambienti di lavoro e contesti creativi più fluidi e immersivi. Questo insieme di tecnologie non solo incrementa il livello di personalizzazione delle periferiche, ma ridefinirà anche il concetto stesso di interazione digitale, creando un ecosistema in cui uomo e macchina interagiscono in modo sinergico, efficiente e naturale.

Dell AI Factory: le nuove soluzioni che accelerano l’adozione dell’AI aziendale

Dell Technologies rafforza Dell AI Factory con un set di innovazioni mirate a semplificare l’adozione dell’AI on-premise e ad aumentare le prestazioni delle infrastrutture AI. La nuova ondata di soluzioni abbraccia automazione, storage software-defined, server PowerEdge di nuova generazione, networking ad alta capacità e sistemi di gestione su scala rack. L’obiettivo è eliminare complessità e colli di bottiglia, offrendo alle aziende un percorso più rapido e replicabile verso i workload di intelligenza artificiale.

Automazione e servizi: l’AI diventa più accessibile

Il cuore della strategia è la Dell Automation Platform, ora integrata in Dell AI Factory, che abilita implementazioni AI automatizzate, validate e ottimizzate attraverso un framework sicuro. Questo approccio punta a garantire risultati coerenti e facilmente scalabili all’interno dell’ecosistema di partner tecnologici. Strumenti software-driven come l’assistente di codice AI con Tabnine e la piattaforma AI agentica con Cohere North diventano parte di un flusso operativo automatizzato che accelera la messa in produzione dei workload AI.

Dell Professional Services estende il processo con progetti pilota interattivi basati su dati reali e metriche verificabili. Questa metodologia permette alle imprese di misurare il valore dell’AI prima di avviare investimenti su larga scala, riducendo rischi e tempi di adozione.

Storage software-defined per prestazioni più elevate nei workload AI

La gestione del dato è un asse centrale della Dell AI Factory. Gli aggiornamenti a Dell PowerScale e Dell ObjectScale, i motori della Dell AI Data Platform, migliorano sensibilmente scalabilità, throughput e individuazione dei dati nei contesti AI complessi. PowerScale, disponibile anche come software su server Dell PowerEdge, consente alle aziende di sfruttare configurazioni flessibili per gestire dataset di grandi dimensioni e accelerare training, inferenza e analytics.

L’introduzione di PowerScale parallel NFS con Flexible File Layout permette una distribuzione parallela più efficiente su più nodi, con throughput superiore e scalabilità lineare. ObjectScale si arricchisce invece di funzionalità di ricerca ottimizzate dall’intelligenza artificiale con S3 Tables e S3 Vector, utili per workload come inferenza distribuita e retrieval-augmented generation.

PowerEdge di nuova generazione: più training, meno latenza

I nuovi server Dell PowerEdge rappresentano la base computazionale della Dell AI Factory. I modelli XE9785 e XE9785L, dotati di processori AMD EPYC dual-socket e GPU AMD Instinct MI355X, sono progettati per workload AI e HPC avanzati. Le schede NIC AMD Pensando Pollara 400 AI e il fabric PowerSwitch AI contribuiscono a un’elaborazione scalabile con un TCO più efficiente.

Il nuovo PowerEdge R770AP, basato su processori Intel Xeon 6 P-core serie 6900, introduce miglioramenti nel parallelismo, nella larghezza di banda della memoria e nell’espandibilità PCIe, con benefici per carichi come trading ad alta frequenza, modelli ML complessi e analisi in tempo reale.

Networking, gestione e raffreddamento: AI su larga scala senza compromessi

Per supportare le implementazioni AI più impegnative, Dell introduce switch PowerSwitch Z9964F-ON e Z9964FL-ON con capacità di commutazione di 102,4 terabyte al secondo. In combinazione con Enterprise SONiC Distribution e SmartFabric Manager, l’infrastruttura di rete diventa più semplice da distribuire, monitorare e scalare. SmartFabric Manager integra inoltre modelli automatizzati per la configurazione delle infrastrutture AI e integrazione end-to-end con OpenManage Enterprise.

Sul fronte della gestione rack e del raffreddamento, l’Integrated Rack Controller migliora la visibilità operativa riducendo rischi e tempi di inattività, mentre il nuovo sistema PowerCool RCDU abilita raffreddamento a liquido ad alta densità per rack fino a 150 kW, rendendo sostenibili le implementazioni GPU-dense.

Una piattaforma integrata per portare l’AI su scala aziendale

Secondo Arthur Lewis, presidente dell’Infrastructure Solutions Group di Dell Technologies, «Le aziende desiderano integrare funzionalità di intelligenza artificiale nella propria infrastruttura, ma la complessità rappresenta un ostacolo. Dell AI Factory elimina tale ostacolo grazie all’automazione integrata e alle prestazioni che consentono alle aziende di implementare l’intelligenza artificiale su larga scala e ottenere risultati concreti».

Scott Sinclair, Practice Director di Omdia, evidenzia che «le aziende cercano soluzioni che combinino automazione, scalabilità e prestazioni per accelerare il time-to-value riducendo la complessità». Gli aggiornamenti della Dell AI Factory rispondono proprio a queste esigenze, ponendosi come uno dei portafogli AI più completi e coerenti del settore.

Dell prosegue così il suo percorso verso un’infrastruttura AI completa, automatizzata e scalabile, progettata per consentire alle imprese di passare dalla sperimentazione ai risultati reali con continuità e controllo.

FiberCop e Microsoft accelerano il cloud sovrano con Azure Local ed edge italiano

FiberCop e Microsoft Italia avviano una collaborazione strategica che segna un cambio di passo nella modernizzazione digitale del Paese, integrando l’infrastruttura in fibra e i nodi edge di FiberCop con Microsoft Azure Local. L’obiettivo è portare servizi cloud e di intelligenza artificiale più vicini alle imprese e alla pubblica amministrazione, con prestazioni a bassa latenza, massima sicurezza e pieno rispetto della sovranità dei dati.

Ne nasce un’architettura distribuita che combina la capillarità della rete FiberCop con l’esperienza globale di Microsoft nel cloud e nell’AI, creando un sistema in grado di supportare workload critici, analisi in tempo reale e applicazioni IoT in ogni area del territorio nazionale. Una piattaforma pensata per sostenere la crescita dell’AI agentica e delle soluzioni cloud-native, ma anche per accompagnare le organizzazioni che devono mantenere requisiti stringenti di controllo e conformità.

“Attraverso la collaborazione con Microsoft Italia, FiberCop compie un ulteriore passo avanti nella missione di diventare il campione digitale italiano”, ha dichiarato Massimo Sarmi, Presidente e Amministratore Delegato di FiberCop. “Ampliando la propria infrastruttura in fibra con servizi di calcolo avanzati, FiberCop sarà in grado di offrire una gamma più ampia di soluzioni digitali. La nostra forza risiede nell’estensione unica e capillare degli asset aziendali e nell’esperienza nella gestione di infrastrutture critiche, che ci consentono di accelerare la transizione digitale dell’Italia e ridurre il divario digitale”.

microsoft fibercop
A sinistra Massimo Sarmi, Presidente e Amministratore Delegato di FiberCop; a destra Vincenzo Esposito, AD di Microsoft Italia

Azure Local porta il cloud nei siti edge di FiberCop

Il cuore dell’accordo è l’adozione su scala nazionale di Microsoft Azure Local nei siti edge di FiberCop. Azure Local estende le funzionalità del cloud Microsoft agli ambienti di proprietà delle organizzazioni, consentendo di eseguire applicazioni moderne e legacy localmente, in sedi distribuite o soggette a requisiti di sovranità dei dati.

L’integrazione tra Azure Local e la rete edge di FiberCop permette di distribuire capacità computazionali avanzate direttamente nei territori, riducendo la latenza e aumentando resilienza e scalabilità. Le organizzazioni possono così mantenere il pieno controllo sui dati, sfruttare le innovazioni più recenti dell’AI generativa e agentica, e implementare servizi critici con continuità anche in contesti periferici.

“Con Azure Local e la rete edge di FiberCop permetteremo alle organizzizzazioni di tutto il Paese di innovare dal cloud all’edge, mantenendo il pieno controllo sui propri dati e beneficiando al tempo stesso delle più recenti innovazioni in ambito intelligenza artificiale”, ha affermato Vincenzo Esposito, Amministratore Delegato Microsoft Italia.

Perché edge cloud computing e sovranità dei dati diventano centrali

Il modello edge rappresenta oggi una risposta concreta all’esigenza di portare potenza elaborativa e archiviazione più vicino al punto in cui i dati vengono generati. Questo approccio accelera i servizi digitali, aumenta l’affidabilità delle applicazioni e rende possibile l’adozione di tecnologie che richiedono risposta immediata, dalla robotica industriale ai sistemi sanitari avanzati, dalle smart city ai veicoli intelligenti.

L’edge non sostituisce i grandi data center: li completa. Le infrastrutture centrali restano fondamentali per l’elaborazione e la conservazione di enormi volumi di informazioni, ma l’edge abilita scenari dove rapidità e prossimità fanno la differenza. L’accordo tra FiberCop e Microsoft Italia unisce le due anime, costruendo un continuum che permette di scegliere dove far risiedere e processare i dati in base alle reali necessità.

In questo quadro, la sovranità digitale diventa un pilastro. Con i nodi edge distribuiti sul territorio italiano e la tecnologia Azure Local, i dati sensibili restano all’interno dei confini nazionali, in piena conformità con le normative europee e italiane. Una condizione indispensabile per settori come pubblica amministrazione, sanità, utilities e servizi critici.

Un’alleanza che guarda all’innovazione di lungo periodo

La nuova iniziativa si colloca all’interno di una collaborazione di lungo corso tra FiberCop e Microsoft, già attive insieme su progetti di AI agentica e servizi cloud avanzati. L’accordo rafforza un percorso condiviso che punta a sostenere l’innovazione delle imprese italiane e a ridurre le disparità digitali tra territori.

Grazie alla rete diffusa di FiberCop e alle tecnologie Microsoft, imprese e pubbliche amministrazioni potranno sperimentare nuovi modelli di servizio, abilitare applicazioni data-driven, integrare AI e IoT nei processi operativi e costruire un’infrastruttura più resiliente, efficiente e pronta per le sfide dell’economia digitale.

Copilot 4 Value: il metodo di Atlantic per un’adozione matura dell’AI

0

Atlantic Technologies introduce Copilot 4 Value, un percorso strutturato in sei step pensato per portare Microsoft 365 Copilot da semplice attivazione tecnologica a leva concreta di produttività. In un momento in cui la generative AI è sempre più presente nei flussi di lavoro, ma spesso senza una vera strategia di adozione, la società del Gruppo Engineering propone un approccio modulare e misurabile, centrato su persone, processi e change management.

A supporto di questa direzione, una recente analisi di Microsoft evidenzia una crescita del 60% nell’integrazione di Copilot nei processi aziendali e un raddoppio degli utenti attivi quotidiani. Numeri importanti che, però, non eliminano un problema ricorrente: molte organizzazioni non riescono a trasformare Copilot in valore per mancanza di cultura, aspettative distorte o un onboarding frammentato. Copilot 4 Value nasce esattamente qui.

Un framework modulare per un’adozione realmente efficace

Il programma di Atlantic Technologies adotta una logica graduale, che parte dagli early adopter per poi scalare su tutta l’organizzazione. L’obiettivo non è “attivare Copilot”, ma integrarlo in modo strategico, sicuro e sostenibile nelle attività quotidiane, lavorando sulla qualità dei dati, sulla preparazione delle persone e sulla governance interna.

In questo percorso la componente di change management è centrale: Atlantic porta in dote un’esperienza consolidata nel modellare comportamenti, accelerare l’adoption e allineare gli obiettivi ai risultati attesi, riducendo la distanza tra attivazione e generazione di valore.

I sei step di Copilot 4 Value

AI Awareness: capire cosa può fare Copilot

Il primo passo punta a creare aspettative realistiche e a fornire strumenti per comprendere l’AI generativa e il ruolo di Copilot nei processi aziendali. La roadmap viene adattata agli obiettivi di ogni organizzazione, verificando la reale preparazione tecnologica.

Copilot Readiness: trasformare la tecnologia in vantaggio competitivo

In questa fase si identificano le aree di intervento, si analizzano i flussi dati e si definiscono gli use case iniziali. L’obiettivo è strutturare un percorso scalabile, in grado di incidere davvero sul modo di lavorare.

Copilot Delivery: attivazione basata su use case mirati

Copilot si alimenta con i dati aziendali, per questo serve prepararli con attenzione. La delivery si concentra sulla qualità e sicurezza dell’informazione, prerequisiti essenziali per ottenere risultati affidabili.

Copilot Value Enablement: integrare l’AI nel lavoro quotidiano

Qui entra in gioco il change management: formazione, supporto agli utenti e iniziative pensate per rendere l’utilizzo di Copilot spontaneo, sostenibile e orientato al valore. L’obiettivo è ridurre al minimo il tempo fra go-live e produttività effettiva.

Copilot Training: competenze, tutoring e gamification

La formazione può essere tradizionale o supportata dal Copilot Buddy, un tutor che accompagna le persone nel daily use, risponde ai dubbi e aiuta a trasformare l’abitudine in competenza. Un approccio rinforzato da percorsi personalizzati e attività di gamification.

Copilot Adoption: supporto continuo dopo il go-live

L’ultimo step si concentra sulla creazione di community interne, sul monitoraggio costante dei KPI e sulla raccolta dei feedback. L’obiettivo è assicurare un miglioramento continuo che mantenga l’AI realmente utile e integrata.

Le voci di Atlantic Technologies

Alessandro Celeroni, Change Management BU Manager di Atlantic Technologies
Alessandro Celeroni, Change Management BU Manager di Atlantic Technologies

“La forza di Copilot 4 Value è data soprattutto dalla possibilità di personalizzazione del programma che ne garantisce l’efficacia” afferma Alessandro Celeroni, Change Management BU Manager di Atlantic Technologies. “Grazie alla nostra expertise, riusciamo a supportare i clienti nell’adozione di Microsoft 365 Copilot garantendo risultati concreti”.

 

Gianni Cavazza, Head of Microsoft Delivery Unit di Atlantic Technologies.
Gianni Cavazza, Head of Microsoft Delivery Unit di Atlantic Technologies.

“Oggi le soluzioni di generative AI sono sempre più utilizzate nelle organizzazioni e queste devono essere pronte ad affrontare un cambiamento non solo tecnologico ma anche culturale” dichiara Gianni Cavazza, Head of Microsoft Delivery Unit di Atlantic Technologies. Copilot 4 Value offre un percorso completo per aumentare produttività, collaborazione e valore nel lungo periodo”.

Una roadmap per un’adozione matura dell’AI

Atlantic Technologies integra competenze su ERP, CRM e Analytics con un team di oltre 250 consulenti specializzati per industry. Con Copilot 4 Value, l’azienda costruisce un modello replicabile e modulare che affronta una delle principali sfide dell’AI enterprise: portarla davvero nelle mani delle persone, trasformandola in valore tangibile per processi, team e organizzazioni.

Accenture e OpenAI accelerano la reinvenzione delle imprese con l’IA agentica

Accenture e OpenAI stringono una collaborazione strategica con un obiettivo diretto e ambizioso: accelerare la reinvenzione delle imprese attraverso l’intelligenza artificiale avanzata, portando l’IA agentica dal perimetro sperimentale al centro dei processi aziendali. L’accordo rende OpenAI uno dei partner chiave di Accenture per la nuova generazione di servizi e soluzioni basati sull’AI.

Julie Sweet, Chair e CEO di Accenture, sintetizza così il valore dell’intesa: “Combinando le tecnologie rivoluzionarie di OpenAI con la forte esperienza settoriale e funzionale di Accenture e le nostre capacità di delivery a livello mondiale, accelereremo la reinvenzione delle imprese e i risultati di business dei nostri clienti”. Una visione condivisa anche da Fidji Simo, CEO of Applications di OpenAI: “Accenture svolge un ruolo fondamentale nell’aiutare le aziende ad adottare le tecnologie che definiscono ogni nuova era e siamo entusiasti di collaborare con loro per accelerare la trasformazione AI delle più grandi realtà”.

L’alleanza nasce in un momento cruciale: la domanda di AI enterprise cresce velocemente, ma molte organizzazioni faticano a trasformare prototipi e sperimentazioni in soluzioni scalabili, governabili e realmente integrate nei flussi operativi. La risposta congiunta delle due aziende punta a colmare esattamente questo gap.

Un nuovo programma per scalare l’IA agentica nei processi core

Accenture e OpenAI lanciano un programma congiunto che combina prodotti enterprise, linee guida operative, sicurezza, expertise settoriale e metodologie di implementazione. È una piattaforma di accelerazione pensata per mettere l’IA al lavoro nei processi critici di imprese dei servizi finanziari, sanità, settore pubblico e retail.

La struttura del programma è orientata alla pratica: include casi d’uso verticali, principi di adozione responsabile, raccomandazioni per il deployment e istruzioni operative che consentono alle aziende di integrare rapidamente strumenti avanzati nei propri workflow. L’obiettivo è trasformare processi tradizionali in flussi intelligenti che uniscano automazione, capacità decisionale aumentata e nuovi modelli operativi.

Un passaggio rilevante riguarda lo sviluppo di soluzioni AI-first su funzioni trasversali come customer service, supply chain, finanza e HR. Qui Accenture utilizzerà OpenAI AgentKit per progettare, testare e distribuire agenti generativi su misura, capaci di automatizzare attività complesse e migliorare l’efficienza decisionale.

ChatGPT Enterprise e certificazioni OpenAI al centro del lavoro di Accenture

La collaborazione avrà un impatto immediato anche sull’organizzazione interna di Accenture. Decine di migliaia di professionisti utilizzeranno ChatGPT Enterprise per accelerare analisi, progettazione, sviluppo e gestione delle iniziative AI. Parallelamente, l’azienda punta a costruire la comunità più ampia al mondo di persone certificate tramite OpenAI Certifications, con competenze formate direttamente sui modelli e sulle tecnologie dell’ecosistema.

Questo approccio rafforza la strategia Reinvention Services di Accenture, che integra consulenza, operations, tecnologia, industria e creatività con l’obiettivo di costruire un core digitale sostenibile e guidato dall’intelligenza artificiale.

Una partnership anche per far crescere OpenAI

L’accordo non si limita al supporto ai clienti: Accenture affiancherà OpenAI nel percorso di espansione delle sue attività globali, contribuendo alla progettazione e allo sviluppo di processi cognitivi avanzati di front e back-office. Si tratta di un modello collaborativo che punta a ridefinire il modo in cui vengono costruite, distribuite e governate le soluzioni intelligenti su larga scala, in un contesto regolatorio e competitivo sempre più complesso.

In questa prospettiva, la combinazione fra la piattaforma tecnologica di OpenAI e le competenze di Accenture può creare uno standard di riferimento per l’adozione di sistemi agentici enterprise: governabili, affidabili, performanti e allineati ai requisiti operativi dei diversi settori.

HPE potenzia il networking per l’AI con AIOps avanzate e nuovi switch Juniper

HPE rafforza la propria leadership nel settore delle infrastrutture AI con l’ampliamento del proprio portfolio di soluzioni di rete sicure e AI-native, che sfrutta HPE Aruba Networking e HPE Juniper Networking per operazioni autonome volte a massimizzare le prestazioni e la scalabilità dei carichi di lavoro AI. L’ampliamento del portfolio segna una tappa fondamentale nel processo di integrazione di Juniper Networks con HPE, a soli cinque mesi dalla chiusura dell’acquisizione di Juniper.

Questa espansione include nuove funzionalità AIOps e hardware comune per garantire un’esperienza autonoma e coerente su entrambe le piattaforme operative, HPE Aruba Networking Central e HPE Juniper Networking Mist. Insieme agli aggiornamenti ad HPE OpsRamp Software e alle novità di switching e routing HPE Juniper Networking, HPE espande il ruolo della rete come base fondamentale per le prestazioni di AI e cloud, semplificando al contempo le operazioni IT in ambienti ibridi mediante l’utilizzo di agentic AI compatibile con GreenLake Intelligence.

“Nell’era dell’AI, i clienti hanno bisogno di reti appositamente progettate con l’AI e per l’AI, per gestire la rapida crescita dei dispositivi connessi, gli ambienti complessi e le crescenti minacce alla sicurezza”, ha affermato Rami Rahim, Executive Vice President, President e General Manager, Networking, HPE. “Fornendo reti autonome e ad alte prestazioni, HPE è pronta a rivoluzionare il settore del networking con soluzioni pronte per il futuro, che ridefiniscono l’esperienza degli utenti e forniscono una connettività robusta e sicura in tutti gli ambienti”.

HPE promuove le reti a guida autonoma con AIOps unificate su HPE Aruba Networking e HPE Juniper Networking

In poco tempo, HPE ha dimostrato la propria capacità di coniugare il meglio di HPE Aruba Networking Central e HPE Juniper Networking Mist, sfruttando un framework comune di AI agentica e di microservizi per garantire la protezione degli investimenti, integrando contemporaneamente funzionalità chiave di AI delle reti per un’esperienza coerente, introducendo nuove funzionalità di AI delle reti in entrambi i domini:

  • Mist Large Experience Model (LEM) di HPE Juniper Networking, che utilizza miliardi di dati provenienti da app come Zoom e Teams, combinati con dati sintetici provenienti da digital twin per individuare, risolvere e prevedere rapidamente i problemi video, sarà ora disponibile in HPE Aruba Networking Central.
  • La tecnologia Agentic Mesh di HPE Aruba Networking sarà disponibile per Mist, migliorando il rilevamento delle anomalie e l’analisi root-cause con algoritmi di “reasoning” avanzati e azioni autonome o assistite.
  • Mist utilizzerà gli insight organizzativi e le view NOC globali di HPE Aruba Networking Central, offrendo un’esperienza utente unificata su entrambe le piattaforme.
  • Nuovi modelli di access point WiFi-7 compatibili con HPE Aruba Networking Central e HPE Juniper Networking Mist, garantendo la protezione dell’acquirente.

HPE Aruba Networking Central On-Premises 3.0 offre ora ai clienti insight approfonditi e automazione in un ambiente locale sicuro, integrando funzionalità AIOps avanzate sia per l’AI generativa che quella tradizionale , gestendo avvisi AI operativi, correzioni proattive, insight intelligenti sui client e ricerca semplificata della documentazione, il tutto gestito tramite un’interfaccia utente rinnovata.

HPE amplia le reti per il portfolio AI con il primo switch OEM che sfrutta il sistema Broadcom Tomahawk 6

 Le reti ad alte prestazioni sono fondamentali per l’esecuzione dei carichi di lavoro AI, mentre l’elaborazione per l’inferenza AI va spostandosi verso l’edge. Questo cambiamento è determinato da latenza, privacy e costi e crea la necessità di switch e router ad alte prestazioni. Per rispondere a questo settore in crescita che richiede prestazioni elevate e calcolo accelerato, HPE introduce:

  • Lo switch HPE Juniper Networking QFX5250, che collega le GPU all’interno dei data center con lo switch Ultra Ethernet Transport ready più performante al mondo. Basato sulla tecnologia Broadcom Tomahawk 6, con una larghezza di banda di 102,4 Tbps, il QFX5250 combina l’innovazione Junos di HPE Juniper Networking, la leadership di HPE nel raffreddamento a liquido e l’intelligenza AIOps per offrire prestazioni, efficienza energetica e operazioni semplificate per l’infrastruttura AI di nuova generazione.
  • Il router edge multiservizio HPE Juniper Networking MX301 avvicina l’inferenza dell’AI alla fonte di generazione dei dati e risponde alla necessità di un routing edge ad alte prestazioni. Questo router compatto 1RU offre prestazioni di 1,6 Tbps e connettività 400G in ambienti di inferenza, multiservizio, metro, mobile backhaul e ambienti di routing enterprise.

HPE annuncia l’ampliamento delle partnership con NVIDIA e AMD attraverso ulteriori innovazioni di networking

Prima di HPE Discover Barcelona 2025, HPE ha presentato nuove soluzioni di rete ad alte prestazioni con NVIDIA e AMD per accelerare le implementazioni di AI, tra cui:

  • La soluzione di HPE per le AI factory è stata estesa per includere HPE Juniper Networking edge on-ramp e long haul data center interconnect (DCI).Tale estensione sfrutta le piattaforme di routing ad alta velocità HPE Juniper Networks MX e PTX per consentire connessioni alle AI Factory su larga scala, sicure e a bassa latenza da utenti, dispositivi e agenti e connessioni tra cluster distribuiti su ampie distanze o su più cloud. Queste nuove funzionalità completano le soluzioni di rete AI Factory di HPE, tra cui la piattaforma di rete Ethernet NVIDIA Spectrum-X e le unità di elaborazione dati (DPU) NVIDIA BlueField-3. Ciò offre ai clienti la sicurezza di una soluzione congiunta e migliori esperienze di carico di lavoro in molteplici scenari.
  • L’architettura AI rack-scale AMD “Helios”, la prima rete Ethernet scale-up del settore. La soluzione è un unico rack pronto all’uso in grado di eseguire un trilione di parametri nei modelli di addestramento AI e inferenze su modelli di enormi dimensioni, fornendo 260 TB/s di larghezza di banda scalabile e 2.9 exaflop di prestazioni con FP4. Il switch scalabile incluso HPE Juniper Networking appositamente progettato, sviluppato in collaborazione con Broadcom, e il relativo software sono i primi del settore a potenziare le prestazioni di addestramento e inferenza AI utilizzando Ethernet standard.

Le innovazioni HPE nell’AIOps aiutano a unificare le operazioni IT e ad affrontare le sfide di un mondo ibrido

HPE sta portando avanti la sua strategia di cloud ibrido e Agentic AIOps introducendo miglioramenti che mettono in luce un punto di forza unico di HPE: un’intelligenza full-stack, multi-dominio e multi-vendor basata su un modello di risorse condivise che spazia dall’hardware al cloud pubblico. Grazie a questi miglioramenti di HPE OpsRamp Software e a una maggiore integrazione con GreenLake, HPE riunisce ora la telemetria di HPE Compute Ops Management, HPE Aruba Networking Central e HPE Juniper Networking Apstra per offrire ai team IT un unico spazio in cui visualizzare, interpretare e agire su tutto ciò che riguarda il loro ambiente, creando le basi per un vero centro di controllo ibrido.

Le novità riguardano la connessione tra gestione e intelligence nell’intero stack, consentendo ai team IT di monitorare, comprendere e agire istantaneamente sull’intero ambiente ibrido:

  • L’integrazione del software Apstra Data Center Director e Data Center Assurance di HPE Juniper Networking con HPE OpsRamp, disponibile tramite GreenLake, consente l’osservabilità full-stack, la sicurezza predittiva e la risoluzione dei problemi in modo proattivo su elaborazione, archiviazione, rete e cloud.
  • Le innovazioni di Compute Ops Management – tra cui l’integrazione con HPE OpsRamp, HPE Compute Copilot e l’analisi “root-cause self-service” – consentono di centralizzare la visibilità, velocizzare la risoluzione dei problemi e migliorare l’esperienza dell’operatore.
  • Supporto per Agentic Root Causing & per Model Context Protocol (MCP) (disponibilità limitata), sia in GreenLake che in HPE OpsRamp Software, che consente ai clienti di collegare agenti AI da software di terze parti per le integrazioni no-code e arricchisce tali agenti, aiutando GreenLake Intelligence a eliminare i punti ciechi in ambienti dinamici.
  • Le nuove funzionalità di GreenLake Intelligence forniscono informazioni più rapide e azioni guidate grazie ai nuovi agenti AI per HPE Sustainability Insight Center, GreenLake Wellness Dashboard e OpsRamp Agentic Root Causing, contribuendo a colmare i silos di dati e consentendo analisi agentiche su tutto lo stack IT.

Il nuovo finanziamento a tasso zero riduce le barriere per l’adozione del networking AI-native

HPE Financial Services (HPEFS) sta facilitando l’adozione delle reti native AI da parte delle aziende con due nuove offerte. HPEFS offre un finanziamento a tasso zero ai clienti che acquistano software AIOps di rete, tra cui HPE Juniper Networking Mist, attraverso licenze a termine. HPEFS offre anche un programma di finanziamento speciale che garantisce un risparmio del 10% ai clienti che noleggiano reti che supportano carichi di lavoro AI, tra cui reti di data center e routing aziendale, mentre per coloro che sostituiscono tecnologie obsolete è disponibile un servizio opzionale multi-OEM con condivisione dei ricavi sulla rivendita.

Disponibilità

  • Lo switch HPEJuniper Networking QFX5250 sarà disponibile in Q1 2026
  • Il router edge multiservice HPE Juniper Networking MX301sarà disponibile a dicembre 2025
  • Tempistiche di supporto e integrazione HPE OpsRamp:
    • Model Context Protocol: già disponibile per alcuni clienti selezionati, con piena disponibilità all’inizio del 2026
    • Compute Ops Management: disponibile a dicembre 2025
    • Storage manager: disponibile a febbraio 2026
    • Apstra Data Center Director: disponibile in Q2 2026

Trustworthy AI: dall’AI Act alla governance etica per un’AI affidabile

Dalla regolamentazione europea ai principi di governance, l’etica dell’AI diventa pratica quotidiana per costruire fiducia e valore nel lungo periodo.

L’intelligenza artificiale è ormai parte integrante di ogni fenomeno economico e sociale ed è capace di generare valore, efficienza e conoscenza come mai prima d’ora. Tuttavia, la rapidità con cui questa tecnologia si diffonde sta sollevando interrogativi sempre più pressanti su come garantirne un uso equo, sicuro e trasparente.

L’Europa ha risposto con l’AI Act, il primo quadro normativo al mondo dedicato all’intelligenza artificiale, che pone l’accento sulla necessità di un’AI affidabile e conforme a valori fondamentali.

Perché innovare significa farlo responsabilmente, interrogandosi su come i sistemi AI influenzano le persone, quali dati vengono utilizzati, come vengono gestiti i bias e quali sono le implicazioni etiche delle decisioni automatizzate.

La Trustworthy AI come condizione abilitante

Davide Pecchia SAS
Davide Pecchia, Trustworthy AI Specialist, SAS

Ma che cosa significa davvero “essere Trustworthy”? Vuol dire esserlo già prima di scrivere la prima riga di codice. Un’AI affidabile nasce infatti da un approccio ethical by design, in cui i principi etici non vengono applicati a posteriori ma costituiscono le fondamenta del progetto. Significa concepire ogni modello come un sistema in cui l’uomo resta al centro del processo decisionale, dove la trasparenza non è un requisito formale ma una condizione per costruire fiducia, e dove la sicurezza dei dati è parte integrante della qualità complessiva.

Alla base di questo approccio ci sono infatti quelli che si possono definire come i sei principi guida della Trustworthy AI: centralità umana, inclusività, responsabilità, trasparenza, robustezza e privacy. Si tratta di criteri concreti che orientano le scelte di progettazione, assicurando che l’intelligenza artificiale sia equa, sicura e comprensibile. La Trustworthy AI è soprattutto una questione di cultura organizzativa: una visione comune che rende la tecnologia più solida, sostenibile, capace di riflettere i valori dell’azienda che la adotta e di rispondere alle aspettative della società.

Dalla teoria alla pratica: il ruolo delle model card

Tradurre i principi in azioni richiede una governance chiara in grado di bilanciare innovazione e controllo. La Responsible Innovation promossa da SAS è un approccio di governance collaborativa che si concentra su supervisione, operatività, conformità e cultura, per anticipare, mitigare ed evitare danni non intenzionali, in particolare verso le persone più vulnerabili.

La supervisione permette di sottoporre i sistemi AI a processi di valutazione e monitoraggio continui; l’operatività consente di mantenere coerenza tra la progettazione e l’uso effettivo dell’AI; la conformità assicura il rispetto di standard e normative; la cultura, infine, rappresenta la base su cui poggia tutto il sistema, perché senza consapevolezza diffusa nessun framework tecnico può funzionare davvero.

All’interno di questa visione, strumenti come le model card diventano parte integrante dell’innovazione responsabile. Si tratta di schede descrittive che documentano in modo trasparente obiettivi, dati, metriche, limiti e condizioni d’uso dei modelli di intelligenza artificiale, rendendo la loro struttura più leggibile e verificabile. Un linguaggio comune che traduce trasparenza e responsabilità in pratica operativa, favorendo un dialogo chiaro tra sviluppatori, manager e stakeholder.

L’etica come pratica quotidiana

L’etica dell’intelligenza artificiale è un processo continuo di miglioramento. È un equilibrio tra ambizione tecnologica e consapevolezza dei propri limiti, tra capacità di innovare e responsabilità.

In un contesto in cui la regolamentazione evolve e la società diventa sempre più attenta ai temi della sostenibilità e della fiducia digitale, la Trustworthy AI, oltre ad essere una necessità, porta a un vantaggio competitivo. Perché l’etica dell’AI non solo è teoria, ma la somma delle scelte e delle regole che ogni giorno costruiscono un’intelligenza artificiale affidabile.

 

CrowdStrike accelera la sicurezza cloud con Cloud Detection and Response in tempo reale

0

CrowdStrike ha presentato nuove innovazioni di Cloud Detection and Response (CDR), segnando un passo avanti nella protezione in tempo reale in ambienti ibridi e multi-cloud.

Potenziata da un nuovo motore di rilevamento in tempo reale, costruito su una tecnologia di streaming sperimentata e testata sul campo dai migliori threat hunter del mondo, la CDR potenziata elimina i ritardi di rilevamento, facendo emergere alert critici in pochi secondi. Attraverso nuovi Indicatori di Attacco (IoA) per il cloud e nuove azioni di risposta automatizzate, CrowdStrike offre ai difensori la velocità e la precisione necessarie per bloccare gli attacchi cloud nell’istante in cui iniziano.

Sicurezza in tempo reale significa proprio la differenza tra fermare una violazione e aver bisogno di una risposta agli incidenti – ogni secondo conta. L’avversario di oggi si muove velocemente e tra i domini, e i difensori non possono permettersi di perdere tempo aspettando che i log del cloud vengano elaborati o che emergano i rilevamenti”, ha affermato Elia Zaitsev, Chief Technology Officer di CrowdStrike. “La nuova CDR in tempo reale di CrowdStrike riduce il tempo di risposta a secondi, fermando le minacce cloud prima che si diffondano”.

Mentre gli avversari utilizzano l’IA come arma per accelerare gli attacchi al cloud e muoversi lateralmente tra i sistemi, la tradizionale CDR che si affida all’elaborazione in batch dei log è troppo lenta per stare al passo, impiegando spesso 15 minuti o più per far emergere un singolo rilevamento.

CrowdStrike ha aperto la strada alla Cloud Detection and Response e continua a innovare per fermare le moderne minacce cloud. Elaborando i log in tempo reale con la tecnologia di event streaming, rafforzata e testata su vasta scala da Falcon Adversary OverWatch, CrowdStrike fa emergere istantaneamente alert critici.

Abbinati ai nuovi Indicatori di Attacco (IoA) e alle azioni di risposta automatizzate, questi miglioramenti eliminano i ritardi di rilevamento, il rumore di fondo degli alert e i colli di bottiglia manuali, rilevando gli attacchi al cloud furtivi in tempo reale e riducendo drasticamente il tempo medio di risposta.

Come parte della CNAPP unificata di Falcon Cloud Security che protegge ogni livello di rischio sul cloud ibrido, CrowdStrike offre la prossima evoluzione della Cloud Detection and Response costruita su tre innovazioni chiave:

  • Real-time detection engine: costruito sulla tecnologia di event streaming dei migliori threat hunter del mondo, questo motore di rilevamento in tempo reale analizza i log cloud non appena vengono trasmessi, applicando immediatamente i rilevamenti per eliminare latenza e falsi positivi
  • Indicatori di attacco cloud estesi: nuovi rilevamenti out-of-the-box in tempo reale, progettati specificamente per allinearsi al comportamento degli avversari nel cloud, sfruttano l’IA e il machine learning per correlare l’attività in tempo reale con il contesto dell’asset cloud e dell’identità per smascherare attacchi avanzati — dall’escalation furtiva dei privilegi all’abuso di CloudShell — in tempo reale

Azioni e workflow di risposta cloud automatizzati: la tradizionale Protezione del Workload Cloud (CWP) si ferma al workload, lasciando esposto il cloud control plane, mentre il Cloud Security Posture Management (CSPM), mostra solo ciò che potrebbe andare storto senza fornire protezione in runtime. Basati su Falcon Fusion SOAR, i nuovi workflow personalizzabili e out-of-the-box colmano questa lacuna, innescando un’azione istantanea per bloccare automaticamente gli avversari non appena le minacce vengono rilevate, senza attendere l’intervento manuale da parte del SOC

IBM e AWS accelerano l’AI agentica: le novità di re:Invent 2025

IBM e AWS rilanciano sull’AI agentica con nuove soluzioni pensate per portare l’AI dalla sperimentazione alla produzione. Come sottolineano John Epperly e Mahmoud Elmashni, l’obiettivo è dare alle imprese strumenti concreti per scalare agenti AI in modo rapido, governato e realmente utile al business.

Le imprese stanno entrando in una nuova fase della trasformazione digitale: non si tratta più di sperimentare l’AI, ma di portare su scala soluzioni di Agentic AI realmente operative. Il salto dal pilota alla produzione, però, continua a essere il punto dolente. Gli ostacoli principali sono sempre gli stessi: governance, integrazione, velocità di deployment e valore di business non sempre all’altezza delle aspettative.

È questo il contesto in cui, come anticipano John Epperly (Global Managing Director, AWS Partnership, IBM) e Mahmoud Elmashni (Managing Partner, Strategic Partnerships, IBM Consulting), IBM e AWS presenteranno a AWS re:Invent 2025 una serie di innovazioni pensate per sbloccare la scalabilità dell’AI agentica nelle grandi organizzazioni. L’obiettivo è chiaro: fornire strumenti per progettare, distribuire e governare agenti AI con maggiore rapidità, flessibilità e controllo.

IBM e AWS: approccio congiunto per rendere l’AI scalabile a modo delle imprese

La collaborazione tra IBM e AWS non è un semplice esercizio di integrazione tecnologica. Secondo Epperly, il valore aggiunto nasce dall’unione tra le competenze consulenziali e tecnologiche di IBM e la portata globale dei servizi AWS. Questo mix permette alle aziende—dalla PA alle utility, dai servizi finanziari all’automotive—di far evolvere l’AI nel punto in cui genera il massimo impatto.

La partnership agisce su ogni livello dello stack: cloud ibrido, AI, data e automazione, puntando a soluzioni che si innestano nei contesti esistenti senza strappi e senza re-ingegnerizzazioni inutili. Il messaggio di Elmashni è netto: flessibilità e governance non sono optional, ma precondizioni alla scalabilità.

Le novità chiave presentate da IBM e AWS

• Integrazione tra IBM watsonx Orchestrate e Amazon Bedrock AgentCore
Una combinazione mirata a migliorare produttività interna ed esperienza del cliente. Grazie all’accesso ai modelli Bedrock e ai moduli AgentCore Memory e Observability, i team possono creare agenti capaci di mantenere contesto conversazionale lungo tutte le interazioni.

• IBM Bob: l’IDE AI-first per lo sviluppo enterprise
Un ambiente integrato che automatizza task di sviluppo e modernizzazione applicativa. Include integrazione con IBM Guardium AI Security o Palo Alto Prisma AIRS e può orchestrare più LLM, compresi i modelli Anthropic Claude via Bedrock.

• ContextForge: il gateway MCP su AWS
Costruito da IBM su infrastruttura AWS (Lambda, API Gateway, S3, DynamoDB), permette di sviluppare, distribuire, monitorare e validare agenti AI con criteri enterprise-grade. È il ponte tra rapid prototyping e governance solida.

• Un framework agentico per la migrazione e modernizzazione applicativa
Basato su IBM Consulting Advantage, combina asset IBM, automazione agentica e strumenti nativi AWS per accelerare i progetti SAP, ERP e applicativi complessi, riducendo rischi e costi di trasformazione.

• FedRAMP: 11 soluzioni IBM ora certificate e disponibili su AWS GovCloud
Un passo strategico nel mercato federale USA: garantire accesso sicuro e conforme a tecnologie IBM avanzate senza compromessi.

Una partnership che punta alla scalabilità reale dell’AI

L’espansione in regioni come Medio Oriente, Giappone e India porta queste soluzioni a un numero ancora maggiore di aziende tramite AWS Marketplace, che ora include 15 nuove soluzioni IBM Consulting di Agentic AI.

Sul fronte SAP, un nuovo Strategic Collaboration Agreement permette di accelerare la modernizzazione SAP S/4HANA su AWS e co-sviluppare agenti AI che automatizzino processi core e migliorino le capacità decisionali.

Security e resilienza: la base dell’agency

IBM sta anche spingendo sul fronte della sicurezza autonoma e della preparazione all’era quantistica.

  • Autonomous Security for Cloud, basato su Amazon Bedrock, automatizza il percorso verso la conformità post-quantum.
  • IBM Cyber Campus, ospitato su AWS, offre programmi formativi immersivi di cybersecurity.

Come sottolinea Dr. Gregory Moody della University of Nevada, Las Vegas, queste iniziative portano nelle università strumenti che riflettono la realtà operativa delle imprese moderne.

Competenze, certificazioni e nuove specializzazioni

La solidità della collaborazione è confermata dai numeri:

  • 32 AWS Competencies, incluse Generative AI e Data & Analytics
  • 25.000+ certificazioni AWS attive tra i consulenti IBM
  • Ruolo di launch partner nella nuova AWS Agentic AI Specialization, dedicata ai sistemi autonomi basati su Bedrock AgentCore e framework compatibili.

Verso la prossima ondata di adozione dell’AI

Epperly ed Elmashni lo dicono senza giri di parole: il tempo delle prove pilota è finito. Le imprese che vogliono ottenere valore dall’AI devono portare gli agenti in produzione, integrarli nei processi e governarli con rigore.

La partnership IBM-AWS mira a rendere questo percorso concreto, rapido e sostenibile.

Come Arborea diventa un’azienda data-driven grazie a SAP ed EY

0

Arborea, cooperativa sarda nata nel 1956 e composta oggi da 146 aziende agricole socie, rappresenta una delle realtà più solide e integrate del settore lattiero-caseario italiano. Con circa 400 dipendenti distribuiti tra gli stabilimenti di Arborea (Oristano), Roveré della Luna (Trento) e i centri distributivi, la Cooperativa gestisce l’intera filiera del latte vaccino e caprino 100% sardo, garantendo qualità, benessere animale e tutela del territorio. Nel 2024 il gruppo ha registrato un volume d’affari di 245 milioni di euro, in costante crescita negli ultimi tre anni.

“Negli ultimi anni la situazione economico-finanziaria della società è radicalmente cambiata, con un aumento molto importante degli investimenti da parte di Arborea. Investimenti che sono stati garantiti anche dall’accesso a contributi a fondo perduto, ma soprattutto ai crediti di imposta, che ci hanno consentito un reale utilizzo di questi investimenti. Arriveremo, infatti, a ottenere circa un 50% di aiuti a copertura di tutti gli investimenti, un dato molto importante e che poche realtà in Italia possono condividere, grazie agli incentivi per le Zone Economiche Speciali (ZES), ai Piani Transizione 4.0 e 5.0 per investimenti in beni strumentali e anche al contratto di sviluppo. Abbiamo utilizzato un po’ tutte le leve finanziarie che il Governo italiano ci ha messo a disposizione per migliorare, innovare le strutture produttive e informative, e diventare più competitivi sui mercati in cui operiamo”, afferma Remigio Enrico Maria Sequi, Presidente di Arborea.

Rinnovamento industriale per qualità, efficienza e sostenibilità

La prima fase del percorso di trasformazione si è concentrata sull’ammodernamento degli stabilimenti: nuove linee di confezionamento, automazione spinta dei magazzini e rinnovamento dei macchinari. Un investimento finalizzato ad aumentare efficienza e sostenibilità, assicurando prodotti più salubri e sicuri in un mercato sempre più competitivo.

Questo processo ha posto le basi per l’evoluzione tecnologica successiva, orientata alla digitalizzazione della gestione e della supply chain.

SAP Cloud ERP come motore della nuova organizzazione digitale

Per Arborea, la scelta della piattaforma gestionale è stata strategica. “Il passo successivo è stato quello di investire sulla digitalizzazione delle infrastrutture tecnologiche per ottimizzare tutti i nostri processi, dotandoci della soluzione SAP Cloud ERP perché adeguata alle nostre esigenze di sviluppo industriale. Abbiamo puntato su SAP perché, oltre a essere riconosciuto come uno dei migliori sistemi gestionali presenti sul mercato, garantirà un’importante evoluzione della nostra organizzizzazione, permettendoci di standardizzare i processi per risolvere non solo gli aspetti di contabilità, siano essi ordinari o industriali, ma soprattutto di unire tutti i passaggi della produzione, che nella lavorazione e trasformazione del latte hanno caratteristiche uniche. Il tutto ci consentirà di raggiungere un’efficienza produttiva, amministrativa e di controllo, soprattutto sulla gestione, molto elevati”, prosegue Sequi.

Il precedente software non era più adeguato a supportare esigenze organizzative e produttive in evoluzione. Da qui la valutazione di una piattaforma più moderna, integrata e scalabile.

EY come partner strategico per implementazione e change management

Arborea ha scelto EY come partner per la capacità consulenziale e per un approccio progettuale che combina implementazione e formazione interna. “Non dobbiamo mai dimenticare che tutti i processi di trasformazione rappresentano un cambiamento impegnativo per qualsiasi azienda: è una rivoluzione nella natura interna, anche da un punto di vista culturale. Da parte nostra c’è l’assoluta necessità di andare avanti nel processo di innovazione e anche internamente abbiamo ricevuto un riscontro positivo da parte delle nostre persone che hanno accolto bene questa opportunità di miglioramento”, spiega Sequi. “La scelta di EY è stata determinante proprio nell’ambito della gestione del change management, per la loro capacità di gestire progetti complessi e di avere una competenza specifica proprio in quell’ambito che ci permetterà di favorire l’adozione del nuovo sistema”.

Il progetto coinvolgerà entrambe le sedi produttive, con l’obiettivo di unificare processi amministrativi, contabili, logistici e produttivi sotto un unico modello organizzativo basato sulle best practice SAP.

“EY ha colto sin dall’inizio il valore strategico del progetto e la visione di Arborea: una soluzione capace di affrontare le sfide di oggi e sostenere la crescita di domani. Insieme abbiamo adottato un approccio fit-to-standard, in linea con la nostra metodologia e con la piattaforma GROW with SAP, per garantire agilità ed efficienza nel percorso di trasformazione. Per noi, questa iniziativa va oltre la tecnologia: valorizza la nostra esperienza nei processi del settore food e consolida una partnership orientata alla creazione di valore nel lungo periodo. Il nostro impegno è accompagnare Arborea nell’innovazione, dall’ottimizzazione dei processi all’integrazione dell’IA. Questo progetto conferma la leadership di EY nella trasformazione digitale e la forza della collaborazione con Arborea, con cui stiamo costruendo un futuro più competitivo e orientato alla crescita”, dichiara Adriano Russo, Senior Manager di EY.

Una value chain potenziata dai dati e dall’intelligenza artificiale

La roadmap digitale di Arborea punta a sfruttare l’AI in ambito supply chain, dalla pianificazione alla scelta dei vettori di trasporto più efficienti.

“SAP ci permetterà di portare questa innovazione in un contesto di standardizzazione dei processi, consentendoci di raggiungere i nostri obiettivi, non solo in maniera contingente, ma con un approccio unificato per trasformare le best practices in abitudini. Grazie al cloud, inoltre, abbassiamo i costi di gestione e sicurezza delle infrastrutture, di aggiornamento delle applicazioni e soprattutto potremo dedicarci a quello che sappiamo fare meglio: la trasformazione del latte”, evidenzia Andrea Carau, CIO di Arborea.

Il nuovo ERP si integrerà con i sistemi verticali esistenti, come MES e logistica, abilitando una visione aziendale realmente data-driven. “La capacità di integrarsi con i sistemi presenti in azienda è stato uno degli elementi che ci ha convinto a scegliere SAP… Il partner EY ci ha evidenziato chiaramente il modello di integrazione che andremo a ottenere, non solo a livello informatico, ma di processo, per realizzare concretamente un’azienda data-driven, cioè un’azienda dove poi abbiamo la possibilità di utilizzare le informazioni sia per migliorare la qualità del nostro prodotto, sia per fare scelte organizzative e di business supportate dai dati”, aggiunge Carau.

La prospettiva di SAP Italia

A completare il quadro, la visione di SAP sul progetto Arborea. “La scelta di affidarsi al nostro ERP cloud garantisce ad Arborea quella flessibilità e scalabilità necessarie a gestire il proprio core business in modo dinamico e competitivo. SAP Cloud ERP è infatti una suite applicativa pronta all’uso, progettata per offrire un controllo in tempo reale sul business, AI integrata, e prestazioni scalabili per tutti i processi, dal finance, alla supply chain, al procurement, ma anche a molte altre funzioni aziendali”, afferma Fabrizio Moneta, Direttore Mid Market e Canale di SAP Italia. “Questa soluzione permetterà alla Cooperativa di capitalizzare l’innovazione tecnologica e adattarsi rapidamente ai cambiamenti di mercato”.

Galaxy Z TriFold: lo smartphone che sostituisce tablet e laptop

Galaxy Z TriFold segna il passaggio a una nuova generazione di dispositivi progettati per lavorare in movimento senza compromessi. Samsung propone un form factor che supera la tradizionale logica del pieghevole e introduce un concetto più ambizioso: uno smartphone che, una volta aperto due volte, diventa uno spazio di lavoro da 10 pollici capace di sostituire tablet e laptop nelle attività quotidiane. L’azienda consolida così la propria leadership nei formati multifold, portando sul mercato un dispositivo che punta esplicitamente a un’utenza professionale che vive di multitasking, rapidità e continuità operativa.

Le parole di TM Roh, Chief Executive Officer, President e Head of Device eXperience Division di Samsung Electronics, sintetizzano la direzione strategica: “Galaxy Z TriFold amplia i confini di ciò che è possibile per il lavoro, la creatività e la connessione in mobilità”. Non è un semplice pieghevole, ma un dispositivo pensato per ripensare flussi di lavoro, collaborazione e produttività avanzata in un contesto sempre più guidato dall’intelligenza artificiale.

Galaxy Z TriFold: un progetto ingegneristico orientato al lavoro reale

Alla base del Galaxy Z TriFold c’è l’esperienza decennale di Samsung nel ripensare l’ergonomia del mobile computing. La doppia cerniera interna, progettata ad hoc, protegge il display principale e assicura un’apertura precisa. Il sistema di rilevamento avvisa l’utente in caso di piegatura anomala, riducendo il rischio di usura o deformazione, un aspetto cruciale per chi utilizza il device in contesti operativi prolungati.

La piattaforma Snapdragon 8 Elite Mobile per Galaxy, la fotocamera da 200 MP e la batteria da 5.600 mAh con ricarica super-rapida da 45 W completano un profilo tecnico che punta esplicitamente a prestazioni sostenute nel tempo. Il dispositivo rimane estremamente sottile nell’utilizzo quotidiano e, una volta aperto, offre una superficie di lavoro che non ha equivalenti nel mercato degli smartphone.

Materiali come l’Advanced Armor Aluminum, il titanio nella cerniera e il pannello posteriore rinforzato evidenziano un’attenzione specifica alla durabilità, tema centrale in un prodotto che si presta a un uso intensivo. A ciò si aggiunge una fase di controllo qualità basata su scansioni CT e laser, con l’obiettivo di garantire precisione strutturale e affidabilità nel lungo periodo.

samsung galaxy z trifold 2

Il display da 10 pollici di Galaxy Z TriFold come motore della produttività avanzata

La vera differenza del Galaxy Z TriFold emerge quando si entra nella dimensione produttiva. Il display da 10 pollici non è una semplice estensione visiva, ma un ambiente operativo che permette di lavorare come su tre smartphone affiancati. La gestione simultanea di più app in verticale consente di leggere documenti, prendere appunti e consultare dati in parallelo, eliminando la necessità di passare continuamente da una schermata all’altra.

Per un professionista significa poter analizzare un preventivo, scrivere una proposta, rispondere a un messaggio urgente e partecipare a una call senza modificare la disposizione delle finestre. La Taskbar nell’angolo inferiore destro consente di recuperare immediatamente le app recenti e ripristinare l’intero workspace con un singolo tocco, riducendo drasticamente i tempi morti.

L’ottimizzazione del software nativo, inclusi Archivio e Samsung Health, dimostra come Samsung abbia ripensato anche le funzioni più comuni affinché siano coerenti con un display di queste dimensioni e con flussi di lavoro che richiedono ordine, immediatezza e continuità.

Samsung DeX in modalità standalone: una workstation che sta in tasca

Galaxy Z TriFold è il primo smartphone a integrare Samsung DeX in modalità standalone, trasformando il dispositivo in un ambiente multi-desktop portatile. Da Impostazioni rapide è possibile attivare fino a quattro spazi di lavoro indipendenti, ciascuno con cinque app attive in contemporanea.

Questa architettura permette di separare attività personali e professionali senza sacrificare immediatezza: si può rivedere una presentazione, passare a un secondo workspace per una videochiamata, utilizzare un terzo per email e planning, mantenendo tutto ordinato e accessibile.

La modalità estesa con monitor aggiuntivo permette un vero setup dual-screen portatile, dove app e documenti possono essere trascinati liberamente da uno schermo all’altro, mentre tastiera e mouse Bluetooth completano un’esperienza vicina a quella desktop.

Per chi lavora spesso in viaggio, negli spazi condivisi o tra un meeting e l’altro, questa flessibilità rappresenta un vantaggio operativo significativo.

Galaxy AI e Gemini Live: l’intelligenza artificiale integrata nel flusso di lavoro

L’integrazione di Galaxy AI sul display di grandi dimensioni potenzia ulteriormente la produttività. Funzioni come Assistente Foto, Modifica Generativa e Bozza su immagine diventano strumenti di lavoro fluidi, grazie a un’interfaccia che permette di confrontare in tempo reale modifiche complesse. Browsing Assist velocizza la consultazione delle informazioni, producendo riassunti e traduzioni direttamente nel browser.

Gemini Live aggiunge la componente multimodale, interpretando ciò che l’utente vede, dice e fa. Per chi lavora in multitasking significa poter porre domande, chiedere chiarimenti o ottenere suggerimenti senza interrompere ciò che si sta facendo. La possibilità di ottenere consigli di design partendo da una stanza reale, da una palette colori o da un set di prodotti semplifica ulteriormente attività creative o di progettazione.

Un display pensato anche per la fruizione video

Pur essendo un dispositivo orientato al lavoro, Galaxy Z TriFold mantiene un focus anche sulla qualità visiva. Il display Dynamic AMOLED 2X con refresh rate fino a 120 Hz e luminosità fino a 2.600 nit all’esterno e 1.600 nit all’interno offre una resa che si avvicina ai pannelli premium da tablet. Vision Booster regola contrasto e colore in base all’ambiente, garantendo uniformità e nitidezza.

La piega ridotta permette una visione più continua, mentre la possibilità di guardare video affiancati ai commenti valorizza l’ampia superficie del pannello.

Disponibilità e servizi dedicati

Galaxy Z TriFold arriva in Corea il 5 dicembre 2025 e successivamente nei principali mercati globali. Sono previste sessioni di prova presso punti vendita selezionati.

L’acquisto include sei mesi di Google AI Pro, con accesso alle funzionalità avanzate di Gemini e 2 TB di storage cloud. Samsung introduce inoltre un benefit dedicato: uno sconto del 50% sulla riparazione del display, utilizzabile una sola volta.

HPE e AMD spingono l’AI rack-scale nel futuro: debutta l’architettura “Helios” basata su Ethernet

HPE accelera in modo deciso l’implementazione di training e inferenza AI su larga scala per i cloud service provider, inclusi i neocloud, introducendo la prima architettura AI rack-scale AMD “Helios” con networking Ethernet scale-up integrato. Una novità che parla direttamente alla crescente fame di calcolo generata dall’esplosione dei modelli di grandi dimensioni, e che risponde alla necessità, sempre più urgente, di soluzioni aperte, interoperabili e velocemente implementabili.

Fin dalla prima lettura del progetto, è evidente come l’obiettivo sia spostare l’asticella del supercalcolo AI verso un equilibrio diverso: massime prestazioni, ma senza la rigidità dei sistemi proprietari. La base tecnica, infatti, poggia sull’adozione dello standard Ultra Accelerator Link over Ethernet, capace di sostenere traffico che spazia dal training di modelli con trilioni di parametri all’inferenza ad altissimo throughput, fino alla gestione in tempo reale di modelli di dimensioni estreme.

“Da oltre un decennio, HPE e AMD spingono costantemente in là i confini del supercalcolo”, ricorda Antonio Neri, presidente e CEO di HPE. Il senso complessivo del messaggio è chiaro: rendere possibile per i provider cloud un modo più rapido e meno rischioso di scalare capacità AI, grazie a un’infrastruttura che unisce architettura aperta, networking specializzato, raffreddamento a liquido diretto e delivery semplificata tramite HPE Services.

Il valore strategico di Helios: una piattaforma aperta e ottimizzata per la velocità AI

Il cuore della proposta è un singolo rack chiavi in mano, costruito secondo specifiche Open Compute Project e ottimizzato per alimentazione, raffreddamento e facilità di manutenzione. La configurazione è pensata per CSP e neocloud che vogliono espandere rapidamente la capacità di training e inferenza, ma senza incartarsi in sistemi ingessati o troppo costosi da mantenere.

La densità di calcolo offerta è significativa: 72 GPU AMD Instinct MI455X per rack, 260 terabyte al secondo di larghezza di banda aggregata, fino a 2,9 exaflop AI in FP4, 31 terabyte di memoria HBM4 e 1,4 petabyte al secondo di banda di memoria. Numeri che posizionano Helios come una piattaforma pensata per modelli AI massivi, dai frontier model ai workload HPC più sensibili alla latenza.

“Con Helios stiamo portando la collaborazione con HPE ancora più avanti”, afferma Lisa Su, CEO di AMD, sottolineando come l’unione dello stack AMD con il design sistemico HPE consenta livelli di efficienza e scalabilità difficili da ottenere con architetture proprietarie.

Ethernet come fondamento del dato AI: lo switch scale-up HPE Juniper Networking

Uno dei passaggi più significativi è l’introduzione del primo switch Ethernet scale-up del settore, progettato insieme a Broadcom per l’architettura Helios. È un elemento strategico perché spezza lo schema chiuso che ha dominato le architetture AI di prima generazione, permettendo di usare un protocollo standard con prestazioni di livello exascale.

Lo switch sfrutta il chip Tomahawk 6 di Broadcom, con latenze ridottissime e networking realmente lossless, e integra automazione, telemetria e funzioni AI-native per semplificare il rollout dei cluster. È un cambio di paradigma che punta a ridurre i costi di esercizio, velocizzare le implementazioni e, soprattutto, abbattere il lock-in grazie al rispetto degli standard aperti.

“Siamo orgogliosi di collaborare per far progredire un’infrastruttura AI basata su Ethernet aperta”, ha dichiarato Hock Tan, CEO di Broadcom, sintetizzando bene il senso dell’operazione: permettere ai provider di costruire data center AI scalabili e ad alte prestazioni mantenendo libertà di scelta.

Standard aperti, raffreddamento avanzato e un ecosistema pensato per durare

L’architettura Helios non si distingue solo per la potenza o per l’approccio open-Ethernet. L’utilizzo delle specifiche Open Rack Wide facilita interventi, aggiornamenti e manutenzione, mentre il raffreddamento a liquido diretto permette di reggere carichi continui con un’efficienza energetica superiore. Anche la scelta di adottare ROCm e la rete AMD Pensando mira a consolidare una piattaforma aperta, facilmente integrabile e con un TCO più prevedibile nel lungo periodo.

HPE, dal canto suo, affianca l’infrastruttura con un team di servizi specializzati nelle installazioni exascale e nei sistemi liquid-cooled. È un tassello importante perché, nel mercato attuale, velocità di implementazione e stabilità operativa sono quasi tanto critiche quanto le prestazioni.

Un messaggio chiaro al mercato AI: più flessibilità, meno lock-in, più velocità

La sintesi è semplice: Helios nasce per dare ai CSP un terreno più solido su cui costruire data center AI di nuova generazione. Si tratta di un’infrastruttura che offre potenza estrema, ma soprattutto un paradigma più aperto, interoperabile e scalabile. Un elemento cruciale mentre lo scenario AI corre verso modelli sempre più grandi e costosi, e cresce la necessità di soluzioni in grado di ridurre tempi di lancio e complessità operativa.

L’approccio rack-scale, l’adozione di Ethernet come spina dorsale e la scelta di standard aperti segnano un passo netto rispetto alle architetture chiuse degli anni passati. HPE, AMD e Broadcom stanno dicendo chiaramente al mercato che esiste un modo più flessibile e più veloce per scalare l’AI su larga scala.

Trend Micro lancia Vision One AI Security Package: sicurezza proattiva per modelli e applicazioni AI

Trend Micro presenta Trend Vision One AI Security Package, il primo set di soluzioni per una gestione proattiva e centralizzata dell’esposizione al rischio, che include anche analitiche senza precedenti per ambienti basati sull’intelligenza artificiale. La nuova offerta protegge l’intero stack di applicazioni AI dallo sviluppo del modello al runtime, estendendo la sicurezza proattiva in ogni fase dell’implementazione. Trend Vision One AI Security Package include, inoltre, una suite di altre importanti funzionalità di sicurezza AI.

“L’innovazione senza controllo è un rischio che le aziende non possono permettersi. Il nostro obiettivo è fornire le basi per la sicurezza dell’intelligenza artificiale e le linee guida per ottenere questa trasformazione in tutta sicurezza e fiducia. Le organizzazioni che adottano sin da subito una corretta implementazione dell’AI possono sviluppare il proprio business in sicurezza, mettendo al centro della loro crescita questa nuova tecnologia”, dichiara Salvatore Marcis, Country Manager Trend Micro Italia.

Le aziende utilizzano l’intelligenza artificiale, ma la maggior parte non ha visibilità su come i sistemi elaborano i dati, prendono decisioni o potrebbero essere sfruttati dai cybercriminali. Gli strumenti di sicurezza tradizionali, che proteggono endpoint, reti e cloud non sono stati creati per comprendere i comportamenti dei modelli o i rischi specifici dell’AI come prompt injection, avvelenamento dei dati o manipolazione dell’output. Le organizzazioni sono esposte a errori e punti ciechi, che gli strumenti attuali non sono in grado di risolvere.

Trend Vision One cambia le regole, grazie a un sistema completo per rilevare i rischi nei modelli di intelligenza artificiale e proteggerli automaticamente attraverso guardrail intelligenti, sempre basati su AI. Attraverso AI Application Security, AI Scanner monitora continuamente i modelli per scoprire le vulnerabilità e applica i guardrail AI per contrastare le minacce, creando un sistema continuo, proattivo e chiuso per la gestione del rischio AI.

Nonostante la crescente consapevolezza dei rischi legati all’intelligenza artificiale, la maggior parte delle organizzazioni continua a implementare sistemi senza adeguati controlli. Secondo il World Economic Forum (2025), solo il 37% delle organizzazioni prende in considerazione la sicurezza dell’intelligenza artificiale prima della sua implementazione, anche se il costo medio per una violazione dei dati supera i 4,4 milioni di dollari.

Per affrontare le nuove minacce e semplificare la gestione della security, Trend mette a disposizione strumenti di sicurezza integrati, progettati per fornire una protezione proattiva basata sull’intelligenza artificiale in ambienti cloud-native, tra cui:

  • AI Security Blueprint e Risk Insights: Stabilisce una governance dell’intelligenza artificiale attraverso una visione unificata della postura di rischio, fornendo informazioni utili per garantire la conformità e proteggere i modelli proprietari nella pipeline di sviluppo e nell’azienda.
  • Cloud Risk Management (CRM) – Project View: Rompe i silos di sicurezza degli sviluppatori grazie a monitoraggio in tempo reale, avvisi istantanei sulle minacce e visibilità completa dei rischi lungo le pipeline della supply chain. Il rilevamento delle vulnerabilità agentless in ambienti multi-cloud, tra cui Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP), fornisce un’implementazione a impatto zero, con visibilità delle risorse aggiornata 24 ore su 24.
  • Container & Code Security: Fornisce una shift-left security, anticipando la valutazione delle vulnerabilità nelle prime fasi dello sviluppo, riducendo il sovraccarico manuale attraverso l’automazione e garantendo un’applicazione coerente delle policy. Il nuovo File Integrity Monitoring (FIM) per file di sistema critici con supporto Kubernetes ed eBPF, migliora la protezione del runtime.
  • File Security con NetApp Storage Support (FSx): Protegge il cloud storage da malware e ransomware in tempo reale, grazie a un design security-first: i file non lasciano mai l’ambiente e la scansione avviene localmente con solo i metadati inviati a Trend. L’architettura basata su Kubernetes consente il dimensionamento automatico, con visibilità unificata di Trend Vision One.
  • Agentic SIEM con AWS Native Logs Integration: Rilevamento e risposta cloud AI-native, che combinano osservabilità in tempo reale, analisi IOC con informazioni sulle minacce e playbook di sicurezza automatizzati. Supporta l’acquisizione rapida di nuovi log delle applicazioni cloud in poche ore, per la correlazione con l’intelligence sulle minacce di Trend.
  • Zero Trust Secure Access – AI Secure Access: Estende l’approccio zero trust agli strumenti di intelligenza artificiale generativa, consentendo l’applicazione granulare delle policy per controllare l’interazione dei dipendenti, prevenire l’esposizione di dati sensibili e mitigare i rischi critici dello shadow IT.

“Le organizzazioni cercano di ottenere vantaggi utilizzando l’intelligenza artificiale nell’intero ambiente operativo, ma la maggior parte affronta rischi significativi che riguardano la sicurezza e la governance dell’AI”. Dichiara Dave Gruber, Principal Analyst di Omdia. “Una visibilità e una governance complete sono essenziali per mitigare i rischi durante lo sviluppo, l’implementazione e l’utilizzo di modelli e applicazioni”.

Cybersecurity nella Pubblica Amministrazione: il Comune di Riccione punta su SimpleCyb

0

In un contesto in cui gli enti pubblici sono sempre più bersaglio di attacchi informatici, il Comune di Riccione ha deciso di rafforzare in modo significativo la propria infrastruttura di sicurezza digitale. Dopo un’attenta analisi delle criticità esistenti, l’ente ha scelto di adottare la soluzione di cybersecurity avanzata di SimpleCyb, la cybertech tutta italiana, valorizzando così le competenze nazionali e promuovendo la sovranità digitale del Paese.

Negli ultimi anni, gli enti locali si sono trovati ad affrontare minacce informatiche sempre più sofisticate – ransomware, phishing, compromissione di credenziali e interruzioni dei servizi online essenziali – che mettono a rischio la fiducia dei cittadini, la trasparenza amministrativa e la resilienza del sistema pubblico nel suo complesso. Fino a poco tempo fa, il Comune disponeva di un semplice antivirus tradizionale, utile per la protezione di base ma non sufficiente per rispondere alle minacce evolute, caratterizzate da tecniche di attacco mirate e da una diffusione sempre più rapida.

Per colmare questo gap, l’amministrazione comunale di Riccione ha avviato un progetto di potenziamento della cybersecurity, scegliendo la piattaforma di nuova generazione di SimpleCyb in grado di monitorare costantemente le attività sui sistemi informatici, rilevare comportamenti anomali e isolare automaticamente processi o dispositivi compromessi, evitando così la propagazione di eventuali attacchi.

Un elemento determinante nella scelta del partner italiano è stato anche la possibilità di disporre di un servizio di supporto tecnico attivo 24 ore su 24, 7 giorni su 7, con personale specializzato e contatto diretto in lingua italiana, per garantire assistenza immediata al team IT comunale in caso di incidenti di sicurezza o necessità operative.

La sicurezza informatica non afferisce più solo a una questione tecnologica, ma diventa un fattore strategico per la continuità dei servizi pubblici e la protezione dei dati sensibili. Abbiamo voluto affidarci a un partner che ci garantisse competenza, tempestività e un approccio proattivo a difesa dei nostri sistemi”, ha dichiarato la Dott.ssa Graziella Cianini, Responsabile per la Transizione Digitale del Comune di Riccione. “La collaborazione con SimpleCyb ci consente di coniugare innovazione, prossimità e governance locale dei dati, elementi cruciali per la resilienza della Pubblica Amministrazione.”

Siamo orgogliosi di annoverare il Comune di Riccione tra i nostri clienti, una convalida del valore delle nostre soluzioni, del nostro approccio e del nostro impegno nel portare avanti un’innovazione semplice, efficace e vicina alle persone,” ha aggiunto David Baldinotti, CEO di SimpleCyb.

Con questo progetto, il Comune di Riccione rinnova la scelta di rafforzare la resilienza digitale della Pubblica Amministrazione, in linea con le indicazioni dell’Agenzia per la Cybersicurezza Nazionale (ACN) e del Piano Nazionale di Ripresa e Resilienza (PNRR), confermando la volontà di proteggere i dati dei cittadini e garantire la continuità dei servizi pubblici digitali.

Come CrowdStrike e AWS rendono operativi gli agent di AI in azienda

CrowdStrike ha annunciato oggi di aver ottenuto la Specializzazione AWS Agentic AI di Amazon Web Services (AWS), una nuova categoria lanciata all’interno dell’AWS AI Competency, in qualità di partner inaugurale.

Questa designazione riconosce CrowdStrike come Partner AWS in grado di aiutare i clienti a sfruttare sistemi di agentic AI intelligenti e sicuri per trasformare le operazioni di cybersicurezza. CrowdStrike sta definendo la piattaforma di sicurezza informatica per l’agentic era, in cui l’esperienza umana e gli agent di intelligenza artificiale avanzata lavorano insieme per fermare più rapidamente le compromissioni e mettere in sicurezza sistemi autonomi su larga scala.

 CrowdStrike: operativizzare i Security Agent

CrowdStrike sta elevando il ruolo degli analisti di sicurezza: da semplici gestori di alert a orchestratori dell’agentic SOC, dove agent intelligenti eliminano le attività più onerose e permettono alle organizzazioni di rimanere un passo avanti rispetto alle minacce supportate dall’AI. CrowdStrike sta accelerando l’arrivo dell’agentic SOC grazie a innovazioni fondamentali:

  • Agentic Security Platform, offre il livello di dati predisposto per l’intelligenza artificiale più ricco del settore, fornendo un contesto completo e rendendo ogni segnale immediatamente utilizzabile sia dagli agent che dagli analisti.
  • Agentic Security Workforce, mette a disposizione gli unici agent mission-ready del settore, addestrati su anni di competenze umane reali e azioni di risposta maturate con Falcon® Complete e interventi di incident response.
  • Charlotte AI AgentWorks, permette alle organizzazioni di creare e personalizzare i propri agent senza scrivere una sola riga di codice.
  • Charlotte Agentic SOAR, il livello di orchestrazione che consente ad agent CrowdStrike, personalizzati e di terze parti, di operare insieme come un unico sistema di difesa coordinato, guidato dall’expertise umana.

 Mettere in sicurezza gli agent di AI

CrowdStrike sta potenziando la protezione dell’intero ciclo di vita dell’AI per i clienti che sviluppano su AWS — mettendo in sicurezza le loro applicazioni AI, i servizi e i large language model (LLM) che alimentano l’innovazione dell’agentic AI. CrowdStrike, in collaborazione con AWS, continua a innovare per aiutare le organizzazioni a fermare le compromissioni e mettere in sicurezza l’innovazione AI nel cloud — dalla protezione dei workload AI e la scansione delle immagini dei container, fino alle integrazioni con Amazon SageMaker, Amazon Bedrock e AWS IAM Identity Center — consentendo ai clienti di sviluppare e scalare sistemi di agentic AI su una base di fiducia e protezione.

Con l’acquisizione di Pangea, CrowdStrike estende questa protezione al livello cruciale di interazione, mettendo in sicurezza prompt e sistemi lungo l’intero ciclo di vita dell’AI con la prima soluzione completa del settore per l’AI Detection and Response (AIDR).

“L’agentic AI sta trasformando il modo in cui ogni organizzazione opera, ma solo un’AI sicura può scalare con fiducia e affidabilità”, ha dichiarato Daniel Bernard, chief business officer di CrowdStrike. “Come Partner inaugurale della Specializzazione AWS Agentic AI, CrowdStrike sta rendendo operativa e sicura la nuova generazione di sistemi autonomi basati su AI per i clienti su AWS, permettendo loro di innovare in sicurezza, operare con efficienza e accelerare l’ingresso nell’agentic era”.

Insieme, CrowdStrike e AWS stanno rendendo operative e sicure le fondamenta del futuro dell’agentic AI — permettendo ai clienti di creare, distribuire e scalare sistemi autonomi in modo sicuro nel cloud.

css.php