Home Autori Articoli di Leo Sorge

Leo Sorge

108 ARTICOLI 0 COMMENTI

Eye Pyramid: cosa è davvero successo

Per compromettere la sicurezza d’un Paese non c’è bisogno di scatenare cyberattacchi contro i server elettorali, come si vocifera sia successo nell’elezione del presidente degli Stati Uniti, Donald Trump: basta molto di meno, com’è certamente successo in Italia con Eye Pyramid.
Un semplice Trojan, un cavallo di troia scritto in Visual Basic ha spiato migliaia di persone, tra i quali alcuni uomini potenti in Italia, per un lungo periodo, prima di essere intercettato. Tra questi uomini illustri troviamo Mario Draghi e Matteo Renzi, ma molti altri, aggiungendo al nome di EyePyramid anche il cognome di “spia dei potenti”. Le dimensioni del fatto potrebbero essere rilevanti anche per la sicurezza nazionale e non solo, viste le cariche occupate da queste persone e in genere da una prima analisi degli indirizzi e-mail coinvolti.
Le indagini sull’evento sono state condotte congiuntamente dagli inquirenti italiani del Cnaipic (Polizia postale) e dalla Crime Division dell’Fbi, con il supporto del Ministero di Giustizia statunitense. Tra le realtà aziendali nostrane compromesse troviamo la Banca d’Italia, Eni, Enel, Enav, molto attive negli ultimi anni e spesso legate a questioni  internazionali.
Secondo quanto pubblicato in queste ore da Federico Maggi, Senior Threat Researcher di Trend Micro, l’attacco ha riguardato una ventina di siti e una ventina di indirizzi e-mail principali.
Secondo l’ordinanza di custodia cautelare del Gip Maria Paola Tomaselli, l’attacco è stato ben poco innovativo e ha utilizzato la libreria MailBee.NET.dll, impiegata per creare applicazioni di posta elettronica. L’ordinanza, datata 6 gennaio, è disponibile in pdf sul sito dell’agenzia Agi.
L’hacker è riuscito è riuscito a compromettere inizialmente 15 indirizzi e-mail, poi tramite l’anonimizzatore Tor ha effettuato l’accesso ad alcuni mail server per inviare alle vittime un classico messaggio con allegato malevolo (forse un pdf), che se aperto sottrae i dati e li manda a delle caselle di posta controllate dall’hacker.

Malware semplice, risultati complessi

In questo modo sono stati rubati 87 GB di dati relativi a 18 mila utenti e 1.800 password. I dati sono stati poi catalogati con tanto di tag, pare 122, Ma le librerie hanno un numero di licenza al quale corrisponde un intestatario, in questo caso i fratelli Occhionero, regolarmente arrestati. Alcuni osservatori sollevano perplessità su hacker che lasciano in giro una regolare licenza: solo le indagini chiariranno l’accaduto.

L’attacco non è particolarmente complesso ed è stato usato non solo recentemente ma anche in molte altre occasioni negli anni passati a partire dal 2010. Va ricordato che azioni di questo genere sono estremamente frequenti: è da qui che si generano le botnet, reti di migliaia di computer connessi e pronti a sferrare un attacco di tipo Ddos.

Eye Pyramid ha usato l’attacco anche per estrarre dati più o meno riservati.

In linea teorica un attacco del genere avrebbe dovuto essere facilmente rilevato e neutralizzato dalla  maggior parte dei software di sicurezza normalmente presenti sugli elaboratori elettronici. Il motivo per il quale non c’è stata intercettazione è ancora al vaglio delle analisi. Se si rilevasse la presenza d’un sapere informatico particolarmente sofisticato, infatti, il ruolo dei due fratelli romani Giulio e Francesca Maria potrebbe essere rimesso in discussione.

Boudica, l’NB-IoT di Huawei, arriva nel 2017

Arriverà nel 2017 l’ecosistema basato su Boudica, la soluzione NB-IoT (Narrow Band Iot) già oggetto di un ampio test commerciale nel 2016 che verrà rilasciata su larga scala nei primi mesi del prossimo anno.

Le soluzioni NB-IoT presentano dei considerevoli vantaggi nel settore”, ha commentato Jiang Wangcheng, Vice Presidente Marketing e Solutions di Huawei; l’azienda “presenterà il primo chip commerciale Boudica NB-IoT basato su standard 3Gpp”. Si tratta di un SoC, system on a chip, che può essere utilizzato insieme a Huawei LiteOS, fornendo agli sviluppatori un rapido canale di sviluppo. Un altro lancio riguarda SoftRadio, un pacchetto software che consente agli sviluppatori di accedere ai laboratori NB-IoT via Internet per realizzare processi di innovazione e commissioning da remoto.

Cosa è Boudica

La soluzione end-to-end NB-IoT è stata progettata per soddisfare le esigenze degli operatori di servizi IoT con copertura LPWA (low power – wide area) e comprende quattro elementi: la Smart Device Solution, abilitata da Huawei LiteOS e chipset NB-IoT; la base station eNodeB che può evolvere in NB-IoT; IoT Packet Core che supporta la distribuzione “Core in a Box” e NFV; una IoT Connection Management Platform con funzionalità Big Data. Sviluppata sulla base di standard 3Gpp, questa soluzione può supportare reti flessibili, in diversi settori e scenari. Inoltre i dispositivi e la piattaforma possono essere resi facilmente accessibili a dispositivi NB-IoT e applicazioni dei partner, rendendo possibile una rapida innovazione e la personalizzazione in base allo scenario applicativo.

Il ruolo di Huawei

Huawei sta promuovendo la creazione di un solido ecosistema NB-IoT per incoraggiare ulteriormente lo sviluppo del settore, supportando gli operatori nella realizzazione di laboratori NB-IoT al fine di accelerare lo sviluppo di dispositivi e applicazioni intelligenti. L’azienda ha collaborato con diversi operatori, tra cui Vodafone, DT, China Unicom ed Etisalat, per condurre test e sperimentazioni e soluzioni in ambito metering, parking, lighting e tracking in grado di supportare la crescita dell’intero ecosistema IoT.

Microsoft entra nell’hardware neurale con un progetto su Fpga

Inserire software neurale su chip programmabili per risolvere i colli di bottiglia delle architetture tradizionali è la versione aggiornata di un classico problema nato insieme ai chip. Ma l’entità del problema, considerata la dimensione dei data center, è oggi decisamente più rilevante.
E altrettanto rilevanti possono essere i risultati, com’è stato per il Project Catapult di Microsoft.

Cosa è Project Catapult

Alla fine del 2012 Doug Burger, un ricercatore specializzato nel design di nuovi chip, propose al Ceo Ballmer il suo progetto: lo sviluppo in Microsoft di chip specializzati per determinati compiti integrandovi software di reti neurali, riprogrammabili per aggiornamento e quindi con una durata relativamente lunga. La strada era difficile, perché Microsoft non aveva le competenze per sviluppare e programmare dei chip, quand’anche delle Fpga, tanto meno per compiti di quel tipo e dimensioni.

Cos’è FPGA
Fpga, acronimo di Field Programmable Gate Array,  è un circuito integrato programmabile via software, così da implementare funzioni logiche anche molto complesse.

Bing Vs. Google

Secondo Burger, però, per Microsoft sarebbe stato un problema non costruire il proprio hardware. Anche Qi Lu, il direttore di Bing, era d’accordo: anzi, erano anni che i due ne parlavano. La competizione guardava direttamente a Google, che da sempre ha avuto un particolare approccio all’hardware non standard. Tuttavia Google ha scelto per sé la strada della progettazione di più tradizionali chip, le Tpu (Tensor processing units).
Oggi le Fpga di Microsoft esistono e spingono le prestazioni di Bing, Azure e a breve anche di Office 365. Successivamente potrebbero essere estese ad altri servizi.

Cpu e Fpga

I tradizionali microprocessori o Cpu, benché innestati con altre unità, in particolare le Gpu per il calcolo intensivo, non erogano le prestazioni specifiche necessarie per tenere il ritmo con le nuove necessità. Servono reti neurali che eseguano algoritmi di intelligenza artificiale, che adattano i risultati nel tempo. Per implementarli in hardware si possono seguire due diverse possibilità: sviluppare dei veri e propri chip, ovvero usare delle matrici riprogrammabili dette Fpga (field-programmable gate arrays).

Gli Fpga sono tutt’altro che una nuova scoperta, anzi esistono da sempre. Vengono usati per sviluppare nuovi circuiti hardware, dal compito specifico ad un intero microprocessore, senza dover affrontare i costi d’una vera produzione industriale. Una singola Fpga costa tra centinaia e migliaia di dollari, contro i 10-50 dollari tipici d’un chip complesso, ma i costi iniziali di sviluppo sono alcune centinaia di migliaia di dollari per la Fpga contro gli svariati milioni per il chip. Inoltre il chip è immutabile, mentra la Fpga può essere riprogrammata senza doverla sostituire.

Le Fpga di Amazon e Baidu

L’innovazione consiste nel riuscire a mettere in hardware del vero software su rete neurale. Tutti i giganti lo stanno facendo: anche Amazon e Baidu hanno scelto le Fpga. La impiegano anche altri erogatori di servizi, dalla finanza alla blockchain, per il salto prestazionale rispetto alle architetture tradizionali. E anche i produttori di chip tradizionali si stanno organizzando: secondo Diane Bryant, Vp Esecutivo Intel, entro il 2020 un terzo dei server delle principali aziende di cloud useranno le Fpga.
E non è difficile comprendere come mai proprio Intel abbia deciso di acquisire Altera un anno fa.

Le Fpga di Microsoft

Oggi l’hardware di Catapult costa il 30% dell’hardware totale del server, consuma il 10% della corrente e raddoppia la potenza complessiva. Ma siamo appena agli inizi.
Microsoft ha una struttura superiore: NexT, New Experiences and Technologies, voluta da Nadella. Project Catapult ne è l’alfiere.
Per almeno un decennio le Fpga espanderanno l’elaborazione tradizionale verso una nuova forma di supercomputing. Poi potrebbe toccare al quantum computing.

25 anni di Linux, buon compleanno!

Per iniziare, facciamo il punto sulle date. Il rilascio in ftp della prima versione di ciò che chiamiamo Linux, la 0.01, è del 17 settembre 1991, come racconta Linus Torvalds nel suo Rivoluzionario per caso (Garzanti 2001).
L’inizio del lavoro era stato in aprile, ma il primo annuncio pubblico si data quattro mesi più tardi. In effetti, giovedì 25 agosto 2016 sono scoccati venticinque anni dal momento in cui Linus Torvalds annunciò pubblicamente il suo nuovo hobby, per arrivare meno di un mese dopo, per l’appunto il 17 settembre, al primo rilascio.

Linus-TorvaldsArrivati al giorno d’oggi quel sistema operativo, battezzato Linux da uno dei colleghi di Linus, è stato portato su una varietà di piattaforme hardware superiore a quella di qualsiasi altro OS. Ma come, e perché, Linux si è trasformato da “semplicemente un hobby” al sistema operativo in più forte crescita su scala globale? Ripercorriamo un po’ di storia.

La nascita di Freax

Negli anni Ottanta e nei primi anni Novanta, Unix era il sistema operativo che veniva usato da molti studenti d’informatica. All’epoca la cosa non rappresentava un particolare problema: d’altra parte si trattava di un OS robusto contraddistinto da funzioni che andavano ben oltre quel che poteva offrire Windows, come ad esempio il multitasking. Tuttavia Unix non era libero, né gratuito, né adatto ad home o personal computer dell’epoca, quindi gli studenti non potevano usarlo a casa. Esisteva sì un’alternativa accessibile come Minix, ma era un sistema su piccola scala creato da Andrew Tanenbaum principalmente per aiutare i docenti a insegnare l’informatica.
Minix funzionava anche su un sistema Atari, mentre altre versioni di Unix giravano anche su 80286. Ma quando Intel fece uscire il processore 80386, gli studenti ebbero la possibilità di dotarsi di personal computer capaci di far girare una variante di Unix.

Linus era cosciente della vastità di Unix System V e delle limitazioni di Minix, sulle quali ebbe anche uno scambio di idee con Tanenbaum (inizio 1992). Per questo decise di creare un proprio OS libero affinché gli studenti potessero lavorare sui PC di casa. Il primo nome fu diverso da quello che conosciamo: Freax! Successivamente si scelse un altro nome, quello al quale è legata la sua fama.

Un primo interesse

Fin dagli inizi, il nuovo sistema operativo suscitò interesse in rete. Non essendovi impegnato alcun team di grandi dimensioni né un project manager, Linus prese la brillante decisione di rendere il sistema liberamente disponibile da subito. Così facendo poté coinvolgere programmatori di tutto il mondo. Motivati solamente dalla volontà di progettare un ottimo sistema operativo – e successivamente una ricca distribuzione – studenti e appassionati presero parte all’iniziativa e iniziarono ad aggiungere funzionalità e rimuovere bug. Si parlava inizialmente del solo kernel, a lungo gestito interamente dal solo Linus.
Torvalds è da sempre concentrato sulla realizzazione di un kernel Linux di altissima qualità, pertanto accetta solamente codice sorgente che aiuti Linux ad andare verso questa direzione.

Linux entra nel mondo enterprise

ralf-flaxaQuesta, in sintesi, è la nota rilasciata in queste ore da Ralf Flaxa, president of engineering di SUSE su questo anniversario.
Alla sua nota possiamo aggiungere che Linux è nato per portare Unix sul desktop, quindi in direzione diversa dall’Ict aziendale. A quell’epoca era impensabile che un singolo programmatore, “inesperto” secondo quei criteri (ma quanti si erano riscritti i driver del Sinclair QL?), potesse riscrivere Unix a mano, ripulendo lo dagli appesantimenti dati dalle varie versioni succedutesi fino ad allora, e farne un kernel migliore di quelli esistenti. Dopotutto, un programmatore da dieci linee di Cobol al giorno poteva costare fino ad un milione di lire, in quei giorni. Dopo un intero decennio di lotte tra opsys (chi ricorda Osf e Motif?), ben presto, ricorda Ralf, l’interesse delle aziende per Linux s’impennò: incredibilmente era possibile ottenere Unix praticamente a costo zero! Certo, Linux non era sufficientemente robusto: occorreva arricchirlo con un’enorme quantità di lavoro, sia volontario, sia orientato.

Il principale elemento catalizzatore del cambiamento fu la disponibilità di Linux anche per piattaforme hardware diverse dal PC, come ad esempio Dec Alpha. Quando questo accadde, Linux divenne un prodotto di livello commerciale e le aziende poterono iniziare a usare questa nuova tecnologia come alternativa realistica a Unix o Windows.

La trasformazione digitale

Si capì che Linux ce l’aveva fatta nel momento in cui i primi grandi produttori hardware decisero di supportarlo. Un buon esempio di questo sul lato hardware è stata la decisione di Ibm di investire un miliardo di dollari a favore della tecnologia. Un altro paio di esempi importanti riguardano le applicazioni: Oracle fece il porting del database, poi seguita da Sap. Una stella era nata.

Oggi lo stesso cloud computing è spesso abilitato da un cuore Linux, ormai pronto a qualsiasi applicazione mission critical. La sua espansione continua: il cuore di Freax si ritrova ovunque le aziende siano solite implementare applicazioni Internet, od ovunque vengano memorizzati dati. I vantaggi sono chiari: l’ininterrotto interesse verso Linux da parte di una sempre crescente community degli sviluppatori significa che i gap di sicurezza vengono chiusi rapidamente e che gli aggiornamenti avvengono più velocemente rispetto a quanto accade con i produttori di software proprietario. E l’espansione sta continuando nientemeno che nel mondo supercomputing.

Linux in tasca

Possiamo dire che Linux è diventato il sistema operativo per eccellenza negli ambienti enterprise. Il sogno di andare sul tavolo non si è materializzato, certo, ma c’è di meglio. Il PC, per essere davvero personale, non sta né sul tavolo né sulle ginocchia, bensì in tasca. È lo smartphone a realizzare le promesse del personal computer, anche limitando l’esagerata capacità di produrre o editare contenuti, a favore della loro riproducibilità.

E Flaxa lo conferma. La maggior parte delle persone interagisce con Linux quotidianamente a livello consumer, anche se spesso non se ne rende conto. Usate uno smartphone Android? In questo caso state utilizzando Linux su base quotidiana. Android adotta il kernel Linux ed è mantenuto da Google. E Linux viene usato anche da una ampia varietà di altri dispositivi smart basati su Android.

Ovviamente è ancora adatto a tutte le applicazioni di connected something (dalla Tv all’auto) e dell’internet delle cose.

Buon compleanno, Linux! Cento di questi giorni al software e – aggiungiamo noi – mille al suo creatore, che più volte incontrammo, in quegli anni, in Italia e in California.

In chiusura, ecco l’infografica realizzata da Suse per ricordare tutto il percorso di questi 25 anni.

SUSE_Linux_Anniversary

Tassazione: quel nodo fiscale che blocca l’Europa

In questi giorni si parla nuovamente della normativa unica per la fiscalità delle (grandi) aziende in Europa, la Common Consolidated (Corporate) Tax Base, base imponibile consolidata comune per l’imposta sulle società. La CCCTB faceva parte del programma di Jean-Claude Juncker (presidente della Commissione europea) ed ha come obiettivo il bilanciamento tra necessità nazionali e concorrenza internazionale per garantire che i vari aspetti legati alla produzione di reddito siano equamente bilanciati. L’attuale fase di tumultuoso retooling del Vecchio Continente, che sta cambiando ed integrando i processi di base, anche la ridistribuzione del reddito deve andare in questa direzione.

L’idea della tassazione con regole comuni, oltre che ovvia, è quindi abbastanza vecchia, ma è stata rilanciata dopo il nuovo caso Apple, alla quale l’Unione Europea ha chiesto di versare all’Irlanda 13 miliardi di dollari per aiuti di stato sul Vecchio Continente nel periodo 2003-2015. La tassazione imposta dal governo di quel Paese, sostiene Margrethe Vestager, Commissario Eu alla concorrenza, è difforme da quella accettabile fin dal 1991, ma le norme europee permettono di verificare le cose solo fino a dieci anni prima dell’apertura del procedimento, che data 2013. E poiché nel 2015 la mamma degli iPhone ha modificato la sua struttura societaria in maniera opportuna, da quell’anno in poi non è più perseguibile.

Sciocchezza politica?

Apple, nella persona del Ceo Tim Cook, ha definito la storia “total political crap”, una completa sciocchezza politica. L’azienda prepara le carte per la controffensiva, supportata dal governo irlandese, che non ha mai chiesto quei soldi. In cambio ha ottenuto che tutte le attività europee fossero gestite nella cittadina di Cork, che ha trovato nuova linfa grazie a migliaia di posti di lavoro (pare oggi siano 5.500). Finché l’Unione non chiarirà a priori quali accordi siano possibili e quali no, e la modifica delle norme fiscali richiederà l’unanimità dei Paesi membri, non faremo molta strada. E’ questo quindi il nodo centrale da sciogliere perché le azioni possano avere effetto a livello comunitario.
Tornando alla presunta infrazione, le regole dell’Unione europea prevedono che il governo irlandese debba comunque riscuotere la cifra, anche se non la vuole, in attesa del completamento del procedimento. Al più può mettere i soldi in un conto speciale e bloccarli fino ad irrogazione della sentenza.

Sgonfiamenti nazionali

Quei soldi, però, non spettano interamente a quel popolo. La somma finale può essere ridotta se i singoli Stati membri raggiungono con Apple un accordo relativo alla quota di vendite effettuate sul proprio territorio e non pagate. E del discorso potrebbe far parte anche il centro di sviluppo che l’azienda di Cupertino ha recentemente aperto a Napoli, con 600 “posti di lavoro”, giunto dopo l’accordo di fine 2015 con la nostra agenzia delle entrate (880 milioni contestati, 318 versati, proprio per la questione che ha portato ai 13 miliardi). Tramite accordi nazionali, che possiamo immaginare siano da tempo allo studio a Cupertino, quei 13 miliardi potrebbero essere via via sgonfiati, lontano dal clamore mediatico della clamorosa cifra.
Si tratta insomma di un complesso procedimento volto all’identificazione dei profitti nazionali e delle relative tasse, cifre enormi sottratte ai singoli membri dell’Unione europea.

E qui s’innesta il filone che ha probabilmente ispirato Cook nell’uso dell’aggettivo “political”. E’ politica la gestione della polis, e per estensione del territorio, ma Cook sembra aver usato l’aggettivo con connotazione negativa, come lotta illecita degli europei contro gli statunitensi. Ma la Verstager ricorda che il procedimento era stato preceduto da un’audizione dello U.S. Senate Permanent Subcommittee on Investigations (2013), nel quale si sosteneva che grazie agli accordi con l’Irlanda, Apple avesse sottratto alla fiscalità statunitense decine di miliardi di dollari di imposte. Ci chiediamo ora: se questa linea fosse approvata, anche gli Usa potrebbero reclamare parte dei 13 miliardi di Euro?

L’Europa si mette in gioco

Ma torniamo nel Vecchio Continente. Se fosse totalmente politico, il procedimento oggi seguito dalla Verstager non avrebbe sostanza giuridica e quindi prima o poi verrebbe rigettato. Ma la parte politica è essenziale: quanto di questa richiesta dipende dalla Brexit? O meglio, il vero scopo di questa richiesta serve mediaticamente alla Commissione europea per recuperare consenso, togliendo ai ricchi per dare ai poveri, visto che la diseguaglianza fiscale è la prima delle cose che le vengono contestate dai cittadini europei?

Ifa 2016: Acer compie 40 anni e sviluppa contenuti giovani

Acer si è presentata nella cornice tedesca con prodotti di grande presa sul pubblico, nell’ambito d’una strategia sempre più immersive, rivolta alla generazione di nuovi contenuti.

Acer e la realtà virtuale

Il lancio più atteso era StarVR, il dispositivo di realtà virtuale ricavato direttamente dall’acquisita StarBreeze. Opera in risoluzione 5k con un angolo di visuale da 210° ed è già disponibile sul mercato, com’è nella natura dei prodotti lanciati ad Ifa. Definita “the future of storytelling with VR”, questa soluzione ha catturato anche l’attenzione di iMax, che la impiegherà per permettere agli utenti di “camminare nei film” grazie a dispositivi basati su StarVR che renderà disponibili in luoghi selezionati.

Gaming in formato portatile

Grande emozione ha suscitato in sala e in rete anche  il Predator 21x, un portatile pensato per il gaming con uno schermo curvo -sì, in un portatile!- da 21” e la tecnologia eye tracking di Tobii inserita nel display e disponibile anche in una gamma di monitor. Il 21x ha due Gpu Nvidia 1080 fortemente overclocked e richiede ben cinque ventole.

Predator 21 X_01

Molti altri device sono stati presentati nella lunga conferenza stampa, principalmente gli smartphone Liquid Z6, i notebook Swift 1, 3, 5 e 7 quest’ultimo spesso appena 9,98 mm) e i notebook convertibili Spin 1,3, 5 e 7.

I 40 anni di Acer

L’azienda taiwanese compirà 40 anni il prossimo ottobre, ed ama ricordare un prodotto particolare, il Micro Professor I (1981), un sistema di introduzione pratica alla programmazione dei microprocessori. L’azienda segue una linea di pensiero denominata Connecting seniors, per avvicinare alle nuove tecnologie anche le persone di età non più giovanissima.

Ecco i giorni dell’Ifa a Berlino

Non acquistate nessun oggetto tecnologico per le prossime due settimane, suggeriscono gli esperti internazionali, in quanto Berlino sta per ospitare Ifa 2016, ormai tradizionale appuntamento di fine estate, kermesse ricca di annunci e dispositivi già pronti ad invadere il mercato, rendendo obsoleto qualsiasi scaffale di negozio specializzato o no, per la casa o l’entertainment.

Ifa è globalmente la più importante manifestazione in termini di ordini raccolti in fiera: lo scorso anno il totale ha superato 4,35 miliardi di euro, una somma davvero ragguardevole. A parte il periodo natalizio, nessun’altra manifestazione al mondo raccoglie così tanti distributori, buyer e rappresentanti dell’industria e dei media.

Cosa aspettarsi da Ifa 2016

Ifa 2016 si aprirà al pubblico dal 2 al 7 settembre, con novità tecnologiche di molti settori, tra i quali wearable ed internet delle cose, realtà aumentata, virtuale e mista, wellness, smartphone e molte altre merceologie in continua mutazione.

Tra i marchi più attesi troviamo Acer, Asus, Huawei e Samsung, ma anche Lg e Sony con device da confermare e qualche curiosità… pieghevole da Lenovo (qui il video). E se Acer dovrebbe lanciare uno smartwatch per il gaming ma soprattutto aprire le danze virtuali dopo l’acquisizione di Starbreeze, Lg potrebbe far vedere L20 con Nougat (prima o insieme al lancio di San Francisco del 7 settembre). Una certa curiosità stanno suscitando gli annunci ipotizzati per TomTom, che ha lanciato un curioso video, e FitBit, i cui nuovi prodotti, che nessuno sembra aver mai visto finora, hanno nome in codice Laryon (diventerà Flex 2) e Fermion (Charge 2).

Neanche quest’anno Apple racconterà le sue novità a Berlino, preferendo la più comoda San Francisco ma rispettando l’importanza dei “giorni dell’Ifa” per la conferenza stampa del 7 e rendendo disponibile l’iPhone 7 il 16 settembre.
Tra gli eventi che arricchiscono la manifestazione complessiva troviamo TecWatch e le sue startup, Global Markets con 3D e robotica ma anche i grandi temi futuribili di Ifa+, con le tecnologie esponenziali che stanno ridisegnando il mondo in chiave smart.

Il futuro reale, mostrato dalle startup

L’esplorazione dell’imminente futuro è affidata ai fatti in divenire di TecWatch, con più di 70 start-up e 100 istituti di ricerca, università, aziende e associazioni di settore a portare idee per i mercati di domani. Gli argomenti esplorati nell’edizione 2016 sono la casa intelligente e l’Internet of Things (IoT), salute digitale, Robotica e 3D printing and scanning, ma anche sempreverdi quali mobility e data security.

Il treno dell’innovazione parte dalla stazione

Oltre alla manifestazione per il business, Ifa 2016 proporrà altri saloni tematici, dedicati a robotica, manifattura additiva e startup. Alla stazione di Berlino, dal 4 al 7 settembre, si terranno Inside 3D Printing (manifattura additiva) e InnoRobo (robotica di servizio), i due eventi B2B di Global Markets, contenitore organizzato insieme a Rising Media e collegato alla manifestazione centrale con servizio di navetta.

Il futuro esponenziale, raccontato a parole

Grande attesa anche per esplorare la forma del futuro nella terza edizione di Ifa+: la conferenza farà il punto su exploring the digital society, ovvero su robot intelligenti, veicoli autonomi e realtà virtuali e miste, nei giorni 5 e 6 settembre. Le tecnologie intelligenti stanno alterando tutti i livelli di interazione umana: professionale e privato, sociale e globale. I leader di pensiero e pionieri riveleranno quali problemi e sviluppi stanno guidando la trasformazione digitale.

Il 5 settembre ci sarà una conferenza articolata in tre sessioni. La prima parlerà di tecnologie esponenziali, ovvero delle ultime tendenze in fatto di intelligenza artificiale, robot/droni/veicoli autonomi e nanotecnologie.
Accessibilità, sostenibilità e tutela dell’ambiente fanno molte promesse verso un mondo meglio orchestrato dell’attuale, definito smart world nei titoli della seconda sessione.

Nella terza sessione della giornata, il panel di esperti discuterà gli effetti sociali della realtà mista, e anche ciò che ci si aspetta dall’entertainment del futuro.

 

 

 

 

Venticinque anni di Web per tutti

Il 23 agosto 1991 è una data storica: quel giorno l’età dell’informazione divenne una realtà per molti.  Il world wide web fu infatti messo a disposizione di tutti coloro avessero accesso ad internet.
Il meccanismo che associava tra loro files sparsi su più elaboratori in giro per il mondo era stato inventato un paio d’anni prima da Tim Berners-Lee, uno scienziato britannico che lavorava al Cern, il laboratorio europeo di ricerca sulla fisica e sull’universo aperto nel territorio di Ginevra nel lontano 1954.
Il primo sito, o meglio il suo precursore, era stato sperimentato venti giorni prima, il 6 agosto 1991, sempre da Berners-Lee.

Le grandi invenzioni sono divise in due marco-categorie, a seconda che siano state realizzate per caso ovvero siano state volute davvero.
Il web rientra in questo secondo caso, e faceva parte d’un lucido sviluppo degli ipertesti che la disponibilità d’una rete estesa metteva a disposizione degli ambienti universitari. La prima pagina è disponibile a questo indirizzo, e per chi c’era è emozionante rileggerla nell’emulazione del terminale a fosfori verdi con editor di linea dell’epoca.

L’idea e l’industria

I primi anni ’90 vibravano di grandi attese per le nuove tecnologie di trasmissione dati. La soluzione di fibra ottica per il video on demand statunitense, sostanzialmente dei videocataloghi di vendita a distanza, era appena fallita; un altro tentativo, di portare sui satelliti i pager/sms/fonia e quindi la larga banda, attraverso le costellazioni di Astra, Globalstar e Teledesic, stava mostrandosi del tutto inadeguata. Ma questi due filoni crearono le aspettative nel pubblico e l’ecosistema industriale sul quale s’innestò il web. Ecco che Al Gore, all’epoca senatore Usa, promulgò l’Hpca, High-performance Computing Act, una legge (bill) che portò, tra l’altro, alle information superhighways che tolsero internet dall’ambito universitario e militare per portarlo alle masse: è il 9 dicembre 1991.

Una curiosità riguarda l’elaboratore sul quale fu sviluppata la prima pagina: un Next, azienda acquistata da Steve Jobs appena cacciato dalla sua Apple. Il Next, che tante belle tecnologie portò in dono, non ebbe successo per vari motivi, tra i quali l’impossibilità di Motorola di rispettare i tempi di consegna per il suo chip Risc 88k: Jobs ricorse agli ormai datati 68k, il cui percorso di crescita non era paragonabile a quello degli 88k. Entrambi i progetti, il chip e la workstation, soffrirono molto per il mancato matrimonio, che probabilmente è alla base della prematura fine di entrambi.

Riassumendo, l’inventore del web è certamente stato Tim Berners-Lee. Non è però dato sapere che sviluppo avrebbe avuto il web senza il Gore Bill.

Immersività, smart machines e piattaforme i tre hype del business digitale

0

Gartner ha rilasciato la versione aggiornata del suo Hype Cycle per le tecnologie emergenti, come sempre orientato al mantenimento del vantaggio competitivo di aziende ed organizzazioni. Lo Hype Cycle for Emerging Technologies 2016, che fa parte dell’Hype Cycle Special Report for 2016, fornisce una prospettiva intersettoriale sulle tendenze che strateghi aziendali, leader di ricerca e sviluppo, team tecnologici e più in generale tutti i leader aziendali emergenti dovrebbero prendere in considerazione nello sviluppo del proprio portafogli di tecnologie emergenti.

Analizzando oltre 2.000 tecnologie si rivelano tre chiari filoni, pronti per ricevere la massima priorità nel business digitale.
L’immersività delle esperienze, l’età delle macchine intelligenti percettive e la rivoluzione delle piattaforme sono le tre tendenze tecnologiche globali che cooperando con le piattaforme di business intelligence consentono alle aziende di connettersi con nuovi ecosistemi.
Cio e dirigenti d’azienda devono collaborare in modo proattivo “per massimizzare il valore e superare gli ostacoli legali e normativi“, ha dichiarato Mike J. Walker, direttore della ricerca di Gartner.

La percezione delle macchine

Le esperienze immersive introdurranno trasparenza tra persone, imprese e cose. La tecnologia diventa più adattabile, contestuale e fluida in tutti gli ambienti. Tra i suggerimenti troviamo affective computing,  interfaccia tra computer e cervello, human augmentation, display volumetrici, stampa 4D, connected home, nanotubi, realtà aumentata e virtuale con controllo gestuale dei dispositivi. I vari argomenti sono molto lontani tra di loro, forse ad indicare che più che un’area omogenea questa sezione cerca di raccogliere suggestioni che ancora non hanno una valenza davvero strategica.
L’età delle perceptual smart machine è forse il più attraente dei tre paradigmi. L’esplosione della quantità di dati e della capacità di elaborazione verranno affrontati con reti neurali di capacità senza precedenti, rispondendo alla sfida della complessità nella soluzione di problemi.
Le organizzazioni che stanno esplorando quest’area dovrebbero prendere in considerazione le seguenti tecnologie: smart dust, machine learning, assistenti personali virtuali, cognitive expert advisors,  intermediazione contestuale, smart data discovery, interfacce di conversazione, droni commerciali, veicoli autonomi ed altri tipi di robot. Ma a nostro avviso l’uso indiscriminato che si fa del termine “macchina” in ambienti anche molto diversi (elettroniche, processori, robot, veicoli) la dice lunga sulla modernità dei modelli ai quali la nostra società fa riferimento.

Blockchain, IoT ed altri software

La rivoluzione delle piattaforme è l’area più vicina alla classica Ict, ma forse quella a maggior contenuto d’innovazione disponibile, almeno a nostro avviso. Blockchain, piattaforme per IoT, neuromorphic hardware, quantum computing e tutto ciò che è software defined sono argomenti già oggi di grande diffusione, con impatto sulla competitività immediata. Le organizzazioni devono comprenderle in modo proattivo e ridefinire la strategia per creare modelli di business basati sulla piattaforma.

Un webinar gratuito

Il ciclo di hype per tecnologie emergenti è unico tra le ricerche analoghe, perché distilla intuizioni strategiche da più di 2.000 le tecnologie in un insieme di saperi emergenti“, ha detto Walker. Come sempre, l’analisi si spande su un periodo da 5 a 10 anni, che nella tecnologia è molto lungo, permettendo quindi aggiustamenti nel corso degli anni. Andando a riguardare i trend indicati da Gartner in passato non troviamo più in evidenza categorie quali stampa 3D industriale o gamificazione, certamente presenti tra le duemila in analisi ma oggi meno evidenti per una visione impostata su macroaree.
Ulteriori informazioni nel webinar gratuito Gartner Hype Cycles 2016: Major Trends and Emerging Technologies .

Alimentazione wireless, l’anno dell’esplosione

Dopo un’incubazione di media durata, il mercato della trasmissione di energia senza fili ha oggi raggiunto dimensioni imponenti. Nel 2015, infatti, sono stati venduti più di 140 milioni di dispositivi di ricarica (+160% sul 2014), e oltre 50 milioni di caricabatterie wireless (erano 15 nel 2014). Nel 2016 si stima che i soli smartphone a ricarica senza fili sfioreranno i 260 milioni di unità.

Si tratta ovviamente di un punto di partenza: Ihs, società di analisi che monitora questo comparto, prevede che questo mercato continuerà a raddoppiare anno su anno per un periodo ancora lungo.

Ancora più interessante è la percentuale di sfruttamento: secondo gli analisti David Green e Vicky Yussuf, infatti, il tasso di collegamento è salito dal 28% del 2014 al 36% del 2015.

Se finora il rendimento di questa ricarica permetteva di operare su wearable e smartphone (Samsung in primis), dal 2016 i sistemi ad alta frequenza avranno rendimenti adatti anche ai laptop e anche a molti altri sistemi di tipo diverso.

Ecco perché è di grande interesse il Wireless Power Trade Show organizzato dal Wireless Power Consortium a Monaco, il prossimo 25 agosto. La giornata comprende anche un seminario specifico, dedicato agli argomenti tecnici.

Il successo in questo mercato dipende non solo dalla fornitura di energia, ma anche da costi, sicurezza, efficienza e indipendenza elettromagnetica da altri prodotti. Maggiori volumi portano riduzione dei costi, stimata nel 20% rispetto allo scorso anno.

Il Wpc promuove lo standard Qi, disponibile sul mercato in più modalità. Ecco perché la manifestazione comprende anche il forum sviluppatori Qi, aperto soprattutto a chi voglia imparare a progettare prodotti utilizzando componenti collaudati. Il seminario è l’occasione per conoscere gli ultimi sviluppi tecnici, presentati da esperti internazionali, ma anche di conoscere in dettaglio la più recente ricerca di mercato (presentata da Ihs).

Lo standard Qi
Sviluppato dal Wireless Power Consortium e da aziende come HTC, Huawei, LG, Nokia, Samsung o Soni, Qi è uno standard per la trasmissione di energia elettrica via induzione elettromagnetica su una distanza al massimo di 4 centimetri. Perché la trasmissione possa avvenire servono un trasmettitore di energia e un ricevitore compatibile integrato in un dispositivo portatile

Al centro della trattazione ci sono i vantaggi e gli svantaggi delle diverse tecnologie per l’energia senza fili: induzione magnetica, risonanza magnetica, a lunga distanza di trasmissione (far field). Guardando il programma, grande interesse suscita, in particolare, la presentazione “60 watt per robot, power tool e laptop” di Nils Donath, project leader in Bosch Power Tools. Tra gli argomenti segnaliamo “Cordless Kitchen Appliances” (Hans Kabau, Philips) ma soprattutto “Long Distance, far field, power transfer” (Huib Visser, Imec), un argomento che il grande scienziato Nikola Tesla, esperto in queste cose già a cavallo tra il XIX e il XX secolo, avrebbe certamente trovato affascinante.

Nikola Tesla
Nikola Tesla fu un ingegnere croato, naturalizzato statunitense, che visse tra il 1856 e il 1943. Tra i pionieri dell’elettromagnetismo, a lui si devono le basi per lo sviluppo del sistema elettrico e dei motori elettrici a corrente alternata. Molteplici i suoi brevetti che fanno di lui uno dei più importanti ingegneri elettrici della storia.

Nell’area espositiva si potrà toccare con mano la rapida innovazione nei prodotti, che ha visto ampliarsi le gamme di potenza (5, 15, 60 e 2000 watt) e la scelta merceologica, che comprende sia singoli caricatori a basso costo, sia sofisticati caricabatterie multi-bobina con grande libertà di posizionamento.

Vision ed altri sensi nella Merged Reality di Intel

L’Intel Developer Forum 2016 di San Francisco (qui il sito dedicato all’evento) si è aperto con il keynote di Brian Krzanich, Ceo di Intel. Nel suo intervento, Krzanich ha articolato una visione della tecnologia futura abbracciando realtà virtuale, Internet industriale e guida autonoma.
Krzanich ha spiegato cos’è la merged reality, un nuovo modo di vivere le interazioni e ambienti fisici e virtuali attraverso una serie di sensori di nuova generazione e tecnologie digitali.
Secondo Krzanich, “La merged reality rende possibili esperienze finora impossibili nel mondo reale, integrandosi con il virtuale in modo più dinamico e naturale che mai”.
Tra gli annunci si segnala la collaborazione con Microsoft per portare su Windows 10 l’olografia fin dal prossimo anno, argomento sul quale riferiamo a parte.

Intel RealSense è dappertutto

Il Progetto Alloy (di cui la società dà conto in questa nota e di cui noi abbiamo scritto in questo articolo) è una soluzione di realtà virtuale all-in-one che presenta il calcolo e sensori integrati direttamente nella cuffia e sfrutta la tecnologia Intel RealSense. Alloy sarà offerto in open hardware nel 2017.
Molte le novità anche nei nomo di Joule ed Euclide. La neonata piattaforma Joule (Intel ne parla qui) si occupa dell’Internet delle cose: grazie ad una potenza di elaborazione high-end, è in grado di sviluppare soluzioni che approssimano i sensi umani, anche grazie alla nuova generazione di dispositivi intelligenti.
Gli sviluppatori continuano ad incrementare la loro importanza. Uno degli esempi è il Developer Kit Euclide (se ne parla qui) permette l’accesso alla tecnologia RealSense su un unico dispositivo che integra sensori, calcolo e rete nello spazio di una caramella.

La rivoluzione nei cieli (e nei nomi)

E’ sempre la tecnologia sensoriale a innervare le piattaforme aeree nel mondo dei droni. E’ disponibile la piattaforma Intel Aero Ready-to-Fly Drone, la scheda di elaborazione Aero e Typhoon H, il drone di Yuneec che adotta RealSense.
Dal punto di vista industriale, la piattaforma di progettazione a 10 nm è ora disponibile per i device Arm, ai quali viene offerto il meglio per potenza, prestazioni e dimensioni con tutti i dispositivi -IoT, mobili e consumer- ad alte prestazioni e basso consumo. Zane Ball, co-direttore generale di Intel Custom Foundry, ha annunciato la notizia (qui la nota ufficiale), annoverando LG Electronics tra i clienti.

Oltre alla ricerca tecnologica, è oggi forsennata anche quella del marketing, ansiosa d’inventare nuovi nomi che catturino l’attenzione dei clienti. Per il secondo giorno è atteso il keynote sull’IoE, non Internet of Everything bensì “Interconnectedness”, presentata da Venkata “Murthy” Reduchintala, Presidente del complesso gruppo Intel che si occupa di Client and Internet of Things Businesses, insieme alla Systems Architecture.

OpenYolo apre l’era delle Api per i password manager

Dashlane, la società che sviluppa l’omonimo password manager, si è unita a Google (qui il post che annuncia la collaborazione) per lanciare un approccio unificato alle password. Il sistema si chiamerà OpenYoloyou only login once– ed è un’Api con la quale gli sviluppatori potranno accedere alle password memorizzate in qualsiasi password manager.

Dashlane si occupa di digital wallet e password manager e a fine 2014 ha acquisito il concorrente passOmatic per una cifra non comunicata. In quattro successivi round di finanziamento, la startup, fondata nel 2009 in Francia ma ora di stanza a New York, ha raccolto oltre 50 milioni di dollari: 5 nel 2011, 3 nel 2012, 22 nel 2014 e altri 22,5 nel 2016.

Al momento in cui scriviamo, Google non ha ancora promosso in prima persona questa iniziativa, anche se la sua partecipazione allo sviluppo è ufficiale, attraverso le parole di Iain McGinniss, software engineer dell’azienda. OpenYolo integrerà il quadro complessivo, composto anche da SmartLock e dall’autenticazione biometrica di Project Abacus.

Si tratta di un’iniziativa importante per il nostro settore e per lo stato di sicurezza degli utenti attraverso progetti aperti“, ha affermato Emmanuel Shalit, Ceo di Dashlane; “all’inizio del 2016 Dashlane è diventato il primo gestore di password ad adottare Universal Second Factor, in breve U2F, lo standard di autenticazione della Fido Alliance”.

Il sistema verrà inizialmente lanciato per Android e per i sistemi Chrome, ma fin dall’inizio è prevista l’apertura alle altre piattaforme mobili, per quanto resta lecito chiedersi quali ne saranno tempi e modalità effettive. Ovviamente il progetto, ancora non pubblicato né come specifiche, né come website, sarà a disposizione di qualsiasi partner nel settore dei password manager. Intervistati da Techcrunch, i vertici di Dashlane hanno specificato che “i principali operatori stanno già partecipando o hanno manifestato forte interesse” per farlo in futuro, citando 1Password, LastPass, Keeper e Keepass. Ovviamente c’è da attendere che la documentazione venga resa pubblica.

Startup: acquisizione non è exit – Il caso IQUII

La notizia è dell’11 luglio: il gruppo Be ha acquisito il 51% della digital company IQUII, specializzata in mobile ed IoT, per 400 mila euro. Il fatturato di IQUII è stato al di sotto del milione di euro nel 2015 (margine Ebitda del 19,1%) e nel 2016 dovrebbe chiudersi a 1,2 milioni di euro.
I manager, Fabio e Mirko Lalli, manterranno la governance operativa. Il progetto di acquisizione prevede una cessione del 29% nel 2021 e del restante 20% nel 2025. Si tratta d’una operazione ben descritta e di grande interesse sia per il movimento delle startup italiane, sia per spiegare i sommovimenti del mercato digitale. Ne abbiamo parlato con Fabio Lalli, Ad ed azionista anche dopo l’acquisizione.

La cessione della maggioranza a 400 mila euro viene vissuta dal movimento come una exit di basso valore.
La nostra non è una exit, bensì un’acquisizione con un piano di sviluppo e poi uscita tra 8 anni: ha un significato molto differente, poiché nei prossimi anni io sarò comunque AD e noi abbiamo ancora il 49%. Sarà exit quando applicheremo completamente il nostro earnout pianificato, capitalizzando. Ergo tra 8 anni.

IQUII ha fatto tante belle cose ed ha perseguito due obiettivi diversi, da media agency, poco startupparo, e App factory, molto startupparo. Con dietro il pivoting continuo. Ma se siete così bravi, perché non avete sfondato?
Cosa significa “sfondare”? Esiste un concetto di sfondare numerico che sia valorizzabile? Noi abbiamo una società, di fatto una società di consulenza, complessa da valutare e molto diversa dal concetto di prodotto. Dal mio punto di vista siamo alla prima fase di crescita di qualcosa che abbiamo costruito. La gente parla, spesso senza sapere nemmeno cosa significa fare un’operazione così. Tutti parlano di startup, ma se vai a vedere la maggior parte non ha fatto nemmeno l’attivazione di una partita Iva. Il mio “sfondare” significa già aver creato qualcosa che ha un valore e che qualcuno è disposto a comprare per farla crescere ancora di più.
Nei prossimi anni io e mio fratello gestiremo una società, nata dal nulla, senza aiuti e senza capitali, ora all’interno di un gruppo, con l’obiettivo di farla diventare una società di consulenza riconosciuta e punto di riferimento nel gruppo e sul mercato digitale, non più solo in Italia ma anche sul mercato internazionale.

C’è anche un problema di evoluzione del mercato?
Il mercato è l’altra cosa da valutare quando si fa una operazione così, ma nessuno si pone domande più giuste e profonde, tipo cosa stia succedendo in questo mercato in cui operiamo. Aggiungo altri elementi sensati. È possibile che la decisione di IQUII sia dettata da un altro pivoting ancora? Lo spostamento sul digitale dei grossi gruppi di consulenza è evidente e da soli i piccoli non possono competere: possibile che la scelta sia di posizionamento strategico? O ancora, è possibile che abbiano valutato che per diventare quello che hanno in mente, abbiano bisogno di network e spalle più grandi? Giro io una domanda: la maggior parte delle startup, sa cosa significa gestire l’ufficio acquisti di una corporate, partecipare ad una gara, gestire anticipo o far funzionare un flusso di cassa che ti permetta di poter esser un gioiello senza dover rincorrere banche, indebitamenti o VC per farsi dare soldi per sopravvivere?

Il 90% delle startup non fa una exit, ma muore.
Per non parlare di quelle che muoiono ancora prima e non partono nemmeno.

Poi tra il 3 per cento e il 3 per mille segue strade diverse ed entra in un mondo diverso.
Il 3% è tanto, eh…

Quel mondo diverso che forse aspetta anche voi, in una futura fase ancora aperta: siete manager ed azionisti dell’azienda.
Ed è proprio questo quello che vorrei la gente capisca. Io sarò AD dell’azienda, e con mio fratello saremmo manager alla guida di una società che deve crescere. Abbiamo accordi che ci vedono al governo dell’azienda per farla crescere insieme al gruppo. Non è una acquisizione per chiudere tutto e portare dentro expertise: si tratta di una acquisizione per creare valore e diversificare ulteriormente il mercato. Si parla di Open Innovation in alcuni casi.

Intelligenza artificiale: verso un mondo AI First

Il futuro del software, quello che sostituisce l’uomo, può essere forse condensato nel machine learning, a sua volta una specializzazione dell’intelligenza artificiale. Da innocui articoli d’informazione a più complesse trattative di borsa, per non dire altro, molte sono le questioni ritenute profondamente umane ma in realtà spesso delegate a sistemi informativi particolarmente accorti.

Per Sundai Pichar, Ceo  di Google, “stiamo transitando da un mondo mobile first ad uno AI first”. Per rispondere alle esigenze degli utenti e del business i software del futuro, che siano applicazioni o sistemi operativi, dovranno necessariamente fondarsi su tecniche AI.

Il punto di Vincenzo Cosenza sull’intelligenza artificiale

Proprio intelligenza artificiale, machine learning e deep learning sono affrontati da Vincenzo Cosenza, un data scientist italiano. (qui il suo sito) Il punto di vista è particolare e prende spunto dall’attività di data scientist di Cosenza. Sviluppata su ben tre post -il terzo è in preparazione- su Vincos.it, il sito di Cosenza, l’analisi porta in rassegna la gran parte delle soluzioni di questo tipo oggi sul mercato.

In realtà già oggi le tecniche di intelligenza artificiale alimentano alcune funzioni che migliorano la nostra vita”, scrive Cosenza; “per combattere lo spam e le frodi con carte di credito, per operare previsioni economiche e finanziarie, per il riconoscimento della voce e della scrittura manuale, per la classificazione automatica delle immagini”, ma anche “per comprendere i nostri gusti e dare suggerimenti, per migliorare il newsfeed e i risultati di ricerca”.

Gli algoritmi di apprendimento automatico sono tradizionalmente divisi in cinque principali tipologie:

  • apprendimento supervisionato,
  • apprendimento non supervisionato,
  • apprendimento con rinforzo,
  • apprendimento continuo,
  • apprendimento con addestramento preventivo.

Le prime due categorie sono quelle più largamente impiegate.

La guerra dell’intelligenza artificiale mette a confronto le aziende i cui investimenti nel settore sono stati molto forti. Vediamone alcuni in breve, rimandando per una visione completa all’articolo di Cosenza [a questo indirizzo].

Google

Google intende usare l’intelligenza artificiale come layer per tutti i servizi. Il motore di ricerca diventerà Google Assistant, un assistente personale incorporato anche nei prossimi Home (per la casa) e Allo (messaggistica). E anche qui c’è un progetto di auto a guida autonoma.

IBM

Da tempo Ibm estrapola degli insight predittivi sulla base di estesi set di dati, nella tecnologia Watson. Inoltre rende disponibili diverse Api per usufruire di molteplici servizi (analisi del testo, speech to text/text to speech, riconoscimento delle immagini) con tanto di accesso in cloud, il Watson Knowledge Studio.

Microsoft

Microsoft ha Cortana, il suo assistente personale. Le sue capacità di Machine Learning, offerte all’interno della Cortana Intelligence Suite, permettono di  provare la predictive analytics con un’interfaccia grafica drag and drop.

Facebook

Anche Facebook ha ha il suo assistente personale, M, per bot intelligenti su Messenger. Inoltre ha iniziato ad usare le tecniche di Deep Learning per individuare quello che interessa di più al singolo utente.

Tesla

Non si può dimenticare Tesla. L’azienda innovativa sta investendo ingenti risorse: la funzione Autopilot è resa possibile dall’analisi dei dati catturati in oltre 160 milioni di chilometri percorsi, in continuo aumento.

Black Hat Usa: il lato oscuro della connected car

Black Hat USA, la quasi ventennale manifestazione sulla sicurezza, quest’anno in programma il 3 e 4 agosto al Mandalay Bay di Las Vegas, ha messo al centro dell’attenzione non solo i rischi delle piattaforme note ma anche quelli più recenti, come IoT e Connected cars. (ne abbiamo parlato ad esempio qui)
Certo infrastrutture critiche, data center e ogni tipo di vulnerabilità sono sempre nei pensieri degli specialisti di sicurezza, e svariati interventi sono non a caso dedicati ai bancomat e ai sistemi di pagamento.

Ma quest’anno non c’è dubbio che i punti di attrazione siano le sessioni dedicate agli oggetti in rete, che siano le cose dell’IoT, la mobilità in generale o i controlli delle auto.
In qualche modo controllo e sicurezza dei veicoli sono aspetti del più importante argomento di questa fase del mondo digitale. Il controllo delle auto gestite elettronicamente avviene attraverso il Can Bus, il trentennale sistema che può essere manipolato in molti modi da attacchi esterni.

CAN Bus, o Controller Area Network è uno standard introdotto negli Anni Ottanta da Robert Bosch e utilizzato in particolar modo in ambito automotive. Si tratta di un controller seriale per bus di campo utilizzato per collegare diverse unità di controllo elettronico e in grado di funzionare anche in ambienti fortemente disturbati.

Non è un caso che nel corso di Black Hat, Charlie Miller, già responsabile di sicurezza all’interno della NSA e oggi responsabile della sicurezza in Uber (qui la sua bio) e Chris Valasek, anch’egli con un ruolo di responsabilità nella sicurezza in Uber, hanno dedicato uno speech ai nuovi sistemi per frenare, sterzare ed accelerare l’auto altrui.
E se ancora non bastasse, sappiate che le tante info personali su AirB’n’b’ sono sempre più fonte d’ispirazione per i malintenzionati.

L’apertura dell’evento è stata affidata a Dan Kaminsky, ricercatore che divenne famoso nel 2008, partecipando alla Black Hat dettagliando un difetto del Dns che da allora è chiamato “Kaminsky flaw”. Quest’anno Kaminsky ha focalizzato il suo intervento sui rischi dell’architettura nascosta di Internet.
Molti sono gli interventi nello stesso filone. Erik Wu della start-up Acalvio ha titolato il suo intervento “Dark Side of the DNS Force”, discutendo gli attacchi DNS-based. Due ricercatori di sicurezza di SafeBreach, Itzik Kotler e Amit Klein, hanno scelto di raccontare  come mettere in ginocchio il traffico HTTPS crittografato.
Uno degli speech più attesi è BadWPAD: Maxim Goncharov avvisa sui frequenti errori di configurazione del protocollo Web Proxy Auto Discovery, mettendo a rischio milioni di utenti.
Qui la lista di tutte le sinossi.

GATTacking Bluetooth Devices

Altri interventi evocano immagini più o meno cinematografiche, come $Hell on Earth, oppure GATTacking Bluetooth Smart Devices, nel quale si descrive il proxy Ble Mitm, un tool open source che apre i device IoT. Senza cinema, Colin O’Flynn di NewAE Technology parla dei virus nelle lampadine intelligenti.
In questi stessi giorni, sempre Las Vegas, ma pochi alberghi più in là, ospita la 24ma edizione della DefCon: l’incrocio di eventi rende ancora più irrespirabile l’aria desertica dell’agosto in Nevada.

Emoji, non è solo una questione estetica

Dal prossimo autunno, le emoticon disponibili agli utenti di iPhone ed iPad saranno profondamente cambiate. Con iOs 10, infatti, circa un centinaio di disegni saranno modificati o nuovi, con particolare attenzione alla presenza di immagini femminili, tra figurine ed atleti. “Apple sta lavorando strettamente con il consorzio Unicode”, recita il sito aziendale, “per essere sicura che le popolari emoji riflettano la diversità delle persone, ovunque (nel mondo)”.
Di questo avevamo già parlato nelle scorse settimane su Applicando.com (ad esempio in questo articolo)
Le emoticon, o emoji, sono stabilite dal consorzio Unicode, che le descrive formalmente, lasciando l’aspetto artistico alle singole aziende che le implementano nei loro sistemi. Ecco che la stessa emoji originale può apparire molto diversa a seconda che appaia su un sistema di Google, Microsoft, Apple, Samsung, Lg o altro.
Ciascuna emoji raggiunge il pubblico diversamente, anche a livello emotivo. Ma è un po’ come i diversi font: una Q resta una Q indipendentemente dal font, che può piacere o meno.

Una emoji è anche una scelta sociale

In qualche modo, modificare le emoji è una scelta sociale di una certa rilevanza. Infatti la scelta che più sta facendo discutere riguarda la modifica del disegno della pistola: finora è stata rappresentata come un’arma vera e propria rivolta verso i simboli precedenti, mentre adesso apparirà come una pistola ad acqua rivolta ai caratteri successivi.
In questi tempi di violenza, soprattutto con le notizie che provengono incessantemente dagli States, cercare di contribuire a non appesantire le chat è certamente un segno apprezzabile.

Riscrivere il passato?

Il fatto è che il cambiamento nelle emoji modifica anche i messaggi scritti nel passato, e questo sta creando un forte dibattito oltre Oceano. “Le emoticon hanno un senso anche emotivo”, dicono svariati commenti in Rete; “come cambierà la lettura dei messaggi del passato?”.
Alcuni osservano anche che Microsoft, con il rilascio dell’Anniversary Update ha fatto una scelta diametralmente opposta.

Lo shock del passato

Dal punto di vista narrativo, quindi, ogni modifica delle emoji finisce per modificare brevemente non solo il futuro delle comunicazioni coinvolte, ma anche il passato. Le modifiche del grafismo di una pistola, di un atleta da uomo a donna, o da bianco a nero sono argomenti di un certo interesse sociale, ma che una modifica sia molto più importante delle altre è argomento sinceramente privo di reale sostanza. Inoltre il numero di messaggi che potrà essere coinvolto in una situazione del genere sarà limitatissimo, considerando che ben pochi messaggi vengono effettivamente usati e sfogliati dopo il primo invio. E se qualcuno userà personalmente questi messaggi per mettere in cattiva luce le persone anni dopo l’invio, difficilmente raggiungerà l’intento.

Defenx acquisisce Memopal per 2,3 milioni di euro

Defenx, azienda emergente del settore della mobile security, annuncia di aver completato l’acquisizione di Memopal, l’innovativo servizio di cloud storage italiano.
L’azienda britannica ha acquistato il 95,2% di Memopal per circa 2,3 milioni di euro, parte in contanti e parte in azioni, con l’obiettivo di sviluppare una suite completa per la protezione e gestione di dati e documenti di privati e aziende. la valutazione complessiva di Memopal è quindi leggermente superiore alla cifra dell’acquisizione.

Chi è Memopal

Memopal, fondata dagli imprenditori seriali Marco Trombetti e Gianluca Granero, è un sistema di sync e backup in grado di sfruttare le similarità tra i dati salvati comprimendo le informazioni ad un livello superiore agli standard del mercato e rendendo più veloci e sicuri i trasferimenti dei file. La tecnologia proprietaria sviluppata dall’azienda è il Memopal Global File System (MGFS), che consente di archiviare grandi quantità di dati con la semplicità dello storage consumer.

Dal canto loro, grazie a un ridotto uso della memoria, del processore e della batteria, le soluzioni di Defenx hanno un prezzo competitivo e includono tutte le funzioni necessarie ad una protezione totale senza influire sulle performance del dispositivo. Tra gli attuali partner di distribuzione troviamo 3 Italia e Seagate Technology.

Memopal ha oltre 700.000 utenti attivi, tra la versione gratuita da 3GB e il portafoglio di spazi a pagamento. I prodotti sono acquistabili online e attraverso partner selezionati tra cui Turk Telecom, HGST (Western Digital) e ZyXEL.

Defenx entra nel mercato cloud

Defenx entra nel mercato del cloud computing che è adiacente, complementare e sinergico a quello della security”, dichiara Andrea Stecconi, Ceo di Defenx; “integrare i prodotti, i clienti e il team di Memopal in Defenx genererà ulteriore valore per gli utenti delle due aziende e per i nostri azionisti”.

Memopal rimarrà basata a Roma all’interno di Pi Campus, distretto di startup e fondo d’investimento in startup innovative. In seguito a questa operazione, Pi Campus diventerà uno degli azionisti di riferimento di Defenx.
Questa operazione è un ulteriore riconoscimento della capacità di Pi Campus di investire in talenti in grado di creare soluzioni tecniche allo stato dell’arte e di interesse internazionale”, afferma Marco Trombetti, fondatore di Pi Campus.

Tesla ridefinisce anche l’Industria 4.0

La futuristica azienda di Elon Musk continua ad agitare le news, principalmente finanziarie, nel descrivere lo stato di avanzamento dei programmi presenti (self drive, Gigafactory) e futuri (solar, Semi), oltre che di alleanze e fusioni (SolarCity, MobilEye).
Il sito dell’azienda ha rilanciato il master plan di espansione aziendale, che comprende svariati punti di grande interesse.

Punto primo, espandere l’offerta della sua azienda verso autobus e camion, riducendo costi e insicurezze legate al settore con il lancio del modello Semi (2017).
Punto aggiuntivo, sviluppare le personal car come flotta in perenne movimento per servire il trasporto pubblico, un sistema che potrebbe portare fino alle strips della fantascienza di Asimov, come tratteggiate nella quadrilogia robotica.

I tettucci solari una chiave di svolta

Dopo dieci anni di vita, il 20 luglio Musk ha aggiornato il suo business master plan con la parte due. La parte più immediata, della quale tutti parlano, è certamente l’introduzione di tettucci solari su tutti i veicoli in produzione. Questa mossa non solo fornirebbe elettricità ai veicoli stessi, ma permetterebbe anche la produzione di energia con le auto ferme, comprendendo quindi l’energy storage e i relativi servizi. Si tratta dello sviluppo del punto 4 dell’originale piano di business, da sempre on-line sul sito, motivo per cui la fusione con la società cugina SolarCity è tutt’altro che una nuova trovata.

L’auto che si ripaga da sé

Un’attenzione particolarmente intrigante è rivolta al car sharing, che potrebbe diventare uno dei servizi della flotta Tesla. Proviamo ad immaginarne gli sviluppi per i proprietari di una Tesla Car.  Sull’app di gestione il propretario segna gli orari nei quali non avrà bisogno dell’auto, che viene automaticamente messa a disposizione di chi ne abbia bisogno. Con un vantaggio rispetto ai classici veicoli: la funzione autopilot vi riporta l’auto a casa, e volendo la parcheggia in un posto vicino o conveniente. Se poi vi serve l’auto, nessun problema: sempre con la stessa app se ne noleggia una e la si aspetta sotto casa.
Insomma, le novità che ancora pochi mesi fa sembravano fantascientifiche e oggi non lo sono più sono già molte. Non sappiamo quanti ricordino Prometheus, l’idea di auto senza conducente lanciata dalla Commissione europea, lanciata nel lontano 1987 e conclusa nel 1994 dopo ben 750 mila euro di finanziamenti. Vederla realizzata altrove e a distanza di tanti anni fa certo riflettere.

La macchina che fa le macchine

I veicoli Tesla, oltre ad essere reali e commerciali, sono andati oltre le aspettative di Prometheus, il che non deve stupire. La parte forse più moderna del progetto non è nei veicoli bensì nell’infrastruttura, visto che comprende la macchina che fa le macchine, rendendo la fabbrica stessa un prodotto commerciabile, il che va forse oltre anche all’attuale livello della cosiddetta fabbrica 4.0 della quale tanto si parla.
I vari prototipi della fabbrica si susseguono in vista della versione 1.0, attesa, secondo il master plan, “probabilmente nel 2018”. A quel punto la stessa fabbrica, è lecito ipotizzare, verrà messa a catalogo.
In definitiva, i quattro punti del Tesla Masterlplan part deux -come lo intitola Musk- sono i seguenti:

  • creare eccellenti tettucci solari integrati con energy storage;
  • espandere la linea di prodotti a tutti i maggiori segmenti (inclusa però la stessa fabbrica);
  • sviluppare un’autodrive 10 volte più sicura della guida manuale, grazie al fleet learning;
  • monetizzare l’auto quando non la si usa.

Non resta che attendere i pochi mesi che ci separano dai prossimi passi. Ne varrà la pena.

Ibm punta tutto sulla cognitive blockchain

0

In ogni secolo, le nuove tecnologie hanno via via eliminato le fonti di attrito, le inefficienze che trattenevano il progresso in atto. Internet non è sfuggita a questa regola, ed ha smussato i costi di tutte le transazioni. Il risultato non è ancora perfetto, quindi può essere migliorato, per esempio grazie alla blockchain: la sua adozione permette di rendere automatiche gran parte delle azioni ripetitive o prevedibili a valle della transazione. Il tutto può essere implementato anche in ambienti estremamente innovativi quali l’internet delle cose.

Tra le sue attività di divulgazione, Ibm ha pubblicato un nuovo studio che descrive le modalità con cui le reti blockchain saranno in grado di neutralizzare le attuali frizioni in ambito economico, che rappresentano una forte inibizione alla crescita delle aziende, supportando il movimento dei capitali e gli scambi valutari, modificando alla radice il funzionamento stesso dei mercati. Oltre a studiare il fenomeno, l’azienda ha reimpostato gran parte delle proprie attività sulle scoperte. Che sono a tinte forti.

La fine degli attriti nei sistemi di scambio

Redatto dall’Ibm Institute for Business Value (IBV), lo studio Fast forward: Rethinking Enterprises, Ecosystems and Economies with Blockchains rileva che la tecnologia blockchain, progettata per creare un nuovo tipo di database condiviso e immutabile delle transazioni, ridurrà o eliminerà tali frizioni, rimodellando completamente istituzioni e sistemi economici in favore di un consistente aumento dell’efficienza, con un significativo calo del rischio.
I libri contabili distribuiti (Distributed Ledger) diverranno la pietra angolare di un solido sistema di fiducia, configurandosi come una piattaforma decentralizzata sulla quale la collaborazione sarà massima. Tra gli obiettivi di Ibm c’è l’approfondimento delle modalità con cui le blockchain saranno in grado di generare più valore da altre tecnologie, come le analisi Big Data, l’Internet delle Cose e il cognitive computing.

Smart contracts con intelligenza artificiale

Ma non basta. Le azioni conseguenti ai dati acquisiti nelle transazioni, benché ripetitive, sono in parte complesse: il corrente software di automazione potrebbe non avere la qualità sufficiente a prendere delle decisioni corrette. L’unione dei due approcci potrebbe segnare l’inizio di un paradigma completamente nuovo.
Ecco perché Ibm sta attualmente tentando di fondere l’intelligenza artificiale di Watson e la contabilità senza attrito della blockchain in un unico, potente modello. Gli investimenti e le strategie sono stati modificati in quest’ottica.

Il 9 giugno l’azienda ha inaugurato il Centro Watson, un incubatore dove 5.000 informatici scienziati lavoreranno per costruire prototipi rapidi su blockchain, sfruttando l’intelligenza artificiale di Watson per le imprese nella regione Asia-Pacifico.
Aperto a Marina Bay (Singapore), l’incubatore ospiterà anche il locale garage imprenditoriale di Ibm, che dal 2010 sviluppa applicazioni contabili su cloud e che d’ora in poi si specializzerà sulla blockchain.

L’attività del colosso sulla blockchain è iniziata nel 2015 sul progetto open-source Hyperledger, rivolto alla contabilità distribuita cross-industry. All’inizio di quest’anno Chris Ferris, Cto IBM, è stato nominato responsabile del progetto.

A febbraio John Wolpert, Direttore blockchain di Ibm, dichiarò che la società “punta tutto sulla blockchain“. La puntata è molto alta, anche perché -come abbiamo visto- coinvolge le straordinarie potenzialità del sistema cognitivo Watson. Non resta che aspettare i risultati.

Sul tema blockchain potrebbero interessarti anche:
Blockchain, cosa è e a cosa serve, tra Bitcoin, IoT e sanità

Ibm e la blockchain as a service

EU: monete virtuali, ipotesi due diligence verso bitcoin e blockchain

 

 

Sap Hybris: risposte rilevanti per i consumatori in real time

Il consumatore di oggi è molto più impegnativo di quello di ieri, ma nel mondo digitale è facile affidare ai brand informazioni rilevanti su scelte e desideri d’acquisto. Queste informazioni vengono lasciate ai vari angoli dell’omnicanalità: se usate tutte insieme, permettono all’azienda di fare del cliente un sostenitore, e al cliente di acquisire esattamente il bene o servizio che desiderava.
Si tratta degli effetti della digital transformation sul rapporto tra brand e cliente, che Sap sta studiando direttamente sul campo.

 

L’impronta digitale

L’insieme dei dati può diventare una vera e propria impronta digitale dell’utente, magari incasellando gli elementi in alcune categorie.
Sap Hybris propone una classificazione in quattro contenitori:

  • passato
  • pubblico
  • predittivo
  • presente

che insieme costituiscono le quattro P dell’impronta.

Focus sull’analisi del presente

Grande attenzione, in particolare, merita l’analisi dell’istante presente nel quale vive il consumatore.
È questa parte di esperienza che Sap presenta al pubblico italiano nella tappa del tour europeo Sap Hybris Beyond Crm: il 7 e l’8 luglio Roma ha concluso il roadshow che in 90 giorni ha toccato più di 50 destinazioni in 11 Paesi europei.

Un truck da 33 tonnellate e 15 metri ha ospitato oltre 100 demo di Sap Hybris, incluse le soluzioni di punta come Sap Hybris Cloud for Customer e Sap Hybris Marketing, che consentono l’integrazione tra soluzioni per il marketing, vendite, e-commerce, servizi e fatturazione.

Sap Hana per l’analisi in tempo reale

Customer experience e neuromarketing nei punti vendita raccolgono dati che convergono in Sap Hana e permettono un’analisi in tempo reale e una risposta immediata, garantendo il reale coinvolgimento dell’utente. La suite permette di applicare filtri e modelli predittivi (standard o custom) a moli di dati in origine eterogenee che coprono il vero ciclo di vita dell’informazione del cliente digitale d’oggi. Le azioni possono quindi essere in tempo reale, automatiche o da operatore, ovvero più articolate com’è l’eccellente funzionalità di sviluppo e gestione duna mailing list: per la posta elettronica è disponibile anche un tool di confronto del tipo A/B testing.

ivano fossati sap hybris“Beyond CRM è molto più di un semplice concept”, ha commentato Ivano Fossati, Business Development Director, Sap Hybris Customer Engagement & Commerce Emea, “e vuole aiutare a far evolvere il modo in cui le aziende innovano, gestiscono il business e coinvolgono il consumatore nell’era digitale, al tempo stesso semplificando processi e sistemi”.
Con felice acronimo l’approccio è stato definito YaaS, hYbris-As-A-Service, anche in virtù del mix di software che, anche grazie all’architettura basata su microservizi, può essere acquisito sia on-premises sia virtualizzato, ma anche nel cloud.

Tra le soluzioni all’avanguardia è stato presentato anche BullsEye, un prototipo ancora in via di sviluppo nei laboratori Hybris che mostra la digitalizzazione della consumer experience direttamente nei punti vendita. Questo strumento, che è destinato ai punti vendita fisici, si avvale di un meccanismo di selezione basato sull’IoT (Internet of Things) che consente di digitalizzare l’esperienza dei consumatori e convertire le relative informazioni in clienti online.
Algoritmi + strutture dati = programmi” era la frase di promozione della programmazione secondo Niklaus Wirth, inventore del linguaggio Pascal. Oggi, guardando Sap Hybris, potremmo parafrasarla con “modelli predittivi + big data = business”.

Microsoft Azure e le PMI: un viaggio verso il cloud

Cloud sì, ma perché e come? Sono queste le domande di partenza d’un progetto corretto per passare da Ict on-premise, ovvero in casa, alle soluzioni disponibili su Azure. All’argomento è stata dedicata una videolezione di circa un’ora, con Fabio Santini, Developer Experience and Evangelism Lead di Microsoft.
La lezione, prima di una breve serie, è disponibile in streaming su Channel 9, la web-tv di Microsoft.

Si parte con un po’ di storia.

Prima nelle imprese si utilizzava un server per ogni workload, finché non ci si è resi conto che i server fisici venivano usati al 10% delle loro capacità. È qui che si sono sviluppati il concetto e la pratica della virtualizzazione: il server fisico eseguiva più servizi diversi ma del tutto isolati.
Lo sgabuzzino con i server è diventato Ced, poi server farm.
Ed è qui che si comincia a parlare di cloud, un elaboratore di straordinaria potenza, memoria e banda passante, distribuito nel mondo, che può essere attivato e disattivato a piacere. È anche fruito a consumo, quindi ai benefici sopra citati si aggiunge anche quello dell’economicità.
Tutto positivo, dunque?
In realtà qualche problematicità potrebbe insorgere, soprattutto quando si analizzano gli aspetti legati alla sicurezza. I server di una Pmi, tenuti al sicuro “in casa”, non rischiano attacchi fisici, mentre quando si portano al di fuori del perimetro aziendale, affidandoli a uno specialista che gestisce molte Pmi, il rischio inevitabilmente cresce. E quindi è necessario che in parallelo cresca anche la sicurezza implementata dal fornitore.

microsoft azure - storia 2

I colori di Azure

Ma vediamo il sistema di elaborazione globale proposto da Microsoft. “Noi abbiamo oltre 100 data center simili in tutto il mondo, ciascuno grande 6 campi da calcio e articolato su container”, dice Santini; i container sono simili a quelli delle navi, ma ovviamente meglio attrezzati e mantenuti. E a proposito di manutenzione, “per noi riparare il singolo server è antieconomico e certo non usiamo i tecnici per sostituire dischi! Vediamo il degrado progressivo a livello di container: quando funziona solo metà dei server, sostituiamo l’intero container”.
Inoltre, a questo livello le sicurezze logiche e fisiche sono altissime rispetto a quella di qualsiasi data center aziendale.

Ma scendiamo un po’ più nel concreto.

Da dove comincia una Pmi?

Ovviamente bisogna vedere la situazione caso per caso: cosa si possiede, quali servizi si siano già acquisiti, quali servano. Il problema più sentito è la perdita di controllo presunta. Se la dirigenza della Pmi non comprende i valori che si acquisiscono con il cloud, è estremamente probabile che anche avvicinandosi al nuovo approccio, poi si torni indietro a una soluzione on premise.

Solo quando si siano compresi i valori del cloud sarà opportuno andare avanti.  Il passo successivo è l’assessment, la verifica di quali siano gli utenti di ciascuno dei servizi aziendali, sia interni sia esterni. Sono interni fatturazione, posta elettronica, collaborazione, gestionale e l’eventuale catena di produzione; sono invece esterni, tra gli altri, sito web ed e-commerce.
Questi servizi, per gran parte se non tutti, già sul sistema informativo aziendale girano su macchine virtuali.
Per ciascun servizio si valuta la convenienza a portarlo sul cloud, facendo quindi una lista dal più conveniente al meno conveniente. Si identificano tre gruppi di servizi: adatti al cloud, da valutare, inadatti al cloud.
A quel punto si prende quello sulla carta più conveniente e si sposta sul cloud la macchina virtuale relativa.

Quando è meglio restare in locale

Non tutto, però, va forzatamente spostato sul cloud. Un esempio tipico è il software di produzione: è difficile spostarlo sul cloud, perché la variabile connettività ha una sua importanza. La banda in uscita è un parametro importante per il cloud: il gestionale ne richiederà di più rispetto all’e-commerce.

Quali competenze servono in azienda?

Le competenze interne di virtualizzazione o consulenza esterna sono essenziali. Se l’azienda ha un esperto di virtualizzazione, il passaggio ad Azure non creerà problemi. Resta determinante, come già visto sopra, la comprensione del cambiamento, ovviamente nelle stanze di chi in azienda decide davvero.

Consulenza d’innovazione

La dirigenza vede il Cio o responsabile Ict che dir si voglia a svolgere compiti sull’infrastruttura interna: onerosi, ma poco innovativi per il business. Ecco perché spesso finisce per rivolgersi a servizi esterni che potrebbero innovare il business ma potrebbero rivelarsi difficili da integrare. Ed ecco perché il nuovo flusso richiede necessariamente anche il coinvolgimento della dirigenza.
Il primo calcolo da fare è relativo all’aumento di efficienza, che è sempre sostanzioso. A quel punto, risultati alla mano, si riesce a coinvolgere l’interlocutore di business.
È questo”, conclude Santini, “il vero passaggio che dimostra la stoffa del consulente d’innovazione”.

[td_smart_list_end]

 

 

Su Microsoft Azure potrebbero interessarti anche questi articoli
Azure Stack, la via Microsoft al cloud ibrido

I 10 servizi cloud più diffusi per le Pmi

L’IoT di Microsoft fa sistema con le imprese

 

Oracle porta Sparc nel cloud

Sono i problemi di prestazioni, sicurezza e gestione a rendere ancora difficile per molte organizzazioni lo spostamento sul cloud dei workload aziendali. La nuova piattaforma Sparc, lanciata oggi da Oracle, è stata progettata da zero per migliorare le applicazioni aziendali più critiche e lo scale-out degli ambienti applicativi.
Sicurezza ed efficienza dei chip Sparc sono ora disponibili con nuovi servizi, sistemi ingegnerizzati e server.

Le ultime aggiunte alla piattaforma Sparc si basano sul nuovissimo chip Sparc S7, membro della famiglia con software nel silicio. Il device implementa 8 core a 4.27 GHz per 64 thread, protezione di memoria e accelerazione degli analytics in hardware, offrendo la massima efficienza per core del settore con ragguardevoli prestazioni complessive al costo di sistemi commodity. Il livello dell’ottimizzazione dei nuovi chip può essere visto nel numero di core, che da 32 passa a 8 pur con nuovi, significativi livelli delle prestazioni.
Tutte le applicazioni commerciali e personalizzate già esistenti girano senza modifiche sui nuovi sistemi, ma con significativi miglioramenti in sicurezza, efficienza e semplicità.

Amministrazione, sicurezza ed efficienza

Le caratteristiche chiave dei nuovi sistemi sono amministrazione, sicurezza ed efficienza, il tutto nell’ottica della semplificazione come frutto dell’ingegnerizzazione molto spinta.
La console di amministrazione dei sistemi Sparc è sostanzialmente identica a quella dei sistemi x86. La nuova interfaccia grafica rende più semplice svolgere le varie funzioni, quindi abilitando a molte operazioni anche figure professionali meno formate.

Nella sicurezza, cifratura ed hash a chiave ampia permettono una completa crittazione della cloud con appena il 2% di carico aggiuntivo sul sistema. Inoltre, la sicurezza è ulteriormente rafforzata con l’avvio verificato, l’immutabilità dei contenuti e la supply chain (hardware e software) priva di intermediari. Bastano poi pochi secondi per eseguire un blocco di oltre 260 controlli specifici.

Parlando di efficienza, grazie alle Api aperte del processore -e gli acceleratori integrati di analytics- i nuovi sistemi Sparc riducono la latenza e costo su applicazioni aziendali, big data e cloud. Rispetto ai server x86, i server completamente integrati S7-2 e S7-2L offrono una efficienza per core anche doppia: fino al 70% su Java e fino al 60% sui database Oltp, incrementando la larghezza di banda per le applicazioni di analisi e cloud ad alto traffico tra il 100 e il 200%.

Semplificazione nell’enterprise computing

Facendo un ulteriore passo nell’integrazione del server, il sistema Oracle Engineered MiniCluster S7-2 semplifica i primi quattro aspetti dell’enterprise computing: sicurezza e conformità, patching e amministrazione, alta disponibilità e ottimizzazione delle prestazioni.

Grazie all’applicazione integrale e alla compatibilità del database con SuperCluster M7, Oracle MiniCluster consente alle organizzazioni di ridurre i costi di hardware e software ad una frazione del costo delle soluzioni commodity. Il nuovo Oracle Engineered System è progettato per supportare applicazioni multi-tenant e/o consolidamento dei database, uffici remoti e filiali, ma anche ambienti di test e sviluppo.

T7/M7 per lo scale-out

Oracle ha anche esteso la linea di prodotto Sparc server, estendendo il portafoglio T7/M7 per spingere lo scale-out i e carichi cloud verso nuove, interessanti fasce di prezzo basso. I nuovi server Sparc S7 a due socket sono disponibili in diverse opzioni ottimizzate -calcolo/memoria o I/O- e offrono prevenzione degli attacchi di malware, crittografia senza compromessi e accelerazione dell’analisi dei dati.

Ibm e la blockchain as a service

In estrema sintesi, la blockchain è un libro mastro (ledger) della contabilità distribuito su una rete. Può essere usato in qualsiasi forma di transazione, ovvero di scambio dati, non necessariamente di tipo economico. Questi dati sono per loro natura indipendenti dalle aree geografiche di provenienza, e dalle relative legislazioni.

Gli elementi essenziali della blockchain sono stati descritti in un articolo precedente dedicato alla disintermediazione delle transazioni d’ogni genere.
In questo articolo vediamo invece come fornire un servizio di gestione del libro mastro distribuito e della relativa rete di operatori.

La blockchain di Ibm è as a service

Per essere più comprensibili facciamo riferimento ad una proposta commerciale: abbiamo scelto come esempio quella Ibm.

Usando la Blockchain, la rete consiste di operatori allo stesso livello (peer) distribuiti che effettuano transazioni tra loro. Tali operazioni vengono memorizzate sul registro condiviso. Tutti i membri sono uguali, quindi nessuno ha un controllo centralizzato, ma ciascuno contribuisce al controllo complessivo.

Tutte le transazioni possono quindi essere memorizzate nello stesso formato, secondo un approccio che impone la stessa struttura a dati altrimenti destrutturati, e la loro analisi può essere affidata a software specifici.

Ibm sta sviluppando un ambiente integrato di blockchain as a service, in particolare impostando il servizio sui DevOps che operano sulla piattaforma Bluemix. Tra le azioni di questa strategia, l’azienda ha fornito al progetto HyperLedger (della Linux Foundation) l’Open Blockchain, in breve Obc, software per un totale di 44 mila linee di codice.

obc-architecture

Smart contracts, le app nella chain

Il libro mastro contiene dati la cui elaborazione permette di estrarre valore. Gli specifici software che estraggono valore, ad esempio per determinate scadenze o gamme di valori, sono app chiamate smart contracts in gergo open, mentre Ibm le chiama chain code. Esistono già molte piattaforme per lo sviluppo di smart contracts, tra le quali la più famosa è forse Ethereum.

I vantaggi della blockchain sono grandissimi: si pensi a cosa succederebbe se tutti i dati di transazioni pubbliche, ovvero la contabilità di Comuni, Regioni e Stato italiano fossero resi disponibili in questa forma di Big Open Data.

Non bisogna però dimenticare che sono stati individuati dei punti di debolezza del nuovo sistema. E’ consueto che l’estabilishment critichi la robustezza di chi vuole sostituirlo, dando per scontata la propria solidità, che è solo apparente: recentemente l’abbiamo visto per l’avvento del cloud computing e della trasformazione digitale. Resta comunque importante interrogarsi sugli errori sistemici di un possibile cambiamento: in questo caso, anche senza entrare nel meccanismo delle valute virtuali usate per regolare le transazioni, sulla blockchain principalmente si osserva che la competizione tra operatori è un sistema inefficiente, che porta alla contemporanea elaborazione di migliaia di computer tra i quali uno solo arriverà primo (e tutti gli altri avranno sprecato risorse inquinanti). Ma anche questo punto è allo studio degli operatori.

Ibm_blockchain_stack

Accessibilità e inclusione nel nuovo Codice Appalti

Nel giorno in cui l’Italia ha approvato in via definitiva la legge del cosiddetto “Dopo di noi”, dedicata all’assistenza ai disabili che restano orfani, Roma ha ospitato Accessibilità & Tecnologie, un evento dedicato al ruolo della PA per l’inclusione digitale e l’accessibilità negli appalti pubblici.

Secondo l’Organizzazione Mondiale della Sanità, circa il 15% della popolazione mondiale soffre di disabilità di diverso tipo. Nella sola Unione Europea, in particolare, risultano esserci circa 80 milioni di soggetti con disabilità, ossia più del 15% della popolazione totale. Attualmente però il tasso di occupazione delle persone con disabilità nell’Unione Europea è pari al 48%, a fronte di un terzo dei disabili totali che versa sotto la soglia di povertà.

L’evento, organizzato da Microsoft e Uninfo, è servito ad avviare un confronto con membri del Parlamento, esponenti del Governo, rappresentanti dell’Agenzia per l’Italia Digitale, di UNINFO e delle principali Associazioni nazionali delle persone con disabilità. Al centro dell’attenzione l’accessibilità dei servizi e dei prodotti Ict nel settore pubblico contenuta nel nuovo Codice Appalti (D. lg. 50/2016) e per discutere della sua implementazione nel nostro Paese, in linea con gli Standard europei.

In Italia, l’innovazione digitale e l’accessibilità sono temi ai quali le Istituzioni hanno sempre dimostrato grande sensibilità, sancendo il diritto di accesso agli strumenti informatici per le persone con disabilità già dal 2004 con la Legge Stanca. Come spesso accade la legge è stata sostanzialmente disattesa nel controllo, ma adesso le cose sembrano cambiate: alle norme europee (direttiva 2014/24/UE, standard EN 301 549) implementate in Italia si affiancano il Dl 179/2012 sul monitoraggio delle attività, reso operativo da svariate circolari Agid, l’ultima delle quali è la 1/2016.

In particolare, nel nuovo Codice Appalti è stata inserita la necessità di prevedere che le tecnologie siano scelte in modo tale da assicurare l’accessibilità delle persone con disabilità, conformemente agli standard europei.

Stiamo assistendo tutte le Pa nella redazione del piano triennale per il front-office unitario di Italia Login”, ha dichiarato Maria Pia Giovannini, Responsabile Area Pubblica Amministrazione in Agid. Tra gli strumenti, dal 23 marzo è attiva una web app specifica, ben accolta dagli operatori: “ne hanno fruito circa tremila amministrazioni, tra le quali 1.300 scuole e 1.100 Comuni”.

Proponiamo un cambiamento di modello nel procurement di tecnologia verso una società davvero inclusiva”, ha spiegato Alex Li, Strategic Standards Analyst di Microsoft; “abbiamo investito molto negli standard europei, e oggi i nostri prodotti in vendita nel Vecchio Continente sono identici a quelli statunitensi”. Per chiudere il cerchio, oltre ad aziende, pubbliche amministrazioni e utenti, sono state dedicate attenzioni anche agli sviluppatori.

 

 

 

Blockchain, cosa è e a cosa serve, tra Bitcoin, IoT e sanità

Siamo nella civiltà dei dati, espressione altisonante per dire che tutti dipendiamo da come vengono trattati i nostri soldi e le nostre informazioni. Eppure gestione e trasmissione dei dati finanziari ha ancora una struttura arcaica, un trasudato di secoli di attività in un percorso conclusosi con i trattati di Bretton Woods, nel 1944, con il quale si fissarono le regole e le procedure per controllare la politica monetaria internazionale.

Un approccio disruptive alle transazioni finanziarie è fornito dalla blockchain, tecnologia di scambio dati importanti per transazioni sicure ed affidabili senza un certificatore centrale.
Il meccanismo è alla base della moneta virtuale Bitcoin, il che dimostra le sue qualità.
Per capire come funzionano le valute virtuali bisogna fare un passo indietro, tornando ad un punto che tutti prendiamo per scontato, ma che è di grande complessità.

Cosa succede quando facciamo un pagamento elettronico?

Se a muoversi è il denaro è tutto chiaro: A consegna a B il denaro in forma anonima sia per A, sia per B. Inizialmente A possiede il denaro, e smette di averlo nel momento nel quale lo da a B, che quindi ne entra in possesso. La transazione non è tracciabile.

blockchain-bitcoin
Come funziona blockchain nel mondo finanziario

Nel caso di transazioni elettroniche, però, la questione è molto più complessa. Trascuriamo al momento l’ìdentificazione di A, B e la tracciabilità, che sono ovviamente importanti, e concentriamoci sul possesso e scambio di denaro. L’operazione non è immediata: se A fa un bonifico a B, si appoggia ad un ente terzo (la banca) che prima verifica la presenza sul conto di A dell’importo necessario, poi contatta la banca di B per verificare l’esistenza del conto di B e predisporre la transazione, ergo toglie i fondi dal conto di A e li rende disponibili a B. Queste operazioni sono regolate da una fitta rete di scambi che hanno un costo estremamente variabile e una certa indeterminatezza dei tempi, con regole fissate da un organismo legalmente ed internazionalmente riconosciuto.

Decentralizzare in sicurezza ed economia

Poiché Internet disintermedia, è stato possibile sviluppare un meccanismo che permetta di sostituire a questi enti accreditati chiunque riesca a dimostrare efficacemente di poter svolgere il compito. In gergo tecnico la certezza del trasferimento di denaro e quindi dell’eliminazione dello stesso dal conto di provenienza viene definito double spending, problema della spesa doppia (o multipla). Normalmente viene risolto all’interno dei consueti circuiti finanziari, mentre una soluzione in Rete può operare in maniera più veloce, economica ed aperta. Si tratta ovviamente d’un meccanismo che toglie il controllo centrale alle operazioni.

Questa tecnologia di disintermediazione delle transazioni si chiama blockchain; la moneta virtuale ad essa collegata si chiama invece bitcoin. Il termine cryptocurrency che viene usato per descriverla è dovuta all’impiego di protocolli di cifratura nelle varie operazioni.

Ad inventare questo meccanismo è stato nel 2008 il sedicente Satoshi Nakamoto, nome fittizio che in giapponese vuol dire “Consiglio sul denaro”. Tale identità è stata recentemente reclamata dall’australiano Craig Wright.

Come sempre accade, una nuova tecnologia di grande successo crea un circuito alternativo a quello finora pianificato e ratificato da secoli di storia. Ovviamente la finanza e le istituzioni mondiali cercano di controllare questo fenomeno, e con loro anche la Commissione europea, suscitando la critica dell’opinione pubblica più tecnologica e spesso anche di quella parte complottista, che vede in tutto un tentativo dei poteri occulti di schiavizzare le masse.

Tornando al punto, sono ormai molte le aziende e gli stessi Stati che riconoscono il bitcoin. Se le monete alternative sono sempre esistite (tempo fa a Roma se ne contavano almeno 6, anche se di carta), nessuna si proponeva con alle spalle queste implicazioni tecnologiche.

La blockchain in IoT e sanità

Ma la cosa più importante sembra essere la blockchain, ovvero il sistema di disintermediazione delle transazioni. È un meccanismo che può essere applicato a qualsiasi tipo di trasferimento di valore, controllando le identità delle parti, l’esistenza dei valori in scambio e la liceità della transazione in modo aperto ed accessibile a chiunque sia in grado: il sistema stesso rende i mediatori affidabili. Le applicazioni sono moltissime, partendo dalla finanza per arrivare ai micropagamenti senza commissione. Ma la blockchain non si applica solo ai soldi, bensì anche allo scambio di dati: che ne pensate di applicarlo all’IoT, che ha problemi di sicurezza e tracciabilità? O ai dati medici?

L’Internet delle cose prevede grandi quantità di dati, sia medici sia robotici, che hanno grande importanza. Finora la loro sicurezza è stata trascurata da tutti, così come lo fu quella delle fabbriche (e delle insicurezze di Scada). Un approccio crittografato e accessibile come quello della blockchain sarà certamente utile.

blockchain e Iot
Blockchain e Iot: gli scenari possibili

Analoga questione può essere posta alla sanità elettronica, nella quale avere certezza di chi prende in carico i dati è elemento prevalente per un sistema efficace; inoltre, poiché la blockchain registra tutte le transazioni alla prima all’ultima, usando questo approccio sarebbe molto più facile avere la storia clinica d’un paziente in forma davvero completa.

blockchain in sanità
Blockchain e sanità

 

Droni e satelliti forti nei Kibs

0

Dal punto di vista di un drone, gli umani si identificano in base alle funzioni per le quali vengono riconosciuti: sensori, decisori o attuatori. Il paradigma ribaltato, vale a dire come gli uomini guardano ai droni, può aiutare a comprendere l’importanza del punto di vista nelle rivoluzioni tecnologiche in generale ed in particolare per l’avvento dei robot volanti.

L’Associazione Italiana Droni, in sigla Aidroni, è una battagliera associazione volta all’avanzamento della filiera produttiva di modelli multicottero ed ala fissa. Non si tratta d’una associazione di amatori, professionisti o aeromodellisti, bensì d’un gruppo ridotto di esperti e produttori di questi device, che operano su più fronti con un approccio di cross association. In quest’ottica va vista l’adesione a Confindustria servizi innovativi e tecnologici.

Un grande lavoro è stato fatto con l’ente satellitare Asas, a partire dal marzo 2015, per coordinare ed integrare – grazie ad un tavolo tecnico permanente – le proposte di satelliti e droni, due tipologie di mezzi che spesso incidono sullo stesso segmento di mercato.

luciana de finoUn’altra tappa del percorso di divulgazione è l’accordo con i Talent Garden italiani, gli spazi di coworking ed incubazione delle idee ormai ben presenti sul nostro territorio. Ed ampia è la consapevolezza dell’importanza della qualità dei servizi, necessaria anche per supportare adeguatamente la fabbrica 4.0: i droni devono entrare con entrambi i piedi nei Kibs, knowledge-intensive business services, rappresentano l’8% del Pil italiano, con tassi di crescita già tornati al livello pre-crisi del 2008, a differenza del resto del Paese.

Aidroni chiede che i droni vengano trattati come nuovi aerei”, ha detto Luciana De Fino, presidentessa dell’associazione e già vicepresidente di Confindustria Basilicata, mentre “per le autorizzazioni chiediamo la dematerializzazione dei processi”. Luciana è una giovane poco più che trentenne con numerosi titoli accademici ed imprenditoriali già acquisiti.

Tra gli obiettivi c’è la razionalizzazione dei modelli di business del settore, attraverso analisi di mercato, per la promozione di interoperabilità e standardizzazione. È infatti necessario rimuovere i vincoli giuridici, istituzionali e finanziari che frenano la dronistica. Come tutti gli operatori seri del settore, infine, una linea chiara è la guerra agli operatori non autorizzati.

Industria 4.0, a che punto sono i robot?

Per quanto sia oggi più che mai al centro dell’attenzione, soprattutto in un’ottica Industria 4.0, la robotica di oggi non è molto diversa da quella degli anni scorsi.
Ma allora cos’è davvero cambiato?
albero pellero kuka roboterSenza dubbio, i robot di oggi sono  più sensoriali e più connessi; sono stati migliorati in flessibilità, programmabilità, e in un’ottica di maggiore integrazione anche tra sistemi di vendor diversi; sono più leggeri e compatti, più veloci e sicuri, più precisi e molto più efficienti in termini energetici.
È questa l’analisi di Alberto Pellero, Strategy & Marketing Manager di Kuka Robotics Italia, presentata in occasione di Technology Hub nella panoramica di mercato dedicata all’argomento.

Qualche numero di mercato

La presenza di robot industriali nel mondo è concentrata nel settore automotive. Il leader nella densità per dipendenti è il Giappone, con 0,14 robot per dipendente; nell’industria in generale, la media scende a 0,02. Seconda è la Germania (0,11 e 0,016), poi gli Stati Uniti (0,11 e 0,009) e via di seguito Regno Unito e Cina (Dati Ifr World Robotics di fine 2014).
Questo settore è l’unico ad esser cresciuto del 100% negli ultimi due anni”, ha detto Pellero; “nel 2014 nel mondo si sono venduti 150 mila robot articolati, nel 2015 siamo saliti a 260 mila e nel 2018 si raggiungeranno le 400 mila unità”.
In questi ambiti i robot, anche di produttori diversi, comunicano wireless grazie ad una rinnovata sensoristica e alla fusione dell’It con la fabbrica. I diversi dispositivi si muovono all’interno degli spazi in varie modalità, sia tramite una pista guidata, sia in maniera autonoma, riconoscendo gli oggetti sui quali operare.
Ma si può andare oltre, come mostra Lbr (leichtbauroboter), il robot leggero, snodato, dai sensi molto acuti. Kuka Lbr opera in grande scioltezza grazie ai suoi 7 assi. Tra le sue capacità c’è l’apprendimento per dimostrazione: spostando manualmente i vari attuatori il sistema memorizza la sequenza corretta ed impara a ripeterla in pratica.

L’IoT si stampa, almeno all’IIT

0

La diffusione di tecniche nanotecnologiche con la stampa tradizionale potrebbe rivoluzionare il mondo che conosciamo. Con il carbonio si realizzano le plastiche, che tramite diluenti possono essere sciolte e diventano inchiostri, con i quali stampare circuiti.
Il supporto di stampa può essere molto sottile, come un sostrato plastico di spessore da 1/100 di capello.
giorgio dell'erbaDi tecniche nanotecnologiche hanno parlato, in apertura di Technology Hub, Giorgio Dell’Erba, Young Innovator under 35 del Mit, e Antonio Iacchetti, che si occupa di Ribes Tech, la startup di fotovoltaico pieghevole dell’Iit.
Questi materiali sono ampiamente modificabili e trattabili per non inquinare fin dai processi produttivi.

Nella produzione con queste plastiche quasi tutti parlano di display, mentre gli esperti dell’Iit pensano al cervello.
Altri hanno sviluppato batterie a loro volta stampabili: con lo stesso foglio possiamo quindi stampare display, circuiti di elaborazione, batterie ed attuatori.
Non è solo all’IIT che si stampa elettronica, ma c’è una differenza.
Gli altri nel mondo stanno usando lo stesso approccio chiuso della microelettronica digitale, chiusa e accessibile solo con grandi cifre.

La proposta di IIT è aperta anche alle  Pmi: un repository strutturato con celle ottimizzate per librerie (circuiti, sensori o attuatori) sui quali sviluppare un progetto finalizzato.
Una macchina di stampa industriale per questi progetti costa circa 2 milioni di euro.
Qualsiasi superficie può essere sfruttata per produrre energia o elaborazione: pareti e vestiti vanno benissimo, ma si può fare di più. L’efficienza di queste celle, che outdoor è 1/3 di quelle tradizionali, è pari a quelle standard per la luce artificiale, quindi indoor.

EU: monete virtuali, ipotesi due diligence verso bitcoin e blockchain

La Commissione europea potrebbe creare una task force per regolamentare le monete virtuali come i Bitcoin per scongiurarne l’uso nel riciclaggio di denaro e come finanziamento del terrorismo.
È la proposta del Parlamento approvata giovedì 26 maggio, in una risoluzione non
vincolante, con 542 voti favorevoli, 51 contrari e 11 astensioni. Sarà ora inviata alla Commissione Europea, che dovrà esaminarla. Fin dall’inizio, va detto, la risoluzione propone svariati rischi d’inefficienza o anche di saldo negativo della misura.

Maglie larghe e controllo politico

La task force dovrebbe formulare raccomandazioni per qualsiasi legislazione necessaria alla regolamentazione del settore. Poiché le valute digitali, ed in particolare la blockchain, disintermediano il mercato delle transazioni, sostanzialmente qualsiasi forma di compravendita potrebbe richiedere una nuova regolamentazione. Inoltre la task force, di tipo tecnico, avrebbe la supervisione politica della Commissione, in un gioco d’interessi molto complesso da dirimere.
Infine i deputati mettono in guardia contro un approccio troppo rigido nei confronti di questa nuova tecnologia, poiché può offrire importanti opportunità per i consumatori e per lo sviluppo economico. Insomma, regolamentiamo, ma a maglie larghissime, che non si sa bene a cosa serva.
Intendiamoci, gli argomenti a favore non mancano, almeno per la task force, che potrebbe informare Parlamento e Commissione.
Per evitare di frenare l’innovazione, privilegiamo un monitoraggio precauzionale a una regolamentazione preventiva”, ha sottolineato Jakob von Weizsäcker (S&D, DE), relatore della risoluzione; “le innovazioni tecnologiche possono diffondersi molto rapidamente e diventare sistemiche”, per cui il monitoraggio permetterà di capire quando avanzare “proposte tempestive per una regolamentazione specifica“.

Il problema è il riciclaggio

I regolatori si occupano di questo argomento perché temono che il sistema attuale aiuti il riciclaggio di denaro e il finanziamento delle organizzazioni terroristiche. Al momento le monete digitali, tra le quali quelle che usano la crittografia (cryptocurrencies), garantiscono l’anonimato di chi acquista o vende, situazione ideale per flussi illeciti. All’atto della conversione con valute reali, però, la situazione s’ingarbuglia.

La direttiva europea in vigore sul riciclaggio di denaro è prossima ad un aggiornamento, per cui la task force si unirebbe alle diverse proposte per rendere conformi le piattaforme di cambio delle valute virtuali. Una delle misure richiederebbe alle piattaforme di rispettare la due diligence quando i clienti effettuano lo scambio tra le valute virtuali e quelle reali, l’anonimato che caratterizza tali scambi avrebbe fine.

 

 

Pa digitale all’ultimo atto

0

Accelerazione, rapporti con le imprese e piano triennale sono i tre punti-chiave della strategia Agid per l’effettivo rinnovamento della Pa italiana”, ha dichiarato Antonio Samaritani, Dg di Agid, nel corso del convegno Digital First che si è svolto nell’ambito di Forum Pa.
antonio samaritani agidA circa un anno dal suo insediamento, Samaritani porta al Forum i primi risultati. Alcuni progetti sono partiti, ma bisogna passare dall’artigianato all’industria, accelerando l’adozione di svariate piattaforme, tra le quali i pagamenti ma soprattutto lo Spid, che dopo la fase di prova sta subendo un’accelerazione alla quale sono interessati cittadini di molte fasce, dai professionisti ai singoli. “E’ come se con il Telepass si entrasse nelle Ztl, si pagasse il parcheggio e molti altri servizi”, ha esemplificato Gianmatteo Manghi di Cisco.
Tra le piattaforme in rampa di lancio c’è anche l’anagrafe, che però –vista la complessità- richiederà velocità diverse nell’integrazione al sistema unico.

Passando al nuovo ruolo disegnato per l’offerta, l’assenza del legislatore nel tempo ha amplificato il fenomeno della frammentazione. Due tasselli importanti sono la legge di stabilità di quest’anno e il Cad (Codice dell’Amministrazione digitale) – quest’ultimo adottato ancora molto parzialmente – che permette di riqualificare la spesa soprattutto per le amministrazioni locali.
Con il Piano Triennale, avallato dalla Presidenza del Consiglio, sarà finalmente disponibile uno strumento strategico per operare su tre livelli: infrastrutture fisiche (es. i data center), infrastrutture immateriali (appunto Spid, pagamenti etc) ed ecosistemi. Il documento verrà completato e reso ufficiale entro fine anno.

La nuova Pa digitale comincia a vedersi

Rispetto al passato, oggi è certamente visibile un’ossatura praticabile per una nuova Pa, con attaccato anche qualche organulo appena appena sintetizzato. L’organismo è ancora lontano da una vita reale, ma è ragionevole pensare ad un suo veloce completamento. C’è da chiedersi quanto sarà rappresentativo: gran parte dei servizi al pubblico viene oggi fornita dai privati senza contributo pubblico, grazie al rinnovamento dei processi del social business –una delle forme dell’economia collaborativa-, ma il ruolo-guida e lo sviluppo di ecosistemi di piattaforme sono necessari.
Una parola va spesa anche sul Forum stesso, che quest’anno ha ottenuto risultati migliori dell’anno scorso, in particolare per le presenze agli stand. L’impegno dell’organizzazione non è mai mancato, ma in periodi di forte trasformazione può essere difficile raccogliere i risultati:  gli operatori hanno mostrato grande fiducia anche per i prossimi anni.
guido scorzaPiù ampio della sola digitalizzazione, l’attuale processo di modernizzazione è spesso presentato come una forma di risparmio immediato. “Razionalizzare la spesa è una cosa, ridurla è un’altra”, ha detto Guido Scorza, avvocato presente al Forum Pa in veste di Presidente dell’Istituto per l’Innovazione. Il punto centrale di Scorza è però un altro: la democrazia prevede la tutela di tutti, che non si ottiene digitalizzando senza criterio. “Esistono situazioni diversamente digitali”, ha proseguito Scorza, “ma quel che serve è che le tutele democratiche siano interne al software di piattaforme ed ecosistemi”.

Contemporaneamente a Digital First, in sala Dino Graziano Delrio parlava di Connettere l’Italia in senso infrastrutturale, sia fisico sia immateriale. Particolare attenzione è stata dedicata alla drastica revisione dell’elenco delle grandi opere destinatarie di finanziamenti pubblici.

Aruba – Spid? Noi lo facevamo già

Il Sistema pubblico d’identità digitale è in decisa fase di lancio, come tutte le piattaforme che dovrebbero rendere digitale la gestione dei servizi pubblici italiani. All’iniziale ossatura di fornitori e di servizi si stanno aggiungendo molti altri stakeholders, e tra questi anche Aruba, che tra l’altro detiene i domini .cloud.
L’identità digitale Spid viene certificata con tre modalità, semplice, con token e con device, come spiega questo articolo. Entro giugno Aruba sarà accreditata per il livello 2 (token temporaneo) con un’ampia gamma di credenziali, per poi offrire anche soluzioni di livello 3 (con Smart Card – Hsm).

braccagni aruba pecPer diventare gestori Spid abbiamo investito circa 1 milione di euro, che avremmo potuto destinare altrove”, ad esempio al nuovo datacenter di Ponte S. Pietro, “non abbiamo fatto le corse e non siamo stati tra i primi tre certificatori, ma crediamo in Spid e ci siamo impegnati molto anche a livello pubblicitario”. A parlare è Simone Braccagni, Ad di Aruba Pec. D’altronde l’azienda opera fortemente nel documentale e Spid è una naturale evoluzione di quella gestione.

In realtà l’innovativo servizio esisteva sostanzialmente già da tempo: per fare un esempio, tutti i servizi di pagamento da banche ed altre modalità usa un’identificazione forte con token o device. Quindi non solo i clienti di Aruba, ma molti altri hanno già in uso soluzioni simili. In questo senso, quindi, l’arrivo di Spid ha una ricaduta anche sul mercato preesistente, come d’altronde succede sempre nell’evoluzione dell’uso delle tecnologie.

A fine 2015 l’azienda aveva 4,3 milioni di Pec attive, delle quali 1,3 milioni attraverso ordini professionali, e ben 3,9 milioni di firme digitali attive. Complessivamente circa 5 milioni di clienti, con una crescita annua a due cifre. “Puntiamo ad offrire Spid ai nostri clienti, contando sull’attivazione di servizi”, continua Braccagni; “che immaginiamo arriveranno nel 2017”; per norma Agid, l’accesso ai cittadini è al momento gratuito per 24 mesi e almeno un canale di identificazione dev’essere disponibile gratuitamente.

sassetti arubaUn vantaggio forte di Aruba è lo sviluppo del software in house, che per il cliente è sempre positivo. Sempre con questa filosofia l’azienda ha appena lanciato iStrumentum, una soluzione completa di firma digitale ma soprattutto grafometrica per le necessità di Notartel, l’azienda del notariato. “La nostra tecnologia supporta anche le necessità di perizia calligrafica”, aggiunge Andrea Sassetti, direttore di Aruba Pec; è adatta a molti ambienti nei quali sono previsti documenti complessi e firme multiple, “com’è stato per la gestione delle assunzioni in Decathlon, che ha dimezzato i tempi e ridotto i costi”. Il mercato è aperto.

Crowdfunding Italia, il piatto piange

C’è un po’ di confusione sui numeri che girano intorno al Crowdfunding in Italia. Sappiamo di essere al di sotto della media in altri Paesi sviluppati, ma il mercato nazionale sta vivendo un buon momento di crescita, con il proliferare di piattaforme e un rinnovato interesse di grandi aziende e istituzioni.

Fare i conti, però, da noi è sempre più difficile che altrove. ”Sembra non essere così facile claudio bedino starteedtrovare un accordo sul valore complessivo dei fondi raccolti fino ad oggi e quanti progetti abbiano effettivamente beneficiato di questo straordinario strumento”, scrive Claudio Bedino, Ceo di Starteed, in un post; “per capire lo stato di salute dell’ecosistema nel 2016, abbiamo fatto i conti per bene“.
Starteed, tra le piattaforme promotrici del fenomeno in Italia, aveva fornito supporto per la redazione del Crowdfunding Report 2015, realizzato nell’ottobre 2015, al quale ha risposto il 62% delle piattaforme –e 01Net se ne era occupato. Da questa approfondita ricerca è emerso che il valore complessivo di raccolta delle piattaforme italiane a fine 2015 fosse di 56,8 milioni di Euro.

L’analisi di Starteed sul crowdfunding

Adesso Starteed ha completato il lavoro, raccogliendo le informazioni di tutte le piattaforme italiane attive, anche quelle che ai tempi non avevano risposto al questionario inviato per la redazione del Report. Laddove mancavano le metriche, ogni singolo progetto presente sulle piattaforme è conteggiato manualmente; laddove possibile, è stato chiesto un riscontro ai titolari. “Molto spesso le piattaforme non pubblicano i dati di raccolta, e anche quando interpellati in questionari o interviste i valori dichiarati sono spesso differenti da quelli riscontrarti con un conteggio diretto”, spiega Claudio.

Ovviamente sono state considerate solamente le campagne con esito positivo, escludendo quindi sia quelle non andate a buon fine, sia quelle non ancora concluse. Il risultato ottenuto è puntuale ed aggiornato al 15 maggio 2016.

In un primo dettaglio, ecco i risultati:

Lending: 44,436 milioni (4 piattaforme, delle quali Smartika e Terzo Valore rappresentano il 90%).

Reward e Donation: 15,961 milioni (34 piattaforme)

Equity: 3,945 milioni (10 piattaforme)

Il Do it yourself ha raccolto 1,045 miliardi (Un passo per San Luca 340k, WeFeedThePlanet 304k e Festival Internazionale del Giornalismo 115k).

Le informazioni di dettaglio suggeriscono agli esperti ulteriori riflessioni, come dice lo stesso Bedino nell’annunciare un nuovo post, ormai imminente.

Blogmeter porta in Italia i Facebook topic data

Qualcosa di nuovo è apparso nell’online italiano, ed è visibile su questa pagina web. Si tratta della prima dashboard italiana che rende disponibili i Facebook topic data, i veri big data del marketing. A portarli in Italia è stata Blogmeter, società leader nella social media intelligence, grazie alla collaborazione con DataSift, leader globale nella Human Data Intelligence. L’accordo prevede l’integrazione dei dati anonimi e aggregati dei Facebook topic data nella piattaforma proprietaria Blogmeter Social Listening, permettendo di offrire ai clienti l’accesso in real-time ai temi di discussione e alle interazioni generate da più di 1,6 miliardi di utenti attivi mensilmente su Facebook.

 
Blogmeter Sacha Monotti GraziadeiCon Facebook topic data si colma uno dei principali gap del mondo della social media intelligence su Facebook”, ha detto Sacha Monotti Graziadei, Ceo di Blogmeter. “Nel 2015, l’azienda ha supportato più di 130 aziende e agenzie realizzando oltre 160 progetti di ricerca”.

Il Social listening è il processo di monitoraggio dei canali social per delineare le strategie che meglio possono influenzare i consumatori. Significa raccogliere le informazioni dai luoghi partecipati dai consumatori e tradurli in valore aziendale

Chi mi segue?

La disponibilità di moli di dati di queste dimensioni è un vero “game changer” per tutti i marketer, perché offre la possibilità di scoprire una serie di informazioni preziose e finora impossibili da ottenere. Grazie a Facebook topic data, infatti, si possono ottenere informazioni su specifici temi, attività, eventi e marchi, che gli utenti condividono su Facebook, garantendo al tempo stesso la privacy.

Blogmeter mette a disposizione dei clienti il sacro Graal del marketer, ovvero l’accesso al più grande focus group non sollecitato del mondo. Per la prima volta in Italia i brand possono accedere a insight di Facebook ancora più dettagliati, per comprendere al meglio audience e topic d’interesse. In particolare, i clienti avranno a loro disposizione dati specifici di natura demografica (età, genere, location), volumi completi di engagement (come post, commenti, like, condivisioni, tag non solo relativi ai post pubblicati sulle pagine aziendali) e un’analisi approfondita delle tematiche.tim-barker datasift
Siamo felici che Blogmeter sia diventato nostro partner nell’offrire alle società insight rilevanti e di business estrapolati dai dati disponibili, che sono una quantità davvero enorme”, ha commentato Tim Barker, Ceo DataSift; “Facebook topic data offre un’intelligence più accurata sul mercato, sui brand e su molto altro”.

I nuovi elementi di valutazione permettono di prendere decisioni più efficaci in merito alle campagne marketing, migliorare lo sviluppo dei prodotti, ampliare la brand awareness e gestire la brand reputation.

Apre Forum PA, tra Spid, AgId e voglia di trasformazione

0

Anche Forum PA esce dalla digitalizzazione della cosa pubblica, abbracciando le istanze del social business e integrandole con le azioni di modernizzazione interna. È questa la coppia motrice dell’edizione 2016 del Forum, che si apre oggi al Palacongressi di Roma, che lo ospiterà fino al 26 maggio.
Il piano triennale di attuazione dell’Agenda digitale sembra essere il punto di gravità principale d’un evento che per forza di cose presenta quest’anno numerosi punti secondari d’attrazione. AgId presenterà una prima versione di questo piano il 25 maggio.
Il Piano è al centro della trasformazione reale della PA centrale e locale, delle aspettative sulla piena realizzazione di Italia Login non prima del 2017 (Anagrafe unica, Spid e PagoPA) e del piano banda ultralarga 2014-2020, della lenta evoluzione della Sanità digitale.

Siamo ancora un cantiere digitale

Come si può vedere, nelle date non c’è nulla di percentualmente concreto, ma solo lavori in corso che inizieranno a mostrare il reale avanzamento ad inizio 2018. La metafora usata dagli organizzatori del Forum per annunciare l’intensificazione dell’impegno d’informazione è proprio questa: i Cantieri della PA digitale sono dieci nuovi canali tematici di approfondimento, un grande sforzo che verrà ben ripagato se le date di completamento delle infrastrutture digitali saranno quelle degli ultimi annunci, al più con qualche mese di ritardo. Ma c’è di più.

L’avvento della società ibrida

Un elemento che ormai è chiaro ai commentatori è l’impossibilità per la cosa pubblica di svolgere la funzione di redistribuzione economica e di guida al mercato (vecchio e nuovo) che era al centro dei compiti per i quali è nata. Così come la politica è stata scavalcata dalla società civile, adesso lo Stato viene scavalcato dal social business, al quale spesso ci rivolgiamo nell’ambito dell’economia collaborativa.
Anche Forum PA sente questo cambiamento. Per trattarlo adeguatamente esce dalla PA, cataloga le nuove forze esterne al sistema e si chiede come possano modificare la cosa pubblica. Ad analizzare la pressione esterna è chiamato Jeremy Rifkin, molto dedito a progetti reali sul ruolo della Pa in una società ibrida, in parte old economy, in parte collaborative commons (altro modo di definire il nuovo ambito).
A priori la nuova spinta sociale dovrebbe essere valorizzata dal settore pubblico, ed anzi incrementata per mostrare il suo pieno valore. Ma apparentemente non è così, almeno in Italia, come sembra mostrare la proposta di legge su Sharing economy e Pa collaborativa: sviluppata grazie al lavoro del meritorio intergruppo parlamentare sull’innovazione, la proposta sembra impostata su un antico approccio “permission based”, che favorisce le grandi aziende e penalizza le nuove iniziative che grazie alla sperimentazione mappano il nuovo mondo che vanno creando con nuove soluzioni di servizi disintermediati. Un forte esempio nella sanità arriva dal modello del Centro medico Sant’Agostino di Milano, come raccontato da Michele Buono su Report, nel quale la social enterprise scavalca la cosa pubblica con beneficio di tutti, semplicemente ridisegnando i processi di erogazione dei servizi sanitari, includendo anche il cliente.

Stato e Regioni come legacy system

Se la cosa pubblica diventa un mainframe, insomma, è il momento di gestirla come un legacy system. L’esperienza Ict mostra che smantellarla è rischiosissimo e comunque costosissimo, ed è meglio imparare ad interfacciarlo con il nuovo, che ancora cerca la sua formula di successo.
Nel modello digitale sembra essere insita una contraddizione, un paradosso, che si vede chiaramente nella gestione della cosa pubblica.
La disponibilità d’infrastrutture che generano e gestiscono grandi quantità di dati impone una gestione quantitativa, da fare attraverso metriche certe basate proprio sulle grandi molti di dati raccolti e disponibili, ovvero big open data.
La raccolta di questi dati richiede l’omogeneità dei sistemi in analisi.
D’altro canto, la disintermediazione rende più facile creare e sperimentare con strutture libere, tutte diverse tra loro. In una sola parola, la disintermediazione frammenta.
È qui il paradosso: il digitale richiede omogeneità, ma in realtà frammenta. La ricomposizione d’una immagine completa attraverso la giustapposizione di tante piccole situazioni diverse richiede un forte lavoro d’interpretazione e pulizia dei dati, che a questo punto sono stati elaborati avendo in mente un punto d’arrivo, e non in purezza. Quello che è aperto è quindi l’interpretazione dei dati, più che i dati grezzi.

 

Feature Phone: Microsoft esce, Nokia ritorna

Microsoft ha ceduto tutte le attività di telefoni cellulari di base, i feature phone, per 350 milioni di dollari, insieme ad una fabbrica sita in Hanoi. La cessione non comprende la linea di prodotto Lumia né i device degli Oem. La chiusura della transazione è prevista per la seconda metà del 2016. Si tratta d’una notizia decisamente forte, le cui conseguenze sono destinate ad avere impatto per parecchio tempo, anche per la pluralità di aziende coinvolte.

La fabbrica a Foxconn

È interessante notare che l’acquisizione è stata fatta congiuntamente da Hdm Global e da Foxconn: semplificando all’estremo potremmo dire che la prima acquisisce i telefonini, la seconda prende la fabbrica, magari pensando ai tanti Oem coinvolti. Di Foxconn sappiamo tutto, ovvero conosciamo bene il gigante taiwanese che produce la gran parte dei dispositivi mobili a livello mondiale: per la precisione si chiama Hon Hai Precision Industries, ma sui mercati è nota come Foxconn Technology Group, e ad acquisire le attività di questo affare sarà la sua filiale Fih Mobile.
Un po’ meno si sa di Hmd global Oy, azienda finlandese nata nel 2015 per supportare il processo di acquisizione in Microsoft di Nokia, pagata ben 7,6 miliardi di dollari. Il suo Ceo è Arto Nummela, con un passato sia in Microsoft, sia in Nokia.

Nokia ricomincia da tre

Ed ecco che entra in gioco il terzo elemento dell’equazione, ovvero Nokia, ancora proprietaria del marchio e delle proprietà intellettuali. All’azienda ora diretta da Ramzi Haidamus verranno le royalties derivanti dalle vendite di feature phones e smartphone Android, già nel corso di quest’anno. D’altronde era circa un anno che esponenti della dirigenza parlavano con la stampa d’un ritorno sul mercato, praticamente impossibile senza un accordo con Microsoft.

Che succede di Lumia?

Certo i risultati economici della mossa di erano stati disastrosi. A fine 2014 i pezzi venduti in tre mesi furono 10,5 milioni, un anno dopo (ottobre-dicembre 2015) le vendite erano state 4,5 milioni (-54%), e nel trimestre successivo, nonostante l’arrivo di nuovi modelli, si sono venduti 2,3 milioni di pezzi (-73%). Nonostante tutto, questa parte del business resta in attivo, anche se in forte calo.
Tra gli stakeholders della questione ci sono i 4.500 dipendenti, ai quali verrà proposta l’assunzione da parte dell’acquirente o il ricollocamento internamente alle attività del venditore. Si tratta d’una questione che inevitabilmente avrà strascichi, soprattutto dopo la raffica di licenziamenti degli ultimi due anni.
C’è ora da chiedersi che fine faranno la famiglia Lumia e i relativi accordi Oem, inevitabilmente intrecciati con Windows 10, lo stesso tessuto della famiglia Surface.
Del resto, la nota ufficiale di Microsoft è abbastanza chiara: “Microsoft will continue to develop Windows 10 Mobile and support Lumia phones such as the Lumia 650, Lumia 950 and Lumia 950 XL, and phones from OEM partners like Acer, Alcatel, HP, Trinity and VAIO”, si legge.
Supportare, come è scritto, non significa continuare a produrre.

 

 

Italia dei droni al primo punto di svolta

Dove va l’Italia dei droni? È questa la domanda sottostante la terza edizione di Roma Drone, l’evento che Mediarké dedica a questo argomento insieme ad una serie di seminari più verticali durante tutto l’anno.

 

La domanda è più che lecita, perché questo settore, che nelle cronache giornalistiche è molto vitale, in realtà si trova davanti ad un momento di impasse tutt’altro che trascurabile.

Tre le sfide principali: la specificità della normativa italiana, la lotta all’abusivismo e la ricerca di commesse pubbliche.

Le nostre norme, in continuo divenire, sono comunque soggette ad una forza di uniformazione con le regole europee, per le quali si attende una schiarita definitiva nel prossimo mese di giugno, con semplificazioni per gli ultraleggeri. Nel momento in cui saremo più uniformi, però, gli operatori esteri, spesso più forti dei nostri -non solo i cinesi-, troveranno più semplice proporsi anche sul nostro territorio. Per crescere, gli italiani dovranno aver successo anche sui mercati esteri.
Anche la lotta all’abusivismo mostra una doppia faccia. Se è vero che l’abusivo promette servizi e risultati a prezzi bassissimi e di qualità altrettanto bassa, ma non riconoscibile dal committente, è anche vero che il loro numero sembra maggiore di quello di chi è in norma, dato che Enav ha rilasciato 150 “patenti” per operatori e circa 1.800 “autorizzazioni”, delle quali 1.300 ad aziende con un solo drone in flotta.
La ricerca di commesse pubbliche, infine, è da sempre una richiesta degli italiani, che difficilmente viene esaudita. A nostro avviso il settore pubblico ha già le sue difficoltà nell’aggiornarsi su altri settori -si pensi all’Ict e alla sicurezza-, per cui difficilmente riuscirà ad affrontare anche i robot volanti. Più semplice appare affidarsi al settore impiantistico, che ha necessità di rielaborare il processo complessivo nell’ottica di ridurre le spese di esercizio e che nei droni trova un alleato essenziale.

L’intervista a Tommaso Solfrini di Italdron

tommaso solfrini italdronDi tutti questi temi abbiamo parlato con Tommaso Solfrini, Sales Manager di Italdron.
Avete tanti modelli, anche impegnativi: che numeri potete dare?
Siamo una grande azienda in un mercato ancora piccolo, che nei numeri ancora non fa numeri industriali, ma che si pensa li farà: ecco perché abbiamo investito molto in R&S

I media raccontano molte storie, ma cosa sanno fare davvero questi device?
Bisogna ammettere che oggi i droni non fanno quello che si attribuisce loro: alcune sono prospettive, altre leggende. Noi pensiamo che i droni debbano essere funzionali e sicuri, in mondi per i quali l’obiettivo non è la ripresa video, ma bisogni veri come topografia, termografia, ispezione di grandi impianti. Con i droni si può fare monitoraggio di abusi o di dissesti anche geologici, spostando alla prevenzione quello che oggi accade solo a disastro avvenuto. Integrandoli nell’attività si possono migliorare sensibilmente i processi complessivi di erogazione del servizio”.

Ci può fare un esempio?
Il mercato dei servizi è già molto maturo e ci sono molti operatori che possono erogarli, forse in quantità superiore alla domanda attuale. Bisogna però andare a vedere quali mercati ne hanno effettivo bisogno. Rfi ha circa 5.000 punti di accesso non facile che per essere ispezionati richiedono investimenti e blocchi del traffico dalle conseguenze molto estese”.

Rispondere a queste esigenze richiede una forza lavoro non indifferente: quel è la vostra proposta?
Stiamo sviluppando una rete di professionisti adatti a compiti reali. Abbiamo un ufficio interno organizzato per erogare training su svariati settori, tra i quali pilotaggio, fotogrammetria, topografia, simulazione di lavoro reale. Per noi sono essenziali tutte le fasi della filiera: gestione ed attendibilità dei dati, il postprocessing, la restituzione dei dati al cliente, tutte fasi specifiche rispetto al volo del drone in sé.Inoltre forniamo servizi di analisi scenario normativo o messa in sicurezza d’un cantiere, necessari se si vuole operare nei rispettivi ambiti, e che vanno integrati con le esigenze del volo o dell’analisi”.

Huawei verso una fabbrica italiana

La storia di Huawei è molto interessante, e parte da lontano. Il nome può essere tradotto come “Successo cinese”, dove “cinese” è in realtà l’ideogramma del fiore, reso pittoricamente nel rosso logo dell’azienda. L’attività è stata iniziata nel 1987 da Ren Zengfei, nella distribuzione di apparecchiature di rete telefonica, ma subito l’azienda, per far crescere il proprio business, ha deciso di costruire i propri dispositivi.
L’iniziativa non fu favorita dall’ambiente cinese, che non ha permesso una crescita facile da Huawei; comunque, anno dopo anno, l’azienda attrae nuovi esperti di telecomunicazioni”. E’ questo il racconto di Leon He, Presidente dell’Enterprise Business Group in Europa Occidentale fin dal 2012. Prima di questa qualifica ha svolto numerose funzioni dal 1998, anno del suo ingresso in azienda. L’abbiamo incontrato durante la prima Convention europea, la HCCEU2016 che si è appena svolta a Praga.
Reclutare personale competitivo è sempre una questione complessa, soprattutto per una forza in fase ancora embrionale rispetto a leader consolidati. “Huawei aveva bisogno di più esperti di telecomunicazioni di quanti non fosse in grado di attrarre, quindi la sua forza lavoro crebbe anche con esperti It”, continua Leon. Questa scelta di fatto amplia l’attività dalle telecom pure verso quello che oggi è il cloud computing, uno dei perni dell’oggi.

In qualche modo, l’avvio del business in Italia somiglia agli inizi in madrepatria. Per mappare le sue possibilità, Huawei iniziò a parlare con le aziende locali. Dopo qualche tempo arrivarono i primi contratti, e l’attività cresce di anno in anno. Oggi, i suoi clienti includono Fastweb, Telecom Italia, Wind e molte altre aziende.

Presentati in occasione dell’ultimo Cebit di Hannover, i server KunLun sono macchine di fascia alta con cuore Intel Xeon, disponibili nelle versioni a 8, 16 o 32 socket.

Huawei vuole primeggiare in tutti i campi del suo interesse. KunLun, la famiglia di server mission-critical basata su chip Intel, ne è un esempio. Prende il suo nome alle montagne più alte in Cina: si tratta di una metafora che mostra l’obiettivo della società, il desiderio di raggiungere i punti più alti.

Verso una fabbrica in Italia

Oggi, la fabbrica digitale è forse la più grande sfida mondiale. Il piano tedesco Industrie 4.0 sta ottenendo grandi risultati. In Cina, l’obiettivo nazionale è raffigurato nel framework China Manufacturing 2025. “Abbiamo già alcune esperienze e contratti in questo settore”, spiega il Presidente, confermando che oggi questa parte rappresenta una piccolissima parte del fatturato globale di un colosso, “ma Huawei sente questa direzione come la più importante nel prossimo futuro”.
Come risultato combinato di competenze e sviluppo, “Huawei amerebbe fare un’esperienza con una società di vetture italiana, non solo nel settore automobilistico ma anche treni, veicoli commerciali e di altro tipo”, per mostrare le capacità nel campo del controllo industriale e robotico in senso moderno e futuribile.

Industry_4.0

Curiosamente questa intervista ha avuto luogo a Praga, città natale del termine “robot”: fu inventato dallo scrittore Pavel Čapek, e poi reso immortale dal fratello Karel, nel romanzo R.U.R, Rossum’s Universal Robots (Rossumovi Univerzální Roboti). La tomba di Karel Čapek si trova a Praga, presso il cimitero di Vyšehrad. Questo potrebbe essere un buon auspicio.

Ibm, la quantum experience è nel cloud

Il quantum computing è oggi una realtà disponibile gratuitamente online.
Ibm ha reso infatti disponibile un sistema articolato su cinque qubit (qu-bit, quantum bit), nella Ibm Quantum Experience.
Il pensiero di Richard Feynman, il fisico che meglio comprese i limiti della visione classica di Newton, teorizzando la fisica quantistica, auspicò nel 1981 l’avvento di elaboratori non basati sugli innaturali 0 e 1 ma su forme più realistiche di elaborazione, che oltre a risposte certe prevedono anche un’ampia fascia d’incertezza.

Si parla di quantum computing o di informatica quantistica quando per eseguire le classiche operazioni sui dati si sfruttano i fenomeni tipici della meccanica quantistica, come sovrapposizione degli effetti, vale a dire il primo principio della meccanica quantistica, ed entanglement o correlazione.

Cinque qubit non erogano una potenza particolarmente elevata, ma le cose cambiano rapidamente, visto che il più potente supercomputer oggi disponibile, per compiti nei quali il quantum computing è adatto, verrebbe eclissato da una configurazione tra i 50 e i 100 qubit.
Livello di integrazione e generalizzazione dei compiti sono gli obiettivi di crescita di questi sistemi, che sono ormai una realtà. Si lavora per sviluppare un quantum computer universale, potente indipendente dai compiti.
Oggi parliamo di piastrine grandi quanto chip classici, ma al momento inserite in più agevoli schede, che vanno raffreddate a 15 mK, una temperatura più fredda dello spazio esterno. La realizzazione di Ibm è su giunture Josephson superconduttrici, disposte in una matrice 2×2 (Google li dispone in linea).

Il “chip” di Ibm del quale si è parlato finora consisteva di 4 qubit, mentre il sistema in cloud ne alloggia uno in più, per un comportamento ovviamente meno determinato.
Tenere in esercizio questa struttura richiede oggi una costosa tecnologia e spazi molto ampi, per cui non si parla di oggetti da mettere in tasca. Inoltre l’equilibrio dei qubit è instabile, quindi genera errori la cui scoperta è complessa: anche in questo settore si avanza alacremente.
Particolari algoritmi saranno disponibili direttamente in cloud, affiancando quelli standard per soluzioni particolari, al momento identificabili nel dominio chimico-biologico, ma anche nella ricerca su database.

Alla ricerca del talento futuro?

Il dispositivo attualmente accessibile come strumento della piattaforma BlueMix è essenzialmente dimostrativo. Permette di risolvere alcuni compiti particolari, ma molto semplice, usando il formalismo necessario, molto diverso dalla gestione degli algoritmi classici.
Questa operazione ha molti diversi aspetti. Innanzitutto da un impulso promozionale a BlueMix e al cloud Ibm: la notizia c’è, e arriva prima di analoghe mosse di competitor (Google è già lì). Poi inizia a rendere visibili tecniche e tool necessari per la programmazione quantistica, facendo crescere una comunità di nuovi programmatori. Infine cerca di identificare subito eventuali talenti che si affaccino, o già conoscano, un modo diverso di fare programmazione.

Cloud 3.0: per Huawei è tempo di ecosistema

L’era della nuvola non è ancora arrivata appieno, anzi: quello che abbiamo visto finora erano solo avvisaglie di ciò che sta per verificarsi. È la visione della Cloud Transformation secondo Andrzej Harbicki, Senior Solution Consultant in Huawei.
Il modo nel quale stiamo trasformando i telco provider sarà un nuovo riferimento nell’industria”, ha annunciato Harbicki nel corso dell’edizione 2016 della Convention europea in corso in questi giorni a Praga, “e ci sono tre sfide principali quali business innovation, operazioni e architettura”.
L’innovazione va strutturata per la crescita: come si va sul mercato, oggi? Partendo dall’esperienza dei clienti, perché le regole sono le stesse dell’e-commerce. Le operazioni devono essere agili, con tutti i sottintesi che questo termine porta con sé nella moderna Ict.
Ma il cambiamento principale è nella network-centric architecture, di fatto l’adozione del cloud 3.0, che offre il cloud in forma nativa e il Paas, Platform as a Service.

Cosa è il Telco Cloud?

Certo il Telco Cloud è diverso dagli altri, ed ha le sue specificità. La Telco cloud mette grande enfasi sulle prestazioni, ed è abilitata da FusionCloud NFVI, come può testimoniare Orange Spain. Agli operatori si chiede però d’implementarla tenendo conto della sua coesistenza con altri due tipi, la privata e la pubblica.
Il private cloud viene semplificato dall’infrastruttura unificata, particolarmente con l’adozione del Cloud Os Fusionsphere, del quale a Praga è stata annunciata la versione 6. Un esempio dei risultati è nella cloudificazione di China Mobile, che ha portato a -11% Capex, -60% Opex e -80% nel time to market, giunto a soli 15 giorni.
L’Enterprise public cloud di Deutsche Telekom, infine, si affida in particolare alle Api aperte, che valorizzano l’hardware e i continui miglioramenti al software.

Novità per il datacenter

L’innovazione si avvicina a passi veloci, che Huawei sta condividendo con i suoi partner, tra i quali Sap ed Intel. Tra gli altri annunci di Praga troviamo i server mission critical KunLun, i rinnovati OceanStor per il mission-critical software e il nas scalabile OceanStor 9000.
Tornando all’evoluzione delle telco non sarà oggi per tutti, ma il cloud 3.0 promette di diventare lo standard del settore. E oltre all’utente finale, l’attenzione, più naturalmente, si è spostata sullo sviluppo del software.

 

Europa, la nuova casa di Huawei

Praga, 28 aprile
Huawei vuole fare dell’Europa la sua seconda patria, grazie al suo approccio alla tecnologia. Make business agile è il messaggio principale, comunicato direttamente da Lu Yong, President of Huawei Cee & Nordic European Region.
La strategia globale per il 2016 è intitolata Leading New Ict, Building A Better Connected World, annunciata durante la convention Huawei di Shanghai, che non a caso è tra i più importanti eventi Ict del mondo. In Europa la Repubblica Ceca è al centro geografico, come Huawei vorrebbe esserlo nel business. “La nostra è una storia di grandissimo successo in soli trent’anni e vogliamo che l’Europa sia il nostro secondo mercato interno”, ha detto Lu Yong. In gran parte il successo è “dovuto anche al continuo investimento del 10% in R&D”, fluito anche attraverso la qualità dei centri di ricerca sparsi in tutto il mondo e in Europa.

Krzysztof Celmer ha quindi ribadito le caratteristiche dell’offerta: open, hybrid, integrated. In particolare, il contributo al mondo è ottimo: Huawei è seconda per Hadoop e Docker, quarta per Spark e sesta per OpenStack. Con alcune sorprese: “nello storage siamo i primi per aumento di fatturato”, e i big data impongono nuovi approcci all’Ict.

I messaggi di Huawei vanno diritti al centro del problema: innovation makes computing simple, annuncia la presentazione di Francics Lam, senior server architect, nel parlare di come l’ottimizzazione dei carichi di lavoro abbia migliorato e semplificato l’esecuzione dei compiti un tempo definiti mission critical”.
La trasformazione in Huawei parla anche di futuro. Anche la prototipazione approderà sul cloud, grazie al lavoro dell’Esi Group, molto ben collegato più al progetto cinese Manufacturing 2025 che al tedesco Industrie 4.0.
Ma molto c’è ancora da vedere dal punto di vista dell’infrastruttura.

Appunti di Api economy – L’importanza della Api value chain

0

Molto spesso si sente parlare di Api come di una questione limitata alla scelta dell’ecosistema e del fornitore. In realtà questa è solo una parte del quadro complessivo: per impostare l’attività aziendale intorno alle Api e al loro modello d’uso è necessario valutare l’intera catena di produzione del valore, la cosiddetta Api value chain.
Nel precedente articolo “Le Api? Sono come la Formula Uno” abbiamo introdotto Apis for Dummies, l’ebook gratuito realizzato da Ibm sulla Api economy. In particolare, le Api sono state inquadrate come un vero e proprio prodotto.
Torniamo ora sul succoso testo per raccontare la seconda parte, nella quale si analizzano cinque possibili tattiche relative al mondo delle Api: monetizzare i dati, libertà di innovare, mobile in pochi minuti, mondo ibrido e IoT/fabbrica 4.0 (l’autore parla di machinery, un settore più ampio e sfumato della fabbrica).
Per essere una descrizione in forma discorsiva l’analisi è profonda, riassunta nella versione ridotta dell’ebook offerto da Ibm. Si articola sempre su sei punti: obiettivo, pubblico, Api, termini e condizioni, implementazione, uso di Api altrui.
In questo articolo vediamo in dettaglio, e implicitamente confrontiamo, le analisi relative ai due mondi tra loro più distanti: l’articolatissimo mondo ibrido e il più diretto ambiente dell’IoT.

Mondo ibrido

L’obiettivo è il potenziamento di sviluppatori ed operazioni, implementando sulle Api tutti i controlli necessari per gestire una rete aperta. Le principali preoccupazioni dell’ibrido sono infatti sicurezza e controllabilità.
Il pubblico è l’intero ecosistema, quindi sviluppatori interni ed esterni all’azienda in qualsiasi mix possibile. E’ quindi centrale la progettazione delle strutture decisionali.
Nel mondo ibrido non c’è una sola regola di fornitura delle Api: internamente serve velocità d’implementazione, esternamente chiedono Api aziendali ben definite. Anche termini e condizioni sono più complesse da articolare, a seconda di quanto le Api gestite o non gestite vadano verso l’It, e quanto verso il business. Per le Api gestite si applica il modello di consumo uniforme, anche se facendo attenzione a ciascun livello di adozione interno alla community. Le Api non gestite non consentono di gestire in modo assoluto traffico e sicurezza, che richiedono il controllo della comunità.
Anche l’implementazione risente del doppio registro ibrido, quindi troviamo robustezza e runtime per soluzioni pianificate contro costi e tempi di sviluppo delle Api su richiesta.
Il numero di Api di terze parti varia molto nel tempo, e questa variabilità è di difficile gestione nel mondo ibrido, per cui in genere il consumo è ridotto o nullo.

ApiValueChain ibm

Mondo delle macchine

L’obiettivo è un ambiente interamente programmabile. Si cerchi quindi una infrastruttura fisica programmabile,
realizzando Api pure di tipo non gestito (unmanaged); eventualmente si può sviluppare un secondo livello, stavolta gestito.
In questo caso il pubblico è in gran parte interno: un produttore di dispositivi vuole software che segua il proprio modello di business.
Le regole di fornitura dipendono in massima parte da ciò che serve ai dispositivi fisici in questione, quindi le scelte sono limitate.
Termini e condizioni sono semplicissime: per le Api di primo livello sono virtualmente assenti, mentre quelle di secondo livello (managed Apis) gestiscono anche le questioni di sicurezza.
L’implementazione delle Api di primo livello riguarda solo i produttori e quindi non gli sviluppatori esterni.
Le Api di terze parti svolgono un ruolo essenziale nell’IoT, in quando non avere l’ultima versione della documentazione equivale all’impossibilità di comunicare con i dispositivi. E’ quindi molto importante avere gli accordi giusti con i fornitori di dispositivi e macchinari.

Conclusioni

Valutare le Api come un prodotto con componenti di servizio è l’obiettivo di chi voglia implementare una vera e propria Api value chain. Alcuni punti hanno economie diametralmente opposte, com’è per la valutazione dei costi di esecuzione del runtime o con l’importanza delle Api esterne.
Per raggiungere gli obiettivi va fatta un’analisi complessa, senza limitarsi al primo passo, ovvero la scelta della migliore soluzione con sviluppo interno o esterno.

Appunti di Api Economy – Hai successo nell’Api economy? Misuralo!

Secondo “APIs and the Digital Enterprise: From Operational Efficiency to Digital Disruption”, uno studio internazionale commissionato da Ca Technologies a Freeform Dynamics.Le aziende fanno un uso diffuso delle Application Programming Interface,
L’Api capability Index, un indice creato in base ai risultati emersi dalle risposte dei 920 manager che hanno partecipato allo studio, dimostra però che c’è ancora molto da fare per realizzare appieno i benefici che una strategia efficace può offrire.

10 requisiti abilitanti per l’Api economy suddivisi in quattro categorie

Agli intervistati è stato chiesto di indicare se la loro azienda disponesse di 10 requisiti abilitanti, raggruppati in quattro categorie: Lifecycle Support, Core Security, Run-time Environment e Operational Management.
In Italia, il 26% delle aziende intervistate risulta essere a uno stadio ‘avanzato’, davanti a Germania (22%) e Francia (23%), ma dietro al Regno Unito (41%) e alla Svizzera (33%). Il 30% delle organizzazioni italiane è a un livello ‘base’, mentre il 44% appare essere a uno stadio ‘limitato’.
Dall’analisi dei risultati della ricerca pan-europea traspare una forte correlazione fra il livello di competenze e requisiti abilitanti per l’adozione delle Api e i vantaggi derivanti dai relativi investimenti. In media, le organizzazioni paneuropee che si trovano a un livello avanzato dichiarano di avere una probabilità due o tre volte superiore di ottenere vantaggi significativi rispetto alle loro omologhe classificate a uno stadio ‘limitato’.
Ad esempio, il 63% delle organizzazioni europee a un livello ‘avanzato’ dichiara di poter garantire una customer experience migliore, rispetto al 23% degli utenti a un livello ‘limitato’. Allo stesso modo, il 62% degli utenti a livello ‘avanzato’ ha ridotto i tempi di rilascio delle app con potenziale di incremento di fatturato, contro il 25% degli utenti a un livello ‘limitato’.
Per quanto riguarda poi l’ampliamento della copertura digitale — fattore cruciale per il successo nell’economia delle applicazioni — questo obiettivo è stato raggiunto da un numero di aziende a livello ‘avanzato’ quasi pari al triplo di quelle a uno stadio ‘limitato’ (il 57% contro il 21%).
Le organizzazioni europee in possesso di capacità avanzate di uso delle Api sono anche in grado di applicare una sicurezza più elevata.

Ma non sappiamo valutare la monetizzazione

Le organizzazioni italiane registrano un’adozione diffusa delle Api su Internet. L’85% del campione abilita sviluppatori esterni, l’82% crea applicazioni web, l’81% integra il back-office e il 73% incorpora servizi di terze parti. Fra le principali leve, attuali e future, troviamo l’ampliamento della copertura digitale (91%), l’innovatività degli sviluppatori terzi (87%), la semplificazione delle catene della domanda e dell’offerta (86%) e l’erogazione di nuove/migliori customer experience (85%).
Nonostante i significativi presupposti, pochi fra i soggetti intervistati ritengono di aver affrontato adeguatamente alcune criticità. Solo il 17% delle organizzazioni italiane, ad esempio, ha trovato partner tecnologici in grado di fornire professionalità e servizi di consulenza adeguati, mentre il 24% afferma di avere acquisito una massa critica di sviluppatori nell’ambito dei progetti dedicati alle Api. Ma ciò che più colpisce è che soltanto il 28% è stato in grado di quantificare il valore delle Api in termini di business, chiaro segno dell’incompletezza nell’adozione del modello.
I valori italiani sono abbastanza in media tra le aziende che adottano l’Api economy. Quelle che ce la fanno, sono per tre quarti felici dei risultati su tutti gli indici della ricerca, ma sono poche. Quasi tutte (90%) vedono le necessità dell’Api economy come essenziali, ma appena un terzo di loro (dal 28% al 34%) ha realizzato le aspettative di skills, infrastruttura, compliance e community.

Altri articoli in questa serie:
Appunti di Api economy
Gestire l’economia delle App
Le Api? Sono come la Formula Uno

Sanità sicura: malattie reali, soluzioni digitali

La dematerializzazione crea valore in tutti i settori, a maggior ragione nell’area sanitaria, le cui specificità però creano non pochi problemi, da risolvere definitivamente entro 24 mesi. E’ questa l’estrema sintesi dell’incontro Regolamento europeo protezione dei dati personali e sicurezza dei dati, promosso a Roma dal Cdti e da Aica con particolare enfasi sulla situazione in sanità.
Nonostante l’estrema attenzione ai problemi di safety del paziente, infatti, il mondo sanitario è culturalmente inadatto alla security, ovvero alle violazioni sia all’interno degli edifici, sia di tipo informatico.
In parte quest’habitus dovrà modificarsi per effetto dell’entrata in vigore del citato Regolamento europeo, che si ritiene verrà reso pubblico entro giugno e che regolamenta molte situazioni. Il testo che circola va quindi inteso ancora come provvisorio, ma intanto gli esperti ne parlano, visto che sarà obbligatorio entro 24 mesi.

guglielmo troiano clusit
Guglielmo Troiano – Clusit

Della parte strettamente legale ha parlato Guglielmo Troiano, legale del Clusit. Molte le novità che vanno ad abrogare la direttiva 95/46/CE. Alle due figure di Titolare del trattamento dati (data processor, nel frasario del Regolamento) e Responsabile (data controller) si aggiunge il Dpo, Data Protection Officer, un consulente esterno all’azienda, il cui rapporto è regolato da un contratto civilistico, che ha budget e funzione d’indirizzo e controllo, oltre alla responsabilità di segnalare i data breach all’autorità competente.
Per meglio spingere all’adozione e al rispetto delle nuove norme, sono state introdotte delle sanzioni pecuniarie.
I regolamenti europei entrano in vigore subito, senza una legge dello Stato, ma in questo caso, vista la complessità della situazione, ci sarà tempo fino alla fine del 2017. In realtà siamo davanti più ad una legge quadro, da definire nel tempo in sede nazionale, che ad un regolamento direttamente operativo. Via via, ciascun Garante emanerà provvedimenti che armonizzino la situazione attuale, portandola ad un opportuno livello europeo.

L’Ict aziendale della sanità

Gestione documentale e conservazione a norma sono cose nuove per l’ambiente ospedaliero e sanitario, abituato a conservare il cartaceo presso storage di difficile accessibilità per i tempi previsti dalla legge, a differenza di quanto avviene in altre aree. Analogamente espressioni come business continuity e disaster recovery, finora incomprensibili ai dottori, dovranno essere assimilate ed implementate, ha spiegato Sergio Ferri di Federprivacy. La completa razionalizzazione dell’Fse, fascicolo sanitario europeo, è prevista per la fine del 2017.
Fino al termine del periodo transitorio non ci saranno sanzioni, ma i normatori si attendono un ammodernamento progressivo. Il periodo di adeguamento, quindi, finisce e non comincia 24 mesi dopo l’emissione. C’è da sperare che gli italiani sappiano cambiare pelle e non fare come succede sempre, ad esempio come fu per le misure minime e le misure idonee: anziché cercare subito le idonee si discussero addirittura le minime. A proposito, il “Regolamento” in via di ufficializzazione le annulla, richiedendo direttamente le idonee tra le quali la pseudonomizzazione e la cifratura dei dati personali.

Attacco al pace maker

Corrado Giustozzi
Corrado Giustozzi – Enisa

L’atteggiamento verso la security del sanitario deve cambiare. “Il ransomware ospedaliero, virtualmente sconosciuto due anni fa, ha avuto un’impennata negli ultimi sei mesi”, ammonisce Corrado Giustozzi, membro del Psg Group all’interno di Enisa, l’Agenzia europea per la sicurezza delle Reti. “Svariati ospedali statunitensi e mondiali hanno pagato per rientrare in possesso dei dati sui loro pazienti, e chi non ha fatto in tempo ha dovuto trasferire centinaia di pazienti ad altri ospedali, perché ripartissero da zero”.
La sanità è troppo importante per non apprendere le lezioni imparate sulla nostra pelle dagli attacchi ai sistemi del passato, Etacs ma principalmente Scada, il controllo industriale facilissimo da attaccare nonostante la sua importanza strategica.
Ma tra i possibili attacchi ci sono anche quelli terroristici, perché l’internet delle cose applicate al corpo umano è drammaticamente a rischio. “Pompe insuliniche e pace maker sono facilmente attaccabili per via informatica”, prosegue Corrado, “e in luoghi affollati sarebbe semplice fare una strage anche senza farsi esplodere”.

Insomma, in attesa di dare il via alle danze, con la pubblicazione del testo definitivo in Gazzetta Ufficiale, c’è da rimboccarsi le maniche.

Appunti di Api Economy – Le Api? Sono come la Formula Uno

Proseguiamo con questo articolo la pubblicazione di una serie di contributi dedicati alla App economy, ai suoi presupposti, ai suoi sviluppi e alle sue potenzialità. Buona lettura

In Formula 1, ogni singola macchina è un prototipo. Nessuna squadra usa la stessa auto per due gare: vengono sempre apportate modifiche, anche di grande portata. Una macchina da corsa è articolata su componenti rapidamente sostituibili grazie a interfacce ben definite, e viene fornita già completa di un elevato numero di controlli e sensori, dai quali si parte per avere analytics.
E’ questo il paragone alla base di Apis for Dummies, un ebook gratuito realizzato da Ibm sulla Api economy e del quale vi riassumiamo la prima parte. Anche se le componenti della vettura possono rimanere stabili per tutta la stagione, alcune componenti vengono ottimizzati in base alle lezioni apprese nella gara precedente.
Data questa definizione, passiamo ad un immediato confronto con l’approccio precedente, classicamente il Soa (Service-Oriented Architecture). Anche le Api sono un servizio, nei Soa si privilegia stabilità e sicurezza, quindi nel paragone automobilistico sono come berline in produzione di serie. Un’Api moderna rappresenta un pacchetto di capacità che attrae un pubblico indipendentemente da quali software siano in esecuzione nel back-end.
L’utilizzo delle Api come abilitatori di rete aziendale non è nuovo. Le banche hanno da decenni infrastrutture a pagamento e camere di compensazione, impostate come reti private chiuse. Le Api moderne, invece, sono costruite esplicitamente per un ecosistema aperto (interno o esterno), non per le reti private chiuse.

Dati per la comunità

A differenza del passato, un’Api non è vista come un software, bensì come un approccio per pubblicare dati verso una particolare comunità. Ovviamente il risultato viene ottenuto tramite il software, ma il punto d’accesso non è quello.
La stessa gestione delle Api dev’essere poco collegata alla programmazione, anzi dovrebbe essere svolta interamente attraverso modifiche di configurazione. Se un’Api diventa code-intensive, piuttosto che una questione di configurazione dinamica, il suo tasso di innovazione rallenta inevitabilmente.
Idealmente, un ecosistema basato su Api dovrebbe essere incentrato su una comunità di utenti. Le buone soluzioni per la gestione vanno ad aggiungere valore ai fornitori, rendendo più facile la creazione di interfacce e migliorando il controllo del comportamento runtime. Le Api di Twitter, per esempio, hanno spesso un traffico dieci volte maggiore del sito internet del social network: questo business model si concentra deliberatamente sull’intermediazione.

Api come un prodotto

Ma come si realizza un’Api? Un ottimo modo di farlo è di pensarle come fossero un prodotto. Ciascuna Api rappresenta qualcosa che si è scelto di condividere con un pubblico particolare e a condizioni definite, in quanto è il modo più semplice ed efficace di innovare e collaborare in un ambiente ibrido.
Anche se si parla sempre di Api pubbliche, per gran parte queste interfacce sono private, nascoste all’interno dell’azienda. Non avere una Api pubblica oggi è come non avere un sito web alla fine del 1990: l’azienda non si muove nella direzione più giusta e alla velocità opportuna.
Si parla molto di monetizzare le Api rese pubbliche, ma ovviamente può non essere l’unico punto del modello di business. Molte aziende infatti le usano per veicolate la collaborazione e l’innovazione attraverso le loro It interne e gli ecosistemi di business.

Quattro categorie di Api

Si possono inquadrare le interfacce in quattro grandi categorie: rilevamento, arricchimento, percezione e azione.

  • Il rilevamento permette di identificare le opportunità per coinvolgere clienti, dipendenti, partner e anche dispositivi. I meccanismi relativi sono il rilevamento della posizione (del cellulare), i sensori di monitoraggio, l’analisi predittiva e la stessa osservazione umana.
  • Le Api di arricchimento migliorano la comprensione della situazione analizzando i dati storici dal customer relationship management, le azioni sul conto, l’analisi demografica, le cartelle cliniche ed altri elementi analoghi.
  • Nella categoria di percezione sono comprese informazioni che forniscono contesto dinamico per la situazione attuale e inquadrare le categorie di persone con le quali si desidera impegnarsi. Esempi classici sono le Api sociali (persone che condividono interessi attuali o progetti per il futuro) e le Api di sensori (lo stato generale del sistema, come ad esempio il consumo globale delle risorse o la congestione del traffico).
  • Le Api di azione consentono di intervenire in tempo quasi reale. Esempi di azione-tipo sono le notifiche push, la strumentazione e i sistemi di gestione dei compiti umani.
Soap, Rest ed Mqtt

Il design di un’interfaccia Api è generalmente inquadrato con grande attenzione, come mostrano gli approcci Soap, Rest ed Mqtt.
I servizi Soap sono basati sul metodo. Gli aspetti più importante sono l’insieme dei metodi supportati e le strutture dati di ciascun metodo.
Le interfacce Rest sono basate su risorse. Il più importante aspetto del design di interfaccia è la struttura Uri, che permette al consumatore la navigazione il grafico oggetto incarnata dall’Api.
Nel caso delle interfacce Mqtt per M2M ed IoT, invece, al centro di tutto ci sono l’insieme degli eventi e i messaggi ad essi associati.

Di seguito i link agli altri articoli della serie “Appunti di Api Economy” già pubblicati

Appunti di Api economy

Benché esista ormai da molto tempo, il software è l’elemento disruptive della società d’oggi, che solo adesso sta manifestando tutta la sua potenzialità. Software is eating the world, scrisse Marc Andreessen qualche anno fa. […]

Gestire l’economia delle App

Le Application Programming Interface, cioè le interfacce per la programmazione di applicazioni, sono nate quasi insieme all’informatica, anche se in origine non si chiamavano in questo modo. […]

Build 2016: DevOps è bello, IoT è facile

I keynotes della seconda giornata di Build 2016, l’evento Microsoft per i programmatori sono stati dedicati ai DevOps e all’IoT, con grandi notizie in entrambi i filoni. “Il cloud è il nostro business”, ha esordito Scott Guthrie, Executive Vp Cloud + Enterprise, introducendo i successivi relatori.

Internet of Azure T-Shirts
Microsoft-Azure-IoT-Starter-Kit
Azure IoT Starter Kit

Partiamo dall’internet delle cose. Sulla sua pelle, Cameron Skinner indossava una maglietta azzurra, una Azure T-Shirt, mentre annunciava l’Azure IoT starter kit, che comprende schede hardware che si possono collegare al cloud Microsoft attraverso msoluzioni preconfigurate che si customizzano compilando form on-line. Due le categorie attuali, predictive mainteinance o remote monitoring. I servizi disponibili possono essere orchestrati tutti insieme (mappa, rilevamento sensori in tempo reale, analytics…) scrivendo una sola linea di codice. Gli IoT services sono basati su eventi, ma ciascuno di questi eventi può lanciare una Azure function, ovvero del codice software.
Skinner aveva preparato alcune righe di codice che al raffreddamento di un cloud sensor posto davanti a lui avrebbe inviato un messaggio alla sua… second skin, alla sua maglietta. Raffreddando il sensore, in uno o due secondi sulla maglietta è apparsa la scritta “Azure IoT”, ottenuta tramite led controllati da una delle schede standard (Adafruit, Intel) disponibili nell’Azure IoT Starter Kit annunciato oggi.
Nella sua presentazione, Guthrie aveva raccontato che al momento ogni settimana su Azure transitano oltre 2 trilioni di messaggi IoT; dopo questi annunci, quel numero s’impennerà senz’altro.

Xamarin gratis, il core va open source
donovan brown
Donovan Brown

Microsoft sta cambiando le regole di fare DevOps”, ha annunciato Donovan Brown, senza sembrare particolarmente entusiasmato. Probabilmente già sapeva che le sue parole sarebbero sembrate la solita esagerazione da keynote, ma anche che erano realistiche.
Si parte subito forte: Xamarin, acquistata da Microsoft meno di due settimane fa, è oggi gratis in tutte le versioni di Visual Studio, enterprise, professional e free, quest’ultima anche per il Mac. Viste le attuali e future funzioni di quello che è stato definito il miglior backend per il cloud che sia mai stato scritto, vuol dire davvero cambiare le regole.
Miguel de IcazaAnche la parte tecnica è di grandissimo impatto sulla comunità degli sviluppatori. “Adesso è disponibile l’emulatore anche per iOs”, ha detto Miguel de Icaza, co-founder di Xamarin, “il che porta al risparmio secco di una sedia che ruota tra schermi”. Le funzionalità sono entusiasmanti: è possibile visualizzare le modifiche al codice in tempo reale sugli emulatori iOs, Android e Windows, direttamente e senza dover studiare centinaia di nuove Api.
Ma gli emulatori sono generici e non specifici per ciascun apparecchio. In Xamarin, Microsoft ha  mostrato di più. La Xamarin Test Cloud è un servizio nel quale migliaia di device fisici sono emulati per verificare se il codice scritto funziona correttamente. Caricando il codice e scegliendo i device sui quali lavorare, il servizio indica dove tutto è andato bene (con analytics) e dove invece ci sono dei problemi; inoltre si può visualizzare l’andamento passo per passo grazie ad un’animazione che riproduce le azioni dell’utente.
Dal punto di vista del modello di business le novità non sono finite, anzi. La core platform di Xamarin va open source e sarà alimentata dalla community. E’ una notizia che si commenta da sola.
Si può quindi concordare con Donovan nel dire che “.Net è open source e cross platform. E alla community della piattaforma di programmazione hanno aderito anche Unity JetBrain e Red Hat.

Microservizi, macroscalabilità

Molte altre sono state le emozioni della giornata, dall’enorme scalabilità della Service Fabric (e dei suoi microservizi) alle funzionalità di Microsoft Graph e Office functions, passando per l’approccio ai Big Data su Azure. Ma ci sarà modo di riparlarne.

Build 2016, l’ecosistema Windows aggiunge dimensioni

La tecnologia sta guidando la crescita economica per tutti, o siamo o in fase di stallo? E ci abilita a più alti livelli? Sta preservando i valori duraturi, o li sta compromettendo? Sono queste le domande filosofiche sul futuro della tecnologia presentate da Satya Nadella, Ceo di Microsoft, in apertura dell’edizione 2016 di Build, l’evento per gli sviluppatori Microsoft.
L’avvio è stato dedicato a questioni di ampio respiro sull’ecosistema anche oltre Windows. “Vogliamo creare più personal computing”, ha continuato il Ceo; “abbiamo grandi aspettative per IoT e piattaforme olografiche anche per i giochi, ma Windows 10 è un nuovo inizio, una nuova piattaforma emergente all’intersezione delle nostre ambizioni”.
Certo si va verso le conversazioni nazionali e l’olografia, basti pensare al regalo di Galaxy Explorer fatto da Microsoft alla comunità di sviluppatori che l’hanno votata come applicazione per Hololens, disponibile gratuitamente ed integrabile nelle proprie apps. Parlando di tecnologia avanzata, molte anche le nuove funzioni di Cortana.
Tornando sull’ecosistema Microsoft, il cloud è una nuova forma di computing nella quale mettere intelligenza, e “costruire su Azure permette di raggiungere i 5 miliardi di attività già presenti nella sua directory, con 1,2 miliardi di utenti business”.

Vecchie apps? Nuove Api e Bash shell
myerson build 2016
Terry Myerson – Microsoft Build 2016

Build 2016 è un evento dedicato agli sviluppatori, e la parte relativa è stata coordinata da Terry Myerson, Executive Vp del gruppo Windows e Devices. Oggi per gli sviluppatori si sono sentite molte altre cose di grande interesse. Oltre mille nuove Api sono disponibili, e le vecchie app per Win32 o .Net possono essere adattate all’ambiente attuale -quindi anche alle nuove Api- in modo automatico, con un numero ridottissimo di modifiche, e quindi messe sullo Store.
Il punto più importante sembra però la disponibilità della Bash shell nativa per Windows, la command line più famosa nel mondo Open. E’ importante anche perché dei rumours annunciano la prossima disponibilità dell’intero Ubuntu Linux come applicazione di Windows, un argomento di grande interesse.
E parlando di altre piattaforme, è disponibile la versione Microsoft di Xamarin, azienda da poco acquistata per sviluppare apps per Android ed iOs. Anche nei giochi l’azienda migliora costantemente i suoi tool per garantire i massimi risultati su tutti gli hardware che eseguono Windows 10.
Non c’è mai stato un momento migliore per sviluppare su Windows”, ha affermato, nel magnificare le doti della Windows Universal Application Platform. “Abbiamo interessato 270 milioni di utenti in 10 mesi, 75 miliardi di ore, centinaia di nuovi dispositivi; Microsoft è sulla buona strada per raggiungere l’ambizioso obiettivo di un miliardo di dispositivi Windows 10 nei prossimi anni“, un traguardo che in altre occasioni è stato ipotizzato per il 2018 e che è stato annunciato dal boss di Windows, non dal Ceo.

Windows Ink, penna su schermo
Bryan Roper build 2016
Bryan Roper a Build 2016

Un altro elemento di grande interesse è la fusione tra carta e Pc.Nei nostri studi abbiamo scoperto che ancora moltissime persone usano la penna su carta”, ha detto Bryan Roper, Microsoft Executive (e secondo alcune fonti, pianista di blues), “il 72% degli utenti per almeno un’ora al giorno, e il 32% lo usa per oltre 3 ore al giorno, perché è immediata”.
Lo stile con il quale Roper ha descritto Microsoft Ink ha catturato l’attenzione dei social media, che hanno sentenziato come sia nata una nuova stella mediatica. Il nuovo Windows 10 permette di usare la superficie sensibile dello schermo come una tavoletta grafica, con in più alcune funzioni di riconoscimento contestuale e l’integrazione con i servizi della piattaforma. Si può integrare il disegno libero con il righello o altri strumenti da artista, i post-it (sticky notes) con la scrittura a mano e reminder automatici su parole chiave (es.: “tomorrow”), il tracciamento di percorsi sulle mappe di Bing con persistenza anche nel caso si usi la funzione tridimensionale della mappa. All’interno del wordprocessor si possono cancellare capitoli tracciando un segno ondulato come faremmo a mano, oppure evidenziare lo sfondo tracciando una linea opportuna sul testo.

 

Poca Internet? Più attenzione alle ragazze

0

Fondazione Ugo BordoniL’esclusione dalla Rete sembra essere, nel nostro Paese, un fenomeno fortemente connesso alla condizione anziana, alla presenza di un basso titolo di studio e al sesso. In particolare, le donne italiane in età di scuola superiore maturano un disinteresse forte nei confronti della rete. Equilibrando questo elemento recupereremmo ben dieci punti di gap, avvicinandoci alla media europea ma tenendocene ancora lontani.

Si tratta dell’analisi di Internet@Italia 2013. La popolazione italiana e l’uso di Internet, svolta della Fondazione Bordoni su dati Istat che analizza la situazione in profondità e propone anche soluzioni.

Nel pubblicare dati di questo genere c’è sempre il rischio che qualcuno li commenti senza obiettività e senza leggere né l’articolo, né il rapporto. Auspichiamo che ciò non accada per questo articolo, ma confidiamo nel contributo di lettrici e lettori per diffondere ed analizzare i dati, magari trovando soluzioni di dettaglio rispetto a quelle proposte. Per fare un parallelo, sono dieci anni che si auspicano politiche per preparare alla rete le persone mature ed anziane, e non si sono segnalate proteste in tal senso.

L’Italia è ancora molto indietro rispetto ai principali Paesi dell’Unione europea e il divario esistente non sembra affatto ridursi col passare del tempo. L’Italia, con una percentuale di utenti del 56%, si colloca al terzultimo posto della graduatoria EU27. Siamo quasi ultimi in tutte le fasce di età, con una distanza è di 16 punti dalla media e maggiore dai grandi Paesi (Uk 87, D 80 e F 78).

Difficilmente potremo raggiungere l’obiettivo fissato dall’Agenda Europea per il 2015, ovvero un uso regolare di Internet da parte del 75% della popolazione della classe di età 16-74 anni.

Ma di indagini che dicono quali sono le nostre frequentazioni di rete ce ne sono molte. La particolarità di Internet@Italia 2013 è di analizzare in dettaglio anche la non utenza: non solo i non utenti ma anche gli utenti deboli e i delusi che l’hanno provata e se ne sono allontanati.

I “non utenti” sono la metà

Giriamo quindi il paradigma e guardiamo gli italiani che non usano internet. Nella fascia 16-74 la percentuale è oggi al 34%. Tra chi ha più di 6 anni, gli utenti deboli risultano circa 10 milioni (17%) mentre sono circa 1,5 milioni gli utenti sporadici (2,7%). Gli ex utenti (coloro che hanno usato Internet più di 3 mesi prima della rilevazione) ammontano a circa 2,5 milioni (4,5%).

Sono, infine, ben 23,3 milioni i non utenti di Internet, pari al 40,7% della popolazione. Se sommiamo gli utenti forti a quelli deboli otteniamo una bipartizione della popolazione italiana: metà va in rete, l’altra metà risulta esclusa.

Attenti alla geografia

Anche nelle ripartizioni geografiche ci sono dati molto interessanti. Le “isole” fanno un 44,7% di non utenti, ma il problema è la Sicilia con il suo 46,6%, non l’ottimo dato della Sardegna (39%). Analogamente il “Trentino Alto-Adige” ottiene un 33,8% dovuto al 29,5% di Bolzano e al 37,9% di Trento. La regione con il maggior numero di non utenti è la Campania (52,1%), seguita dalla Calabria (50,4%) e dalla Sicilia (46,6%).

Scuola al femminile

Nel consumo della rete c’è differenza anche tra uomini e donne: oggi i non utenti per sesso sono il 35% e 46% rispettivamente, mentre nel 2008 erano 49% e 60%. Nei primi tre anni il recupero è stato veloce (circa 9 punti recuperati), mentre poi c’è stato un forte rallentamento e in 4 anni il gap s’è ridotto di appena 5 punti.

Recuperare in un settore specifico è più semplice che operare ad ampio spettro. Il rapporto suggerisce un’attenzione che appare facile da avviare. I dati di dettaglio, infatti, sembrano suggerire che il periodo delle scuole medie inferiori sia fondamentale per l’avvicinamento delle ragazze al web. In particolare, il triennio dagli 11 ai 14 anni è un importante snodo nel percorso di alfabetizzazione a Internet. Sono quindi fortemente auspicabili azioni volte a compensare le eventuali carenze familiari e ambientali da parte delle istituzioni, in primo luogo nella scuola.

In quest’ottica, molte iniziative anche private si stanno susseguendo negli ultimi tempi. Non solo nell’uso delle tecnologie, ma anche della realizzazione di nuovi oggetti e nella programmazione software. Si tratta d’una strada percorribile e dalla quale espandersi nella ricerca d’una nuova formazione.

 

Un ciclo nuovo per l’advertising italiano

0

Logo-IAB-Forum-MIlanoE’ il momento del programmatic advertising, il rinnovato approccio alla pubblicità online che fornisce una pubblicità specifica per ciascun utente, momento, collegamento. E’ questo il messaggio forte uscito dalla parte analitica dello Iab Forum, che ha compreso ben quattro presentazioni di analisti: Enrico Gasperini (Audiweb), Michele Marzan (Iab), Alberto Dal Sasso (Nielsen) e Marta Valsecchi (PoliMi).

Gasperini ha rilevato come il vero digital device italiano sia nell’enorme differenza tra il consumo online oltre i 55 anni, che crolla dal 54% della fascia 35-54 al 22% di chi ha almeno 55 anni, con dati altrettanto sconsolanti se si entra nel dettaglio. In generale, la fruizione complessiva su smartphone ha superato quella su pc, ma questi ed altri dati -come la ridotta fruizione della Rete da parte degli italiani o la prevalenza del tempo sulle apps rispetto a quello sul browser- li conosciamo già.

 

Internet advertising a 2 miliardi di euro

Michele Marzan ha sviluppato la parte descrittiva del mercato, precisando che i numeri sono stati ottenuti “sommando una rilevazione puntuale di ciò che che è direttamente misurabile con una stima di ciò che non si riesce a raggiungere, come si fa in tutto il mondo”. Il valore complessivo dell’internet advertising nel 2014 è di 2 miliardi di euro, con una crescita complessiva del 12,7% rispetto al 2013. La maggiore velocità di crescita l’ha avuta il social advertising, oggi a 170 M€ (+70%), mentre il classified -che segue da vicino l’economia reale- è sceso del 16,3% ed oggi vale 180 M€.

Guardando le aziende con Nielsen, solo il 5,6% di loro comunicano esclusivamente on-line. Il 94% comunica ovunque, su una media di 3,1 piattaforme. “Il mix digitale nei macrosettori di riferimento è particolarmente interessante”, ha detto tra l’altro Dal Sasso.

 

Tanti dati, molto lavoro

La parte più operativa delle presentazioni, quella che meglio ha risposto alla domanda sulla scelta migliore da fare adesso nel promuoversi on line, è stata esposta da Marta Valsecchi.

Il social advertising è salito a 170 M€ e il profiling crescerà ancora”, spiega Marta.  Ma la crescita più veloce è quella del programmatic advertising, da noi nato nel 2012 e con una crescita 2014 del 120%, per un totale di 110 M€, ovvero il 10% del display advertising (solo 5% nel 2013).

Sia nella crescita del profiling, sia alla base del programmatic, troviamo l’enorme raccolta di dati relativi al consumatore. Anche e soprattutto nella pubblicità troviamo quindi i Big Data

Con il 2014 si chiude un ciclo”, ha esplicitato Gasperini; “noi pensiamo che dall’anno prossimo il processo sulla filiera sarà ancora più accelerato e basato sui Big Data”. Sembra intrigante, certo; ma è altrettanto certo che per restare sul mercato ci sarà da lavorare.

 

Roma in un Sms

0

Maggio 2004 Alla fine dello scorso anno, il Ministero per i Beni e
le Attività Culturali ha lanciato un  servizio d’informazione interattiva
su Sms. Inviando un un messaggio in linguaggio naturale al numero 339-991199 si
otterrà risposta in pochi secondi.
Il CulturalSMS, com’è stato battezzato, accetta domande del tipo: “A che ora apre il Colosseo?”, senza quindi che l’utente debba conoscere astruse regole sintattiche. Orari ed argomenti sono quindi disponibili al costo di un normale SMS. Oggi l’unica lingua è l’italiano, ma in breve sarà disponibile anche l’inglese.
Insomma il semplice servizio SMS, usato per accedere a banche dati specializzate, offre sempre nuove possibilità all’utenza mobile.
Inoltre iscrivendosi
online alla newsletter del Ministero si può ricevere un SMS al giorno con tutte
le novità stortico-artistiche del nostro Paese. Inizialmente il servizio è in
esclusiva per i clienti TIM.

Lo spamming è un reato

0

Maggio 2004 Inviare e-mail pubblicitarie senza il consenso del
destinatario è vietato dalla legge se a scopo di lucro. Se questa attività,
specie se sistematica, è effettuata a fini di profitto si viola anche una norma
penale e il fatto può essere denunciato all’autorità giudiziaria. Sono previste
varie sanzioni e, nei casi più gravi, la reclusione. La nuova regolamentazione,
tra l’altro, recepisce la recente direttiva europea nel Codice in materia di
protezione dei dati personali, pubblicato con decreto legislativo n. 196/2003.
Tra le altre regole è necessario il consenso informato del destinatario; il
consenso è necessario anche quando gli indirizzi e-mail sono formati ed
utilizzati automaticamente mediante un software, non valendo il rifiuto a
posteriori ma essendo necessaria l’accettazione preventiva.
Le sanzioni per chi viola le disposizioni di legge vanno dalla multa, in particolare per omessa informativa all’utente (fino a 90mila euro); alla sanzione penale qualora l’uso illecito dei dati sia stato effettuato al fine di trarne per sé o per altri un profitto o per arrecare ad altri un danno (reclusione da 6 mesi a 3 anni). E’ prevista anche la sanzione accessoria della pubblicazione della pronuncia penale di condanna o dell’ordinanza amministrativa di ingiunzione.
Tale normativa non sembra
estesa alll’invio di messaggi promozionali tramite Sms, che spesso si configura
come vero e proprio spamming.

css.php