Home Autori Articoli di Francesco Pignatelli

Francesco Pignatelli

1055 ARTICOLI 3 COMMENTI

Cinque distribuzioni Linux per i server in azienda

Per chi viene dal mondo Windows uno degli elementi di spicco e potenzialmente di confusione di Linux è che non esiste “la” distribuzione Linux ufficiale, intesa come combinazione sia del sistema operativo in sé sia dell’ambiente di interfaccia.

Lo stesso problema si presenta per chi cerca una distribuzione Linux per l’installazione su un server aziendale. Ecco alcune possibilità, considerate solo tra le “distro” che sono adatte, se non proprio predisposte in modo specifico, per i server.

Ubuntu 16.04 LTS

Ubuntu è una delle distribuzioni Linux più diffuse in ambito client, ma ha anche una versione LTS (sta per Long Term Support) indicata per l’installazione in azienda come sistema operativo server.

Non si tratta della versione effettivamente Server ma è particolarmente indicata perché – come lascia capire la denominazione – si tratta di una release garantita come stabile e supportata a lungo termine (per cinque anni). Questo dovrebbe essere una garanzia adeguata per chi voglia usare la piattaforma per erogare servizi anche business-critical.

Ubuntu tra l’altro è un sistema operativo gestibile senza problemi anche in cloud, dato che ci sono immagini certificate per tutti i principali cloud provider tra cui AWS, Google e Microsoft. Il supporto a OpenStack permette comunque di realizzare, se si hanno le giuste competenze, un ambiente cloud proprio.

Il sistema comprende una serie di tool di management molto completa, tanto che è possibile gestire un gran numero di istanze server da una singola console.

Oracle Linux 7.3

Oracle Linux deriva da Red Hat Enterprise Linux. Il punto di partenza è quindi una distribuzione allo stesso tempo completa e stabile, a cui Oracle aggiunge alcuni potenziamenti interessanti. Il principale è lo Unbreakable Enterprise Kernel, che amplia le funzioni e la robustezza del sistema operativo per aspetti specifici come le prestazioni nella gestione delle transazioni, la sicurezza e la virtualizzazione.

La conseguenza è che Oracle Linux diventa, ovviamente non a caso, il complemento ideale di altre piattaforme Oracle, in primis i database ma anche le applicazioni di business. L’integrazione tra questi componenti e il kernel del sistema operativo è infatti superiore a quella possibile con altre distribuzioni più generaliste.

Va anche tenuto conto del fatto che il sistema operativo comprende una propria piattaforma di virtualizzazione, il che permette di creare ambienti IT anche articolati.

Red Hat Enterprise Linux 7.4

RHEL è un po’ la distribuzione Linux aziendale per antonomasia. Si tratta di un sistema operativo server molto solido, aperto a tutto lo stack di componenti open source che Red Hat ha sviluppato e continua a portare avanti. A questo si aggiungono opzioni di supporto molto complete. L’altro lato della medaglia è che tutto ciò ha un prezzo, crescente man mano che dal sistema operativo di base si passa a configurazioni più complesse.

Il fattore costo può essere un elemento importante oppure no, dipende da cosa si intende fare con la piattaforma e da quali sono in generale i propri requisiti di business. Si tratta nel complesso di una piattaforma enterprise adatta alle aziende che non vogliono rischi ma anzi la possibilità di essere supportate in ogni momento, sia da Red Hat sia da una rete di partner e integratori molto vasta.

Fedora 26 Server

Fedora è un progetto collegato a Red Hat e sussiste quindi una parentela abbastanza stretta fra la distribuzione principale e questa. La differenza fondamentale è che laddove RHEL punta alla massima stabilità, Fedora punta a incorporare prima possibile le innovazioni sviluppate in ambito Linux. Per questo ne viene rilasciata una versione nuova ogni sei mesi.

Non si tratta quindi della “distro” ideale per chi intende usare Linux come base per applicazioni e servizi business critical. In scenari come questi l’aggiornamento del sistema operativo ogni sei mesi potrebbe essere troppo oneroso, anche perché il supporto può venire più che altro dalla comunità online. Certo la novità ha il suo fascino, che però va valutato caso per caso.

SUSE Linux Enterprise Server 12 SP3

Il grande punto di forza di questa distribuzione è l’adattabilità. La distribuzione di base è molto leggera: se la si usa così com’è, è un buon punto di partenza per implementazioni molto semplici o come piattaforma host per applicazioni di virtualizzazione. Ma è anche la base per realizzare vere e proprie “distribuzioni” – meglio sarebbe dire installazioni – personalizzate.

Per chi invece vuole salire in complessità questa distribuzione è molto articolata e su alcune piattaforme può scalre sino a migliaia di CPU logiche. Comprende il supporto a diversi filesystem e oltre 2.500 package mirati. La buona variabilità della piattaforma si riflette anche in una variabilità nei costi. La versione base – il sistema operativo in sé – è gratuita, i costi sono legati ai vari piani di supporto possibili, che variano per durata, livello di assistenza e tipo di implementazione (on-premise, cloud, virtualizzata).

WiFi aziendale più sicuro in pochi passi

Nessuno oggi sarebbe disposto a rinunciare alla comodità del WiFi aziendale. Tanto che ormai la grande maggioranza dei computer nelle imprese è composta da notebook e assai pochi, anche quando non si muovono dalla loro scrivania, sono collegati a una rete cablata.

Dal punto di vista della sicurezza questo però non è l’ideale: l’etere è un mezzo ad accesso libero e chiunque può cercare di origliare quello che si comunica in WiFi.

La sicurezza del WiFi aziendale può essere tutelata in vari modi, il più importante è certamente sfruttare le funzioni specifiche di WPA2 Enterprise.

Contrariamente alla versione Personal degli access point domestici, questa prevede una autenticazione specifica, quindi con una coppia username-password diversa, per ciascun utente. In questo modo si ha un controllo più granulare degli accessi e la compromissione di un account non significa dover cambiare la password per tutti.

Inoltre con Enterprise WPA2 ciascun utente ha una sua chiave di cifratura, quindi anche un dipendente “curioso” non potrebe decrittare il traffico degli altri.

L’unico possibile problema: per tutto questo serve attivare in rete un server Radius che gestisca le autenticazioni, magari in singergia con un sistema Active Directory. Se è troppo complesso, ci sono servizi cloud che svolgono questa funzione.

In teoria anche una configurazione come quella appena descritta è vulnerabile agli attacchi di tipo man-in-the-middle. Un hacker ostile potrebbe creare una rete-trappola con un identificativo (SSID) simile a quello lecito e attivare un finto server Radius per intercettare le credenziali di accesso di chi tentasse di collegarsi a quella rete per errore.

Per evitare questo pericolo si può configurare l’accesso WiFi aziendale perché i client verifichino l’identità del server Radius secondo il protocollo 802.1X. Il modo specifico per farlo varia a seconda del tipo di client e del sistema operativo, ma c’è sempre la possibilità di abilitare questa verifica in più.

A proposito di reti e sistemi pirata, ci sono due punti deboli poco considerati che possono portare ad accessi indesiderati nella rete. Il primo, più semplice, è l’utilizzo di SSID troppo “esplicativi”, ossia che danno informazioni sul tipo di rete o di access point a cui fanno riferimento. Questo non basta ad “aprire” la rete, certo, in generale però dare qualsiasi informazione in più ai potenziali attaccanti è pericoloso.

Gli Access point pirata

C’è poi il pericolo dei “rogue AP“, gli access point pirata. Sono access point collegati alla rete aziendale ma non installati dallo staff IT e quindi non coperti dalle applicazioni e dalle procedure di gestione. Un AP di questo tipo potrebbe essere stato installato in buona fede da un dipendente oppure proprio come mezzo per entrare via wireless nell’infrastruttura d’impresa.

Per evitare il rischio di AP “pirata” bisogna disattivare le porte di rete che non sono connesse a dispositivi autorizzati oppure attivare l’autenticazione 802.1X anche sulla rete cablata.

Alcuni access point di fascia business offrono poi funzioni per la scansione periodica dell’etere alla ricerca di altri AP attivi nelle vicinanze e sconosciuti sino a quel momento. Lo stesso fanno le soluzioni più complesse di Wireless Intrusion Detection System (WIDS) o Wireless Intrusion Protection System (WIPS).

La stampa 3D in DLP evolve grazie a Sprybuild

Il mondo della stampa 3D è sempre alla ricerca di nuove soluzioni che migliorino le tecniche della produzione additiva. In queso senso arriva da Sprybuild una evoluzione della stampa DLP che è stata denominata Continuous Production with Wavefront Converting, o CPWC.

La tecnologia è ancora in fase evolutiva, ma la società ha già provveduto a presentare richiesta di brevetto e sta mostrando i primi prototipi di stampanti e oggetti prodotti con il nuovo approccio.

In estrema sintesi, secondo quanto spiega Sprybuild, la nuova tecnologia è una forma ottimizzata della stampa DLP in cui c’è un controllo più preciso della radiazione luminosa che agisce sulla materia prima, ossia il fotopolimero liquido. In questo modo è possibile avere una stampa più veloce e con una risoluzione maggiore.

Sempre secondo quanto dichiara Sprybuild, la stampa CPWC può arrivare a una velocità di 10 millimetri al minuto lungo l’asse di costruzione. La tecnologia si può applicare a qualsiasi materiale liquido fotosensibile, anche se “arricchito” con additivi e micro- e nano-particelle.

La possibilità di stampare con una risoluzione maggiore della stampa DLP tradizionale e con liquidi che contengono altri composti o particelle apre alla tecnologia CPWC applicazioni soprattutto in campo medicale e per il bioprinting. La nuova forma di stampa 3D può infatti essere usata con gli idrogel e altri liquidi polimerizzabili che contengono cellule viventi. Altri composti utilizzabili comprendono le resine siliconiche, i sol-gel, i poliuretani e le resine biodegradabili.

Reti e applicazioni: perché MPLS non va sottovalutato

MPLS, o Multi Protocol Label Switching, oggi non è esattamente una tecnologia di networking molto popolare.

In fondo è comprensibile: in un mercato dove i collegamenti Internet a larga banda scendono costantemente di prezzo, che senso ha voler mantenere reti molto più costose e con banda minore, anche se (quasi) completamente sotto il proprio controllo?

L’elemento chiave sta appunto nel controllo. Un aspetto da esaminare bene prima di dare MPLS per morto a favore di soluzioni certamente più economiche come le VPN IPSec, che non sono esattamente la stessa cosa ma sono spesso il termine di paragone perché permettono di creare reti “proprie” usando connessioni Internet a (più) basso costo.

MPLS è ancora indicato per le applicazioni in real time in cui le prestazioni delle comunicazioni sono un elemento molto importante, se non critico. Come molti già sanno, in questo senso la banda disponibile sul collegamento è un parametro importante ma che non dice davvero tutto sulle performance che registreranno le applicazioni in rete.

Dal punto di vista dei servizi in tempo reale sono altrettanto importanti elementi come la latenza, il jitter e il tasso di pacchetti IP persi.

Chi fa transitare il proprio traffico sull’Internet pubblica non ha vere garanzie relativamente a queste tre variabili. Anche i migliori cloud provider possono realizzare connessioni dedicate e ottimizzate sulla propria rete, ma quando il traffico ne esce non c’è un modo per controllarne l’andamento.

Laddove latenza, jitter e packet loss devono essere mantenuti ai minimi livelli possibili, servono reti in cui si possa controllare con precisione il percorso che i pacchetti seguiranno. E MPLS è l’esempio più calzante di queste reti.

Certo nulla vieta di adottare comunque Internet per applicazioni che risentono dell’andamento di quei tre parametri chiave. La creazione di VPN garantisce la protezione delle comunicazioni, le prestazioni rilevate dagli utenti potranno variare a seconda delle condizioni dei vari link che i pacchetti seguiranno.

Se questa variabilità sia tollerabile o meno alla fine è una decisione di business: il degrado delle loro performance si traduce comunque in un elemento valutabile direttamente (conversazioni poco chiare, connessioni di remote desktop poco funzionali, video di scarsa qualità…) e questo quasi certamente in un costo che va raffrontato al risparmio in spese per la connettività.

Le nuove celle solari che imitano gli occhi degli insetti

Attualmente il silicio è il materiale principe per la realizzazione di celle solari. Solo che è anche un materiale costoso e se si vuole che l’energia solare aumenti la sua diffusione è necessario trovare anche soluzioni alternative. Una in realtà la si conosce da tempo: è la perovskite, un materiale fotovoltaico che ha un’efficienza simile a quella del silicio ma che ha il difetto di essere estremamente fragile e poco stabile.

Alcuni ricercatori della Stanford University hanno però sviluppato un sistema che permette di realizzare celle solari in perovskite aggirando la sua fragilità. L’ispirazione è venuta osservando gli occhi composti degli insetti, in cui elementi singoli molto fragili realizzano insieme un sistema perfettamente funzionale.

In sé la perovskite ha proprietà meccaniche simili a quelle del comune sale da cucina. Risulta ugualmente fragile e sensibile alle condizioni ambientali, tanto che realizzare in perovskite celle solari tradizionali sarebbe anche molto complesso perché gran parte del materiale non supererebbe nemmeno il processo di produzione. E il resto lo farebbero le condizioni ambientali in cui si trovano tipicamente i pannelli solari.

Per rendere le celle fotovoltaiche di perovskite più resistenti, i ricercatori hanno realizzato una matrice di celle microscopiche di forma esagonale e larghe ciascuna 500 micron. La matrice è realizzata in una comune resina epossidica, resistente agli stress meccanici: circondando le microcelle le rendono molto più solide e durevoli.

La composizione assomiglia quindi a quella delle celle di un alveare, però microsocopiche, oppure agli occhi composti di un insetto. La composizione in microcelle non influisce granché sulla capacità della perovskite di generare elettricità, che resta allineata a quella delle celle fotovoltaiche in silicio.

I test in laboratorio hanno dimostrato che le microcelle ad alveare possono resistere anche in condizioni ambientali particolarmente avverse. La Stanford University proseguirà nello sviluppo dela tecnologia, tra l’altro valutando come ottimizzare il percorso dei raggi luminosi verso il centro di ciascuna microcella, per aumentarne l’efficienza.

Come raccogliere dati con i wearable e venderli al miglior offerente

Molte grandi aziende dell’abbigliamento sarebbero ben liete di poter raccogliere dati precisi su quanto e come i loro prodotti vengono usati, solo che è un’operazione tecnicamente impossibile.

O almeno lo era: la startup americana Loomia ha progettato un sistema che permette con relativa semplicità questa raccolta di dati e anzi si estende alla raccolta anche di altri tipi di informazioni.

Ma tutto parte dall’abbigliamento, anzi dagli smart clothes. Loomia ha infatti sviluppato un tessuto conduttivo che si può combinare con quelli tradizionali per realizzare un capo d’abbigliamento che ha al suo interno un vero e proprio circuito elettrico (il LEL, Loomia Electronic Layer).

Questo permette alcune funzioni smart come riscaldare l’abito, illuminarlo, rilevare la posizione geografica, il tocco e alcuni parametri di chi lo indossa. Nell’ambito della raccolta di informazioni serve a raccogliere dati e a memorizzarli su una periferica esterna.

Uno schema di come il LEL si inserisce nei vestiti e si collega alla Tile

Questa è la Loomia Tile, una piccola unità di storage che ricava informazioni dagli abiti a cui si collega attravero un piccolo connettore.

Una Tile si può associare a più abiti, ciascuno identificato da un piccolo chip, e a più persone, che si identificano via impronte digitali. In questo modo una Tile può sapere quante volte abbiamo indossato un certo capo, le sue caratteristiche, dove eravamo mentre lo usavamo, che parametri fisici avevamo in quel momento e così via.

Loomia ha progettato una raccolta dati intensa ma etica, nel senso che tutte queste informazioni non sono condivise in maniera incontrollata ma conservate sulla Tile in forma cifrata e poi trasferite sul computer del suo possessore, dove sono anche qui cifrate e gestite da un software specifico, la Tile Platform.

Questa comprende tra l’altro una blockchain basata su Blockstack, che comprende le informazioni sui capi d’abbigliamento registrati e i dati sul loro utilizzo raccolti dalle Tile, più altri dati aggregati sui possessori delle Tile stesse.

La Loomia Tile

L’idea alla base del progetto di Loomia è che chi ha generato queste informazioni – ossia il possessore di una Tile – sia l’unico a decidere con chi condividerle attraverso una sorta di marketplace (il Loomia Data Exchange).

Può ad esempio decidere di inviare le informazioni sui capi che indossa alla loro casa produttrice, o magari a un’azienda che sta facendo ricerche di marketing. Potrebbe poi cedere i dati di posizionamento sui suoi percorsi a un’azienda di trasporti, come anche i suoi parametri fisici a un produttore di device fitness.

Le aziende che ricevono informazioni attraverso il Data Exchange devono pagare chi li fornisce con una valuta virtuale – il Token – che nelle intenzioni di Loomia si potrà usare per acquistare beni e servizi. L’idea è quindi quella di remunerare chi cede i propri dati, invece di matenerlo come un soggetto passivo nella raccolta di informazioni.

Java EE nelle mani della Eclipse Foundation

Come era stato previsto da diversi osservatori del mondo Java, sarà la Eclipse Foundation a prendere Java EE (Enteprise Edition) sotto la sua tutela ed a spingerne d’ora in avanti lo sviluppo.

Prende così il posto di Oracle, che ha mantenuto la stewardship di Java EE da quando ha acquisito le sue tecnologie con Sun Microsystems.

Da diverso tempo i sostenitori di Java EE criticano l’azienda di Larry Ellison per il poco interesse dimostrato allo sviluppo della piattaforma.

E in Oracle non dovevano essere poi in disaccordo con questa visione perché è stata la stessa software house, tempo fa, a indicare che il rilascio di Java EE 8 sarebbe stato la giusta occasione per rivedere lo schema di sviluppo della piattaforma affidandola a qualcun altro.

I candidati principali sono stati due fin dall’inizio ed entrambi di nome: la Apache Software Foundation e la Eclipse Foundation.

A fare la differenza secondo Oracle è stata la maggiore esperienza che la seconda ha in campo Java, testimoniata tra l’altro dall’omonimo e diffuso IDE.

Questa esperienza dovrebbe rendere la transizione da Oracle più veloce e meno problematica.

A questo punto è assai probabile che Java EE cambi denominazione, non fosse altro che per evitare confusioni con Java SE (Standard Edition).

Quest’ultima piattaforma resta stabilmente ad Oracle, che ne vuole mantenere la stewardship.

Il “nuovo” Java EE dovrebbe poi vedere un’accelerazione nello sviluppo di nuove caratteristiche, in particolare l’armonizzazione con il mondo dei microservizi grazie al progetto MicroProfile che ora è gestito proprio dalla Eclipse Foundation.

Come ridisegnare la data architecture aziendale

Una delle frasi più abusate di questi ultimi tempi è che i dati sono il “nuovo petrolio” per le imprese. La frase in sé è azzeccata: i dati sono una risorsa preziosa che si può monetizzare se si mettono in atto le giuste operazioni per ricavarli, elaborarli e alla fine sfruttarli.

Questo è il significato principale, la frase però ne ha anche un altro meno evidente: “raffinare” i dati comporta diverse fasi di raccolta, memorizzazione ed elaborazione che devono essere portate avanti con i giusti strumenti. Nel complesso è la cosiddetta data architecture aziendale.

La data architecture è l’insieme di strategie, processi e strumenti per la gestione dei dati aziendali. E in questa fase di digital transformation, dove tutto sembra essere basato sul giusto utilizzo delle informazioni che derivano dai dati, molte imprese si sono trovate a mettere in discussione la loro architettura. Per ripensarla ed eventualmente riorganizzarla sono di solito indicati alcuni passi in sequenza.

Il primo, come spesso accade, è fare una valutazione della data architecture esistente. In particolare bisogna identificare gli strumenti e le piattaforme che si usano per la gestione dei dati, definendo le relazioni fra loro e i limiti che eventualmente stanno mostrando.

In questa fase non è raro concludere che determinati strumenti sono da eliminare, sostituire o integrare meglio.

La stessa “fotografia” va fatta per i dati. Bisogna cioè definire quali dati vengono raccolti, da che fonti, in che modo e come vengono conservati.

In questa fase è possibile identificare eventuali incongruenze nella gestione delle informazioni, ad esempio che si conservino in database o sistemi diversi dati che invece sono strettamente correlati fra loro.

Una terza analisi da fare preventivamente riguarda le ragioni per cui i dati vengono raccolti. Bisogna cioè stabilire gli obiettivi specifici che ci si pongono con l’analisi delle informazioni.

Lo si fa partendo da elementi di alto livello (si vuole migliorare l’efficienza delle vendite, ad esempio) e calandoli man mano su indicatori (KPI) o altri valori specifici.

Questi per essere calcolati richiederanno la raccolta e l’elaborazione di dati specifici. Se si presentano incongruenze con la raccolta dati che è già in atto, bisogna risolverle.

Queste fasi di analisi servono in realtà a definire vari aspetti di un unico obiettivo: la coerenza nella raccolta dei dati.

Ciò significa raccogliere i dati giusti in funzione di quello che si vuole ottenere, ma anche raccoglierli nel modo giusto per le successive fasi di analisi, visualizzazione e reporting.

Tecnicamente il punto chiave è quello della “pulizia” dei dati: aver chiarito da dove, per che canali e con quali strumenti i dati arrivano nei database aziendali serve anche a capire come e dove intervenire per essere certi che i dati siano completi, attendibili e privi di errori o duplicazioni.

Fintech: come si fa innovazione nel settore finanziario

Chi partecipa a convegni e incontri sui temi principali del mondo IT si è abituato a veder spuntare il termine Fintech da molte parti.

C’è chi lo usa nel senso originale (FinTech, che nasce come acronimo di Financial Technologies) e sempre più spesso nella accezione recente che indica le aziende (“le fintech”) che sviluppano servizi innovativi usando le Financial Technologies più recenti.

Indipendentemente dall’accezione, è un termine che fa già parte della nostra vita quotidiana. Anche se magari non ce ne accorgiamo.

In senso stretto Fintech identifica le tecnologie IT più o meno innovative che vengono applicate per realizzare servizi finanziari. Messa così la cosa in effetti c’è poco di nuovo: l’IT si usa da decenni nelle banche e nelle istituzioni finanziarie, anche l’elaborazione di un semplice bonifico si può considerare come l’applicazione di Fintech.

In realtà il termine non è esistito sino a qualche anno fa, quando gli scandali finanziari collegati alla crisi economica hanno messo sotto osservazione le grandi realtà della finanza. Questo ha generato due fenomeni paralleli.

Da un lato banche e istituzioni finanziarie hanno cercato all’esterno servizi IT che permettessero loro di operare meglio, dall’altro è esplosa la domanda di realtà nuove rispetto allo scenario di mercato tradizionale.

A queste realtà – quelle che oggi si definiscono appunto “le fintech” – si chiedevano servizi innovativi, meno rigidi rispetto a quelli classici.

Le Fintech, intese sia come tecnologie sia come società, sono anche figlie di questi tempi. Sono cioè state necessarie diverse evoluzioni di costume e tecnologiche per dare un senso di mercato alle innovazioni nei servizi finanziari.

Vari studi identificano in modo diverso queste evoluzioni, in comune ci sono certamente la diffusione dello shopping online, un nuovo modo di rapportarsi tra clienti e banche, la tendenza a volere servizi sempre più personalizzati, l’automazione consentita dal machine learning, l’app economy, la sempre maggiore semplificazione dei pagamenti digitali.

Il panorama Fintech è quindi molto variegato e non accenna a semplificarsi. Le realtà finanziarie tradizionali, in primis le banche, sono utenti di servizi di financial technology sviluppati da terzi.

Si va dall’analisi dei dati finanziari al controllo della solvibilità di chi chiede un mutuo: certi servizi, per certe realtà, conviene non svilupparli in casa ma usarli a pagamento.

Poi ci sono le realtà finanziare classiche particolarmente evolute che i servizi “alla fintech” se li sono sviluppati in casa e li offrono ai clienti. O possono offrirli ad altre realtà bancarie.

E infine c’è la galassia delle fintech nel senso più moderno del termine. Le società che operano come banche senza avere nulla della banca, quelle che offrono carte di credito virtuali, quelle che curano servizi di pagamento diretto fra persone.

E molto altro, tra cui le realtà che creano valute digitali alla Bitcoin. Si tratta di un ecosistema molto fluido e in cui ci sono realtà che non hanno nulla di finanziario. Chi avrebbe detto dieci o più anni fa che i servizi di pagamento più popolari sarebbero a un certo punto stati quelli presentati dai grandi brand degli smartphone?

Certificazioni ITIL: le cose da sapere

Tra le certificazioni possibili per chi si occupa di project management in ambito IT, quelle legate a Information Technology Infrastructure Library (ITIL) sono certamente tra le principali. Anche perché – e di questo va tenuto conto quando si decide di seguire la sua strada – ITIL è un “corpus” molto ampio di linee guida e best practice collegate alla gestione e al ciclo di vita dei servizi IT.

Nella sua versione più recente ITIL v3 comprende cinque direttrici che riguardano l’integrazione tra IT e business: Service Strategy, Service Design, Service Transition, Service Operation, Continual Service Improvement.

Non c’è una sola certificazione ITIL integrale.

L’approccio prevede una sequenza di livelli di certificazione, ciascuno dei quali assegna una quantità predeterminata di crediti. Ne servono almeno 22 per conseguire la seconda certificazione più elevata (Expert) mentre per quella top (Master) bisogna essere già Expert e dimostrare la propria esperienza pratica nella gestione dell’IT secondo le best practice ITIL.

I livelli di certificazione partono da Foundation (2 crediti), che si ottiene superando un esame con domande a risposta multipla. Le domande sono legate ai principi base di ITIL e alla sua terminologia.

Conseguita questa certificazione si può passare a Practitioner (3 crediti) e poi ad Intermediate Level (15 o 16 crediti), i cui test sono più complessi e strutturati.

Il livello intermedio è il più variegato e si suddivide nei due percorsi formativi paralleli Service Lifecycle e Service Capability, che comprendono rispettivamente cinque e quattro esami differenti. Il passo successivo nei livelli di certificazione è Managing Across the Lifecycle (MALC), da cui si passa poi ai già citati Expert e Master.

Non è strettamente necessario accumulare crediti restando dentro il percorso di ITIL. Il sistema prevede infatti che un massimo di sei crediti si possa conseguire attraverso certificazioni complementari che magari si sono già conseguite in passato.

Il gruppo delle certificazioni compatibili con ITIL è piuttosto ampio e gli argomenti coperti spaziano dalla Lean IT a ISO20000, dal service management al change management.

Una certificazione complementare riconosciuta porta 1-1,5 crediti sino al massimo di sei.

Il percorso delle certificazioni ITIL non è esattamente economico. Ogni livello prevede un costo iniziale per la registrazione al suo esame che varia a seconda della città e della nazione dove ci si trova e che può anche arrivare a 500 euro.

A questo bisogna aggiungere il costo dei corsi per ciascun esame, che non sono obbligatori ma caldamente consigliati. Ci sono corsi in aula e corsi online, l’esborso supera tranquillamente il migliaio di euro per quelli in presenza mentre per l’online possiamo orientativamente calcolare circa la metà.

5G: le mosse di aziende e operatori

L’obiettivo del 5G è sempre stato arrivare alla prima diffusione di massa dei servizi da parte delle aziende nel corso del 2020.

Quando si è iniziato a parlare di 5G sembrava una scadenza molto lontana, ora invece il percorso di avvicinamento alle reti mobili di nuova generazione è ormai molto avanzato sia per gli operatori sia per le aziende del settore tecnologico.

Non c’è più quindi spazio per ipotesi “fantasiose” su come sarà la connettività del futuro, la visione che viene presentata agli utenti – specie alle aziende utilizzatrici – deve ora essere di una notevole concretezza.

Certo i dettagli delle tecnologie e delle implementazioni possono cambiare nel medio termine, non però la concezione di fondo.

Anche perché sul successo del 5G puntano molti settori di mercato: da Industry 4.0 alle Smart City passando per le varie evoluzioni del lavoro in mobilità, tutti gli scenari applicativi più importanti danno (quasi) per scontata una connettività ubiqua e performante.

Per questo abbiamo voluto confrontarci con alcuni “nomi noti” di aziende che già da tempo lavorano alle proprie soluzioni 5G.

Da loro abbiamo voluto avere una previsione di come sarà l’evoluzione del mercato e tecnologica da qui al debutto dei servizi di nuova generazione, con particolare attenzione alle mosse che le aziende utenti dovranno fare per preparare al meglio la loro transizione al 5G.

Chatbot: va affrontato il problema della retention

Realizzare un chatbot è solo il primo passo nell’evoluzione che un’azienda può dare al suo dialogo da e verso i clienti. Poi bisogna che questo chatbot sia “accettato” dai clienti stessi, ossia che continuino a usarlo anche dopo i primi scambi di messaggi.

Non è scontato che sia così: ci sono aziende che registrano un crollo nelle interazioni dopo una prima fase di scoperta del chatbot, crollo che mette un po’ in dubbio gli investimenti fatti in questa nuova forma di comunicazione.

Il problema della retention nell’uso dei chatbot è legato essenzialmente a due componenti: l’efficacia del chatbot come strumento aziendale, creato quindi con uno scopo, e più in generale il livello qualitativo delle conversazioni. In fondo, nessuno vuole comunicare con un cattivo interlocutore, reale o virtuale che sia.

Al primo ambito è legato innanzitutto il valore percepito del chatbot: i clienti devono essere spinti a usarlo perché dà loro qualcosa.

Ciò a sua volta richiede che l’azienda abbia chiaro il problema che il chatbot deve risolvere, la funzione che ha nel flusso del business complessivo. Per questo bisogna anche definire a chi si rivolge il chatbot: a seconda del suo target, si concentrerà su problemi specifici. I bot generici non hanno grande retention, più si rivolgono a un target mirato (con contenuti altrettanto mirati) più è probabile che vengano seguiti.

La questione della comunicazione “efficace” dal punto di vista dell’interazione è un tema più ampio. In parte il chatbot ha gli stessi problemi di un interlocutore umano, anche se i suoi interlocutori sanno che non lo è (e anzi sarebbero spaventati se cercasse troppo di sembrarlo). Quindi valgono i consigli che si danno di norma: comunicazioni brevi, personalizzate ma senza eccedere, evitare di sembrare insistenti.

Kai, il chatbot di MasterCard che informa i clienti sulle transazioni fatte via carte di credito

Alcuni accorgimenti da seguire però sono tipici da chatbot. Il primo è definire in anticipo come gestire le situazioni in cui il bot non comprende cosa l’interlocutore sta dicendo. Avere una sola risposta neutra standard, che il cliente si vede presentare magari tre o quattro volte di seguito, non fa certo bene al mantenimento della conversazione.

Meglio definire un meccanismo per cui la risposta standard può essere presentata solo due o tre volte, quella successiva ci deve essere una risposta più concreta, magari invitando l’utente a visitare una certa pagina web oppure generando una notifica a un operatore umano che possa prendere in mano la conversazione.

Un altro punto importante riguarda le tecniche di re-engagement. Mandare messaggi non sollecitati non è mai un bene ma può stimolare un cliente che non usa il bot da tempo. Lo si può fare quando si presenta uno spunto che possa essere condiviso dal cliente, ad esempio una nuova funzione del bot o una novità da comunicare al cliente in base alle conversazioni precedenti.

Rust, il linguaggio che unisce potenza e sicurezza

Con l’avvento di Rust si è tornati a parlare diffusamente di sicurezza by design e del fatto che la “solidità” di un software (sistemi operativi, applicazioni, firmware) dovrebbe risiedere già nel codice di base e non essere un qualcosa aggiunta dopo con moduli esterni.

Casi eclatanti come le botnet create dal malware Mirai hanno sottolineato questo aspetto.

Ma chi si occupa da tempo di sviluppo software ha visto in queste discussioni l’ennesima versione del problema della coperta corta: avere codice allo stesso tempo performante, sicuro e semplice da scrivere (e da leggere) non è possibile. I linguaggi performanti alla C sono complessi e i nuovi sviluppatori ne preferiscono altri, magari più sicuri e semplici (come Python) ma meno veloci.

Per questo Rust sta diventando popolare: il linguaggio creato da Mozilla cerca di unire tutte le caratteristiche che servono senza metterle in contrasto fra loro.

Delle tre caratteristiche principali di Rust, la velocità di esecuzione è quella più semplice da spiegare. Rust è un linguaggio moderno ma vecchio stile, nel senso che a differenza di molti linguaggi che oggi vanno per la maggiore prevede una fase esplicita di compilazione. La generazione di codice macchina nativo, senza runtime, porta velocità di esecuzione comparabili con quelle di C e C++.

La sicurezza di Rust è by design nel senso che il compilatore esegue un controllo molto approfondito del codice alla ricerca di tutte le eventualità che potrebbero portare a un crash dell’applicazione e quindi, potenzialmente, a una vulnerabilità sfruttabile da hacker ostili.

Questi controlli sono molto severi e si concentrano sull’utilizzo della memoria: qualsiasi operazione non sicura è vietata e obbliga a modificare il codice.

La sintassi e la logica di Rust sono pensate proprio per evitare problemi legati alla memoria.

Per fare qualche esempio, il linguaggio distingue esplicitamente tra variabili immutabili e che possono cambiare valore, ma soprattutto si basa sul concetto di ownership secondo cui un valore (più correttamente una parte di memoria dello heap) può essere assegnato a una sola variabile alla volta.

Sembra un concetto astruso – e di primo acchito lo è – ma serve ad avere una gestione della memoria sempre corretta.

Questo approccio mentale è probabilmente l’unico vero ostacolo per chi voglia entrare nel mondo di Rust.

Di per sé il linguaggio è relativamente semplice e il codice è ben leggibile, ma appunto solo dopo che si è fatto proprio il modo che ha di “esplicitare” la gestione della memoria. Questa logica va digerita, insieme al fatto di avere un compilatore che perdona poco e rigetta qualsiasi ambiguità nella gestione delle variabili.

A parte queste caratteristiche principali, Rust è un linguaggio in linea con altri suoi contemporanei. È multipiattaforma (Linux, Windows, macOS), ha una buona dotazione di funzioni native e una buona libreria standard che poi può essere estesa con moduli di terze parti (le “crates”).

C’è anche un build/library manager – Cargo – che semplifica le cose. Rust non ha un suo IDE specifico ma è supportato da diversi editor e integrabile in vario modo negli IDE di riferimento come Eclipse o Visual Studio.

Smart agriculture: la coltivazione automatizzata è possibile

Le applicazioni della Smart Agriculture sono ormai molte, nel loro ambito viene però sempre considerata fondamentale la presenza dell’agricoltore e in generale del personale umano. Le figure che controllano il sistema e prendono le decisioni più importanti dovranno sempre esserci, ma la manodopera per le operazioni tra la semina e il raccolto compresi potrebbe non essere poi così necessaria.

Dimostrare che è possibile gestire un campo senza personale umano era lo scopo del progetto Hands Free Hectare, avviato lo scorso ottobre in Inghilterra dalla Harper Adams University dello Shropshire.

Mettendo insieme vari elementi di Smart Agriculture, mezzi agricoli automatizzati, GPS, telecamere, sensori e componenti di robotica, i ricercatori hanno voluto seguire un raccolto di orzo dall’inizio alla fine. Complessivamente con successo, dato che il ciclo si è concluso qualche settimana fa.

Quello effettuato da Hands Free Hectare è già stato definito come il raccolto di orzo più costoso della storia, perché il progetto si è basato su uno stanziamento governativo di 200 mila sterline.

Però è comunque la dimostrazione che l’automazione completa del processo agricolo è possibile e l’approccio seguito viene considerato portatore di alcuni specifici vantaggi.

I ricercatori hanno tra l’altro puntato sull’uso di macchine agricole di piccole dimensioni, considerando che quelle più grosse e pasanti alla fine danneggino il suolo e quindi la salute delle piante. In prospettiva, spiegano, i campi dovrebbero essere seguiti da “flotte” di piccoli macchinari autonomi e non da pochi grandi sistemi.

Un altro elemento che viene messo in particolare evidenza è che l’automazione della Smart Agriculture si può perseguire anche senza grandi investimenti.

Le 200 mila sterline impiegate dal progetto sono una bella somma, ma sono servite anche a “robotizzare” da zero macchinari che non erano già automatizzati. Per il resto sono stati usati componenti open source e un drone di facile reperibilità per il monitoraggio del campo.

Chrome blocca la riproduzione automatica di audio e video

Uno degli elementi forse più fastidiosi della navigazione web si avvicina al tramonto. Google ha annunciato che la riproduzione automatica di contenuti video o audio presente su molti siti sarà disattivata in Chrome 64, una prossima release del browser che dovrebbe essere distribuita verso la fine di gennaio 2018.

La novità è pensata per bloccare l’autoplay dei contenuti che si attiva non appena si carica una pagina. Google infatti spiega che se il visitatore clicca su qualche punto della pagina (o la tocca, nel caso di Chrome per device mobili) si conclude che voglia interagire esplicitamente con essa, quindi la riproduzione può attivarsi automaticamente.

Inoltre, l’autoplay può attivarsi anche da solo al caricamento della pagina, purché i contenuti siano riprodotti con il volume dell’audio azzerato. Questa opzione interessa logicamente i contenuti video, mentre per quelli solo audio non ha molto senso.

L’evoluzione non sarà traumatica. Prima della fine del 2017 Google distribuirà la versione 63 del browser Chrome e già qui troveremo una prima opzione per limitare l’invasività dell’audio. Nel pannello collegato alla URL degli indirizzi web sarà infatti presentata una opzione per silenziare pagine specifiche.

Questa opzione ha un senso diverso dal blocco dell’autoplay. Indica a Chrome di non riprodurre mai audio da quella specifica pagina. Il controllo automatico dell’autoplay invece può, come accennato prima, consentire la riproduzione dei contenuti – con il loro audio – se il visitatore della pagina mostra una qualche indicazione di interesse.

Ethernet verso i 1.600 Gigabit spinta dagli hyperscaler

Lo sviluppo tecnologico del networking è sempre stato un ambito “nascosto” per gli utenti, un po’ come quello dei processori. Entrambi sono andati avanti con evoluzioni costanti e regolari per molto tempo, nel networking con la tecnologia principale (Ethernet) che ha decuplicato la sua banda ogni tre-quattro anni.

A ogni salto tecnologico i primi prodotti nuovi sono stati piuttosto costosi ma questo importava relativamente, perché chi li acquistava erano in particolare i grandi provider e le telco che potevano trasferire parzialmente il costo ai loro clienti.

Poi a un certo punto il panorama è cambiato e gli utenti principali dei sistemi di networking ad alte prestazioni non sono stati più solo provider e telco ma anche, e con un peso sempre crescente, gli hyperscaler e i cloud provider.

Queste realtà competono intensamente sui prezzi proposti ai loro clienti od offrono addirittura servizi nominalmente gratuiti (pensiamo a Facebook). Quindi il costo degli apparati è diventato un parametro fondamentale.

Al pari però di un altro: le opzioni di connettività degli apparati stessi, che in parte dipendono dalle tecnologie di rete. Quando ci si trova a gestire datacenter con decine di migliaia di server da interconnettere, più alto è il numero di connessioni gestite da uno switch ottimizzando la sua capacità di switching meglio è.

Da qui il mancato successo di 100 Gigabit Ethernet: troppo costosa e poco efficiente da questo punto di vista rispetto alla alternativa di 25 GbE. Che senza la spinta degli hyperscaler forse nemmeno avremmo visto.

Il ruolo degli hyperscaler, che hanno anche ampiamente dimostrato di potersi progettare da soli gli switch che non trovano sul mercato, influenzerà anche lo sviluppo degli standard Ethernet del prossimo futuro.

Il motivo è che gli hyperscaler hanno abbastanza forza di mercato da influenzare lo sviluppo dei componenti principali dei sistemi di networking, ossia gli ASIC e i SerDes (Serializer-Deserializer) che gestiscono la trasmissione dei dati nello switching. L’obiettivo non è solo aumentare la banda trasmissiva totale ma anche ottimizzare il suo utilizzo, cosa che richiede di aumentare anche la capacità trasmissiva dei singoli canali.

Per questo le prossime versioni di Ethernet non prevederanno la classica moltiplicazione per dieci della banda ma saranno la combinazione del numero di canali (1,2 o 4 e in futuro 8) e della capacità di signaling sul singolo canale (10 o 25 Gbps oggi, 50 a breve e 100 in futuro). Ci aspetta quindi uno sviluppo più lento ma più ragionevole economicamente, con le prossime bande a 200 e 400 Gigabit e gli step successivi a 800 e 1.600 Gbps.

Controllare DevOps per farlo rendere meglio

Per molte imprese passare dai vecchi modelli di sviluppo all’approccio DevOps è quasi obbligatorio, se vogliono attivare rapidamente nuove applicazioni o nuovi servizi seguendo le esigenze del loro mercato.

DevOps è quindi un elemento che aggiunge valore alle attività d’impresa, una valutazione che pochi contestano ma che poi contrasta con le statistiche secondo cui le azienda fanno fatica a registrare un ROI positivo per i processi DevOps. Il problema, secondo diversi osservatori, è che non tutte le imprese hanno chiaro come misurare il rendimento dei processi di sviluppo, anche indipendentemente dal modello che li muove.

Come per tutti i processi di monitoraggio e valutazione, anche quando si tratta di sviluppo e DevOps bisogna decidere quali sono le metriche più importanti.

Per un modello “rapido” come DevOps possono essere il throughput, la stabilità e la sostenibilità del processo di sviluppo. Il throughput è una valutazione grezza della produttività di DevOps, misurabile ad esempio con la frequenza del rilascio in produzione di nuove versioni o di nuovi applicativi.

Accanto a questa servono però anche valutazioni che diano una profondità maggiore all’analisi. La stabilità è il primo e deve in qualche modo indicare l’efficacia dello sviluppo e non solo il suo volume, misurando ad esempio il tasso di riuscita dei deployment o il tempo che mediamente si impiega a fare il recovery da un rilascio non riuscito.

La sostenibilità è un indicatore meno quantitativo: dev’essere una valutazione di quanto facilmente, senza stressare troppo le risorse, il team di sviluppo possa – appunto – sostenere il throughput e la stabilità di quel momento.

La misurazione delle metriche chiave permette di avere una fotografia dello stato dello sviluppo DevOps. Poi queste metriche vanno migliorate nel tempo, ovviamente, e questo richiede che l’azienda investa negli elementi di base che favoriscono lo sviluppo rapido. Da questo punto di vista la componente più complessa è probabilmente quella culturale, perché il passaggio dall’approccio classico a quello DevOps non è facile da digerire né per chi sviluppa né per chi si occupa di operations. Qui non ci sono tool o soluzioni da acquistare, serve investire in una vera e propria evoluzione culturale e anche nel favorire una nuova visione dei processi di analisi e creazione di applicazioni e servizi.

Risulta più semplice investire in strumenti software, che sono un’altra componente necessaria. In questo ambito vanno considerati ad esempio i sistemi di versioning, le piattaforme di deployment e test automatizzati, i tool di monitoraggio delle applicazioni e dei servizi erogati agli utenti.

Nel considerare DevOps nell’ottica del suo ROI c’è però da tenere presente una considerazione trasversale che riguarda il management e non gli sviluppatori. La produttività di un qualsiasi processo aziendale cala drasticamente se le sue risorse non sono concentrate sulle priorità dell’impresa. Questo significa che anche lo sviluppo – DevOps o meno – deve concentrarsi sulle iniziative davvero importanti per lo sviluppo del business. Altrimenti è naturale che il suo ROI non sia quello atteso.

Perché l’API economy influisce sui servizi IT

Lo sviluppo della cosidetta API economy deriva dal fatto che le aziende oggi sono spinte a creare nuove applicazioni e servizi con una velocità superiore al passato, per reagire rapidamente alle richieste e agli input che arrivano dal mercato.

In questa attività reinventare la ruota ogni volta non ha senso, se ci sono servizi applicativi esterni utili a cui accedere tramite API è conveniente farlo. E proprio lo sviluppo di servizi “vendibili” e delle loro API è diventato un business per molte software house.

In realtà una dinamica simile sta avvenendo – o dovrebbe avvenire – anche nelle grandi imprese. La modernizzazione dell’IT esistente richiede spesso di intervenire sulle comunicazioni fra applicazioni e sistemi interni, un’attività che però si scontra con le (solitamente) poche risorse del reparto IT.

Il risultato, come sanno già molte aziende, è una interconnessione “a spaghetti” di componenti applicativi che diventa ben presto difficile da gestire e manutenere. E anche da comprendere.

Secondo molti osservatori questa situazione deve spingere allo sviluppo di una “API economy interna”, nel senso che i team di sviluppo devono ragionare in maniera nuova e affrontare i progetti non in maniera monolitica ma pensando sin dall’inizio a collezioni di componenti riusabili che dialogano via API.

E anche, laddove possibile, ad API mirate che aprano verso il resto dell’IT i componenti più tradizionali, superando così i loro limiti. In quest’ottica le API non sono più solo interfacce ma prodotti veri e propri che hanno un loro ciclo di vita.

In queta logica le API diventano anche i componenti base per gli sviluppi successivi, più “as a service” e per questo anche più semplici. In molte imprese questo permette di estendere le attività di sviluppo anche oltre l’IT senza correre i rischi tipici della shadow IT.

Le business unit possono cioè creare servizi e applicazioni per uso interno (ma non solo, in prospettiva) assemblando fra loro le API interne come componenti. Questo permette l’elasticità che il business richiede ma anche la sicurezza di operare con elementi che sono sotto il controllo dell’IT.

Guardando più in avanti, la logica della API economy applicata ai sistemi interni permette a un’azienda anche di aprire verso l’esterno alcuni suoi servizi. Non è detto per questo che, ad esempio, una banca debba diventare per forza una software house, ma ci possono essere servizi specifici che ha senso offrire a realtà del proprio settore.

Con blockchain si controlla la propria identità digitale

Si ipotizzano usi di blockchain collegati a informazioni – di cui deve essere garantita la veridicità e la non modificabilità – di ogni tipo, ma quello che lo stato americano dell’Illinois ha intenzione di implementare è un uso che rende la tecnologia davvero intrinsecamente legata a molti aspetti della vita quotidiana di ogni singolo cittadino.

In estrema sintesi, alla nascita ogni cittadino dell’Illinois dovrebbe avere immediatamente una   identità digitale conservata in una blockchain.

I promotori del progetto, ossia la Illinois Blockchain Initiative, spiegano più in dettaglio che si tratta di una “self-sovereign identity” creata contestualmente al processo di registrazione all’anagrafe di un nuovo nato.

L’idea è quella di creare una identità digitale che resti sotto il completo controllo della singola persona e non, come accade oggi, conservata solo in archivi centralizzati da parte di entità terze, in primis le amministrazioni pubbliche.

Secondo il progetto, le prime informazioni inserite in questa “carta d’identità blockchain” all’atto della sua creazione (nome, data di nascita, sesso, gruppo sanguigno…) sono verificate dalle autorità e anche garantite da esse attraverso una firma digitale. L’accesso a queste informazioni è poi possibile solo con una autorizzazione esplicita del cittadino stesso o dei suoi tutori legali.

I molti casi in cui bisogna “provare” la propria identità e che potrebbero essere semplificati usando la rete di Sovrin

Enti pubblici e aziende private possono richiedere le informazioni personali conservate nella blockchain quando l’identità di una persona deve essere certificata.

Questo ha il vantaggio di rendere inutile creare database loro propri che contengano queste stesse informazioni personali, che quindi risultano più tutelate perché meno suscettibili a usi impropri. Si evita anche di investire risorse per ricavare e gestire informazioni che sono già reperibili altrove e da una fonte certificata.

Diventerebbero inutili anche documenti cartacei come il certificato di nascita, che spesso servono per ottenere altri documenti o per accedere a determinati servizi.

Dal punto di vista tecnico il progetto dell’Illinois è una applicazione di Sovrin, una infrastruttura blockchain basata su Hyperledger che è stata sviluppata da Evernym per la gestione delle identità digitali e che ora è governata da una fondazione no-profit, la Sovrin Foundation. Il suo obiettivo è estendere l’utilizzo delle “self-sovereign identity” diffondendone la tecnologia. Tra i partner di Sovrin c’è anche l’italiana InfoCert.

Smart farming: l’evoluzione tecnologica non ha stagioni

Con lo smart farming gli approcci tradizionali alla coltivazione e all’allevamento dovranno man mano essere affiancati da altri più tecnologici e anche inusuali.

La prospettiva di avere nove miliardi di persone da alimentare sul nostro pianeta lo rende inevitabile, dunque tutto ciò che è smart farming è benvenuto.

L’obiettivo a tendere non può però essere solo aumentare la produttività dei sistemi di coltivazione e allevamento che già ci sono. Per questo si stanno diffondendo strade complementari, con vari gradi di evoluzione tecnologica.

Quelle più evidenti riguardano le varie forme di Indoor Agriculture, come ad esempio il vertical farming. Si tratta cioè di coltivazioni al chiuso che cercano di ottimizzare la resa attraverso un controllo mirato delle condizioni ambientali.

Non è una novità concettuale, dato che le serre sono in uso da secoli, l’evoluzione qui sta nel grado di tecnologia e automatismo che si può raggiungere nel controllo ambientale e nella gestione delle coltivazioni.

Questo ha ad esempio permesso di realizzare soluzioni di Indoor Agriculture anche in ambienti di dimensioni relativamente piccole – magazzini, container, edifici – in modo da essere vicini ai consumatori e di ridurre i costi e gli impatti ambientali della logistica.

Il controllo preciso e automatizzato di luce, acqua e nutrimento per le piante serve a ottimizzare la resa e a eliminare, o quantomeno contenere, l’imprevedibilità delle coltivazioni tradizionali.

Le innovazioni tecnologiche e di approccio legate all’allevamento animale sono meno evidenti per i consumatori, ma altrettanto importanti in prospettiva.

Gli allevamenti ittici stanno affrontando una fase di transizione particolarmente rilevante a livello globale: producono circa la metà del consumo mondiale di pesci, crostacei e molluschi ma consumano anche, come alimento, circa un terzo del pescato fuori dagli allevamenti. Una quantità sempre meno sostenibile.

L’evoluzione in quest’ambito è poco tecnologica ma legata alla sostituzione di questi alimenti con altri – in particolare gli insetti – e all’aumento dell’efficienza degli allevamenti collegandoli con “coltivazioni” diverse.

Ad esempio è possibile creare soluzioni di indoor farming idroponiche per la coltivazione di vegetali che sfruttino i rifiuti generati dai pesci come fertilizzante. O anche puntare sulla coltivazione di alghe alimentari, un mercato che si stima arrivi a 45 miliardi di dollari nel giro di cinque anni. In questi ambiti le innovazioni chiave sono le stesse del vertical farming.

Smart farming tra insetti e batteri

Si sta diffondendo un buon grado di automazione anche per due forme di allevamento che hanno prospettive sicuramente interessanti.

Una senza dubbio ed è l’allevamento di insetti e larve. Se ne parla da tempo, le norme per il loro consumo stanno cambiando, l’unico fattore di freno è culturale, almeno nelle aree del mondo che non sono (più) abituate al consumo di insetti.

L’allevamento di insetti e larve è tecnicamente semplice, le aziende che già sono impegnate in questo campo stanno man mano aumentando il grado in cui i loro processi sono automatizzati.

Più futuribile, ma nemmeno tanto, è l’allevamento mirato di microbi. Il grande vantaggio di batteri e lieviti sta nella possibilità di riprogrammare il loro DNA in base al “prodotto” che si vuole ottenere.

Qui il grado di innovazione tecnologica è ovviamente elevato anche se per ora non si parla propriamente di “mangiare” microbi o enzimi ma di studiare quelli che possono agevolare i processi di fermentazione tipici di molte preparazioni alimentari. Ma gli usi possibili sono anche altri.

Il dynamic pricing evita sprechi nei supermercati

La gestione dei prezzi in tempo reale – in gergo, il dynamic pricing – è una funzione a cui i consumatori si sono abituati: dagli alberghi alle linee aeree, molte realtà definiscono i prezzi dei loro prodotti o servizi in funzione del momento e della richiesta.

Idealmente è un vantaggio sia per chi vende sia per chi acquista, evitando gli invenduti e permettendo un risparmio a chi sa scegliere il momento giusto per acquistare.

Da tempo si parla di applicare il dynamic pricing nei supermercati, dove il problema dell’invenduto per la parte alimentare è serio e ha conseguenze non solo economiche ma anche d’immagine.

Gli sprechi non sono tollerati dai consumatori e la quantità di prodotti freschi o conservati che va smaltita è ancora elevata.

La startup americana Wasteless ha sviluppato un sistema di dynamic pricing pensato proprio in questo senso, per incentivare i consumatori ad acquistare i prodotti che altrimenti avrebbero una elevata probabilità di finire allo smaltimento.

Il sistema funziona considerando ogni singola confezione di prodotto – identificata fisicamente da un suo tag RFID – come un elemento distinto con un suo proprio codice identificativo, che può avere teoricamente un prezzo diverso da tutte le altre.

Nella pratica il parametro chiave usato per definire il costo in tempo reale è la data di scadenza. Un sistema di machine learning tiene però conto – nella definizione del prezzo – anche di una quarantina di altri fattori come l’andamento delle vendite, la disponibilità a magazzino, il lotto di produzione, il periodo della settimana.

Il prezzo così definito viene dinamicamente associato al codice prodotto della singola confezione.

A scaffale i prezzi sono mostrati con etichette digitali, che visualizzano in tempo reale il prezzo fissato in quel momento per le varie “classi” di confezioni. Quelle che scadono in là nel tempo hanno prezzo pieno, mentre quelle che si stanno avvicinando alla data di scadenza hanno sconti via via crescenti.

In fase di pagamento alla cassa dei prodotti scelti, il sistema di Wasteless si basa sull’identificazione della confezione via tag RFID per ricavare il prezzo effettivo in quel momento.

Oltre al dynamic pricing, la piattaforma offre anche funzioni di analisi delle vendite e inventory management, sfruttando la sua capacità di monitorare la presenza a scaffale e le vendite di ogni singola confezione.

La ricerca dei minerali rari si fa con i big data

Il mantra dell’analisi dei big data è che i sistemi di machine learning, o più semplicemente di analytics, se messi di fronte a una enorme mole di dati possono scoprire correlazioni e trend che sfuggirebbero all’osservatore umano, fino a portare alla scoperta di minerali rari.

Un mantra che peraltro non contesta quasi più nessuno, visto che le applicazioni pratiche lo hanno confermato già da tempo in diversi campi.

Anche la prospezione geologica potrebbe guadagnarne, dato che avere a disposizione grandi risorse di calcolo e i giusti algoritmi permetterà finalmente ai geologi di sfruttare un elemento che conoscono già da tempo: ci sono precise relazioni tra i minerali presenti in uno stesso giacimento.

Non è, come accennato, niente di nuovo dal punto di vista teorico. Minerali diversi coesistono, secondo specifici pattern spaziali e temporali che sono stati studiati per decenni, all’interno di giacimenti, rocce, sedimenti e persino meteoriti.

Anche usando queste indicazioni si è andati alla ricerca di giacimenti di minerali preziosi o di petrolio. Il limite è che serve comunque una fase di prospezione per capire cosa c’è nel terreno e quindi stimare cosa potrebbe esserci: più è esteso il “campione”, più attendibile è la previsione.

L’obiettivo a cui si punta è aumentare la precisione della previsione sulla presenza di determinati minerali, portandola a una ragionevole certezza, anche con prospezioni relativamente ridotte.

Da un lato questo si ottiene con sviluppi tecnologici che non c’entrano con i Big Data e sono collegati invece alla capacità di comprendere con precisione la composizione chimica di campioni anche limitati.

Dall’altro però uno studio più approfondito delle “reti di relazioni” fra minerali, derivato proprio dagli analytics sui Big Data, permette di stimare la probabilità che un certo minerale sia presente quando se ne sono già trovati altri.

L’evoluzione del machine learning e delle piattaforme di computing può essere messa al servizio dello studio di queste reti tra minerali, una forma di network analysis che si basa su Big Data geologici raccolti in decenni di prospezioni.

Una quantità di dati che una volta le aziende di settore custodivano gelosamente ma che ora mettono a disposizione anche di terze parti, contando proprio su una condivisione di informazioni che può portare ad analisi sempre più significative.

Queste permettono poi, idealmente, di trovare giacimenti di minerali preziosi anche dove la loro presenza era stata esclusa. O dove era troppo costoso cercarli senza la ragionevole certezza di trovarli.

Come portare a termine un progetto di machine learning

Portare a compimento e in produzione un progetto di machine learning non è semplice, tanto che secondo Gartner solo una piccola quota (il 15 percento circa) delle imprese al momento pare riuscirci.

L’ostacolo fondamentale, secondo i tecnici, sta nel fatto che l’intelligenza artificiale non è un qualcosa che si abilita con un prodotto software fatto e finito.

Serve certamente una piattaforma di partenza, poi però ci si deve mettere del proprio e incontrando problemi che non sono analoghi a quelli che gli sviluppatori incontrano di solito.

Come spiegano in particolare alcuni ricercatori della stessa Google, che di machine learning certamente ne sa, l’approccio classico dell’ingegneria del software porta verso l’astrazione per poter arrivare a codice (più) semplice da modificare e migliorare.

Ma, si spiega, è difficile perseguire l’astrazione nelle applicazioni del machine learning perché questo entra in gioco “Esattamente in quei casi in cui un comportamento desiderato non può essere espresso in modo efficace nella logica del software senza una dipendenza da dati esterni“.

Non è strano quindi che team di sviluppo anche capaci non riescano a controllare la complessità del machine learning.

La cosa migliore in questo senso è puntare su una piattaforma che abbia le funzioni che servono e allo stesso tempo permetta di astrarsi dalle fondamenta matematiche del machine learning. Ce ne sono diverse, TensorFlow viene giudicata oggi quella più efficace.

Il valore di TensorFlow sta proprio nel riuscire a soddisfare una gamma vasta di utenti sviluppatori o data scientist.

Questo innanzitutto perché è abbastanza solido da supportare progetti complessi di machine learning, andando oltre la definizione solo di algoritmi semplici. Inoltre, la sua relativa semplicità permette anche ai non esperti di arrivare a definire modelli complessi e potenzialmente utili.

In questa fase di sviluppo del machine learning è però altrettanto importante che TensorFlow rappresenti una base comune per molti sviluppatori.

Si tratta di una piattaforma oggi diffusa e accettata, il che permette a molti tipi di utenti di fare esperienze dirette sul machine learning e di poterle confrontare con una lingua comune. Inoltre, fanno notare i più tecnici, avere uno “standard” per le applicazioni pratiche permette di verificare in maniera condivisa i nuovi approcci e le nuove teorizzazioni che vengono dalla ricerca sul machine learning.

Anche se, raccomanda chi ha già messo in pratica il machine learning, arrivare a un modello funzionante usando framework come TensorFlow è solo uno dei passi necessari. E lo stesso modello che si è fatta tanta fatica a creare è destinato comunque a essere messo in discussione, mutare e migliorarsi.

Comprare un iPhone oggi: quale scegliere?

0

Con il lancio di iPhone X e 8 l’offerta di smartphone Apple è diventata particolarmente articolata. Viene anche da dire stranamente articolata, perché da Cupertino ci avevano abituato a una lineup molto semplice con al massimo tre-quattro modelli “spalmati” su due generazioni in sequenza. Adesso invece sono otto e distribuiti praticamente su quattro generazioni, partendo dal presupposto che iPhone X e 8 sono stati presentati insieme ma sono due concezioni di smartphone diverse.

Come sempre valutare un iPhone in assoluto, per le caratteristiche che ha, dà una visione solo parziale. Meglio considerare le specificità tecniche in funzione di quello che si deve fare e metterle in rapporto tra i vari modelli.

Il display

Mai come in questa lineup il display è un elemento di caratterizzazione importante. Da un lato c’è il display top di Apple – quello di iPhone X – e dall’altro tutto il resto, che conosciamo bene e che già sappiamo cosa è in grado di offrirci.

Apple ha abbondantemente spiegato le qualità tecniche del suo primo display OLED, per l’utente medio l’elemento più evidente è la possibilità di avere uno schermo grande come quello di una versione Plus in uno smartphone che invece ha dimensioni minori, diciamo a metà tra l’iPhone 7/8 standard e la versione Plus. E con una risoluzione più elevata (2.436 x 1.125 pixel contro 1.920 x 1.080) che va a vantaggio soprattutto della leggibilità.

Apple ha lavorato bene anche sulla resa cromatica. La tecnologia OLED garantisce di suo neri profondi e colori intensi, in più c’è il supporto ai contenuti in HDR che promette una resa molto migliore delle sfumature di colore. A patto di avere i contenuti giusti, in HDR10 o Dolby Vision.

Tutto il resto in confronto è quasi storia passata. Sono i soliti display. In effetti iPhone 8 ha un display True Tone mentre le versioni 7 e 6s no, ma per molti utenti è un dettaglio (su iPad è più importante). E il modello SE ha ancora il display vecchio stile. Intendiamoci, restano tra i migliori display del mondo smartphone, ma non cambiano quelli che potevano già essere i criteri di scelta: display piccolo (SE), grande (6s/7/8), più grande e Full HD (6s/7/8 Plus).

La potenza

Tra iPhone 6s/SE e 8/X ci sono tre generazioni di processori Apple con caratteristiche ben diverse. La CPU A9 di iPhone SE e 6s è di concezione tradizionale, mentre con il processore A10 Fusion di iPhone 7 ha debuttato la gestione dinamica dei core interni a seconda del carico di lavoro, concetto portato più avanti dalla CPU A11 Bionic di ultima generazione.

Lo scarto in potenza elaborativa è abbastanza netto tra A11 e A10 e ancora più marcato tra A10 e A9. Soprattutto per quanto riguarda la gestione della multimedialità i processori modulari se la cavano nettamente meglio. Quindi chi è appassionato di giochi o video e vuole usare iPhone anche per la produttività dovrebbe orientarsi sui modelli con processore A11.

Non necessariamente iPhone X però. A parità di processore e memoria il “peso” di dover gestire un display a risoluzione maggiore si sente e favorisce iPhone 8 rispetto a iPhone X. Non di molto, ma una differenza c’è (meno del 10 percento, secondo i primi test).

A scalare tutti gli altri, con iPhone 7 che rende meglio della versione 6s e ovviamente di iPhone SE.

La parte fotografica e video

iPhone X e 8 non hanno cambiato le regole del gioco: la versione “fotografica” degli smartphone Apple resta quella con la doppia ottica posteriore, quindi le versioni 8 Plus oppure iPhone X. In queste avere un processore particolarmente potente nella parte grafica (A11) ha permesso di introdurre la funzione Portrait Lighting per realizzare ritratti creativi. Anche se la funzione è ufficialmente in versione beta, come è stato a lungo per il Portrait Mode di iPhone 7 Plus (a cui resta il terzo gradino di un ipotetico podio fotografico).

Fotograficamente parlando le differenze tra iPhone 8, 7 e 6s non-Plus ci sono ma non poi così significative. Per gli amanti dei selfie la minore risoluzione della fotocamera frontale del 6s (e di iPhone SE) può risultare un handicap. iPhone 6 (non Plus) e SE inoltre mancano della stabilizzazione ottica per fotografie e riprese video.

Sempre nella parte video, la differenza principale tra i vari modelli sta nella cadenza di ripresa video 4K. Solo iPhone 8 e X arrivano ai 60 fps, gli altri modelli si fermano a 30.

Le funzioni accessorie

Qui entrano in gioco essenzialmente Face ID per iPhone X e la ricarica wireless per anche iPhone 8. Sono due elementi distintivi, ma abbastanza da influenzare decisamente una scelta di acquisto? Probabilmente no.

Su Face ID è un po’ presto per pronunciarsi, bisognerà vedere come andrà la funzione di riconoscimento facciale una volta usata sul campo da decine di milioni di utenti. Le premesse sono buone per quanto riguarda la comodità d’uso, d’altronde sono anni che alcuni computer usano un sistema anche meno evoluto per attivarsi e riconoscere l’utente. Sulla sicurezza del sistema ci sono pareri discordanti: alcuni ritengono che sia più sicuro di Touch ID e altri no. Va peraltro detto che in sé il riconoscimento facciale è più preciso della valutazione delle impronte digitali.

La ricarica wireless è una comodità in più, indubbiamente. Dato il relativo successo degli accessori che la portano agli smartphone che ne sono privi, peraltro, viene da pensare che non sia una di quelle tecnologie che fanno la differenza. Se ne sente maggiormente la comodità quando si hanno più dispositivi ricaricabili in wireless con uno stesso accessorio. Anche qui, quindi, si tratta di una comodità da valutare in prospettiva e in base a quanto si è dentro l’ecosistema Apple.

La variabile dei prezzi

Difficile consigliare un modello piuttosto che un altro senza mettere in campo il fattore costo. Sarebbe scontato dire che iPhone X sia il più interessante, si porta però dietro un cartellino del prezzo da quasi 1.200 euro che qualche domanda la fa porre a chiunque. Il contenuto tecnologico-innovativo è indubbio e la qualità costruttiva anche, diciamo però che Tim Cook è probabilmente molto ottimista nel considerare quello di iPhone X un “value price”.

A 949 euro per la versione Plus e 839 per quella normale (prezzi base) nemmeno gli iPhone 8 sono economici, ma sono in linea con il modello tradizionale dei prezzi Apple per gli smartphone di ultima generazione. Come rapporto prezzo/prestazioni convincono più della versione X, della quale comunque condividono la gran parte delle caratteristiche principali. Per chi può fare a meno del display OLED e dell’avanguardia tecnologica sono la scelta migliore.

In ogni evoluzione dello smartphone il modello della generazione appena precedente appare poco appetibile e per iPhone 7 le cose non sono diverse. La differenza di prezzo con la nuova versione 8 non è poca (circa 150 euro per i prezzi base) ma c’è da considerare che la disponibilità di storage è inferiore e che il chip A11 ha la sua importanza, come anche il supporto alle funzioni di realtà virtuale e aumentata di iPhone 8 e X.

La scelta al risparmio potrebbe piuttosto essere iPhone 6s, che consente di spendere quasi 300 euro in meno rispetto ai modelli 8 (sempre per i prezzi base siamo a 549 e 659 euro). Gli iPhone 6s sono ancora smartphone di tutto rispetto, per il modello Plus l’unica mancanza di rilievo è quella legata alla fotocamera posteriore, che non ha la doppia ottica.

iPhone SE fa storia a sé. Può darsi che qualcuno lo acquisti per il prezzo basso (429 euro) ma la sua peculiarità sta nelle dimensioni. Per chi ama lo smartphone Apple vecchio stile è l’unico modello rimasto ed è questa la sua ragion d’essere. Anche se l’appeal del piccolo schermo è in costante calo.

Come si crea una macchina virtuale con Amazon EC2

Nonostante una intensa e articolata concorrenza, AWS resta la piattaforma cloud di riferimento per molti servizi IaaS e PaaS, tra cui anche quelli di base come l’attivazione di macchine virtuali Linux.

Questa parte fa capo ad Amazon EC2 (Elastic Cloud Computing), un servizio che offre molte opzioni tra cui non è sempre facile orientarsi. Il modo migliore è provare, attivando una prima macchina virtuale di base per poi estendere il proprio raggio d’azione.

Tutto parte dalla console di gestione di AWS, la cui interfaccia nel tempo è diventata più chiara e semplice. I servizi disponibili sono molti, Amazon EC2 fortunatamente è il primo tra quelli elencati nella parte All services.

Cliccando sulla voce EC2 si arriva alla console per la gestione delle macchine virtuali. L’elemento più evidente è un grosso pulsante blu con la scritta Launch Instance: fa quello che ci serve, quindi clicchiamolo.

Amazon EC2 ci mostra così le cosiddette AMI, o Amazon Machine Image. Sono in sostanza immagini di macchine virtuali preconfigurate e basate su vari sistemi operativi, corredati o meno da funzioni specifiche. Come prima prova conviene usare una delle AMI a costo zero, ad esempio quella con Ubuntu Server. Clicchiamo sul pulsante Select corrispondente.

La parte successiva alla scelta della AMI serve per indicare ad Amazon EC2 che tipo di risorse vogliamo dedicare alla macchina virtuale in quanto a numero di core (virtuali), memoria, performance e via dicendo. Per il nostro test a costo zero la scelta è obbligata su una istanza t2.micro, ma in realtà i tipi di istanze attivabili sono davvero molti.

Per configurare in dettaglio la macchina virtuale si clicca sul pulsante Configure Instance Details. I parametri di default di solito vanno bene.

La sezione successiva Add Storage permette di configurare la dotazione di storage della macchina virtuale. Anche in questo caso i parametri di default sono idonei alle nostre esigenze, vale giusto la pena notare che Amazon EC2 nella colonna Volume Type distingue tra storage SSD di base (GP2) e ad alte prestazioni (IO1). Nella schermata successiva Add Tags possiamo aggiungere etichette identificative alle macchine virtuali, di solito per nostre operazioni di gestione.

La sezione successiva Configure Security Group è più interessante. Qui possiamo indicare ad Amazon EC2 il range di indirizzi IP che potranno connettersi all’istanza che stiamo creando. Lasciare il valore di default 0.0.0.0/0 in Source non è indicato perché significa abilitare connessioni da chiunque, inseriamo invece l’indirizzo IP della nostra macchina seguito da /32 per farlo considerare nella sua totalità (/128 se usiamo un indirizzo IPv6). La configurazione è finita, clicchiamo su Review and Launch.

Esaminiamo i dettagli della nostra macchina virtuale e, se tutto è corretto, clicchiamo Launch. A questo punto dobbiamo generare una coppia di chiavi di cifratura che protegga le comunicazioni da e verso la VM. La procedura è molto semplice – basta un clic – e porta a scaricare un file .pem da usare per la connessione. Fatto questo lanciamo definitivamente la macchina virtuale, che sarà attiva dopo pochi istanti.

Come si usa una VM di Amazon EC2

Alla macchina virtuale ci si può collegare usando SSH, quindi da linea di comando. Il comando da usare è ssh ubuntu@55.55.55.55 -i mianuovaVM.pem, dove all’indirizzo “finto” 55.55.55.55 va sostituito il vero indirizzo IP pubblico della istanza che abbiamo creato e al posto di mianuovaVM.pem va usato il nome effettivo dei file scaricato con le chiavi di cifratura. Alla prima connessione ci verrà chiesta conferma del collegamento perché il server di connessione è sconosciuto.

A questo punto siamo connessi alla nostra macchina virtuale Ubuntu ed è come se fossimo alla sua console. Sperimentiamo con il sistema e poi provvediamo a bloccare la macchina virtuale, che non deve restare inutilmente in esecuzione.

Nella console di gestione delle macchine virtuali attiviamo il menu contestuale associato a quella che vogliamo disattivare (che dovrebbe essere l’unica visualizzata) e selezioniamo Instance State – Stop per fermarla. Oppure, se siamo sicuri di non fare più nulla con quella macchina virtuale, scegliamo Instance State – Terminate per eliminarla del tutto. Diamo conferma alla cancellazione e il gioco è fatto.

 

Excel 2016: quattro funzioni per elaborazioni avanzate

Quando si tratta di migliorare Excel, Microsoft ha due tipi di utenti da soddisfare allo stesso tempo: quelli “casual” che usano poche funzioni e quelli “pro” che con un foglio elettronico fanno veramente di tutto.

In Excel 2016 ci sono diverse novità destinate a questi utenti avanzati, tra cui quattro funzioni particolarmente interessanti.

Uno strumento molto comodo per chi effettua vari tipi di analisi e creazioni di grafici su tabelle di dati è Analisi Rapida. Dopo aver selezionato un gruppo di celle, nell’angolo in basso a destra della selezione appare una piccola icona con una tabellina e un fulmine.

Cliccandolo si mostra un pannello flottante che mostra numerose funzioni: molte riguardano la creazione di grafici, ma se selezioniamo Totali appaiono alcune opzioni per calcolare e posizionare automaticamente in tabella altrettanti valori significativi come la media, i totali, il conteggio delle voci e via dicendo.

Si tratta di calcoli e funzioni che un utente esperto saprebbe definire in poco tempo, certo, ma averle subito a portata di mouse è comodo, soprattutto nelle tabelle di grandi dimensioni.

Più interessante è il Foglio Previsione. Funziona solo per le tabelle che comprendono dati storici, ad esempio le vendite di un certo prodotto valutate lungo un certo periodo, e solo se i valori memorizzati “distano” fra loro lo stesso intervallo di tempo, ad esempio se sono stati valutati ogni ora, ogni giorno, ogni settimana e così via. Soddisfatte queste condizioni, possiamo cliccare una delle date e cliccare su Foglio previsione nella parte destra del pannello Dati.

In questo modo si apre un nuovo grafico che mostra la previsione dell’andamento del valore considerato anche oltre il periodo in cui è stato rilevato. Possiamo variare le opzioni sia del grafico sia del tipo di calcolo, cliccando Crea si crea un nuovo foglio di lavoro con una tabella aggiornata con le previsioni e il suo grafico.

Altri due potenziamenti di Excel 2016 derivano dall’integrazione nel software delle funzioni che in precedenza erano portate da due moduli esterni. Uno (Power Query) amplia le funzioni di Excel come gestore di basi dati, mentre l’altro (Power Map) riguarda la visualizzazione di dati geospaziali. Si tratta di due ambiti piuttosto complessi per i quali è meglio dare un’occhiata ai tutorial realizzata direttamente da Microsoft (qui e qui).

In sintesi, le funzioni di Power Query ora compongono la parte Recupera e trasforma dati del pannello Dati di Excel 2016.

Questa permette in prima battuta di recuperare dati da varie sorgenti locali, in rete e online. Inoltre nella fase di importazione questi dati si possono filtrare e trasformare attraverso operazioni di query e unione. Non siamo proprio ai livelli di SQL ma in fondo nemmeno Excel è, o dovrebbe essere, un database.

Parallelamente, Power Map è diventato la funzione – ma sarebbe meglio dire il modulo, perché funzione è riduttivo – Mappa 3D che si trova nel pannello Inserisci. A partire da una base dati geolocalizzata, permette di realizzare mappe 3D interattive in cui quei dati sono visualizzati in vario modo e anche nelle loro variazioni temporali.

Precision agriculture: l’esempio viene dal Giappone

Aziende troppo piccole e agricoltori troppo anziani e soprattutto poco innovativi hanno reso in questi anni l’agricoltura giapponese poco produttiva, pertanto si ricorre alla precision agriculture.

E anche particolarmente vulnerabile alla concorrenza, considerato che alcune sue coltivazioni chiave sono protette da dazi e agevolazioni.

Per dare la svolta il Governo giapponese spinge dunque verso l’adozione dei sistemi di precision agriculture, sfruttando anche l’avvento di una nuova generazione di imprenditori.

In una nazione dove l’agricoltore medio ha oltre 66 anni e gestisce tre ettari di terreno, è proprio l’arrivo di forze nuove che può cambiare gli equilibri.

Si tratta di imprenditori che hanno una preparazione economica e tecnologica superiore alla generazione che li ha preceduti, il che permette loro di capire meglio cosa sia remunerativo e cosa no. Ma soprattutto il valore della tecnologia e in particolare della precision agriculture.

Precision agriculture per la crescita

L’adozione di sistemi che vanno dai robot veri a propri alla sensoristica distribuita sul campo è importante, spiegano gli osservatori giapponesi, per la dinamica che avrà la crescita prevista per l’agricoltura giapponese.

Il passaggio dalle imprese agricole familiari a quelle aziendali è essenziale, la crescita nelle dimensioni delle aziende non può però essere seguita da una proporzionale crescita della forza lavoro.

La diffusione delle tecniche di precision agriculture serve quindi ad avere coltivazioni gestite in maniera efficiente e produttiva anche con manodopera relativamente contenuta.

Una crescita nei posti di lavoro ci sarà comunque, si spiega, perché le nuove tecnologie hanno bisogno di persone preparate che le gestiscano.

Fashion e digitalizzazione: come stare in scia ad Amazon

Per le aziende il mantra oggi è quello di essere reattive di fronte al mercato e di soddisfare velocemente le necessità dei clienti, meglio ancora se le si possono prevedere con un certo anticipo, e la cosa vale anche per le realtà del fashion.

Come si posizionano le aziende del mondo fashion sulla strada verso questo obiettivo? Non bene, secondo la gran parte degli analisti di settore. Con in più il rischio di trovarsi sorpassate a destra da nuovi attori che non pensano al (fast) fashion come ambito creativo ma come un mercato da soddisfare come qualsiasi altro, grazie alle tecnologie.

Come in tanti altri ambiti del retail, una importante cartina di tornasole è cosa fa Amazon. Nel settore fashion non conta tanto che la casa di Jeff Bezos venda prodotti fatti da altri, ma piuttosto che abbia modo di mettere piede in casa delle persone, vedere cosa indossano, consigliare nuovi look e nel frattempo raccogliere informazioni da analizzare per definire creativamente cosa proporre con le sue linee di abbigliamento. Che per ora sono poche e poco diffuse, ma per ora.

Nessuna azienda del mondo fashion può garantire questo livello di personalizzazione e allo stesso tempo di automazione del processo creativo-produttivo.

In parte è una questione fisiologica: da un lato la filiera del fashion è poco integrata e quindi poco reattiva, dall’altro i prodotti sono pensati per soddisfare una clientela potenziale abbastanza ampia da giustificare la produzione di massa. La personalizzazione spinta è un tema da segmento del lusso, perché tradizionalmente introduce costi.

Il punto sta proprio in quel “tradizionalmente”. Il pericolo per molte aziende del fashion viene da imprese che certi problemi non se li pongono perché armate di nuove tecnologie per nuovi approcci: Big Data, machine learning, modellazione virtuale, digitalizzazione della supply chain.

Lo scenario che Amazon (e non solo) traguarda in prospettiva è chiaro: analizzare i dati sugli acquisti effettuati e sui trend di acquisto, combinarli con altri dati sui prodotti e sugli stili (e stilemi) più popolari, passare queste informazioni ad algoritmi di machine learning e intelligenza artificiale che operino come designer sintetici, creando nuovi prodotti che hanno una elevata probabilità di avere successo. I progetti così creati passano a fabbriche digitalizzate e automatizzate che poi realizzano fisicamente i prodotti.

Tutto questo poi con la possibilità di agire indifferentemente per fasce di mercato come per il singolo consumatore. Basta avere i dati giusti, perché con le tecniche di digital manufacturing il vantaggio della maggiore semplicità tipica della produzione di massa si riduce (in prospettiva) fino a scomparire.

Certo non tutti sono Amazon – che tra l’altro ha già brevetti per parti del processo produttivo descritto – ma la strada è stata già intrapresa in vario grado da aziende piccole e grandi.

Molte aziende tradizionali possono restare perplesse davanti all’idea di un designer virtuale che crea collezioni personalizzate on demand. Chi sta sperimentando soluzioni del genere per ora le affianca a creativi umani che introducano quel tocco in più o valutino l’effettiva consistenza delle idee prodotte.

Ma il vantaggio del machine learning è innegabile: un algoritmo ben addestrato sa analizzare e correlare migliaia di elementi estetici e stili, raffrontarli ai gusti del singolo consumatore e arrivare a un prodotto personalizzato in qualche secondo.

In teoria potremmo trovarci a bighellonare virtualmente per un sito retail e, dopo qualche pagina, vederci proposto un nuovo prodotto ad hoc studiato in base a quelli che abbiamo consultato.

La buona notizia per le aziende già presenti sul mercato è che le nuove tecnologie sono a disposizione di tutti, non solo dei giganti alla Amazon o delle startup.

Recependole e unendole con il patrimonio storico che già si ha, dalle informazioni sui clienti agli elementi delle collezioni già prodotte, nulla vieta di giocare ad armi pari con la concorrenza più “tecnologica”.

Arrivano gli Smart Textile con inchiostro conduttivo

1

DuPont continua a sviluppare le sue proposte tecnologiche per gli smart textile, dimostrando in particolare alcune applicazioni pratiche per la linea Intexar.

Il vantaggio di questa soluzione sta soprattutto nel fatto di poter realizzare tessuti come quelli “normali” pur garantendo la trasmissione di segnali elettrici.

L’idea è quella di realizzare capi di abbigliamento, soprattutto in ambito sportivo, senza la necessità di cucire il tessuto tradizionale con una parte smart separata. Inoltre i capi in Intexar possono anche essere lavati più volte come quelli normali, cosa che non accade per la gran parte degli smart textile.

Questo è possibile perché Intexar non è un tessuto smart ottenuto intessendo fili conduttivi con il tessuto normale. Viene prodotto unendo inchiostri conduttivi ai tessuti flessibili che, poi, si possono lavorare con i classici sistemi di tessitura.

In questo modo è possibile integrare direttamente nei tessuti dei veri e propri circuiti elettrici composti da tratti conduttivi, resistenze e condensatori. Dotati della necessaria sensoristica, questi circuiti raccolgono informazioni biometriche come la frequenza del battito cardiaco oppure, rilevando la tensione del tessuto, lo sforzo muscolare localizzato e la respirazione.

Con Intexar sono stati realizzati diversi wearable tra cui anche l’OMbra di OMsignal, un reggiseno sportivo “smart” che rileva battito cardiaco e respirazione: idati sono comunicati a uno smartphone, dove un’app li analizza e li confronta con piani specifici di allenamento. Pare però che l’avventura commerciale di OMsignal sia giunta a termine, come rivela questo sito.

Chatbot: quattro errori da evitare

Molte aziende vogliono adottare i chatbot per snellire i loro processi di comunicazione e interazione con i clienti. L’idea è buona, ovviamente, ma non tutti gli sviluppatori sono pronti a studiare un flusso di comunicazione che sia allo stesso tempo efficace e rapido.

Le logiche dei chatbot infatti non sono la trasposizione esatta di quelle della comunicazione via web e nelle app mobili. Alcuni accorgimenti vanno sempre tenuti presente per evitare gli errori più comuni.

Il primo e principale riguarda l’interattività. I clienti dialogano con i chatbot perché vogliono una comunicazione più semplice, non più complicata. Questo richiede che chi sviluppa il chatbot abbia ben presente quale dovrebbe essere il senso del dialogo: arrivare a un’azione concreta. La strada verso questa azione – ad esempio immettere un ordine – deve essere la più semplice possibile, mettendo bene in evidenza i comandi o le opzioni più interessanti (per il cliente ma anche per l’azienda).

Assolutamente da evitare è generare nel cliente la sensazione di trovarsi di fronte a una versione chat del risponditore automatico da call center. Nessuno mai ama trovarsi di fronte a tante opzioni senza avere chiaro quello che dovrebbero fare. O, peggio, di trovarsi in un vicolo cieco da cui tornare indietro. Il passo successivo nel flusso delle operazioni deve sempre essere chiaro, evitando opzioni inutili.

Kai, il chatbot di MasterCard che informa i clienti sulle transazioni fatte via carte di credito

Serve anche ridurre al minimo la necessità per il cliente di digitare testo, operazione che tra l’altro non è mai troppo comoda su uno smartphone (è qui che molto probabilmente il chatbot dialogherà con il cliente). Se il bot può ricavare informazioni dai sistemi IT di backoffice dovrebbe farlo e chiedere al cliente solo di confermarle. Per il resto conviene usare il più possibile scelte standard precomiplate, dando comunque la possibilità di variarle, come anche pulsanti e altri elementi di scelta rapida, a seconda di quelli che offre la piattaforma di comunicazione.

Nella disposizione delle opzioni va sempre ricordato che il senso della lettura non è scontato. Molti clienti leggeranno dall’alto verso il basso e da sinistra verso destra, in molte nazioni però le abitudini sono diverse e l’ordine delle opzioni appare magari l’opposto di quello che avevamo considerato.

Un fattore da non sottovalutare è lo “spirito” della comunicazione. Non tutti sono convinti del fatto che un chatbot debba avere una personalità specifica di spicco, ma chiunque si aspetta che interagisca almeno come un interlocutore umano.

Quindi magari non dovrà essere spiritoso, però dovrà certamente avere un linguaggio amichevole e da persona “normale”. Se gli chiediamo informazioni, per dire, non deve riproporci le FAQ del sito aziendale (anche se può rimandare alla loro pagina). Allo stesso modo, nessuno ama dialogare con una persona insistente: meglio ridurre al minimo i messaggi non sollecitati e, nelle conversazioni, mantenere le risposte brevi con uno o due messaggi in sequenza, non di più.

Excel 2016: quattro funzioni per lavorare meglio

Excel ha conquistato il ruolo di strumento fondamentale in molte attività di un’azienda. Non è solo il foglio elettronico di riferimento ma anche uno strumento di analisi, un client per sistemi di analytics, un quasi-database, una piattaforma di sviluppo e molto altro ancora. Per questo motivo alcuni utenti sono diventati davvero esperti anche delle funzioni meno evidenti del software, mentre altri in fondo usano solo quelle principali. Ma specialmente in Excel 2016 ci sono vari elementi che possono essere di aiuto a qualsiasi tipo di utente. Vediamone alcuni.

Innanzitutto, i nuovi grafici. Un grafico ben studiato può dare una marcia in più a un documento o a una presentazione, molti però finiscono per fossilizzarsi su pochi tipi di grafici che hanno già sperimentato con successo. Fortunatamente Excel 2016 ha introdotto alcuni nuovi tipi di grafici che possono fare da spunto. Sono però persi tra gli altri, quindi è facile non averci fatto nemmeno caso.

Per vederli selezioniamo un blocco di cifre di riferimento, diamo il comando Inserisci > Grafici consigliati e poi il pannello Tutti i grafici. Le novità sono denominate Albero, Radiale, Istogramma (con la versione Pareto), Cascata e Scatole e Baffi (qui la localizzazione letterale non rende molto, ma il grafico sì).

Chi usa spesso Excel come strumento per preparare report potrà trovare utile la Ricerca Intelligente. Il suo scopo è essenzialmente portare “dentro” Excel 2016 i risultati che otterremmo eseguendo una ricerca sul web. Per attivare la funzione basta selezionare una cella o un singolo termine, attivare il menu contestuale e selezionare il comando Ricerca intelligente.

Excel non fa altro che passare il termine a Bing, poi apre un riquadro laterale dove sono elencati i risultati di Wikipedia e di una ricerca generica. Cliccando su Definisci appare invece, se possibile, una definizione da vocabolario del termine cercato. I risultati non sono sempre azzeccati, ma è comunque un aiuto in più.

Molti utenti di Excel 2016 possono usare il software per lungo tempo senza mai fare caso al pulsante Attività. Questo banalmente perché esso non appare se salviamo i file in locale o su server di rete generici. Si attiva solo per i file salvati su OneDrive o su un server SharePoint, due tipi di luoghi virtuali che Excel associa alla condivisione.

In realtà quello che ci interessa qui è la gestione di una funzione di versioning più che la condivisione, che in Excel è comunque limitata. Se clicchiamo il pulsante Attività, che è una icona a forma di orologio a destra del comando Condividi, appare un riquadro con elencati tutti i salvataggi precedenti, del proprietario del file o di coloro con cui è stato condiviso. Clicchiamo sulla dicitura Apri versione per aprire una versione precedente, da cui copiare contenuti e che possiamo salvare come file separato. Per tornare alla versione più recente clicchiamo su Ripristina.

Infine, a tutti può servire un aiuto su misura. Per questo alla destra di tutti i nomi dei pannelli del Ribbon c’è un’icona a forma di lampadina con la dicitura Che cosa si vuole fare?. La localizzazione italiana fa perdere un po’ il senso amichevole della funzione collegata, che gli anglosassoni chiamano Tell Me. Cliccando la dicitura appare un campo di ricerca dove digitare, in linguaggio naturale, quello che si vuole fare. Man mano che lo si scrive, appaiono le funzioni di Excel 2016 che probabilmente soddisfano le nostre necessità.

Il senso di Tell Me è portare in evidenza funzioni e comandi di Excel che sono invece magari persi nei meandri dei suoi menu o del Ribbon. Come minimo si risparmia tempo, comunque si possono scoprire funzioni sconosciute. Male che vada, le ultime due voci suggerite sono sempre funzioni di ricerca per approfondire l’argomento.

Precision agriculture alle prese con i sistemi IT chiusi

La progressiva diffusione delle applicazioni di precision agriculture ha dimostrato nei fatti agli agricoltori quanti vantaggi si possano trarre dalla raccolta e dall’analisi approfondita dei dati.

Così gli agricoltori hanno capito quanto preziosi siano i dati stessi e, di conseguenza, hanno cominciato a porsi alcune importanti domande. Di chi sono veramente i dati raccolti? Chi li controlla? Come si può garantire la loro disponibilità nel tempo?

Sono domande che le imprese si sono poste già molto tempo fa, in altri settori, e che nell’agricoltura rappresentano una novità.

Il tema sotteso è quello del rischio di affidarsi a un vendor specifico in una fase del mercato che è ancora molto dinamica.

Il pericolo di essere prima conquistati da un fornitore e poi praticamente “ammanettati” ad esso (il fenomeno noto come lock-in) è molto concreto.

I segnali già ci sono. Molti vendor stanno palesemente provvedendo a costruire ecosistemi di precision agriculture che in teoria permetterebbero agli utenti di usare un solo fornitore per tutto, o quasi. Quanto questi ecosistemi siano poi davvero aperti e permettano la migrazione verso altri, è tutto da vedere.

Il lock-in non è una novità ma nella precision agriculture può assumere forme particolarmente insidiose perché le soluzioni software sono strettamente integrate con l’hardware, quando non vi sono proprio integrate dentro.

Questo rende tutto più complesso, anche semplicemente capire cosa copra una licenza, magari indirettamente, e cosa invece ne sia escluso. Quando una soluzione software è integrata in un trattore, ad esempio, quanta libertà ha l’agricoltore di intervenire sul macchinario anche nella sua parte hardware? In alcuni casi, si è già scoperto, molto poca.

Mai come in questo caso prevenire è meglio che curare, anche perché la cura può non esistere affatto. Molto meglio quindi approfondire bene che cosa comporta l’acquisto di una soluzione di precision agriculture, in tutti i suoi componenti.

Chiarire chi ha la proprietà dei dati raccolti, che uso le controparti ne possono fare, a chi possono essere comunicati, come (e se) trasferirli ad altri sistemi nel momento in cui si decidesse di cambiare soluzione o fornitore. L’obiettivo è anche quello di spingere dal basso i fornitori a garantire trasparenza nella gestione dei sistemi e delle informazioni, come è successo nel mondo IT in generale.

Fashion e blockchain: l’idea di un catalogo globale

Anche il mondo del retail e della moda ha affrontato le prime applicazioni di blockchain. La tecnologia in sé è ancora in fase di test nei vari settori dove si sta affermando, quindi siamo ancora a uno stadio iniziale di studio dei possibili utilizzi oltre quello, più evidente, di gestione sicura delle transazioni commerciali.

Una nuova ipotesi che viene portata avanti è quella di adottare blockchain come base tecnologica per realizzare una sorta di archivio globale dei prodotti di tutte le principali case. Non si tratterebbe di un archivio in senso logistico, ossia di un database distribuito delle disponibilità dei prodotti, ma di una base dati con le informazioni sui singoli SKU.

L’idea nasce dalla constatazione che oggi il modo più rapido per scoprire informazioni sui prodotti è cercarli attraverso un motore di ricerca. Questo però significa, per i produttori, cedere a un terzo (essenzialmente Google) il controllo di questa ricerca. E si è visto che in questo modo si dà la possibilità a chi gestisce il motore di sviluppare un proprio business che, potenzialmente, è a danno dei produttori stessi.

I ledger distribuiti di blockchain potrebbero in questo senso essere usati come archivi distribuiti e “democratici” in cui i produttori inserirebbero le informazioni sui loro vari prodotti. La natura stessa di blockchain garantirebbe che queste informazioni non potrebbero essere variate arbitrariamente. Oltretutto non è necessario che i blocchi siano costituiti da schede prodotto complete, potrebbero anche contenere poche informazioni di base e un puntatore agli altri dati conservati nei sistemi del produttore.

Queste informazioni “garantite” sui prodotti potrebbero poi alimentare qualsiasi servizio di curation, dai cataloghi online ai veri e propri ecommerce. La differenza sostanziale rispetto alla situazione attuale è che il controllo delle informazioni resterebbe nelle mani dei produttori, anche se poi la gestione in sé dei ledger potrebbe essere demandata ad aziende più tecnologiche.

Il tassello che manca è un formato standard che definisca la struttura sia dei dati nei blocchi delle blockchain sia degli eventuali dati “estesi” conservati nei sistemi dei produttori. Idealmente queste strutture dati potrebbero spaziare dalle specifiche tecniche alle immagini sino alle informazioni legate alla commercializzazione e alla vendita. Potrebbero essere dati in parte pubblici e in parte dedicati solo agli operatori commerciali.

Internet of Things: reti LPWA di fronte a un bivio

Lo sviluppo delle reti LPWA per le applicazioni Internet of Things vede da tempo un confronto tra i fautori delle tecnologie cellulari e quelli degli approcci che vengono dal mondo più IT delle wireless LAN.

Ma anche nel primo campo ci sono diverse soluzioni tecniche possibili per la realizzazione di reti LPWA (Low Power Wide Access), con la GSM Association che mette in primo piano NB-IoT e LTE-M.

Sull’importanza delle reti LPWA peraltro non ci sono contrasti. Sono considerate un complemento alle classiche reti cellulari (dal vecchio 2G sino al 4G) progettate in modo specifico per le comunicazioni di oggetti che hanno poca potenza – per avere bassi consumi – ma anche esigenze di banda limitate.

In questa categoria può rientrare un po’ di tutto: parchimetri, contatori del gas, distributori automatici, sensori per la precision agriculture, sistemi di illuminazione stradale e molto altro. Non a caso la GSMA stima la presenza di 5 miliardi di connessioni LPWA entro il 2022.

Comprensibilmente, la GSMA pone come requisito per qualsiasi rete LPWA l’utilizzo di bande licenziate. Lo spettro libero ha il vantaggio di essere a disposizione di tutti, ma questo implica la possibilità di interferenze nelle trasmissioni e quindi la difficoltà di garantire una determinata banda.

Lo spettro licenziato è più affidabile e controllato, ma in mano a chi ha investito nelle relative licenze. Che gli operatori mobili puntino su questo è quindi prevedibile, come anche il fatto che altre realtà preferiscano un approccio meno “chiuso”.

NB-IoT (Narrowband IoT) è la tecnologia LPWA di cui probabilmente si è parlato di più in questi anni, con LTE-M in seconda battuta.

Nonostante le denominazioni delle due tecnologie siano sensibilmente diverse, in realtà entrambe rientrano nel flusso evolutivo definito per le tecnologie cellulari in ottica IoT. Entrambe puntano in particolare sulla semplicità dei dispositivi connessi e anche della rete, elemento che si traduce anche in un contenimento dei costi.

La differenza sostanziale tra i due approcci è che LTE-M è nativamente compatibile con le reti LTE esistenti, mentre NB-IoT usa una tecnologia di comunicazione diversa. Un bel vantaggio per LTE-M, bilanciato però dal fatto che complessivamente una rete NB-IoT può avere una architettura più semplice e quindi più economica. Una differenza che giustifica la visione della GSMA per cui i due approcci sono complementari.

Indipendentemente dalla tecnologia specifica scelta per una rete LPWA, resta chiave il ruolo degli operatori mobili nell’integrazione di quest’ultima con le altre reti. Il traffico dati della rete IoT deve a un certo punto passare sulle reti tradizionali, cosa che secondo la GSMA può essere gestita in maniera ottimale proprio dagli operatori mobili sfruttando le celle e le connessioni di backhaul già esistenti. Tra l’altro è facilmente ipotizzabile che in molti casi il gestore della rete LPWA sia proprio un operatore mobile.

I nuovi strumenti di collaborazione di Dropbox Paper

Con lo sviluppo di Dropbox Paper lo staff del servizio di (non solo) cloud storage ha cercato di ampliare il raggio d’azione delle funzioni offerte virando in modo deciso verso la collaborazione.

Di fatto Paper è una piattaforma per condividere documenti multimediali che abilita diverse funzioni di collaboration, come i commenti e le modifiche condivise.

Lo svantaggio di Dropbox Paper è che le sue funzioni di partenza sono apparse relativamente limitate rispetto ad altre piattaforme che sono molto più mirate sui temi della collaboration.

Per questo Paper ha acquistato nel tempo diversi connettori verso servizi complementari da cui trarre immagini, video e altri media da inserire nei documenti.

Le novità più recenti di Dropbox Paper riguardano proprio queste integrazioni.

A quelli preesistenti si sono infatti aggiunti connettori per Sketch, InVision e Figma. Ma le integrazioni sono state potenziate anche nel verso opposto: una nuova API permette di creare o modificare documenti di Paper dall’interno di altre applicazioni.

Dal punto di vista dell’organizzazione dei documenti sono state introdotte due novità: la possibilità di creare cartelle da device mobili e un miglioramento nelle funzioni di archiviazione e cancellazione dei file.

L’estensione che potrebbe avere il maggiore impatto nella parte di collaborazione è l’integrazione con Slack, la piattaforma di chat aziendale.

L’integrazione è tale che si può inserire in Slack un link verso un documento di Dropbox Paper per vederne un’anteprima e i metadati, creare un documento di Paper direttamente da Slack ed eseguire ricerche, sempre da una sessione di comunicazione in Slack, tra i propri documenti di Paper.

Il Mac non funziona più? Ecco cosa fare

0

Se il Mac non funziona come dovrebbe ci sono varie operazioni che si possono mettere in atto, dalle più semplici alle più complesse. Quando le cose non sembrano risolversi in maniera semplice può essere il caso di eseguire il reset dei componenti del Mac che conservano parte delle informazioni fondamentali per il suo funzionamento. Si tratta di un’azione un po’ esoterica, ma ai mali estremi…

Quando il Mac si avvia deve sapere come configurare parte dei suoi componenti, ad esempio deve sapere da che disco avviarsi e che risoluzione del video impostare. Questi parametri non si possono ricavare dal sistema operativo – che non si è ancora avviato, al boot – e sono conservati in una memoria non volatile detta NVRAM. NV sta appunto per Non Volatile. Può capitare, anche se raramente, che la NVRAM arrivi a contenere informazioni errate o non utilizzabili, il reset la riporta ai valori di default.

Per il reset della NVRAM basta spegnere il Mac e poi riaccenderlo tenendo premuti i tasti Comando-Opzione-P-R (la NVRAM una volta si chiamava PRAM, ossia Parameter RAM). Bisogna tenere premuti i tasti sino a quando non si sente un secondo “bing” oltre al primo, classico, dell’avvio del Mac. Avendo resettato le impostazioni, dopo l’avvio è meglio portarsi nelle Preferenze di Sistema per riconfigurarle come vogliamo.

Un altro componente che controlla alcuni parametri di funzionamento del Mac è il cosiddetto SMC, o System Management Controller. Questo opera per aspetti meno evidenti del Mac ma importanti, come ad esempio la gestione delle ventole e dell’alimentazione. Anche in questo caso è raro che il SMC si confonda, ma può accadere e comunque il suo reset non ha effetti collaterali negativi.

Come spiega Apple, il reset del SMC si esegue in modi diversi a seconda del Mac in questione. Per tutti bisogna spegnere il Mac e scollegare il cavo di alimentazione, nel caso dei portatili con batteria estraibile bisogna scollegare anch’essa. Da qui in poi le procedure cambiano. Per un Mac desktop bisogna aspettare 15 secondi, collegare di nuovo il cavo di alimentazione, attendere altri cinque secondi e poi avviare il Mac. Per un Mac portatile con batteria fissa bisogna tenere premuti per dieci secondi i tasti Maiuscole-Ctrl-Opzione sul lato sinistro della tastiera e contemporaneamente il pulsante di accensione. Poi si accende il Mac come al solito.

Per un Mac notebook con batteria estraibile le cose sono più semplici. Si tiene premuto il pulsante di accensione per cinque secondi, poi si rimette a posto la batteria e si ricollega il cavo di alimentazione. Infine si riaccende il Mac.

Dieci trend da seguire per i data scientist

Oggi è difficile trovare qualcuno che non veda nell’analisi dei dati una delle principali priorità di qualsiasi impresa: per questo motivo le piattaforme e le tecnologie di analytics sono in costante evoluzione e il data scientist è diventato una delle figure più appetite in molte aziende.

La vita dell’analista però non è semplice: operare in un ambito in forte evoluzione significa anche tenere d’occhio le tendenze che si stanno affermando, per capire se possono essere d’interesse, e stabilire quanto puntare ancora sui settori che, invece, stanno vedendo calare la loro popolarità.

Tra le evoluzioni di cui tenere traccia ci sono, a parte le singole tecnologie, quelle che in generale stanno toccando le funzioni di analisi in cloud. Ai data scientist serve seguirle perché da un punto di vista procedurale è sempre meglio, quando possibile, analizzare i dati là dove si trovano. E oggi i dati aziendali sono sempre più in cloud. Questo significa affidarsi sempre di più alle funzioni che sono nativamente disponibili sulle piattaforme dei cloud provider.

Cresce sensibilmente anche l’interesse intorno alle deep neural network. Questo tipo di reti neurali sta facendo da supporto allo sviluppo di algoritmi di machine learning complessi e che operano su larga scala. Le reti neurali con molti livelli promettono funzioni di machine learning che “imparano” meglio, ma sono anche più complesse da gestire. La conseguenza è che stanno passando in primo piano alcuni framework che promettono di gestirle meglio di altri.

Anche per questo motivo si parla molto di due framework comunque noti ai data scientist: TensorFlow e MXNet. Il primo è nato in casa Google, dove è alla base di quasi tutte le iniziative legate al machine learning, ma è anche open source. Non è certo una piattaforma semplice ma punta particolarmente sull’essere flessibile e utilizzabile in molti ambiti. MXNet è simile, con qualcosa in più nella parte di calcolo dei tensori e qualcosa in meno nel debugging.

Alcuni framework d’interesse per i data scientist hanno seguito la crescita di popolarità di Python. Chi usa il linguaggio in ambito scientifico conosce la libreria SciPy, in campo machine learning questa fa da base per il progetto Scikit-learn. Non è di sicuro il framework più completo per l’AI ma ha il vantaggio della semplicità nella fase di sviluppo. E il supporto di Cython aiuta quanto serve un buon livello di performance.

In un ambito molto diverso, ma comunque collegato all’analisi dei dati e (originariamente) a Python, c’è Jupyter Notebook. La piattaforma permette di creare documenti interattivi che i data scientist possono condividere per analizzare dati, eseguire codice e simulazioni numeriche in tempo reale, studiare modelli di machine learning. La “r” di Jupyter fa riferimento al linguaggio R e va segnalato che questo sta diventando sempre più popolare anche di per sé.

Cosa è in frenata

Detto di cosa sta suscitando l’interesse degli addetti ai lavori, ci sono anche altri elementi che stanno passando da una fase di grande “hype” a una di normalizzazione. Questo non vuol dire che non interessino più, ma che la loro adozione viene ora considerata con un occhio più pragmatico. Il che di solito è un bene.

Lo è ad esempio per tutto il mondo IoT. La prospettiva di rendere smart e connesso qualsiasi oggetto non è più così allettante in diversi ambiti, dopo che le implementazioni di molti produttori hanno mostrato una preoccupante mancanza di attenzione ai temi della sicurezza. In generale la vulnerabilità potenziale delle implementazioni IoT ha raffreddato un po’ gli entusiasmi di chi già vedeva enormi quantità di dati arrivare dal mondo fisico alle funzioni di analytics. In molti casi questo è possibile senza rischi, ma ciò non è più dato per scontato come una volta.

Tra le specifiche piattaforme, si sono un po’ raffreddati gli animi intorno ad Hadoop. Non perché i suoi concetti di fondo non siano validi ma perché le implementazioni si sono rilevate complesse a causa dei tanti moduli che possono coinvolgere, tra quelli del progetto in sé (Common, HDFS, YARN, MapReduce) e quelli di altri progetti collegati (Ambari, Cassandra, Hive, Kafka, Spark…). Senza contare le diverse implementazioni dei vari cloud provider.

Abbiamo indicato la popolarità delle reti neurali complesse per il deep learning e la conseguente crescita di framework come TensorFlow. A perderci, in più di un senso, è stato Caffe. Era stato visto come la piattaforma più promettente per il riconoscimento delle immagini e le potenzialità restano inalterate, ma il suo sviluppo appare in frenata – siamo ancora a una versione 1.0 considerata piuttosto problematica – proprio per l’interesse di tecnici e data scientist per altre piattaforme.

Il mondo della pubblicità online protesta contro Safari di iOS 11

C’è stata una levata di scudi da parte del mondo della pubblicità online contro le novità che Apple ha pronte per Safari nelle versioni di iOS 11 e macOS High Sierra. In una lettera aperta che è stata pubblicata da AdWeek, le principali organizzazioni internazionali collegate all’advertising online mettono in evidenza che il funzionamento di Safari minerà le fondamenta di diverse meccaniche nella gestione dei contenuti pubblicitari via web.

Prevedibilmente la posizione del mondo della pubblicità online è che questa evoluzione è negativa per gli utenti perché impedirà ai gestori di contenuti di innovare e porterà a una navigazione del web più anonima. Le opinioni in merito possono essere diverse.

Il nocciolo della questione è una funzione di Safari definita Intelligent Tracking Prevention. In effetti è nota già da tempo, quindi la reazione della comunità della pubblicità online appare un po’ tardiva, anche se iOS 11 sarà disponibile dal 18 settembre. In estrema sintesi, ITP impedisce di fare il cosiddetto retargeting dei contenuti pubblicitari in maniera indiscriminata, impedendo cioè il proliferare di annunci online che si adeguano a ciò che abbiamo consultato su siti precedenti a quello in cui ci troviamo.

Il sistema si basa sulla gestione dei cookie, in particolare sulla possibilità che un sito web ha di consultare i cookie creati da un altro. Come i siti possono condividere contenuti generici, possono in teoria condividere anche i cookie. In questo modo ad esempio il sito di un quotidiano “vede” che abbiamo visitato in precedenza il sito del produttore A e in particolare abbiamo consultato informazioni sul prodotto B, quindi può presentare pubblicità online mirata su quel prodotto. Anche semplicemente le offerte di Amazon, per dire.

Apple ritiene che l’utilizzo indiscriminato dei cookie “condivisi” sia negativo per la privacy degli utenti e vi ha posto un freno con Intelligent Tracking Prevention. In estrema sintesi il principio di fondo è che Safari permetterà a un sito di vedere i cookie creati da altri siti solo se il primo è un sito che l’utente visita frequentemente, per la precisione deve essere stato visitato nelle ultime 24 ore. In caso contrario il sito può vedere il cookie solo per eseguire un login – quindi niente pubblicità online con retargeting – e solo se è stato visitato negli ultimi 30 giorni. Oltre questa soglia temporale non vedrà nemmeno le informazioni di login.

Al mondo della pubblicità online ovviamente non interessa cosa fa Safari desktop, che ha una quota di utenti molto bassa. Il punto chiave è Safari mobile, che genera una percentuale significativa (negli USA praticamente la metà) del traffico online da tablet e smartphone.

Alien Skin pronta al lancio di Exposure X3

Si avvicina la data di rilascio di Exposure X3, nuova release dell’applicazione di Alien Skin per l’editing fotografico non distruttivo di immagini in formato raw. La software house spiega che la versione X3 comprende diverse nuove funzioni per la parte creativa e per l’organizzazione delle immagini.

Alla prima categoria appartengono nuovi strumenti per la gestione dei gradienti lineari e radiali, come anche alcuni nuovi tool per il controllo delle tonalità. Utile anche la funzione di Virtual Copy, che permette di creare copie virtuali di una fotografia in modo da seguire flussi di ritocco paralleli a partire dalla stessa immagine.

Per la parte di gestione delle immagini si segnala soprattutto l’introduzione delle keyword e delle collezioni. Le prime servono ad aggiungere metadati descrittivi alle fotografie, le seconde sono un modo per raggruppare velocemente le immagini.

Alien Skin prevede di rilasciare Exposure X3 entro la fine dell’autunno. Il prezzo previsto è di 149 dollari per la versione completa e di 99 per l’aggiornamento da una release precedente. Chi acquista Exposure 2 in queste settimane (per la precisione dall’inizio di settembre) potrà aggiornare gratuitamente a X3.

Più semplicità nel Finder con PresButan

0

Il Mac è sinonimo di interfaccia grafica, mouse e da qualche tempo anche gesture, ma in realtà molte operazioni di uso comune si possono eseguire anche con scorciatoie da tastiera. In questo l’impostazione del Finder è piuttosto conservativa: nessuna operazione “pericolosa” si può eseguire semplicemente premendo un tasto. È un bene, ma alcuni utenti più esperti vorrebbero più libertà.

C’è una piccola utility che viene in loro aiuto: si chiama PresButan e associa ai tasti Invio e Delete le operazioni di apertura e cancellazione dei file, rispettivamente. In pratica, è lo stesso comportamento che si ha in Windows.

PresButan è proprio una utility “vecchio stampo”, poco amichevole: di suo viene bloccata da Gatekeeper perché non proviene da uno sviluppatore registrato e richiede che la inseriamo tra quelle autorizzate a intervenire sul Mac nella parte Sicurezza e Privacy delle Preferenze di Sistema.

È anche una utility molto essenziale. Tecnicamente è un demone che si mantiene in esecuzione e rileva la pressione di Invio e Delete. Se il Finder è attivo e un file è selezionato, a quel punto Invio lo apre (invece di modificarne il nome) e Delete lo sposta nel Cestino. PresButan associa la cancellazione anche al tasto Cancella, per chi ha una tastiera estesa.

L’utility permette di lavorare più rapidamente per chi gestisce molti file nel Finder. Purtroppo il lato negativo della sua essenzialità è che praticamente non ha un’interfaccia e quindi gestirla non è semplicissimo. Al primo lancio ci chiede di confermare la nuova associazione dei tasti Invio, Delete e Cancella. E questa è tutta la sua configurazione.

Dopo il lancio il demone resta attivo fino a quando non lo disattiviamo noi. Lo si fa con la combinazione di tasti Control-Comando-Cancella, ma sui Mac portatili bisogna premere anche il tasto Fn per via di come viene riconosciuto il tasto Delete in alto a destra. Se per qualche motivo la combinazione di tasti non viene riconosciuta si può solo disattivare il demone usando Monitoraggio Attività.

Se si vuole cambiare il comportamento di PresButan bisogna rifare la sua configurazione, che si attiva nuovamente rilanciando l’utility tenendo premuto il tasto Comando. Non proprio il massimo della semplicità, anche se l’operazione non è di quelle frequenti.

La sicurezza IT ha bisogno di una lingua comune in azienda

L’atteggiamento delle aziende verso la sicurezza IT si è fatto più maturo negli ultimi anni, indipendentemente dalla dimensione delle aziende stesse.

L’IT security una volta era un male necessario, ora si è capito che serve un’attività di controllo e protezione costante per evitare brecce nella rete.

E che queste non sono solo un problema tecnico ma hanno conseguenze molto nette sulla reputazione e sui conti dell’azienda che le subisce.

Premesso questo, che è comunque un fatto positivo, resta vero che la gran parte delle imprese non effettua un monitoraggio dell’efficacia delle misure di protezione che ha messo in atto per la sicurezza IT.

Non si valutano cioè le metriche collegate alla sicurezza, né si considera questa in un’ottica di valutazione del rischio e nei suoi possibili impatti sul business.

Diversi vendor ma anche organizzazioni indipendenti hanno condotto studi a campione che mostrano come anche gli investimenti in sicurezza IT, sebbene corposi, vengano delineati senza raffrontarli a una valutazione delle best practice e in ottica di risk management.

In buona parte è un problema legato a un dialogo non ottimale tra tutte le parti coinvolte: CIO, CISO (o responsabili della sicurezza) e business manager.

Una lingua comune che può favorire questa comunicazione parte dalla definizione degli indicatori di performance (KPI) e di rischio (KRI) più opportuni.

Analizzando il contesto di business collegato all’infrastruttura IT che lo supporta si possono identificare gli indicatori giusti per “fotografare” lo stato dell’azienda di fronte ai rischi IT e di business.

Questi KPI e KRI vanno ovviamente poi valutati e interpretati, derivandone le indicazioni su come migliorare.

Intorno al tema della sicurezza IT bisogna insomma coinvolgere tutte le parti interessate, che non sono solo quelle tecniche ma anche quelle legate al business. Il processo è, prevedibilmente, sempre in atto.

La valutazione di KPI e KRI è costante e anche la loro analisi deve avvenire regolarmente per seguire l’evoluzione dello scenario sicurezza e mantenere l’azienda protetta, quantomeno nei limiti del possibile.

Esplorazione spaziale: la Nasa punta alla stampa 3D

Realizzare con tecnologie di manufacturing additivo un habitat per l’esplorazione spaziale è possibile: lo ha dimostrato la statunitense Branch Technology vincendo con la stampa 3D un apposito concorso organizzato dalla Nasa.

Il contest fa parte di un progetto più ad ampio respiro – il 3-D Printed Habitat Challenge – con cui la Nasa vuole esplorare la possibilità di sviluppare nuove tecniche di costruzione “esportabili” sulla Luna e su altri pianeti.

Lo scopo della ricerca è ovviamente sviluppare tecnologie che permettano di realizzare strutture trasportando con sé pochi strumenti e pochissime materie prime.

La parte del contest vinta da Branch Technology prevedeva appunto di realizzare in stampa 3D, nel tempo massimo di 22 ore, alcuni elementi costruttivi (tre travi, tre piloni e una cupola) usando plastica riciclata e regolite, ossia il misto di polvere e residui pietrosi che copre le rocce di qualsiasi pianeta.

Partendo da questi componenti Branch Technology è riuscita a realizzare con la stampa 3D i componenti richiesti.

Il vincitore del contest sarebbe stata l’azienda che avrebbe realizzato le strutture più resistenti, e la cupola di Branch ha sostenuto un carico massimo di 1.694 chilogrammi.

Il risultato è stato possibile anche grazie alla collaborazione con altre aziende che hanno portato le loro competenze architetturali e nello studio dei materiali.

In particolare, Techmer PM ha sviluppato appositamente una nuova resina che è stata usata per realizzare la struttura portante dei piloni, resi più solidi riempiendoli di regolite.

La struttura a cupola è stata invece realizzata completamente in stampa 3D secondo l’approccio di Branch Technology, che prevede l’uso di una “testina” di stampa posta su un braccio robotico snodato, il quale in prospettiva Nasa potrebbe essere un robot completamente autonomo.

Machine learning: come passare dai dati alle informazioni

Molte aziende raccolgono grandi quantità di dati collegati alle loro attività – pensiamo ad esempio a un operatore del retail – e si sentono per questo in una buona posizione per trarre rapidamente vantaggio dalle tecnologie di machine learning.

Raccogliere dati però è solo una condizione necessaria per il machine learning, non è sufficiente. Le cose sono decisamente più articolate.

Qualsiasi azienda, ad esempio, cerca di stimare quanti pezzi di un certo suo prodotto venderà in ciascun punto vendita in un determinato periodo.

Ancora prima di pensare al machine learning farà le sue elaborazioni statistiche, corrette poi con il buon senso e le previsioni “di pancia” degli esperti. Il machine learning deve dare una spinta in più ma per addestrare gli algoritmi e avere risultati più utili certo non bastano le sole serie storiche.

Più variabili del fenomeno-vendita il machine learning può osservare meglio funzionerà il suo algoritmo, almeno sino a un livello di complessità e di carico elaborativo oltre il quale è inutile andare. E il fenomeno che stiamo esaminando e modellando probabilmente è influenzato da variabili che non sono dentro il nostro sistema.

Ad esempio per chi vende abbigliamento è normale correlare le vendite con fattori come le previsioni meteo o i flussi turistici, informazioni che vanno ricavate da fonti esterne attendibili. Senza questi dati, il modello potrebbe non essere mai completamente predittivo.

Quando abbiamo i dati che ci servono nella quantità che ci serve, dobbiamo fare in modo che siano corretti. Anche nel machine learning vale la considerazione che qualsiasi esperto di database conosce: per quanto si cerchi di stare attenti nella raccolta dei dati, questi non saranno mai “puliti”.

Chi si occupa di database pensa soprattutto a registrazioni incomplete o con errori, nel machine learning conta anche considerare che i dati non devono essere solo corretti ma anche adatti per un’analisi significativa.

Per questo la pulizia e il filtraggio dei dati prima di darli in pasto al machine learning prende la gran parte del tempo richiesto da tutta l’analisi. I dati inesatti, anomali o inconsistenti vanno eliminati. E anche quelli che sono formalmente corretti vanno a volte trasformati per evitare, come in qualsiasi analisi statistica, che il campione risulti sbilanciato.

Oltre a questo bisogna anche capire se le (molte) variabili scelte per arrivare a un modello del fenomeno sono davvero tutte necessarie e sono quelle giuste.

Serve qui una fase di esplorazione preliminare in cui esaminare la distribuzione delle variabili ed evidenziare eventuali correlazioni fra loro. Evitiamo di addestrare un algoritmo portandolo a esaminare variabili dal comportamento anomalo o gruppi di variabili che sono evidentemente correlate (ne basta una).

L’algoritmo alla prova dei fatti

A un certo punto avremo il nostro algoritmo addestrato in base ai dati che gli abbiamo sottoposto. Se sinora abbiamo usato più semplici metodi statistici per valutare ad esempio la distribuzione delle vendite, quello è il termine di paragone con cui confrontarlo. Il machine learning deve dare risultati predittivi migliori, se non accade è segno che l’addestramento non è andato a buon fine e va ripetuto.

Cosa che peraltro andrà fatta comunque. Andando avanti nel tempo i modelli di machine learning mostrano errori man mano crescenti, un fenomeno naturale perché banalmente le cose cambiano.

I gusti dei clienti variano nel tempo, i concorrenti sfornano nuovi prodotti, tutti i mercati cambiano faccia. I modelli di machine learning vanno quindi addestrati regolarmente su nuovi set di dati, per tenere conto di queste evoluzioni.

Il silicio incrementa l’efficienza delle batterie a ioni di litio

Molti ricercatori stanno cercando di trovare sistemi per aumentare l’efficienza delle batterie. C’è chi cerca strade completamente alternative alle attuali batterie agli ioni di litio e chi cerca invece di potenziare queste ultime, che rappresentano al momento l’approccio tradizionale più efficace in quanto a capacità di conservare energia. In questo senso alcuni ricercatori finlandesi hanno dimostrato l’utilità del silicio come componente che aumenta ulteriormente questa capacità.

In effetti, fanno notare i ricercatori, è già da qualche tempo che si conoscono le potenzialità del silicio come componente delle batterie a ioni di litio. L’elemento che il silicio dovrebbe sostituire è la grafite, che di norma viene usata nella batterie come materiale che va a costituire il loro anodo. Il silicio, oltretutto uno degli elementi più diffusi nella crosta terrestre, ha una capacità energetica teorica di circa 4.200 mAh per grammo contro i circa 370 della grafite. Semplicemente sostituendo la grafite con il silicio, si stima che la capacità energetica di una batteria aumenti del 10-30 percento.

Il problema è che si è sempre pensato che il silicio dovesse entrare a far parte delle batterie a ioni di litio sotto forma di nano-particelle, che però sono difficili e costose da produrre. Lo studio finlandese ha invece dimostrato che si possono anche usare particelle molto più grandi di silicio – nell’ordine dei 10-20 micron – purché il materiale contenga pori che sono, questi sì, nell’ordine dei nanometri. Il silicio mesoporoso (PSi) realizzato per etching elettrochimico di materiale drogato con una piccola quantità di boro ha mostrato di avere le caratteristiche ottimali per l’applicazione nelle batterie.

Questa scoperta apre la strada a ulteriori ricerche su come ottimizzare le prestazioni delle batterie agli ioni di litio. Il primo obiettivo è comprendere come sarebbe possibile aumentare la presenza di silicio nelle batterie commerciali, specie in campo automotive, al di là dei risultati ottenuti in laboratorio. Il silicio usato nei test resta comunque un prodotto troppo costoso, motivo per cui i ricercatori intendono testare la produzione di un materiale che abbia caratteristiche simili ma derivato da processi di riciclo di scarti agricoli, come la cenere di foglia d’orzo. L’utilizzo di nanotubi di carbonio potrebbe inoltre aumentare la conducibilità e la resistenza meccanica del silicio.

Streaming foto e Libreria foto iCloud: simili ma non uguali

iPhone è la fotocamera più diffusa al mondo, è quindi logico che Apple nel tempo abbia portato a iOS e in generale ai suoi dispositivi diverse nuove funzioni fotografiche. Due di esse, però, non sono sempre chiare agli utenti perché sono in parte sovrapponibili (sono arrivate in momenti diversi della storia di iOS) e le differenze fra loro non sono immediatamente evidenti. Si tratta di Streaming foto e della Libreria foto iCloud (iCloud Photo Library per chi preferisce la denominazione originale).

La loro funzione principale è duplice ed è la stessa per entrambe: da un lato salvare i nostri scatti nel cloud, dall’altro facilitarne la condivisione tra più dispositivi. Fermo restando che nessuna delle due dà la stessa sicurezza di un vero backup, vediamo di capire le loro rispettive particolarità.

Libreria foto iCloud è la funzione più recente e anche più comprensibile. In estrema sintesi è un servizio che salva nel nostro spazio iCloud tutte le foto e tutti i video ripresi con lo specifico device iOS. Sempre attraverso iCloud, questi elementi salvati vengono anche propagati verso gli altri device iOS associati al medesimo account iCloud, dove potremo consultarli nell’app Foto come di consueto. Foto e video sono salvati nella versione nativa, cioè alla massima risoluzione. Questo potrebbe causare problemi di spazio nei dispositivi che ricevono le immagini, la soluzione evidentemente prevista da Apple è lasciare fare tutto alle funzioni di ottimizzazione automatica dello storage.

La parte Foto delle impostazioni iCloud con (sinistra) e senza (destra) iCloud Photo Library attivata

Streaming foto è una funzione più datata e limitata, che Apple aveva sviluppato pensando in primo luogo alla condivisione delle immagini e in secondo luogo al backup. Si tratta di una funzione più limitata perché non considera i video e non va oltre gli ultimi mille scatti degli ultimi trenta giorni (dei due limiti, iOS sceglie quello che comprende più foto). Questi scatti hanno un album specifico (Il mio streaming foto) e si propagano, ancora una volta, verso gli altri nostri dispositivi attraverso iCloud. A differenza della iCloud Photo Library, però, lo spazio occupato da Streaming foto non viene “sottratto” dal nostro spazio iCloud.

Le due funzioni convivono perché hanno in effetti una natura abbastanza diversa e di solito la convivenza non comporta problemi. Ma perplessità a volte sì. Il caso tipico si ha quando si attiva la iCloud Photo Library e Streaming foto era già attivo: dato che la prima “fa di più”, iOS provvede a disattivare automaticamente il secondo. Il povero utente pensa quindi di aver perso le foto di Streaming foto, ma queste sono state semplicemente salvate nella nuova iCloud Photo Library. Volendo, lo Streaming foto si può poi riattivare.

L’unico caso in cui si perdono effettivamente immagini è quando, nello scenario appena descritto, lo Streaming foto contiene fotografie scattate con device iOS che non si possiedono più e che all’epoca dello scatto si erano propagate sul dispositivo che si sta usando. Quando iOS cancella lo Streaming foto in locale non sa dove recuperare gli originali delle immagini in questione (il device d’altronde non c’è più) e quindi non li salva in iCloud. Un altro motivo per fare sempre i backup.

Con iPhone X diciamo addio a Reachability

Con iPhone X a Cupertino si è definitivamente affermata la logica dei grandi schermi. Il display OLED è una delle sue caratteristiche fondamentali e uno dei motivi principali per cui può avere senso sostituire un modello precedente di smartphone con iPhone X. Apple per qualche anno ha mantenuto la posizione secondo cui i display alla iPhone 5 erano quelli più comodi, poi si è allineata alle richieste che venivano dal mercato, soprattutto asiatico.

Ma qualsiasi sviluppo di mercato ha le sue “vittime”. Stavolta sono gli utenti che fanno uso intenso della funzione Reachability, quella cioè che con un doppio tocco sul pulsante Home abbassa l’interfaccia permettendo di toccarne la parte superiore continuando a usare iPhone con una mano sola.

iPhone X è invece uno smartphone da usare con due mani, perché Reachability non è più una funzione supportata in iOS 11. Banalmente, nel caso del nuovo iPhone “top”, perché non esiste un pulsante Home fisico o simulato che si possa toccare.

L’evoluzione non è aggirabile, il che sarà una seccatura per qualche utente e un problema vero e proprio per quelli che usano Reachability per questioni di accessibilità. Per loro il passaggio a iPhone X potrebbe non essere indicato.

Processori: A11 Bionic se la gioca con i Core i5 dei MacBook Pro

Uno dei componenti chiave dei nuovi iPhone X e 8 è il processore A11, per la precisione A11 Bionic come preferisce chiamarlo Apple. Si tratta di un processore in architettura ARM che nella sua logica multi-core segue la stessa strada del precedente A10 e di molti processori ARM di generazione recente.

Queste CPU hanno di norma core di tipo diverso: uno progettato per dare alte prestazioni e uno per il minimo consumo. Nel caso di A11 Bionic i core sono sei: due ad alte prestazioni e quattro ad alta efficienza. Il carico di lavoro della CPU viene distribuito tra i core a seconda delle necessità, attivando i core più prestanti solo quando è davvero utile.

Questa architettura garantisce un buon equilibrio tra performance e autonomia, inoltre l’evoluzione tecnologica dei core porta anche prestazioni “velocistiche” di buon livello. Lo si è visto con la pubblicazione dei primi benchmark eseguiti con Geekbench e caricati online dai tester. Non sono ancora molti – una ventina al momento in cui scriviamo – ma mediamente mostrano indici di circa 4.200 punti in modalità single-core e oltre 9.800 in multi-core.

In confronto il processore A10 Fusion mostrava indici di circa 3.500 e 5.900 punti rispettivamente, mentre la versione A10X arrivava a 3.900 e 9.300. Ma è più interessante notare che gli indici prestazionali di A11 Bionic lo mettono praticamente alla pari – ma solo per gli indici a core singolo – di un MacBook Pro 13 pollici versione metà 2017 con processore i5 a 3,1 GHz. Non è un paragone nuovo: ai tempi del lancio di A10 Fusion c’era stato il confronto diretto con il MacBook Air.

Microsoft Azure e i container: il ruolo di ACI

L’attenzione di Microsoft al mondo della virtualizzazione via container in cloud sta crescendo. Fino a qualche tempo fa la soluzione specifica era solo Azure Container Services (ACS), un servizio simile a quelli di altri provider e che ha una connotazione di tipo infrastrutturale.

Ora si è aggiunto il servizio Azure Container Instances (ACI), che è concettualmente più semplice e si avvicina di più al modello PaaS (Platform as a Service).

La differenza sostanziale tra ACS e ACI sta nel fatto che quest’ultimo permette di lanciare applicazioni containerizzate senza doversi (quasi) preoccupare degli aspetti tecnici sottostanti.

Il servizio comprende un insieme di tool da linea di comando che permettono di lanciare container anche scaricandoli direttamente da repository.

Azure si occupa di assegnare i container a macchine virtuali già esistenti, dando loro le risorse di memoria e CPU che abbiamo specificato al lancio.

Azure Container Instances di fatto è una piattaforma di container-as-a-service che può essere usata in modo molto flessibile. I vari tool da linea di comando (Bash, in futuro anche PowerShell) controllano non solo l’attivazione dei container ma anche la raccolta di informazioni sul loro stato e la configurazione dei servizi di rete e delle connessioni fra container.

Inserendo questi comandi in script anche complessi si raggiunge un elevato grado di automazione nella gestione del nostro ambiente.

L’idea di Microsoft è che ACI sia una base PaaS per realizzare servizi web con particolari esigenze di scalabilità. I container di ACI si possono però anche usare per applicazioni interne, quindi con indirizzi IP privati, o per la parte di test e sviluppo.

L’unica cosa a cui porre particolare attenzione è il costo che il servizio può raggiungere in caso di picchi di carico rilevanti, dato che ACI si paga proporzionalmente al numero di container attivati e al loro consumo di CPU e memoria.

ACI promette di cooperare bene con Kubernetes, anche se l’integrazione fra le due piattaforme è ancora sperimentale. Il progetto open source ACI Connector for Kubernetes permette in sostanza a quest’ultimo di “vedere” Azure come una sorta di nodo a capacità illimitata in cui attivare container a piacimento, usando i comandi e i tool di Kubernetes.

In teoria questo ponte tra Kubernetes e ACI funziona indipendentemente da dove si trova l’implementazione di Kubernetes. Si può quindi usare Azure come una estensione di un ambiente Kubernetes realizzato in locale, anche se è più probabile che gli utenti finiscano con l’usare anche Kubernetes in cloud, per semplicità.

Stackit, il robot che assembla le sneaker Nike

Si sa che le lavorazioni manuali sono una parte ancora importante nella produzione delle scarpe, ma non tutti sanno che anche scarpe di concezione molto moderna come le sneaker non possono essere realizzate senza una buona dose di manualità.

La parte superiore di una scarpa sportiva appare come un tutto unico ma è in realtà costituita da molti componenti e strati di materiali diversi – anche una quarantina – che dopo essere stati correttamente posizionati vengono combinati insieme per fusione. Questo può piacere a chi non ama le fabbriche automatizzate, per le case produttrici invece il fatto che ci vogliano 10-20 minuti per mettere insieme la parte superiore della scarpa non è un vantaggio.

La complessità della produzione manuale è il motivo per cui aziende come Nike o Adidas hanno realizzato grandi fabbriche in Cina, dove è possibile concentrare centinaia di lavoratori a basso costo per arrivare a grandi volumi di produzione. Ma logisticamente sarebbe molto meglio avere anche fabbriche più piccole ma più vicine ai mercati importanti come l’Europa e gli Stati Uniti. Basterebbe ridurre la componente manuale della lavorazione puntando sulla robotica.

Nike ha fatto proprio questo investendo in Grabit, azienda americana partecipata anche da Samsung che ha realizzato diversi sistemi di logistica e assemblaggio automatizzati sfruttando l’attrazione elettrostatica.

In applicazioni come la produzione delle scarpe il suo prodotto principale è un sistema robotico battezzato Stackit: è dotato di manopole elettro-adesive che si attaccano a qualsiasi materiale e, grazie a una telecamera di controllo, possono posizionare con estrema precisione strati e componenti diversi uno sull’altro.

Stackit per ora non lavora da solo quando si tratta di assemblare una scarpa. Il sistema prevede la collaborazione con un operatore umano, ma anche questi viene “comandato” da un software di controllo, che gli indica dove sistemare i vari componenti della sneaker.

A quel punto il sistema robotico li raccoglie con l’attrazione elettrostatica, li impila e li passa alla pressa che li fonderà insieme. Questo aiuto aumenta drasticamente la produttività: l’assemblaggio passa da 10-20 minuti a circa uno, con un volume di produzione che raggiunge i 300-600 paia di scarpe per addetto al giorno.

L’utilizzo di sistemi come Stackit permette ai vendor di considerare l’opzione del reshoring per almeno una parte delle loro attività. I robot sono ancora costosi (circa un centinaio di migliaia di dollari) e vanno manutenuti con attenzione, ma consentono comunque di realizzare piccole fabbriche da un centinaio di addetti che si occupano della produzione di modelli a maggior valore aggiunto.

I filati generano energia grazie ai nanotubi di carbonio

Da una collaborazione fra la statunitense University of Texas e la Hanyang University della Corea del Sud è nata una nuova generazione di filati che generano una differenza di tensione quando vengono deformati o allungati.

Il termine “filati” va inteso in senso piuttosto lato, perché non si tratta propriamente di materiali tessili: battezzati twistron, sono formati da nanotubi di carbonio.

I twistron sono nanotubi di carbonio sottoposti a una torsione talmente forte che finiscono per formare una sorta di molla. Restano comunque molto flessibili e leggeri, anche perché i nanotubi di partenza hanno un diametro diecimila volte più piccolo rispetto a quello di un capello umano.

All’atto pratico i twistron si comportano come super-condensatori. Vanno bagnati con una soluzione salina o immersi in essa (basta anche l’acqua salata), a quel punto i nanotubi si caricano sfruttando la presenza di ioni nella soluzione stessa, senza richiedere una fonte di energia esterna.

Quando, dopo la carica, un twistron viene allungato o deformato, la distribuzione delle cariche al suo interno cambia e questo genera una differenza di voltaggio e quindi il fluire di una corrente.

Nei test dei ricercatori si è ad esempio verificato che che allungare e rilasciare un twistron 30 volte al secondo genera l’equivalente di 250 Watt/chilogrammo di potenza. Si tratta di un valore molto superiore a quanto riescono a immagazzinare altri sistemi che raccolgono energia dall’ambiente. La capacità energetica dei nuovi “filati” oltretutto cresce facilmente: all’aumentare del loro numero o del loro diametro.

Le applicazioni potenziali dei twistron sono molteplici. In campo wearable i ricercatori hanno inserito diversi twistron nel tessuto di una maglia: la deformazione del tessuto causata dalla semplice respirazione ha generato energia elettrica.

Questo approccio potrebbe dare energia sufficiente per varie applicazioni wearable in cui l’uso di batterie convenzionali non è possibile. Ci sono anche molte applicazioni in ambito IoT. La deformazione dei twistron causata da normali fenomeni ambientali – un test specifico è stato condotto usando il movimento delle onde – genera abbastanza potenza per alimentare device IoT e farli comunicare.

css.php