Ai giorno nostri, le informazioni sono una risorsa che deve ancora essere esplorata. Con l’evoluzione dei social media e della tecnologia, la raccolta di dati sta crescendo costantemente, raddoppiando ogni due anni poiché viene creato un numero sempre maggiore di flussi di dati. L’utente di Internet medio nel 2017 generava 1,5 GB di dati al giorno, un numero che raddoppia ogni 18 mesi. Un veicolo autonomo può generare da solo 4 TB al giorno. Ogni stabilimento di produzione "smart" genera 1PB al giorno. Tuttavia, il potenziale di utilizzo di questa abbondanza di dati deve ancora concretizzarsi, poiché sempre più compagnie e tecnologie di intelligenza artificiale stanno usando questi dati per fare scoperte e influenzare decisioni chiave. In questa sessione esamineremo lo stato attuale dei Big Data all'interno di AWS e analizzeremo in profondità gli ultimi trend in materia di Big Data, oltre che alcuni casi d'uso industriale. Scopriremo la gamma di servizi AWS per i dati gestiti che permettono ai clienti di concentrarsi sul rendere utili i dati, tra cui Amazon Aurora, RDS, DynamoDB, Redshift, Spectrum, ElastiCache, Kinesis, EMR, Elasticsearch Service e Gluehow. In questa sessione parleremo di questi servizi, mostrando come vengono utilizzati oggi dai nostri clienti e condivideremo la nostra visione per l’innovazione.
Speaker: Giorgio Nobile, Solutions Architect, AWS
AWS 101: Guida rapida alle soluzioni AWSAmazon Web ServicesAmazon Web Services (AWS) fornisce soluzioni informatiche on-demand e servizi cloud con un piano tariffario basato sul consumo. Questa sessione fornisce una comprensione di base dei servizi AWS e di come utilizzarli in pratica. Le funzionalità di AWS possono aiutare la tua organizzazione con un modello di costo “pay per use”, ottimizzando i costi grazie alle economie di scala e all’esperienza nella gestione di risorse cloud in modo globale. Scopri i servizi e le infrastrutture AWS (incluse le regioni e zone di disponibilità di AWS) e segui l’evoluzione di AWS fin dai suoi inizi. Scopri come la costante innovazione di AWS permetta ai clienti di trasformare le loro organizzazioni.
Speaker: Danilo Poccia, Senior Evangelist, Serverless, AWS
Microsoft Application InsightsRoberto AlbanoMy session about Microsoft Application Insights at "DevOps@Work 2016" event, managed by DomusDotNet and GetLatestVersion communities and hosted in Microsoft Rome's building, on February 5th, 2016
Introduzione a Microsoft AzureRoberto AlbanoIntroduzione a Microsoft Azure
ݺߣ apertura Keynote
Microsoft Azure Community Bootcamp 2015
Roma, Università La Sapienza, 23/04/2015
Raggiungere gli obiettivi di sicurezza nel CloudAmazon Web ServicesLa sicurezza nel Cloud per AWS è una priorità: aiutare i nostri clienti a proteggere la riservatezza, l'integrità e la disponibilità dei propri sistemi e dati ha per noi la massima importanza. I Clienti che utilizzano AWS traggono vantaggio da un'architettura di data center e di rete progettata per soddisfare i requisiti di sicurezza più esigenti. In questa sessione imparerai come rendere sicure le tue applicazioni nel Cloud utilizzando i servizi AWS e come beneficiare del ricco programma di conformità e certificazioni di AWS che comprende oltre 2.400 controlli di sicurezza e di conformità, incluso Il nuovo quadro normativo relativo alla protezione dei dati dell'Unione Europea, ossia il Regolamento generale sulla protezione dei dati (GDPR).
Che si tratti di pubblica amministrazione, università, sanità, infrastrutture critiche, ecc., sappiamo quanto i nostri Clienti abbiano a cuore la privacy e la sicurezza dei dati, per questo l’offerta AWS di servizi è ottimizzata per tutelarle.
Speaker: Carmela Gambardella, Solutions Architect, Public Sector Italy, AWS
Gestione e Protezione delle Identità e degli AccessiGiampiero CosainzAzure Saturday 2019 - Pordenone Italia - Azure Active Directory, Multi-factor Authentication ed Azure AD Identity Protection
Azure Web Apps: portare il tuo sito sul cloudDavide Benvegnùݺߣ della sezione sugli Azure Websites e Azure App Service durante il Azure Community Bootcamp 2015 di Pisa
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven InnovationOggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Data flowMarco PozzanAnalysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.”-Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
Business Intelligence & AnalyticsDavide MauriBusiness Intelligence e Business Analytics sono termini che ricorrono ormai quotidianemente. Cosa significano? Che valore portano in una azienda? Come si crea una soluzione di Business Intelligece e di Business Analytics? Che strumenti mette a disposizione la piattaforma Microsoft? In questa sessione andremo ad introdurre tutti gli attori, gli strumenti e le tecnologie che concorrono a realizzare tali soluzioni, vendendone alcune "dal vivo" per capire come si usano ed il grande valore aggiunto che, in una società sempre più affamata di informazioni, ma ricca solo di dati, possono portare.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Azure Synapse Analytics for your IoT SolutionsMarco ParenzanLet's find out in this session how Azure Synapse Analytics, with its SQL Serverless Pool, ADX, Data Factory, Notebooks, Spark can be useful for managing data analysis in an IoT solution.
Big data analytics quanto vale e come sfruttarlo con stream analytics e power biMarco PozzanBig data analytics quanto vale e come sfruttarlo con stream analytics e power bi
Power BI Streaming Data Flow e Azure IoT CentralMarco ParenzanDal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
Hexe al SAS Forum Italia 2014Fabio SartiniHexe al SAS Forum Italia 2014 - Milano - 15 Aprile
Al nostro Stand i consulenti Hexe attendono i nostri clienti, i prospect e tutti gli utilizzatori di tecnologia SAS, per informazioni e presentazioni. A presto!!!
MongoDB Atlas: il modo migliore per eseguire MongoDB in ambiente cloud 2MongoDBMongoDB Atlas è il servizio DBaaS (Database-as-a-Service) che ti consente distribuire, gestire e scalare un database MongoDB in ambiente cloud con pochi clic.
Multitenancy con SQL Server e Azure SQL DatabaseGianluca HotzIn questa sessione faremo il punto sulle soluzioni disponibili per venire incontro agli scenari di implementazione multitenancy con SQL Server e Azure SQL Database.
Datarace: IoT e Big Data (Italian)Davide MauriArchitettura, Know-How e considerazioni nati dall'esperienza di Datarace (www.datarace.eu) in cui IoT e Big Data vengono messi al servizio dello sport per creare una "reference architecture" alla quale le aziende possono far riferimento per costruire la propria soluzione Big Data ed Analytics
Db2 11.1: l'evoluzione del Database secondo IBMJürgen AmbrosiLa gestione dei dati è indubbiamente un segmento chiave per la strategia IBM dei prossimi anni insieme con le tematiche Cognitive e Cloud. In tale ambito la gestione nelle basi dati è soggetta ad una evoluzione significativa verso la convergenza degli ambienti Analitici e Transazionali cosi da portare nei prossimi mesi ad una significativa semplificazione del disegno architetturale. A differenza dei tipici ambienti di business ove i processi transazionali ed analitici sono basati su distinte architetture, l'hybrid transactional analytical processin (HTAP) consentirà di eseguire analisi e transazioni sullo stesso Database senza impattare le prestazioni di tali ambienti. L'obiettivo di tale disegno strategico è abilitare i nostri clienti ad estrarre più valore dai propri dati, fornendo strumenti di analisi dati real-time nel punto esatto di generazione dei dati stessi.
Come costruire servizi di Forecasting sfruttando algoritmi di ML e deep learn...Amazon Web ServicesIl Forecasting è un processo importante per tantissime aziende e viene utilizzato in vari ambiti per cercare di prevedere in modo accurato la crescita e distribuzione di un prodotto, l’utilizzo delle risorse necessarie nelle linee produttive, presentazioni finanziarie e tanto altro. Amazon utilizza delle tecniche avanzate di forecasting, in parte questi servizi sono stati messi a disposizione di tutti i clienti AWS.
In questa sessione illustreremo come pre-processare i dati che contengono una componente temporale e successivamente utilizzare un algoritmo che a partire dal tipo di dato analizzato produce un forecasting accurato.
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...Amazon Web ServicesLa varietà e la quantità di dati che si crea ogni giorno accelera sempre più velocemente e rappresenta una opportunità irripetibile per innovare e creare nuove startup.
Tuttavia gestire grandi quantità di dati può apparire complesso: creare cluster Big Data su larga scala sembra essere un investimento accessibile solo ad aziende consolidate. Ma l’elasticità del Cloud e, in particolare, i servizi Serverless ci permettono di rompere questi limiti.
Vediamo quindi come è possibile sviluppare applicazioni Big Data rapidamente, senza preoccuparci dell’infrastruttura, ma dedicando tutte le risorse allo sviluppo delle nostre le nostre idee per creare prodotti innovativi.
More Related Content
Similar to Trovare ciò che serve nella confusione: comprendere i Big Data con l'analisi AWS (20)
Polyglot Persistence e Big Data: tra innovazione e difficoltà su casi reali -...Data Driven InnovationOggi il tema non è più SI o NO ai sistemi NoSQL. Il problema sta nella capacità di essere “poliglotti” nell’uso di tecnologie per la gestione di dati e informazioni. Le strategie di innovazione sui Big Data nelle aziende non può prescindere dalla Polyglot Persistence, ma le difficoltà sono tante, specie in ambienti complessi ed enterprise. Ma la necessità di fare innovazione non è forte solo nelle startup, anzi…
Data flowMarco PozzanAnalysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.”-Analysts spend up to 80% of their time on data preparation delaying the time to analysis and decision making.” Gartner
Business Intelligence & AnalyticsDavide MauriBusiness Intelligence e Business Analytics sono termini che ricorrono ormai quotidianemente. Cosa significano? Che valore portano in una azienda? Come si crea una soluzione di Business Intelligece e di Business Analytics? Che strumenti mette a disposizione la piattaforma Microsoft? In questa sessione andremo ad introdurre tutti gli attori, gli strumenti e le tecnologie che concorrono a realizzare tali soluzioni, vendendone alcune "dal vivo" per capire come si usano ed il grande valore aggiunto che, in una società sempre più affamata di informazioni, ma ricca solo di dati, possono portare.
Accelerare la migrazione al cloud e la modernizzazione dell'architettura con ...Denodo Guarda qui: https://bit.ly/3imvkq4
Le odierne strategie di migrazione verso il cloud devono tenere conto della maggiore complessità, in tali contesti, delle attività di Governance dei dati e di definizione delle architetture ibride e multi-cloud, riducendo al contempo i rischi intrinseci di perturbare le attività degli utenti e delle applicazioni durante la migrazione. I vantaggi principali della tecnologia di virtualizzazione dei dati forniscono l'astrazione necessaria per disaccoppiare gli utenti e le applicazioni da attività quali la migrazione e il consolidamento dei dati, aggiungendo al contempo la semantica e la governance, necessarie nei moderni ambienti di dati.
Unisciti agli esperti di Miriade e Denodo per sentire come la tua azienda può affrontare e superare le sfide insite nell’adozione di un modello Cloud e conoscere le Best Practice per una corretta gestione dei dati e dei costi in un tale modello.
In questa sessione, parleremo di:
- come l'astrazione dei dati è fondamentale per sostenere gli utenti e le applicazioni durante la migrazione dei dati;
- come l'astrazione dei dati riduce la complessità degli ambienti Cloud ibridi;
- come l'astrazione dei dati consente di accelerare le migrazioni del Cloud verso le moderne piattaforme dati e i Data Lakes;
- come l'astrazione dei dati ottimizza in modo continuo i dati nel Cloud
Azure Synapse Analytics for your IoT SolutionsMarco ParenzanLet's find out in this session how Azure Synapse Analytics, with its SQL Serverless Pool, ADX, Data Factory, Notebooks, Spark can be useful for managing data analysis in an IoT solution.
Big data analytics quanto vale e come sfruttarlo con stream analytics e power biMarco PozzanBig data analytics quanto vale e come sfruttarlo con stream analytics e power bi
Power BI Streaming Data Flow e Azure IoT CentralMarco ParenzanDal 2015 gli utilizzatori di Power BI hanno potuto analizzare dati in real-time grazie all'integrazione con altri prodotti e servizi Microsoft. Con streaming dataflow, si porterà l'analisi in tempo reale completamente all'interno di Power BI, rimuovendo la maggior parte delle restrizioni che avevamo, integrando al contempo funzionalità di analisi chiave come la preparazione dei dati in streaming e nessuna creazione di codice. Per vederlo in funzione, studieremo un caso specifico di streaming come l'IoT con Azure IoT Central.
Hexe al SAS Forum Italia 2014Fabio SartiniHexe al SAS Forum Italia 2014 - Milano - 15 Aprile
Al nostro Stand i consulenti Hexe attendono i nostri clienti, i prospect e tutti gli utilizzatori di tecnologia SAS, per informazioni e presentazioni. A presto!!!
MongoDB Atlas: il modo migliore per eseguire MongoDB in ambiente cloud 2MongoDBMongoDB Atlas è il servizio DBaaS (Database-as-a-Service) che ti consente distribuire, gestire e scalare un database MongoDB in ambiente cloud con pochi clic.
Multitenancy con SQL Server e Azure SQL DatabaseGianluca HotzIn questa sessione faremo il punto sulle soluzioni disponibili per venire incontro agli scenari di implementazione multitenancy con SQL Server e Azure SQL Database.
Datarace: IoT e Big Data (Italian)Davide MauriArchitettura, Know-How e considerazioni nati dall'esperienza di Datarace (www.datarace.eu) in cui IoT e Big Data vengono messi al servizio dello sport per creare una "reference architecture" alla quale le aziende possono far riferimento per costruire la propria soluzione Big Data ed Analytics
Db2 11.1: l'evoluzione del Database secondo IBMJürgen AmbrosiLa gestione dei dati è indubbiamente un segmento chiave per la strategia IBM dei prossimi anni insieme con le tematiche Cognitive e Cloud. In tale ambito la gestione nelle basi dati è soggetta ad una evoluzione significativa verso la convergenza degli ambienti Analitici e Transazionali cosi da portare nei prossimi mesi ad una significativa semplificazione del disegno architetturale. A differenza dei tipici ambienti di business ove i processi transazionali ed analitici sono basati su distinte architetture, l'hybrid transactional analytical processin (HTAP) consentirà di eseguire analisi e transazioni sullo stesso Database senza impattare le prestazioni di tali ambienti. L'obiettivo di tale disegno strategico è abilitare i nostri clienti ad estrarre più valore dai propri dati, fornendo strumenti di analisi dati real-time nel punto esatto di generazione dei dati stessi.
Come costruire servizi di Forecasting sfruttando algoritmi di ML e deep learn...Amazon Web ServicesIl Forecasting è un processo importante per tantissime aziende e viene utilizzato in vari ambiti per cercare di prevedere in modo accurato la crescita e distribuzione di un prodotto, l’utilizzo delle risorse necessarie nelle linee produttive, presentazioni finanziarie e tanto altro. Amazon utilizza delle tecniche avanzate di forecasting, in parte questi servizi sono stati messi a disposizione di tutti i clienti AWS.
In questa sessione illustreremo come pre-processare i dati che contengono una componente temporale e successivamente utilizzare un algoritmo che a partire dal tipo di dato analizzato produce un forecasting accurato.
Big Data per le Startup: come creare applicazioni Big Data in modalità Server...Amazon Web ServicesLa varietà e la quantità di dati che si crea ogni giorno accelera sempre più velocemente e rappresenta una opportunità irripetibile per innovare e creare nuove startup.
Tuttavia gestire grandi quantità di dati può apparire complesso: creare cluster Big Data su larga scala sembra essere un investimento accessibile solo ad aziende consolidate. Ma l’elasticità del Cloud e, in particolare, i servizi Serverless ci permettono di rompere questi limiti.
Vediamo quindi come è possibile sviluppare applicazioni Big Data rapidamente, senza preoccuparci dell’infrastruttura, ma dedicando tutte le risorse allo sviluppo delle nostre le nostre idee per creare prodotti innovativi.
Esegui pod serverless con Amazon EKS e AWS FargateAmazon Web ServicesOra puoi utilizzare Amazon Elastic Kubernetes Service (EKS) per eseguire pod Kubernetes su AWS Fargate, il motore di elaborazione serverless creato per container su AWS. Questo rende più semplice che mai costruire ed eseguire le tue applicazioni Kubernetes nel cloud AWS.In questa sessione presenteremo le caratteristiche principali del servizio e come distribuire la tua applicazione in pochi passaggi
Costruire Applicazioni Moderne con AWSAmazon Web ServicesVent'anni fa Amazon ha attraversato una trasformazione radicale con l'obiettivo di aumentare il ritmo dell'innovazione. In questo periodo abbiamo imparato come cambiare il nostro approccio allo sviluppo delle applicazioni ci ha permesso di aumentare notevolmente l'agilità, la velocità di rilascio e, in definitiva, ci ha consentito di creare applicazioni più affidabili e scalabili. In questa sessione illustreremo come definiamo le applicazioni moderne e come la creazione di app moderne influisce non solo sull'architettura dell'applicazione, ma sulla struttura organizzativa, sulle pipeline di rilascio dello sviluppo e persino sul modello operativo. Descriveremo anche approcci comuni alla modernizzazione, compreso l'approccio utilizzato dalla stessa Amazon.com.
Come spendere fino al 90% in meno con i container e le istanze spot Amazon Web ServicesL’utilizzo dei container è in continua crescita.
Se correttamente disegnate, le applicazioni basate su Container sono molto spesso stateless e flessibili.
I servizi AWS ECS, EKS e Kubernetes su EC2 possono sfruttare le istanze Spot, portando ad un risparmio medio del 70% rispetto alle istanze On Demand. In questa sessione scopriremo insieme quali sono le caratteristiche delle istanze Spot e come possono essere utilizzate facilmente su AWS. Impareremo inoltre come Spreaker sfrutta le istanze spot per eseguire applicazioni di diverso tipo, in produzione, ad una frazione del costo on-demand!
Open banking as a serviceAmazon Web ServicesIn recent months, many customers have been asking us the question – how to monetise Open APIs, simplify Fintech integrations and accelerate adoption of various Open Banking business models. Therefore, AWS and FinConecta would like to invite you to Open Finance marketplace presentation on October 20th.
Event Agenda :
Open banking so far (short recap)
• PSD2, OB UK, OB Australia, OB LATAM, OB Israel
Intro to Open Finance marketplace
• Scope
• Features
• Tech overview and Demo
The role of the Cloud
The Future of APIs
• Complying with regulation
• Monetizing data / APIs
• Business models
• Time to market
One platform for all: a Strategic approach
Q&A
Rendi unica l’offerta della tua startup sul mercato con i servizi Machine Lea...Amazon Web ServicesPer creare valore e costruire una propria offerta differenziante e riconoscibile, le startup di successo sanno come combinare tecnologie consolidate con componenti innovativi creati ad hoc.
AWS fornisce servizi pronti all'utilizzo e, allo stesso tempo, permette di personalizzare e creare gli elementi differenzianti della propria offerta.
Concentrandoci sulle tecnologie di Machine Learning, vedremo come selezionare i servizi di intelligenza artificiale offerti da AWS e, anche attraverso una demo, come costruire modelli di Machine Learning personalizzati utilizzando SageMaker Studio.
OpsWorks Configuration Management: automatizza la gestione e i deployment del...Amazon Web ServicesCon l'approccio tradizionale al mondo IT per molti anni è stato difficile implementare tecniche di DevOps, che finora spesso hanno previsto attività manuali portando di tanto in tanto a dei downtime degli applicativi interrompendo l'operatività dell'utente. Con l'avvento del cloud, le tecniche di DevOps sono ormai a portata di tutti a basso costo per qualsiasi genere di workload, garantendo maggiore affidabilità del sistema e risultando in dei significativi miglioramenti della business continuity.
AWS mette a disposizione AWS OpsWork come strumento di Configuration Management che mira ad automatizzare e semplificare la gestione e i deployment delle istanze EC2 per mezzo di workload Chef e Puppet.
Scopri come sfruttare AWS OpsWork a garanzia e affidabilità del tuo applicativo installato su Instanze EC2.
Microsoft Active Directory su AWS per supportare i tuoi Windows WorkloadsAmazon Web ServicesVuoi conoscere le opzioni per eseguire Microsoft Active Directory su AWS? Quando si spostano carichi di lavoro Microsoft in AWS, è importante considerare come distribuire Microsoft Active Directory per supportare la gestione, l'autenticazione e l'autorizzazione dei criteri di gruppo. In questa sessione, discuteremo le opzioni per la distribuzione di Microsoft Active Directory su AWS, incluso AWS Directory Service per Microsoft Active Directory e la distribuzione di Active Directory su Windows su Amazon Elastic Compute Cloud (Amazon EC2). Trattiamo argomenti quali l'integrazione del tuo ambiente Microsoft Active Directory locale nel cloud e l'utilizzo di applicazioni SaaS, come Office 365, con AWS Single Sign-On.
Computer Vision con AWSAmazon Web ServicesDal riconoscimento facciale al riconoscimento di frodi o difetti di fabbricazione, l'analisi di immagini e video che sfruttano tecniche di intelligenza artificiale, si stanno evolvendo e raffinando a ritmi elevati. In questo webinar esploreremo le possibilità messe a disposizione dai servizi AWS per applicare lo stato dell'arte delle tecniche di computer vision a scenari reali.
Database Oracle e VMware Cloud on AWS i miti da sfatareAmazon Web ServicesAmazon Web Services e VMware organizzano un evento virtuale gratuito il prossimo mercoledì 14 Ottobre dalle 12:00 alle 13:00 dedicato a VMware Cloud ™ on AWS, il servizio on demand che consente di eseguire applicazioni in ambienti cloud basati su VMware vSphere® e di accedere ad una vasta gamma di servizi AWS, sfruttando a pieno le potenzialità del cloud AWS e tutelando gli investimenti VMware esistenti.
Molte organizzazioni sfruttano i vantaggi del cloud migrando i propri carichi di lavoro Oracle e assicurandosi notevoli vantaggi in termini di agilità ed efficienza dei costi.
La migrazione di questi carichi di lavoro, può creare complessità durante la modernizzazione e il refactoring delle applicazioni e a questo si possono aggiungere rischi di prestazione che possono essere introdotti quando si spostano le applicazioni dai data center locali.
Crea la tua prima serverless ledger-based app con QLDB e NodeJSAmazon Web ServicesMolte aziende oggi, costruiscono applicazioni con funzionalità di tipo ledger ad esempio per verificare lo storico di accrediti o addebiti nelle transazioni bancarie o ancora per tenere traccia del flusso supply chain dei propri prodotti.
Alla base di queste soluzioni ci sono i database ledger che permettono di avere un log delle transazioni trasparente, immutabile e crittograficamente verificabile, ma sono strumenti complessi e onerosi da gestire.
Amazon QLDB elimina la necessità di costruire sistemi personalizzati e complessi fornendo un database ledger serverless completamente gestito.
In questa sessione scopriremo come realizzare un'applicazione serverless completa che utilizzi le funzionalità di QLDB.
API moderne real-time per applicazioni mobili e webAmazon Web ServicesCon l’ascesa delle architetture di microservizi e delle ricche applicazioni mobili e Web, le API sono più importanti che mai per offrire agli utenti finali una user experience eccezionale. In questa sessione impareremo come affrontare le moderne sfide di progettazione delle API con GraphQL, un linguaggio di query API open source utilizzato da Facebook, Amazon e altro e come utilizzare AWS AppSync, un servizio GraphQL serverless gestito su AWS. Approfondiremo diversi scenari, comprendendo come AppSync può aiutare a risolvere questi casi d’uso creando API moderne con funzionalità di aggiornamento dati in tempo reale e offline.
Inoltre, impareremo come Sky Italia utilizza AWS AppSync per fornire aggiornamenti sportivi in tempo reale agli utenti del proprio portale web.
Database Oracle e VMware Cloud™ on AWS: i miti da sfatareAmazon Web ServicesMolte organizzazioni sfruttano i vantaggi del cloud migrando i propri carichi di lavoro Oracle e assicurandosi notevoli vantaggi in termini di agilità ed efficienza dei costi.
La migrazione di questi carichi di lavoro, può creare complessità durante la modernizzazione e il refactoring delle applicazioni e a questo si possono aggiungere rischi di prestazione che possono essere introdotti quando si spostano le applicazioni dai data center locali.
In queste slide, gli esperti AWS e VMware presentano semplici e pratici accorgimenti per facilitare e semplificare la migrazione dei carichi di lavoro Oracle accelerando la trasformazione verso il cloud, approfondiranno l’architettura e dimostreranno come sfruttare a pieno le potenzialità di VMware Cloud ™ on AWS.
Tools for building your MVP on AWSAmazon Web Services1) The document discusses building a minimum viable product (MVP) using Amazon Web Services (AWS).
2) It provides an example of an MVP for an omni-channel messenger platform that was built from 2017 to connect ecommerce stores to customers via web chat, Facebook Messenger, WhatsApp, and other channels.
3) The founder discusses how they started with an MVP in 2017 with 200 ecommerce stores in Hong Kong and Taiwan, and have since expanded to over 5000 clients across Southeast Asia using AWS for scaling.
How to Build a Winning Pitch DeckAmazon Web ServicesThis document discusses pitch decks and fundraising materials. It explains that venture capitalists will typically spend only 3 minutes and 44 seconds reviewing a pitch deck. Therefore, the deck needs to tell a compelling story to grab their attention. It also provides tips on tailoring different types of decks for different purposes, such as creating a concise 1-2 page teaser, a presentation deck for pitching in-person, and a more detailed read-only or fundraising deck. The document stresses the importance of including key information like the problem, solution, product, traction, market size, plans, team, and ask.
Building a web application without serversAmazon Web ServicesThis document discusses building serverless web applications using AWS services like API Gateway, Lambda, DynamoDB, S3 and Amplify. It provides an overview of each service and how they can work together to create a scalable, secure and cost-effective serverless application stack without having to manage servers or infrastructure. Key services covered include API Gateway for hosting APIs, Lambda for backend logic, DynamoDB for database needs, S3 for static content, and Amplify for frontend hosting and continuous deployment.
Fundraising EssentialsAmazon Web ServicesThis document provides tips for fundraising from startup founders Roland Yau and Sze Lok Chan. It discusses generating competition to create urgency for investors, fundraising in parallel rather than sequentially, having a clear fundraising narrative focused on what you do and why it's compelling, and prioritizing relationships with people over firms. It also notes how the pandemic has changed fundraising, with examples of deals done virtually during this time. The tips emphasize being fully prepared before fundraising and cultivating connections with investors in advance.
AWS_HK_StartupDay_Building Interactive websites while automating for efficien...Amazon Web ServicesThis document discusses Amazon's machine learning services for building conversational interfaces and extracting insights from unstructured text and audio. It describes Amazon Lex for creating chatbots, Amazon Comprehend for natural language processing tasks like entity extraction and sentiment analysis, and how they can be used together for applications like intelligent call centers and content analysis. Pre-trained APIs simplify adding machine learning to apps without requiring ML expertise.
Introduzione a Amazon Elastic Container ServiceAmazon Web ServicesAmazon Elastic Container Service (Amazon ECS) è un servizio di gestione dei container altamente scalabile, che semplifica la gestione dei contenitori Docker attraverso un layer di orchestrazione per il controllo del deployment e del relativo lifecycle. In questa sessione presenteremo le principali caratteristiche del servizio, le architetture di riferimento per i differenti carichi di lavoro e i semplici passi necessari per poter velocemente migrare uno o più dei tuo container.
5. Big Data on AWS
Disponibilità immediata. Distribuzione istantanea.
Nessun hardware da acquistare, nessuna infrastruttura da
mantenere o dimensionare.
Sicurezza e affidabilità. Progettazione volta a rispondere
ai requisiti più rigidi. Revisioni continue, incluse le
certificazioni ISO 27001, FedRAMP, DoD CSM e PCI DSS.
Capacità ampie e avanzate. Oltre 100 servizi e centinaia
di funzionalità per supportare praticamente qualsiasi
carico di lavoro e applicazione per i Big Data.
Centinaia di partner e soluzioni. Chiedi aiuto a un
consulente partner o scegli tra centinaia di strumenti e
applicazioni dell'intero stack di gestione dei dati.
6. Definizione del data lake AWS
Un data lake è un'architettura con una
piattaforma di storage centralizzato
virtualmente illimitato capace di
categorizzare, elaborare, analizzare e utilizzare
set di dati eterogenei
Attributi fondamentali di un data Lake
• Storage e calcolo separati
• Acquisizione e trasformazione rapide
• Multi-tenancy sicura
• Query in place
• Schema-on-read
15. Dark data are the information
assets organizations collect,
process, and store during
regular business activities,
but generally fail to use for other
purposes (for example, analytics,
business relationships and direct
monetizing).
Gartner
Dati
aziendali
tradizionali
Big Data
Dark data
CRM ERP
Data
warehouse
Dati
mainfram
e
We
b
Social
media
File di
log
Machine
data
Semistrut
turati
Non
strutturati
“
”
Acquisizione dei
Metadata4
16. Gestione della governance,
della sicurezza e della privacy
5
Critico Limitato Altamente riservato Riservato Pubblico
Classificazione dei dati:
22. Storage e flussi
Catalogo e ricerca
Diritti
API e UI
Attributi di un'architettura
di dati moderna
Pilastri principali
di un data lake
Componenti chiave di un'efficace strategia di dati
1. Acquisizione di dati automizzata e affidabile
2. Conservazione dei dati di origine originali
3. Gestione del ciclo di vita e storage offline
4. Acquisizione dei metadata
5. Gestione della governance, della sicurezza
e della privacy
6. Accesso, ricerca e rilevamento self-service
7. Gestione della qualità dei dati
8. Preparazione per l’analisi
9. Orchestrazione e pianificazione dei processi
10.Rilevamento delle modifiche ai dati
1
2
3
4
56
7
8
9
10
26. Streaming con Amazon Kinesis
Raccogli, elabora e analizza facilmente flussi di dati e video in tempo reale
Acquisizione,
elaborazione e storage
dei flussi video
Kinesis Video Streams
Caricamento dei flussi di
dati nei datastore AWS
Analisi dei flussi di dati
con SQL
Acquisizione,
elaborazione e storage
dei flussi di dati
Kinesis Data Streams Kinesis Data Firehose Kinesis Data Analytics
27. AWS Glue - catalogo di dati
Rendi i dati visibili
Rileva automaticamente i dati e archivia lo schema
Il catalogo rende i dati ricercabili e disponibili per ETL
Il catalogo contiene la tabella e le definizioni dei processi
Calcola le statistiche per rendere efficienti le query
Conformità
Glue
Catalogo di dati
Rilevamento dei dati ed
estrazione dello schema
28. AWS Glue - servizio ETL
Semplifica lo scripting e la distribuzione ETL
Genera automaticamente il codice ETL
Il codice è personalizzabile con Python e Spark
Endpoint disponibili per eseguire la modifica,
il debug e il test del codice
I processi sono pianificati o basati su eventi
Serverless
30. Ampia gamma di capacità di analisi
Elaborazione
di dati
Data
warehousing
Creazione
di report
Elaborazione
in tempo reale
Analisi
predittive
31. Elaborazione e analisi
T r a n s a z i o n a l i e
R D B M S
DynamoDB
DB NoSQL relazionale
Aurora
Database
V i s u a l i z z a z i o n e
d a t i e B I
Kinesis Streams
e Firehose
B a t c h
EMR
Hadoop,
Spark, Presto
Redshift
Data warehouse
Athena
Servizio
di query
AWS Batch
Predittivi
T e m p o r e a l e
AWS Lambda
Apache Storm
su EMR
Apache Flink
su EMR
Streaming di
Spark su EMR
Elasticsearch
Service
Kinesis Analytics,
Kinesis Streams
ElastiCache DAX
32. Amazon EMR - elaborazione dei Big Data
Analytics e ML su scala
19 progetti open-source: Apache Hadoop, Spark, HBase, Presto e altri
Sicurezza di livello aziendale
$
Versioni più recenti
Aggiornato con gli ultimi
framework open source
entro 30 giorni dal rilascio
Costi ridotti
Fatturazione flessibile con
fatturazione al secondo,
spot EC2, istanze riservate
e dimensionamento
automatico per la
riduzione dei costi
del 50–80%
Storage S3
Elaborazione sicura dei
dati direttamente nel
data lake S3 con
prestazioni elevate
tramite il connettore
EMRFS
Semplicità
Lancio di Hadoop e Spark
completamente gestiti in
pochi minuti, nessuna
necessità di configurazione
e ottimizzazione di cluster
o provisioning dei nodi
Data lake
100110000100101011100
1010101110010101000
00111100101100101
010001100001
33. $
SQL
Query istantanee
Nessun costo di
installazione,
è sufficiente
puntare a S3 e
iniziare a eseguire
query
Prezzi a consumo
Pagamento solo per le
query eseguite, risparmio
del 30-90% sul costo per
query attraverso la
compressione
Ambiente aperto
Interfaccia SQL ANSI, driver
JDBC/ODBC, formati multipli,
tipi di compressione, join
e tipi di dati complessi
Semplicità
Serverless: nessuna
infrastruttura, nessuna
amministrazione
Integrato con QuickSight
Servizio di query interattivo che esegue l'analisi dei dati in Amazon S3 con SQL standard
Non è necessario configurare o gestire alcuna infrastruttura o caricaredati
Possibilità di eseguire query SQL sui dati archiviati in Amazon Glacier (disponibile a breve)
Amazon Athena - analisi interattiva
34. Amazon Redshift - data warehousing moderno
Data warehouse veloce, scalabile e completamente gestito a un decimo del costo
Esecuzione parallela massiva, dimensionamento da gigabyte a exabyte
Query dei dati tra il data warehouse Redshift e il data lake Amazon S3
Dimensionamento
rapido
Tecnologia di storage
colonnare per migliorare
l'efficienza I/O
e dimensionare le
prestazioni di query
Convenienza
Costo iniziale di $0,25
all'ora, solo $250-$333
per terabyte non
compresso all'anno
Formati di file aperti Sicurezza
Audit complete, crittografia
dei dati end-to-end,
certificazione e conformità
a tutti i livelli
Analisi dei formati di dati
ottimizzati su dischi DAS
e tutti i formati di file
aperti in S3
$
35. Redshift Spectrum – analisi di data lake
Esecuzione di query tra il data warehouse Amazon Redshift e il data lake Amazon S3
Esecuzione di query SQL Redshift su Amazon S3
Dimensionamento separato di calcolo e storage
Prestazioni di query elevate
Simultaneità illimitata
Formati di dati CSV, ORC, Grok, Avro e Parquet
On demand, pagamento per query sulla base
dei dati scansionati
Data lake S3Dati RedShift
Motore di query
Redshift Spectrum
38. COSA DICE IL CLIENTE?
https://aws.amazon.com/solutions/case-studies/analytics/
https://aws.amazon.com/solutions/case-studies/big-data/
39. JustGiving crea una piattaforma di Big Data su AWS
"Prima di AWS,
basavamo le decisioni su
un'unica origine di dati
generali. Ora possiamo
estrarre dati molto più
granulari basati su milioni
di donazioni… e utilizzare
tali informazioni per fornire
una piattaforma migliore ai
nostri visitatori".
- Richard Atkinson, CIO
40. FINRA analizza quotidianamente miliardi di transazioni
Per rispondere
alle dinamiche
di mercato in rapida
evoluzione, FINRA
ha trasferito il 75%
delle operazioni in
Amazon Web Services
e utilizza AWS per
analizzare
75 miliardi di record
al giorno.
41. FINRA utilizza Amazon EMR e Amazon S3 per elaborare fino a
75 miliardi di eventi di trading al giorno e archiviare in modo sicuro
più di 5 petabyte di dati, ottenendo un risparmio di $ 10-20 milioni
all'anno.
Rilevamento di attività fraudolente
42. Problemi
• Tempi di estrazione ed elaborazione
• Costo
• Tecnologie superate
• Ccloud ibrido
Soluzioni
• Definizione Datalake
• Cloud Ibrido
• ETL Serverless
• WebApp Shiny
Dashboard dei Movimenti Turistici
43. Benefici
• Ottimizzazione costi
• Miglioramento della velocità di elaborazione
• Scalabilità
• Velocità di deploy e messa in produzione
• Monitoraggio
Dashboard dei Movimenti Turistici
da 1 giorno ad alcuni
minuti
44. • Linee guida prescrittive e soluzioni rapidamente distribuibili
• per agevolare lo storage, l'analisi e l'elaborazione di Big Data
nel cloud AWS
• Ottenimento di informazioni dall'IoT in pochi minuti tramite
AWS IoT, Amazon Kinesis Firehose, Amazon Athena e
Amazon QuickSight
• Distribuzione di un data lake in AWS, marzo 2017,
• AWS Online Tech Talks
• Armonizzazione, ricerca e analisi di set di dati con
• legami deboli su AWS tramite Glue, Athena e QuickSight
• Dal data lake al data warehouse: potenziare la visione
• completa del cliente con Amazon Redshift Spectrum
• Integrazione e distribuzione continue
• delle applicazioni Apache Spark tramite AWS
http://amzn.to/2vHIwBq
http://amzn.to/2i9gqZn
http://bit.ly/2qipA8h
http://amzn.to/2qpiFaK
http://amzn.to/2lpbc8p
Conclusioni https://aws.amazon.com/blogs/big-data/
https://aws.amazon.com/answers/big-data/
http://amzn.to/2gIJcj8