Je zou denken van wel, met al meer dan vijftig jaar ervaring met datamodelleren, data-architecturen, datastrategieën, datawarehouses en databases. Desondanks moeten we bekennen dat er nog steeds fouten gemaakt worden en grote projecten nog altijd mislopen. Wat kunnen we eigenlijk voor de toekomst leren van alle ervaringen die we hebben opgedaan? Wat moeten we veranderen om mee te kunnen draaien in deze steeds meer datagedreven economie waarin voor iedereen digitale transformatie het magische woord is? Het is niet alleen een kwestie van nieuwe technologie aanschaffen. Wij ICT-ers moeten ook veranderen. Data-disruptie vereist ICT-disruptie.
Jaap-Willem Verheij van Wijk will open the session with an introduction to Qlik then share customer insights including EWALS Cargo Care who have continuously innovated with data to stay ahead of the curve. See how they have solved the latest data challenges in logistics and how they automate the data warehouse lifecycle. Jaap will also share how AEGON have solved their manual data stream issues and are now able to enclose multiple data sources with a small team that supports the agility of their business demands.
Lees minderAPG is de grootste pensioenuitvoerder van Nederland en ziet vanuit huidige en toekomstige bedrijfsvoering data als een cruciale asset. De overheid trekt zich steeds meer terug uit een toereikende oudedagsvoorziening (verhoging AOW-leeftijd, verlaging pensioenopbouw) dus inzicht in de persoonlijke situatie van deelnemers en het bieden van handelingsperspectief is van cruciaal belang. Daarnaast wil APG als uitvoerder en belegger toonaangevend zijn.
Dit alles heeft geleid tot het oormerken van data als een strategische asset. Maar hoe kom je van die ambitie tot executie op de diverse assen techniek, capability, cultuur en organisatie? Deze presentatie vertelt een integraal verhaal over de reis die de afgelopen periode is afgelegd: wat ging er goed, wat niet, wat hebben we daarvan geleerd, waar staan we nu?
Er zal worden ingegaan op het neerzetten van een passende architectuur, het opbouwen van de juiste kennis en kunde, de combinatie met moderne werkvormen en de uitdagingen op samenwerking over bedrijfsonderdelen heen:
Ensembling is one of the hottest techniques in today’s predictive analytics competitions. Every single recent winner of Kaggle.com and KDD competitions used an ensemble technique, including famous algorithms such as XGBoost and Random Forest.
Are these competition victories paving the way for widespread organizational implementation of these techniques? This session will provide a detailed overview of ensemble models, their origin, and show why they are so effective. We will explain the building blocks of virtually all ensembles techniques, to include bagging and boosting.
What You Will Learn:
De digitale toekomst: denk groot, denk aan grootschalig gedistribueerde data, denk in ecosystemen. Welke Integratie-architectuur is benodigd om een belangrijke positie te krijgen in een ecosysteem van Fintech-bedrijven en andere banken? Hebben Enterprise Datawarehouses nog een functie in dit datalandschap? Over deze vragen gaat de presentatie. Ook komt aan bod:
Self-service analytics has been the holy grail of data analytics leaders for the past two decades. Although analytical tools have improved significantly, it is notoriously difficult to achieve the promise of self-service analytics. This session will explain how to empower business users to create their own reports and models without creating data chaos. Specifically, it examines seven factors for leading a successful BI program: right roles, right processes, right tools, right organization, right architecture, right governance, and right leadership. Ultimately, it will show how to build a self-sustaining analytical culture that balances speed and standards, agility and architecture, and self-service and governance.
You will learn:
With data increasingly being seen as a critical corporate asset, more organisations are embracing the concepts and practices of Data Governance. As a result Data Governance is today one of the hottest topics in data management, focusing both on how Governance driven change can enable companies to gain better leverage from their data through enhanced Business Intelligence, Data Analytics and so on, and also to help them design and enforce the controls needed to ensure they remain compliant with increasingly stringent laws and regulations, such as GDPR.
Despite this rapidly growing focus, many Data Governance initiatives fail to meet their goals, with only around one in five fully achieving expectations. Why is the failure rate so high? There are many factors, but one key reason is that implementing Data Governance without aligning it with a defined enterprise and data architecture is fraught with dangers. Linking Architecture with data accountability, a core principle of Data Governance, is essential.
This session will outline why Data Governance and Architecture should be connected, how to make it happen, and what part Business Intelligence and Data Warehousing play in defining a robust and sustainable Governance programme.
This talk will cover:
Cloud data warehousing helps to meet the challenges of legacy data warehouses that struggle to keep up with growing data volumes, changing service level expectations, and the need to integrate structured warehouse data with unstructured data in a data lake. Cloud data warehousing provides many benefits, but cloud migration isn’t fast and easy. Migrating an existing data warehouse to the cloud is a complex process of moving schema, data, and ETL. The complexity increases when architectural modernization, restructuring of database schema or rebuilding of data pipelines is needed.
This session provides an overview of the benefits, techniques, and challenges when migrating an existing data warehouse to the cloud. We will discuss the pros and cons of cloud migration, explore the dynamics of migration decision making, and look at migration pragmatics within the framework of a step-by-step approach to migrating. The tips and techniques described here will help you to make informed decisions about cloud migration and address the full scope of migration planning.
You Will Learn:
Je zou denken van wel, met al meer dan vijftig jaar ervaring met datamodelleren, data-architecturen, datastrategieën, datawarehouses en databases. Desondanks moeten we bekennen dat er nog steeds fouten gemaakt worden en grote projecten nog altijd mislopen. Wat kunnen we eigenlijk voor de toekomst leren van alle ervaringen die we hebben opgedaan? Wat moeten we veranderen om mee te kunnen draaien in deze steeds meer datagedreven economie waarin voor iedereen digitale transformatie het magische woord is? Het is niet alleen een kwestie van nieuwe technologie aanschaffen. Wij ICT-ers moeten ook veranderen. Data-disruptie vereist ICT-disruptie.
Jaap-Willem Verheij van Wijk will open the session with an introduction to Qlik then share customer insights including EWALS Cargo Care who have continuously innovated with data to stay ahead of the curve. See how they have solved the latest data challenges in logistics and how they automate the data warehouse lifecycle. Jaap will also share how AEGON have solved their manual data stream issues and are now able to enclose multiple data sources with a small team that supports the agility of their business demands.
Lees minderAPG is de grootste pensioenuitvoerder van Nederland en ziet vanuit huidige en toekomstige bedrijfsvoering data als een cruciale asset. De overheid trekt zich steeds meer terug uit een toereikende oudedagsvoorziening (verhoging AOW-leeftijd, verlaging pensioenopbouw) dus inzicht in de persoonlijke situatie van deelnemers en het bieden van handelingsperspectief is van cruciaal belang. Daarnaast wil APG als uitvoerder en belegger toonaangevend zijn.
Dit alles heeft geleid tot het oormerken van data als een strategische asset. Maar hoe kom je van die ambitie tot executie op de diverse assen techniek, capability, cultuur en organisatie? Deze presentatie vertelt een integraal verhaal over de reis die de afgelopen periode is afgelegd: wat ging er goed, wat niet, wat hebben we daarvan geleerd, waar staan we nu?
Er zal worden ingegaan op het neerzetten van een passende architectuur, het opbouwen van de juiste kennis en kunde, de combinatie met moderne werkvormen en de uitdagingen op samenwerking over bedrijfsonderdelen heen:
Ensembling is one of the hottest techniques in today’s predictive analytics competitions. Every single recent winner of Kaggle.com and KDD competitions used an ensemble technique, including famous algorithms such as XGBoost and Random Forest.
Are these competition victories paving the way for widespread organizational implementation of these techniques? This session will provide a detailed overview of ensemble models, their origin, and show why they are so effective. We will explain the building blocks of virtually all ensembles techniques, to include bagging and boosting.
What You Will Learn:
De digitale toekomst: denk groot, denk aan grootschalig gedistribueerde data, denk in ecosystemen. Welke Integratie-architectuur is benodigd om een belangrijke positie te krijgen in een ecosysteem van Fintech-bedrijven en andere banken? Hebben Enterprise Datawarehouses nog een functie in dit datalandschap? Over deze vragen gaat de presentatie. Ook komt aan bod:
Self-service analytics has been the holy grail of data analytics leaders for the past two decades. Although analytical tools have improved significantly, it is notoriously difficult to achieve the promise of self-service analytics. This session will explain how to empower business users to create their own reports and models without creating data chaos. Specifically, it examines seven factors for leading a successful BI program: right roles, right processes, right tools, right organization, right architecture, right governance, and right leadership. Ultimately, it will show how to build a self-sustaining analytical culture that balances speed and standards, agility and architecture, and self-service and governance.
You will learn:
With data increasingly being seen as a critical corporate asset, more organisations are embracing the concepts and practices of Data Governance. As a result Data Governance is today one of the hottest topics in data management, focusing both on how Governance driven change can enable companies to gain better leverage from their data through enhanced Business Intelligence, Data Analytics and so on, and also to help them design and enforce the controls needed to ensure they remain compliant with increasingly stringent laws and regulations, such as GDPR.
Despite this rapidly growing focus, many Data Governance initiatives fail to meet their goals, with only around one in five fully achieving expectations. Why is the failure rate so high? There are many factors, but one key reason is that implementing Data Governance without aligning it with a defined enterprise and data architecture is fraught with dangers. Linking Architecture with data accountability, a core principle of Data Governance, is essential.
This session will outline why Data Governance and Architecture should be connected, how to make it happen, and what part Business Intelligence and Data Warehousing play in defining a robust and sustainable Governance programme.
This talk will cover:
Cloud data warehousing helps to meet the challenges of legacy data warehouses that struggle to keep up with growing data volumes, changing service level expectations, and the need to integrate structured warehouse data with unstructured data in a data lake. Cloud data warehousing provides many benefits, but cloud migration isn’t fast and easy. Migrating an existing data warehouse to the cloud is a complex process of moving schema, data, and ETL. The complexity increases when architectural modernization, restructuring of database schema or rebuilding of data pipelines is needed.
This session provides an overview of the benefits, techniques, and challenges when migrating an existing data warehouse to the cloud. We will discuss the pros and cons of cloud migration, explore the dynamics of migration decision making, and look at migration pragmatics within the framework of a step-by-step approach to migrating. The tips and techniques described here will help you to make informed decisions about cloud migration and address the full scope of migration planning.
You Will Learn:
Data vault, ensemble logical modeling, datavirtualisatie en cloud zijn bij elke BI of datawarehouse-specialist bekend. Maar de grote vraag is hoe je ze samen inzet bij het ontwikkelen van real-life systemen en dan de kracht en mogelijkheden van elke component optimaal benut. In deze sessie wordt uitgelegd hoe alle samen efficiënt ingezet kunnen worden. Centraal hierbij staat het nieuwe concept “data routes”. Binnen een data- en analytics-architectuur dienen data routes als brandstof voor de virtuele data presentatielaag die door eindgebruikers wordt benaderd voor al hun databehoeftes.
Het concept stelt een datageoriënteerde manier van verwerken voor, die rust op de genoemde zaken als data vault, ensemble modeling en datavirtualisatie. Hierbij wordt een ontkoppeling van data en techniek gerealiseerd waardoor het accent wordt verlegd naar de karakteristieken van de data en de eisen die use cases stellen. Het resultaat wordt als een virtuele (semantische) data laag aangeboden aan een brede groep van data enthousiasten. Met behulp van datavirtualisatie wordt een virtuele dataverzameling opgebouwd als virtueel dataportaal voor datagebruikers.
Data Virtualization, Data Quality, Reference Data Management, Master Data Management en Metadatamanagement als onderdeel van Data Management stellen organisaties in staat de verschillende data silo’s op elkaar af te stemmen en hun beslissingen te verbeteren.
Onze centrale vraag is: “Hoe kan TIBCO digitale transformatie initiatieven hierbij ondersteunen?” Data is het fundament voor operational excellence, customer intimacy en Business Reinvention. De rol van TIBCO’s Unify portfolio is de hoeksteen in een data-driven initiatief voor Operations, Data Governance en Analytics.
[Bekijk preview] In de afgelopen vijf jaar zijn cloud databasesystemen echt doorgebroken. De cloud maakt het mogelijk om kapitaal investeringen vooraf om te zetten in operationele kosten, zodat men alleen betaalt voor de capaciteit die echt is; en er nooit zorgen hoeven te zijn over capaciteitsproblemen. Daarbovenop “ontzorgen” cloud database systemen in de zin dat het beheer van de database systemen en onderliggende hardware bij de cloud provider ligt. In tijden van personele schaarste is dat een andere belangrijke factor achter het succes van cloud database systemen, die de eventuele nadelen op het gebied van lock-in en zorgen rond privacy en security vaak neutraliseert.
Maar, als eenmaal het besluit is genomen om de database naar de cloud te brengen, welke dan te kiezen? Er zijn op dit moment al een heleboel cloud systemen. Amazon heeft onder andere Aurora, Redshift, Neptune en Athena. Microsoft heeft SQLserver en Cosmos DB. Google heeft onder andere BigQuery. En dan zijn er nieuwe bedrijven bijgekomen, die zich specialiseren in cloud services, zoals Snowflake en Databricks.
Om beter te begrijpen wat de overeenkomsten en verschillen zijn tussen al die nieuwe cloud systemen, zal Peter Boncz ingaan op wat er zich onder de motorkap van deze nieuwe systemen bevindt. De verschillende alternatieven worden technisch ontleed en met elkaar vergeleken.
Enkele van de onderwerpen die aan bod zullen komen:
This session will expose analytic practitioners, data scientists, and those looking to get started in predictive analytics to the critical importance of properly preparing data in advance of model building. The instructor will present the critical role of feature engineering, explaining both what it is and how to do it effectively. Emphasis will be given to those tasks that must be overseen by the modeler – and cannot be performed without the context of a specific modeling project. Data is carefully “crafted” by the modeler to improve the ability of modeling algorithms to find patterns of interest.
Data preparation is often associated with cleaning and formatting the data. While important, these tasks will not be our focus. Rather it is how the human modeler creates a dataset that is uniquely suited to the business problem.
You will learn:
Het vergrendelen van alle gegevens is niet het antwoord aangezien we daarbij teveel van het potentieel van de data zouden verliezen. Data Governance 1.0-top-down en watervalachtige modellen zijn niet langer geschikt voor de nieuwe data paradigma’s.
De presentatie richt zich op de stappen die u moet nemen om uit uw big data duurzame en met de regelgeving conforme waarde te krijgen via (Self-service) Analytics.
U leert:
When it comes to data analytics, you don’t want to know “how the sausage is made.” The state of most data analytics pipelines is deplorable. There are too many steps; too little automation and orchestration; minimal reuse of code and data; and a lack of coordination between stakeholders in business, IT, and operations. The result is poor quality data delivered too late to meet business needs.
DataOps is an emerging approach for building data pipelines and solutions. This session will explore trends in DataOps adoption, challenges that organizations face in implementing DataOps, and best practices in building modern data pipelines. It will examine how leading-edge organizations are using DataOps to increase agility, reduce cycle times, and minimize data defects, giving developers and business users greater confidence in analytic output.
You will learn:
In de complexe wereld van halfgeleider productie worden dagelijks enorme hoeveelheden zeer gevarieerde data gegenereerd. ASML, wereldleider op het gebied van machines voor de productie van halfgeleiders, implementeert een central data lake waarin data verzameld wordt in een centrale omgeving en die vanuit daar beschikbaar gesteld wordt voor rapportage en analyse. Dit central data lake bevat ook een zogenaamd analytics lab voor gedetailleerde exploratie van data en het faciliteren van data science toepassingen. Het beheersen van deze snel veranderende data is een enorme uitdaging. In deze sessie bespreken we aan de hand van een aantal voorbeelden ASML’s aanpak voor de volgende uitdagingen:
Veel organisaties zijn hierdoor tot de conclusie gekomen dat het tijd is voor een nieuwe, toekomstbestendige data-architectuur. Dit is echter gemakkelijker gezegd dan gedaan. Een nieuwe data-architectuur ontwerpen doe je immers niet elke dag. In deze sessie worden tien essentiële richtlijnen gegeven voor het ontwerpen van moderne data-architecturen. Deze richtlijnen zijn gebaseerd op ervaringen met het uitdenken en implementeren van menig nieuwe data-architectuur.
Data vault, ensemble logical modeling, datavirtualisatie en cloud zijn bij elke BI of datawarehouse-specialist bekend. Maar de grote vraag is hoe je ze samen inzet bij het ontwikkelen van real-life systemen en dan de kracht en mogelijkheden van elke component optimaal benut. In deze sessie wordt uitgelegd hoe alle samen efficiënt ingezet kunnen worden. Centraal hierbij staat het nieuwe concept “data routes”. Binnen een data- en analytics-architectuur dienen data routes als brandstof voor de virtuele data presentatielaag die door eindgebruikers wordt benaderd voor al hun databehoeftes.
Het concept stelt een datageoriënteerde manier van verwerken voor, die rust op de genoemde zaken als data vault, ensemble modeling en datavirtualisatie. Hierbij wordt een ontkoppeling van data en techniek gerealiseerd waardoor het accent wordt verlegd naar de karakteristieken van de data en de eisen die use cases stellen. Het resultaat wordt als een virtuele (semantische) data laag aangeboden aan een brede groep van data enthousiasten. Met behulp van datavirtualisatie wordt een virtuele dataverzameling opgebouwd als virtueel dataportaal voor datagebruikers.
Data Virtualization, Data Quality, Reference Data Management, Master Data Management en Metadatamanagement als onderdeel van Data Management stellen organisaties in staat de verschillende data silo’s op elkaar af te stemmen en hun beslissingen te verbeteren.
Onze centrale vraag is: “Hoe kan TIBCO digitale transformatie initiatieven hierbij ondersteunen?” Data is het fundament voor operational excellence, customer intimacy en Business Reinvention. De rol van TIBCO’s Unify portfolio is de hoeksteen in een data-driven initiatief voor Operations, Data Governance en Analytics.
[Bekijk preview] In de afgelopen vijf jaar zijn cloud databasesystemen echt doorgebroken. De cloud maakt het mogelijk om kapitaal investeringen vooraf om te zetten in operationele kosten, zodat men alleen betaalt voor de capaciteit die echt is; en er nooit zorgen hoeven te zijn over capaciteitsproblemen. Daarbovenop “ontzorgen” cloud database systemen in de zin dat het beheer van de database systemen en onderliggende hardware bij de cloud provider ligt. In tijden van personele schaarste is dat een andere belangrijke factor achter het succes van cloud database systemen, die de eventuele nadelen op het gebied van lock-in en zorgen rond privacy en security vaak neutraliseert.
Maar, als eenmaal het besluit is genomen om de database naar de cloud te brengen, welke dan te kiezen? Er zijn op dit moment al een heleboel cloud systemen. Amazon heeft onder andere Aurora, Redshift, Neptune en Athena. Microsoft heeft SQLserver en Cosmos DB. Google heeft onder andere BigQuery. En dan zijn er nieuwe bedrijven bijgekomen, die zich specialiseren in cloud services, zoals Snowflake en Databricks.
Om beter te begrijpen wat de overeenkomsten en verschillen zijn tussen al die nieuwe cloud systemen, zal Peter Boncz ingaan op wat er zich onder de motorkap van deze nieuwe systemen bevindt. De verschillende alternatieven worden technisch ontleed en met elkaar vergeleken.
Enkele van de onderwerpen die aan bod zullen komen:
This session will expose analytic practitioners, data scientists, and those looking to get started in predictive analytics to the critical importance of properly preparing data in advance of model building. The instructor will present the critical role of feature engineering, explaining both what it is and how to do it effectively. Emphasis will be given to those tasks that must be overseen by the modeler – and cannot be performed without the context of a specific modeling project. Data is carefully “crafted” by the modeler to improve the ability of modeling algorithms to find patterns of interest.
Data preparation is often associated with cleaning and formatting the data. While important, these tasks will not be our focus. Rather it is how the human modeler creates a dataset that is uniquely suited to the business problem.
You will learn:
Het vergrendelen van alle gegevens is niet het antwoord aangezien we daarbij teveel van het potentieel van de data zouden verliezen. Data Governance 1.0-top-down en watervalachtige modellen zijn niet langer geschikt voor de nieuwe data paradigma’s.
De presentatie richt zich op de stappen die u moet nemen om uit uw big data duurzame en met de regelgeving conforme waarde te krijgen via (Self-service) Analytics.
U leert:
When it comes to data analytics, you don’t want to know “how the sausage is made.” The state of most data analytics pipelines is deplorable. There are too many steps; too little automation and orchestration; minimal reuse of code and data; and a lack of coordination between stakeholders in business, IT, and operations. The result is poor quality data delivered too late to meet business needs.
DataOps is an emerging approach for building data pipelines and solutions. This session will explore trends in DataOps adoption, challenges that organizations face in implementing DataOps, and best practices in building modern data pipelines. It will examine how leading-edge organizations are using DataOps to increase agility, reduce cycle times, and minimize data defects, giving developers and business users greater confidence in analytic output.
You will learn:
In de complexe wereld van halfgeleider productie worden dagelijks enorme hoeveelheden zeer gevarieerde data gegenereerd. ASML, wereldleider op het gebied van machines voor de productie van halfgeleiders, implementeert een central data lake waarin data verzameld wordt in een centrale omgeving en die vanuit daar beschikbaar gesteld wordt voor rapportage en analyse. Dit central data lake bevat ook een zogenaamd analytics lab voor gedetailleerde exploratie van data en het faciliteren van data science toepassingen. Het beheersen van deze snel veranderende data is een enorme uitdaging. In deze sessie bespreken we aan de hand van een aantal voorbeelden ASML’s aanpak voor de volgende uitdagingen:
Veel organisaties zijn hierdoor tot de conclusie gekomen dat het tijd is voor een nieuwe, toekomstbestendige data-architectuur. Dit is echter gemakkelijker gezegd dan gedaan. Een nieuwe data-architectuur ontwerpen doe je immers niet elke dag. In deze sessie worden tien essentiële richtlijnen gegeven voor het ontwerpen van moderne data-architecturen. Deze richtlijnen zijn gebaseerd op ervaringen met het uitdenken en implementeren van menig nieuwe data-architectuur.
Tijdgebrek?
Heeft u slechts één dag de tijd om de DW&BI Summit te bezoeken? Maak een keuze uit de onderwerpen en kom op alleen 2 juli of op 3 juli. Het is namelijk ook mogelijk om alleen de eerste dag van het congres of alleen de tweede dag te bezoeken. De onderwerpen zijn zodanig gekozen dat zij op zich zelf staan zodat het ook mogelijk is om dag twee te volgen zonder dat u dag één heeft bijgewoond.
Kijk op de agenda van Adept Events
“Langere sessies leverden de mogelijkheid tot uitdiepen en dialoog. Dat vind ik goed aan deze summit.”
“Inspirerende summit met goede sprekers die de onderwerpen vanuit verschillende hoeken mooi belichten. Organisatie en locatie: prima!!”
“Inspirerend en prima verzorgd congres. Actuele onderwerpen met veel praktische richtlijnen, handvatten en do’s en don’ts over de informatie architectuur zoals Big Data, Data Lakes, datavirtualisatie en een logisch datawarehouse.”
“Een leuk en leerzaam event!”
“As a BI Consultant I feel inspired to recommend this conference to everyone looking for practical tools to implement a long term BI Customer Service.”
“Was weer prima!”