Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Data Mesh is a federated approach to data management and governance developed by Zhamak Dehghani. It’s structure is based on domains and data products, elements that have also seen wide attention from organizations that are not otherwise working towards a full Mesh implementation. Working with autonomous domains who share data to the rest of the organization via data products is an excellent way to bring data work closer to the business and to allow domain-specific prioritization instead of a massive centralized bottleneck team. However, with domains having their own understanding of business and its core concepts, semantic interoperability becomes a challenge. This workshop focuses on the problems of Information Architecture in a de-centralized landscape. How can we document what data we have available, how do we understand what other teams’ data means, and how do we maintain a big picture of what is where? We will explore conceptual modeling as a key method of documenting the business context and semantics of domains and data products, more detailed logical modeling as a means to document data product structures, and consider both within-domain and cross-domain linking of various models and objects in them. As a hands-on exercise, we will model a domain and design some example data products that maintain strong links with their domain-level semantics. The workshop will give you the basic skills to do data modeling at these higher levels of abstraction, and understanding of the key characteristics and challenges of the Data Mesh that affect the way we need to do data modeling.
Learning objectives
Who is it for
Detailed Course Outline
1. Introduction
2. Data Mesh basics
3. How conceptual models help with cross-domain understanding
4. Hands-on exercise: modeling a domain
5. Data modeling as part of data product design
6. Ensuring semantic interoperability at the domain boundary
7. Data Mesh information architecture operating model
8. Conclusion
Input volgt spoedig.
Praktische hands-on workshop waarbij je zélf met oefeningen aan de slag gaat op de eigen laptop.
Lees minderWhether you call it a conceptual data model, a domain model, a business object model, or even a “thing model,” the concept model is seeing a worldwide resurgence of interest. Why? Because a concept model is a fundamental technique for improving communication among stakeholders in any sort of initiative. Sadly, that communication often gets lost – in the clouds, in the weeds, or in chasing the latest bright and shiny object. Having experienced this, Business Analysts everywhere are realizing Concept Modelling is a powerful addition to their BA toolkit. This session will even show how a concept model can be used to easily identify use cases, user stories, services, and other functional requirements.
Realizing the value of concept modelling is also, surprisingly, taking hold in the data community. “Surprisingly” because many data practitioners had seen concept modelling as an “old school” technique. Not anymore! In the past few years, data professionals who have seen their big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, etc. efforts fail to deliver expected benefits realise it is because they are not based on a shared view of the enterprise and the things it cares about. That’s where concept modelling helps. Data management/governance teams are (or should be!) taking advantage of the current support for Concept Modelling. After all, we can’t manage what hasn’t been modelled!
The Agile community is especially seeing the need for concept modelling. Because Agile is now the default approach, even on enterprise-scale initiatives, Agile teams need more than some user stories on Post-its in their backlog. Concept modelling is being embraced as an essential foundation on which to envision and develop solutions. In all these cases, the key is to see a concept model as a description of a business, not a technical description of a database schema.
This workshop introduces concept modelling from a non-technical perspective, provides tips and guidelines for the analyst, and explores entity-relationship modelling at conceptual and logical levels using techniques that maximise client engagement and understanding. We’ll also look at techniques for facilitating concept modelling sessions (virtually and in-person), applying concept modelling within other disciplines (e.g., process change or business analysis,) and moving into more complex modelling situations.
Drawing on over forty years of successful consulting and modelling, on projects of every size and type, this session provides proven techniques backed up with current, real-life examples.
Topics include:
Learning Objectives:
Artificiële intelligentie belooft enorme meerwaarde, maar zonder sterke governancefundamenten lopen AI-initiatieven het risico bevooroordeeld, ondoorzichtig of niet-conform te zijn. Organisaties worden in toenemende mate — door toezichthouders, klanten en de samenleving — verwacht te zorgen dat AI-systemen ethisch, uitlegbaar en betrouwbaar zijn. Toch blijven de meeste governance-inspanningen gefragmenteerd: AI Governance wordt vaak losgekoppeld van de principes van Responsible AI, terwijl Data Governance in een silo opereert.
Dit seminar verbindt de punten. Deelnemers krijgen een volledig inzicht in hoe Data Governance de basis vormt voor Responsible AI, en hoe AI Governance-kaders ethiek en compliance in de praktijk brengen. Door strategie, praktijkcases en hands-on kaders te combineren, biedt de cursus deelnemers de middelen om governance-aanpakken te ontwerpen en te implementeren die AI niet alleen innovatief maken, maar ook betrouwbaar en verantwoord.
Leerdoelen
Aan het einde van deze seminar zijn deelnemers in staat om:
Voor wie?
Deel 1 — Fundamenten & Risico’s
Deel 2 — Frameworks & Praktijken
Deel 3 — Connecting the Dots & Implementatie
Boek ook een van de praktische workshops!
Drie internationale topsprekers verzorgen de dag na het congres boeiende en zeer praktische workshops. Congresdeelnemers genieten combinatiekorting dus aarzel niet en boek snel want deelname aan de workshops is gelimiteerd.
Kijk op de agenda van Adept Events
“Good quality content from experienced speakers. Loved it!”
“As always a string of relevant subjects and topics.”
“Langere sessies leverden de mogelijkheid tot uitdiepen en dialoog. Dat vind ik goed aan deze summit.”
“Inspirerende summit met goede sprekers die de onderwerpen vanuit verschillende hoeken mooi belichten. Organisatie en locatie: prima!!”
“Inspirerend en prima verzorgd congres. Actuele onderwerpen met veel praktische richtlijnen, handvatten en do’s en don’ts over de informatie architectuur zoals Big Data, Data Lakes, datavirtualisatie en een logisch datawarehouse.”
“Een leuk en leerzaam event!”
“As a BI Consultant I feel inspired to recommend this conference to everyone looking for practical tools to implement a long term BI Customer Service.”
“Was weer prima!”