
Behaalde resultaten uit het verleden bieden garantie voor de toekomst
Een pilot voor de ontwikkeling van een beslissingsondersteunend model voor planmatig onderhoud van woningen en gebouwen, gebaseerd op (big) data
door Harm Jellema, Jellema Advies Vastgoedonderhoud en Johan Glorie, Bureau Onderhoud
Data
We beschikken over steeds meer data. Dit komt omdat steeds meer zaken digitaal worden afgehandeld. Ook de snelheid waarmee ongestructureerde data zoals tekst, spraak en video kan worden verwerkt is sterk toegenomen. Big data zijn data die in zeer grote hoeveelheden worden bewerkt en geanalyseerd. Denk hierbij aan de data die via zoekmachines of sociale media binnenkomen.
Hype
Volgens marktonderzoeksbureau Gartner is het verwachtingspatroon over big data op dit moment te hoog (peak of inflated expectations). Iedereen wil er wat mee maar het verwachtingspatroon is erg hoog. Aan de andere kant van zien we dat predictive analytics een volwassen plaats heeft gevonden. Deze pilot raakt beide aspecten.
Data en planmatig onderhoud
Vanuit woningopnamen, inspecties en conditiemetingen ontstaan tegenwoordig veel waardevolle data. Verzamelen van deze data en een structurele analyse ervan kan belangrijke input leveren voor het verbeteren van het onderhoudsproces en beslissingen zoals het uitstellen van onderhoud.
Op basis van deze data kunnen de financiële risico’s van bijvoorbeeld vervolgschade bij uitstel beter worden voorspeld. Hiermee krijgt een onderhoudsplanning en -begroting een steviger fundament en een meer wetenschappelijke onderbouwing.
Met behulp van deze data kan meer inzicht worden verkregen in de noodzaak van bepaalde scenario’s. Op dit moment is het vaststellen van maatregelen op basis van de inspectiegegevens een lastige taak, zelfs voor techneuten. Een directe relatie tussen optredende condities en passende maatregelen ontbreekt en er gebeurt veel in het hoofd van een adviseur. Zowel voor opdrachtgevers als opdrachtnemers zou het een goede aanvulling zijn input te krijgen vanuit historische data.
Op basis van data moet het mogelijk zijn de resterende levensduur van bouwdelen beter te voorspellen. Aan de hand daarvan kunnen opdrachtgevers en opdrachtnemers onderhoudsintervallen onderbouwd oprekken en dus kosten besparen. Door monitoring en diagnose op afstand is het ook mogelijk om (schaarse) technici effectiever in te zetten.
Denkbaar is dat door gebruik te maken van de juiste data de frequentie van metingen in de praktijk drastisch kan worden verlaagd. Dat bespaart geld. Ook binnen planmatig onderhoud kan gedacht worden aan continu metingen met sensoren van belangrijke referentie bouwdelen.
Praktijk versus theorie
Interessant in deze pilot is om het theoretische model gebaseerd op de factormethode[fusion_builder_container hundred_percent=”yes” overflow=”visible”][fusion_builder_row][fusion_builder_column type=”1_1″ background_position=”left top” background_color=”” border_size=”” border_color=”” border_style=”solid” spacing=”yes” background_image=”” background_repeat=”no-repeat” padding=”” margin_top=”0px” margin_bottom=”0px” class=”” id=”” animation_type=”” animation_speed=”0.3″ animation_direction=”left” hide_on_mobile=”no” center_content=”no” min_height=”none”][1] te toetsen aan de werkelijkheid. Van daaruit kan een model worden ontwikkeld die de “normale” degradatiecurve weergeeft. Eventuele afwijkingen van dit model kunnen dan snel herkend worden. Als een succesvol voorspellend model is gevonden kan het direct worden toegepast op de binnenkomende data. Omdat het geleerde patroon in de loop van de tijd kan veranderen moet het model voortdurend geüpdatet worden op basis van recente data.
Data-architectuur
Het voorspellende model wordt voorlopig geïmplementeerd binnen een standalone data-architectuur. In deze architectuur wordt met binnenkomende data de resterende levensduur van bouwdelen en afwerkingen voorspeld. Die voorspelling is vervolgens beschikbaar in een dashboard, dat weer de basis vormt voor de onderhoudsplanning en -bewaking. Binnenkomende data worden ook opgeslagen om het voorspellende model periodiek te trainen zodat het up-to-date blijft. Het trainen van het model kan geautomatiseerd worden binnen de data-architectuur. In eerste instantie wordt binnen de pilot gebruik gemaakt van Microsoft Excel Power pivot, Power BI en Rapidminer[2]. Als de pilot succesvol is kan het worden uitgerold naar een Hadoop[3] platform. Om op basis van data te kunnen sturen zijn beslismodellen nodig.
Jellema-advies en Bureau onderhoud zullen op bouwdeelniveau onderhoudsbeslissingen inbrengen op basis van onder andere aangetroffen situaties, materialen, belastinggraad, constructie en materiaalkwaliteit. Op dit moment bestaat de voorlopige dataset planmatig onderhoud uit ca 350 variabelen. Hiervoor zullen slimme algoritmen worden opgesteld die weer worden geconfronteerd met de historische data.
Stappenplan
We willen deze pilot via een aantal stappen laten verlopen. Allereerst het weergeven welk type data we denken nodig te hebben. Hierna kunnen we verzamelen, structureren, analyseren, simuleren en visualiseren.
Planning, deelnemers en kosten
We verwachten dat de pilot twee jaar in beslag gaat nemen. Wij willen twee groepen deelnemers uitnodigen aan deze pilot mee te doen namelijk woningcorporaties en onderhoudsbedrijven.
Voor de deelnemende bedrijven zijn er geen kosten verbonden aan deze pilot. Wel wordt verwacht dat de deelnemende bedrijven zoveel mogelijk technische (niet privacygevoelige) informatie over planmatig onderhoud aan woningen ter beschikking stellen voor het onderzoek. Wij zullen de deelnemende bedrijven periodiek op de hoogte houden van de ontwikkelingen en behaalde resultaten. Wat betreft de resultaten bieden wij echter, in tegenstelling tot de titel van deze pilot, geen garantie voor de toekomst.:-)
[1] Factormethode: NEN-ISO 15686 Gebouwen en constructies – Planning van de levensduur
[2] RapidMiner is a software platform developed by the company of the same name that provides an integrated environment for machine learning, data mining, text mining, predictive analytics and business analytics.
[3] The Apache™ Hadoop® project develops open-source software for reliable, scalable, distributed computing.
The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models.
[/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]