NVM

Bezig met het laden
van het e-zine...

Digitale Kansen: De consument

In dit e-zine lees je alles over de (veranderende) consument, de impact van digitalisering en de rol die de makelaar hierin heeft. De artikelen en video’s zijn geclusterd per thema en vind je hieronder.

01 | Welkom!

02 | Voorwoord

03 | De consument

04 | Innovatie

05 | Klantreis

06 | Social Media

07 | Jouw klantrelatie

08 | Oud & Nieuw?

09 | Colofon

Bezig met laden
>

Selecteren zonder vooroordelen

Hoe ga je om met discriminerende eisen vanuit de klant. Welk onderscheid mag je wel en niet maken? Welke vragen moet je stellen?

2 min

In de nieuwe cursus ‘selecteren zonder vooroordelen’ legt docente Barbara Bos van de Academie voor Vastgoed uit hoe je als makelaar de verhuurder kan helpen betere eisen te stellen.

Directe aanleiding om deze cursus aan te bieden, was een landelijk onderzoek naar discriminatie op de woningmarkt door het ministerie van Binnenlandse Zaken en Koningsrelaties (BZK) in 2020. Hieruit bleek dat veel makelaars – waaronder ook NVM-leden – bereid leken om mee te gaan in de wens van verhuurders om bepaalde type huurders uit te sluiten. “We zijn toen met deze makelaars in gesprek gegaan om te kijken hoe we hier als NVM in konden ondersteunen om discriminatie tegen te gaan”, vertelt Kees Vlaanderen, senior beleidsadviseur bij de NVM. “Een van de belangrijkste wensen bleek: meer opleiding. Uit angst om een klant te verliezen gaan sommigen mee in de eisen van een klant. Dat wil je niet. Je moet dit op een goede manier kunnen bespreken met de klant. En daar helpt deze cursus bij.” 

De echte eis

Centraal in de cursus staan de onbewuste vooroordelen, vertelt docente Bos. “Dus hoe kijk je naar iemand en hoe werkt dan die onbewuste kant? Als je weet hoe dat werkt, gaan we daarna op zoek naar handvatten om te kijken hoe je kan voorkomen dat dit optreedt. We gaan kijken of verhuurders logische eisen stellen. Want vaak zit er nog een eis achter. Uiteindelijk gaat het vooral om gedrag dat de verhuurder niet wil, terwijl de eis juist wordt gekoppeld aan afkomst.” 

“Hoe kan je als makelaar de verhuurder helpen betere eisen te stellen?”

Betere match

Tijdens de training wordt gekeken – aan de hand van praktijkvoorbeelden van de deelnemers zelf – welke vragen je zou kunnen stellen om de echte eisen van de klant boven tafel te krijgen. “Als een verhuurder uit angst bepaalde criteria stelt dan kun je daar als makelaar, door het stellen van de juiste vragen, wat meer beweging in krijgen waardoor een betere match met een huurder kan worden gemaakt”, stelt Bos. “En daardoor wordt een eerlijke kans voor huurders gecreëerd.” Ook Vlaanderen geeft aan dat discriminerende eisen vaak voortvloeien uit angst voor slechte huurders. “Juist om die angst weg te nemen is het belangrijk dat makelaars duidelijk aangeven dat zij huurders goed en zorgvuldig screenen, maar uitsluitend op zaken die wél relevant zijn.”

Wil je meer informatie

Wil je meer informatie over de training ‘selecteren zonder vooroordelen’ of je inschrijven?
Klik dan hier

“Zorgvuldige screening op relevante zaken.”

Onbewust discriminerende algoritmes

Steeds meer online informatie wordt in data vastgelegd en gebruikt als basis van algoritmes. Algoritmes worden vaak gevoed met historische data. In die veelal miljoenen losse ‘stukjes’ data zoeken en herkennen algoritmes patronen, die wij als mens niet zo zien. Maar data worden verzameld door mensen waarin ook onze maatschappelijke vooroordelen worden meegenomen, bewust of onbewust. Daardoor kan een algoritme toch subjectieve informatie bevatten waardoor vaak minderheden worden benadeeld.

Een interessant voorbeeld hiervan is Amazon die vanuit goede intenties algoritmes opzette om hun recruitmentproces genderneutraal te krijgen. Maar de meeste cv’s die zij in de afgelopen 10 jaar als input hadden genomen, waren juist van mannen. Mannen zijn immers dominant in de IT-sector. Daarnaast hebben mannen vaak een ander taalgebruik dan vrouwen in hun cv, waardoor mannelijke cv’s – waarop men werd aangekomen – onbedoeld voorrang kregen op vrouwelijke cv’s. Vrouwelijke cv’s kwamen er niet eens doorheen. Puur omdat het algoritme voor bepaald taalgebruik onbedoeld een vooroordeel voor vrouwen had ingebouwd gekregen (een bias). Uiteindelijk schrapt Amazon deze vrouwonvriendelijke recruitingtool. In Nederland zagen we de politiek een vuist maken tegen discriminerende algoritmes na de toeslagenaffaire.

Een algoritme is uiteindelijk alleen maar zo goed, als de data die het gevoed krijgt.

Bekijk ook de video met Miss Envy Peru over social media

Lees meer

Bekijk ook de video over Tech meets vastgoed

Bekijk video