In de nieuwe cursus ‘selecteren zonder vooroordelen’ legt docente Barbara Bos van de Academie voor Vastgoed uit hoe je als makelaar de verhuurder kan helpen betere eisen te stellen.
Directe aanleiding om deze cursus aan te bieden, was een landelijk onderzoek naar discriminatie op de woningmarkt door het ministerie van Binnenlandse Zaken en Koningsrelaties (BZK) in 2020. Hieruit bleek dat veel makelaars – waaronder ook NVM-leden – bereid leken om mee te gaan in de wens van verhuurders om bepaalde type huurders uit te sluiten. “We zijn toen met deze makelaars in gesprek gegaan om te kijken hoe we hier als NVM in konden ondersteunen om discriminatie tegen te gaan”, vertelt Kees Vlaanderen, senior beleidsadviseur bij de NVM. “Een van de belangrijkste wensen bleek: meer opleiding. Uit angst om een klant te verliezen gaan sommigen mee in de eisen van een klant. Dat wil je niet. Je moet dit op een goede manier kunnen bespreken met de klant. En daar helpt deze cursus bij.”
Centraal in de cursus staan de onbewuste vooroordelen, vertelt docente Bos. “Dus hoe kijk je naar iemand en hoe werkt dan die onbewuste kant? Als je weet hoe dat werkt, gaan we daarna op zoek naar handvatten om te kijken hoe je kan voorkomen dat dit optreedt. We gaan kijken of verhuurders logische eisen stellen. Want vaak zit er nog een eis achter. Uiteindelijk gaat het vooral om gedrag dat de verhuurder niet wil, terwijl de eis juist wordt gekoppeld aan afkomst.”
Tijdens de training wordt gekeken – aan de hand van praktijkvoorbeelden van de deelnemers zelf – welke vragen je zou kunnen stellen om de echte eisen van de klant boven tafel te krijgen. “Als een verhuurder uit angst bepaalde criteria stelt dan kun je daar als makelaar, door het stellen van de juiste vragen, wat meer beweging in krijgen waardoor een betere match met een huurder kan worden gemaakt”, stelt Bos. “En daardoor wordt een eerlijke kans voor huurders gecreëerd.” Ook Vlaanderen geeft aan dat discriminerende eisen vaak voortvloeien uit angst voor slechte huurders. “Juist om die angst weg te nemen is het belangrijk dat makelaars duidelijk aangeven dat zij huurders goed en zorgvuldig screenen, maar uitsluitend op zaken die wél relevant zijn.”
Wil je meer informatie over de training ‘selecteren zonder vooroordelen’ of je inschrijven?
Klik dan hier
Steeds meer online informatie wordt in data vastgelegd en gebruikt als basis van algoritmes. Algoritmes worden vaak gevoed met historische data. In die veelal miljoenen losse ‘stukjes’ data zoeken en herkennen algoritmes patronen, die wij als mens niet zo zien. Maar data worden verzameld door mensen waarin ook onze maatschappelijke vooroordelen worden meegenomen, bewust of onbewust. Daardoor kan een algoritme toch subjectieve informatie bevatten waardoor vaak minderheden worden benadeeld.
Een interessant voorbeeld hiervan is Amazon die vanuit goede intenties algoritmes opzette om hun recruitmentproces genderneutraal te krijgen. Maar de meeste cv’s die zij in de afgelopen 10 jaar als input hadden genomen, waren juist van mannen. Mannen zijn immers dominant in de IT-sector. Daarnaast hebben mannen vaak een ander taalgebruik dan vrouwen in hun cv, waardoor mannelijke cv’s – waarop men werd aangekomen – onbedoeld voorrang kregen op vrouwelijke cv’s. Vrouwelijke cv’s kwamen er niet eens doorheen. Puur omdat het algoritme voor bepaald taalgebruik onbedoeld een vooroordeel voor vrouwen had ingebouwd gekregen (een bias). Uiteindelijk schrapt Amazon deze vrouwonvriendelijke recruitingtool. In Nederland zagen we de politiek een vuist maken tegen discriminerende algoritmes na de toeslagenaffaire.
Een algoritme is uiteindelijk alleen maar zo goed, als de data die het gevoed krijgt.