Wenn es um Miet- oder Kaufpreise geht, denken viele gleich an die Immobilien Binsenweisheit „Lage, Lage, Lage“. Doch macht dieser eine Faktor ausschließlich den Wert einer Wohnung oder eines Hauses aus? Eine Studie der FOM Düsseldorf kam zu einem überraschenden Ergebnis. Frank Lehrbass, Professor für Data Science, gibt uns in seinem Gastbeitrag einen Einblick in die Welt von Big Data. Was kann die Immobilienbranche aus Datenmengen ableiten? 

Der Begriff Big Data bezeichnet mehr als große Datenmengen. Richtig eingesetzt verraten diese Datenmengen viel über die Wirtschaft, unser Verhalten und unsere Gesellschaft. Bereits in den 1990-er Jahren wurden in der WestLB neuronale Netze zum Intra-Day Trading trainiert und eingesetzt. Die großen Datenmengen bestanden in Finanzmarktzeitreihen, die minütlich vorlagen. Bei Banken und Versicherungen fallen seit jeher große Datenbestände an, die Rückschlüsse auf das Risiko bestimmter Geschäfte zulassen. Die Auswertung dieser Big Data erlaubt ein risikogerechtes Bepreisen beim Eingehen von Risiken und ist eine notwendige Vorstufe zur Risikomessung.

In der Industrie ist die Nutzung von Big Data ein wichtiger Bestandteil von Industrie 4.0. Die Vorhersage von Produktionsstörungen, Absatzzahlen oder die Entwicklung der Fertigungskosten sind nur einige Beispiele aus Arbeiten an der FOM. Big Data ergibt sich hier etwa aus der Vielzahl und Frequenz der Sensordaten.

Der Faktor Mensch

Die Analyse menschlichen Verhaltens ist seit jeher im Marketing wichtig. Beispiele sind die Auswertung von Kundenzufriedenheitsbefragungen, um zu erkennen, was der Kundschaft wirklich wichtig ist. Ist es eher eine Beraterschulung oder die Aufwertung des Ambientes in der Filiale? 

Wenn es um Stimmungen in der Gesellschaft geht, können Techniken des „Opinion Mining“ genutzt werden. Dieses Verfahren greift sehr gut in der Immobilienbranche. Die FOM Hochschule hat dazu kürzlich eine Studie veröffentlicht, in der große Datenbestände aus ImmobilienScout24 um Bewertungen aus Yelp, Tripadvisor und Google ergänzt wurden. Warum wir uns an der FOM mit der Immobilienbranche beschäftigt haben, hat zwei Gründe. Zum einen liegen bereits entsprechende Studien aus den U.S.A. vor. Zum anderen verlangt die Auswahl der Daten eine fachliche Expertise. Erfolgreiche Analyseprojekte benötigen stets ein Verständnis der Materie (sogenanntes Domain Knowledge) und der Eigenheiten der Daten. Zwei der drei Autoren brachten professionelle Erfahrungen aus der Immobilienbranche mit.

Was lässt sich messen?

Mit Big Data lassen sich Merkmale des Wohnumfelds objektscharf messen. In der Studie wurden je Objekt (Wohnung) sämtliche Restaurants, Bankautomaten sowie Haltestellen in einem Umkreis von einem Kilometer ermittelt und Größen wie Distanz zu den Haltestellen, Bankautomaten und die mittlere Bewertung der Bars in der Nähe errechnet. Zusammen mit traditionell verwendeten Parametern wie Größe der Wohnung und Ausstattung (Küche ja/nein) ergaben sich insgesamt 89 Faktoren, die die Marktmiete erklären können. Auffallend war, dass unter diesen Faktoren die Lage gar keine Rolle spielte. Deshalb gelangten wir in der Studie zu dem Schluss, dass „Lebensqualität“ statt „Lage, Lage, Lage“ die tatsächliche Situation besser abbildet. Ein solches Ergebnis wurde auch schon von McKinsey für den Wohnungsmarkt in Boston in den U.S.A festgestellt. 

Das Sammeln und Analysieren von Datenmengen ist nur der erste Schritt, die Basis, um aus den großen Datenmengen die für ein Unternehmen relevanten Schlüsse zu ziehen. Konkret ergeben sich aus der Studie Erkenntnisse für Immobilienentwickler und Investoren, z. B. dass mit großen Wohnungen überproportional hohe Mieten erzielt werden können. Bei der Standortwahl sollten zukünftig auch Bewertungen aus Yelp, Tripadvisor und Google berücksichtigt werden. Konkret könnten Entscheider auch eines der drei Modelle in der Studie nutzen und die Merkmale potentieller Standorte einspeisen, um Prognosen für erzielbare Mieten zu erhalten. 

Am effizientesten wäre es jedoch, einen Mitarbeiter in Data Science auszubilden und ein eigenes, passgenaues Modell für das Unternehmen zu entwickeln. Neben die firmenbezogene Strategie tritt der Aspekt der Modellpflege. Daten sind dynamisch und man muss das Modell à jour halten. An der FOM wird solcher Theorie-Praxis Transfer regelmäßig geleistet, indem Studierende ihre Projekt- und Masterarbeiten über Anwendungsfälle ihrer Arbeitgeber schreiben .

Die Vorhersage solcher Bewertungen wird mit den Begriffen „Opinion Mining“ oder „Sentiment Analysis“ bezeichnet. Dabei werden bewertungsrelevanten unstrukturierten Texten, wie sie etwa in sozialen Medien auftauchen, maschinell die darin durchscheinenden Emotionen zugeordnet. Dies wiederum erlaubt die Vorhersage zukünftiger Bewertungen. Die genannte Zuordnung kann etwa unter Zuhilfenahme des NRC Emotion Lexicon geschehen. Dies ist eine Liste von Wörtern und ihren Assoziationen zusammen mit acht Grundgefühlen wie Freude, Überraschung usw. Aus diesen Zuordnungen lassen sich Metriken berechnen, wie etwa die Dominanz positiver oder negativer Gefühle. Aber auch das simple Auftauchen eines Gefühls wie Zorn kann schon ein wichtiger Faktor sein. Was am Ende Prognosekraft hat, entscheidet sich während des Modellbaus.

Frank Lehrbass 

Hier gehts zum ZOO:M E-Magazin

Pin It on Pinterest