Bildquelle: Pixabay / geralt

Künstliche Intelligenz und Big Data sind die beiden prägenden Begriffe der Informationsverarbeitung des 21. Jahrhunderts. Kaum ein Geschäftsmodell, das nicht mit diesen Begriffen hantiert und kaum ein Industriezweig, der nicht versucht die Potentiale nutzbar zu machen.

Während in den letzten Jahren Big Data die Diskussionen beherrschte und wir lernen mussten mit Hadoop Clustern, verteilter Datenhaltung und Cloud Technologien Schritt zu halten, ist seit kurzer Zeit das Thema künstliche Intelligenz (KI) dabei den Markt aufzurollen und die nächste Evolutionsstufe zu zünden. Die Erwartungen an Technologien im Bereich künstlicher Intelligenz steigen monatlich exponentiell an. Dahinter liegt die Hoffnung und die Erwartung auf eine neue digitale Revolution, welche um ein Vielfaches breiter und wirksamer ist als die industrielle Revolution, die Ende des 19. Jahrhunderts mit der Erfindung der Dampfmaschine begann.

Künstliche Intelligenz als Begriff

Bei dem Begriff künstliche Intelligenz, kurz KI, geht es um die Automatisierung einfacher und komplexer Verhaltensweisen auf Basis mathematischer Algorithmen und Technologien, wie z.B. das maschinelle Lernen. Dabei beschreibt KI die Kombination aus verschiedenen technologischen Entwicklungen: Textgenerierung und maschinelle Verarbeitung natürlicher Sprache (das sogenannte Automatic Reasoning), prohabilistische Methoden, maschinelles Lernen, autonome und intelligente Agenten. Auf der Suche nach perfekten Lösungen wurden all diese Einzellösungen zu dem zusammengeführt, was wir heute unter künstlicher Intelligenz verstehen.

Grundsätzlich unterscheidet man zwischen starker und schwacher KI. Die schwache soll das menschliche Denken in Einzelbereichen unterstützen und intelligentes Verhalten mit Hilfe der Mathematik und Informatik simulieren. Hierbei geht es – anders als bei der starken KI – nicht um die Schaffung eines Bewusstseins oder einem tieferen Verständnis von Intelligenz. Die starke KI scheitert bis heute an den Herausforderungen grundsätzlicher philosophischer und ethischer Fragestellungen.

Welche Branchen von künstlicher Intelligenz profitieren

Grundsätzlich werden alle Branchen von den Ergebnissen künstlicher Intelligenz profitieren. Die Frage, die sich stellt, ist vielmehr die nach den Anwendungsfällen in denen KI gestützte Lösungen heute bereits benötigt und eingesetzt werden. In erster Linie sind dies sicherlich die Bereiche Automation und Medizin, denn hier sind in den letzten Jahren die größten Fortschritte erzielt worden. Aber auch der Handel setzt mehr und mehr auf solche Lösungen, beispielsweise, wenn Lebensmittelhändler ihre frische Ware durch ein Kamerasystem laufen lassen, um verdorbene Lebensmittel auf diese Weise besser und schneller zu identifizieren. Nachholbedarf gibt es sicherlich in den Bereichen Banken, Versicherungen und Finanzierung, auch, aber nicht nur wegen der regulatorischen Hürden, die überwunden werden müssen.

Herausforderungen der Banken und Immobilienbranche

Die Bankenbranche hinkt dem Thema künstlicher Intelligenz noch etwas hinterher, versucht aber nun mit hohen Investitionen den Rückstand wieder aufzuholen. Im Bereich der Forschung und Entwicklung entstehen in diesen Branchen neue Geschäftsprozesse mit enormem Veränderungspotential, z.B. im Bereich Automatic Reasoning, also dem maschinellen Verarbeiten natürlicher Sprache, wie es beispielsweise beim Amazon Echo Alexa Verwendung findet, oder im Bereich Cognitive Banking.

Insbesondere letzteres bietet durch die Fähigkeit verschiedene Daten aus unterschiedlichen Quellen zu nutzen, sie zu verbinden und durch die Interaktion mit dem Menschen ständig zu verbessern, immens viele Möglichkeiten, eine völlig neue Art der Interaktion und des Kundenerlebnisses – der Customer Experience – zu schaffen.

Die Einbindung kognitiver Systeme in die bestehenden Architekturen wird zu den großen Herausforderungen der Banken und Finanzdienstleister in den nächsten Jahren zählen.

Einsatzgebiete für solche kognitiven Systeme können Cognitive Agents genauso wie Cognitive Advisors sein. Diese werden primär in der telefonischen und/oder digitalen Kundenbetreuung z.B. im Call Center eingesetzt. Andere Herausforderung für die Banken ergeben sich in den Back Office Bereichen, z.B. der Bearbeitung von Finanzierungsanträgen.

Völlig anders stellt sich die Situation im Bereich der Immobilienwirtschaft dar. Das Thema KI spielt hier aktuell noch eine sehr untergeordnete Rolle. Grund dafür ist die extreme Zersplitterung des Marktes mit über 37.000 Immobilienmaklern, viele davon als Einzelunternehmer tätig. PropTechs haben zwar in den letzten Jahren mit digitalen Geschäftsmodellen für Bewegung gesorgt, diese basieren allerdings eher auf klassisch analytischen Methoden als auf KI-basierten Verfahren. Impulse könnten hier die Großen und Etablierten der Branche setzen, wie z.B. die Planet Home Group, die Sparkassen Immobilien oder Engel und Völkers. Einige haben sich bereits auf den Weg der Digitalisierung gemacht (bspw. PlanetHome Group), beginnen die Vorteile auszuloten und die Themen Customer Experience, Customer Journey und Digitalisierung umzusetzen, um sich langfristig als Branchentreiber zu etablieren.

Künstliche Intelligenz als Differenzierungsfaktor

Ob Banken oder Immobilien, die Nutzung künstlicher Intelligenz kann beiden Branchen als wesentlicher Differenzierungsfaktor dienen, wenn auch auf unterschiedliche Art und Weise. Bei den Banken wird es primär um die Nutzung der Datenvielfalt gehen. Die Finanzdaten dieser Institute reflektieren die digitalen Transaktionen von Kunden im Investment und Kreditbereich sehr exakt, sind jedoch sehr umfangreich und müssen daher mit spezifischen Methoden angegangen werden.

Für beide Branchen gilt dass Graph Analysen, Deep Learning Methoden und Netzwerkanalysen hier die geeigneten Techniken sind, um vernetze Verhaltensmuster zu entdecken und daraus Handlungsoptionen abzuleiten. Dies bedeutet, sich von den althergebrachten Methoden überwachten Lernens, bei denen das Analyseergebnis durch die entsprechenden Ausgabevariablen vorgegeben wird, zu trennen. An deren Stelle treten neuronale Netze, also selbstlernende Systeme, die mit jeder Iteration besser und genauer werden. Neuronale Netze bestehen aus Input Neuronen, Hidden Neuronen und Output Neuronen. Die Input Neuronen nehmen Informationen oder externe Signale auf, die Hidden Neuronen verarbeiten diese in ein- oder mehrdimensionalen Schichten und die Output Neuronen geben diese als Ergebnis wieder nach außen.

In der Vergangenheit war es durch begrenzte Rechenleistung nur möglich, wenige neuronale Netze parallel laufen zu lassen. Durch die Nutzung von Cloud Technologien, und den damit verbundenen Möglichkeiten der verteilten Rechenleistung, können heute tausende neuronale Netze parallel laufen und die Ergebnisse entsprechend verarbeitet werden. Setzt man diese Methoden konsequent ein, zum Beispiel im Bereich Cognitive Banking, ergeben sich relevante Wettbewerbsvorteile, die sich auf strategischer Ebene als echter Differenzierungsfaktor darstellen und auf operativer Ebene ganz entscheidend das Kundenerlebnis verbessern können.

Auch in der Immobilienwirtschaft geht es primär um Anwendungen an der Schnittstelle zwischen Unternehmen und Kunden. Viele Makler bewerben sich heute um die gleichen Mandate. Kundeninformationen im Rahmen des Akquisitionsprozesses können hier den entscheidenden Wettbewerbsvorteil bieten, ebenso wie gezielte Scorings auf die Abschlusswahrscheinlichkeit und/oder die Vermarktbarkeit des Objektes. So kann bereits in der ersten Phase des Vermittlungs- und Vermarktungsprozesses der Vertrieb gezielt gesteuert und Skaleneffekte bei der Produktivität ausgenutzt werden.

Auf der Käuferseite können hingegen durch gezielte Mappings zwischen angebotenen Objekten und Suchkunden Produktivitätssteigerungen erzielt werden. Dazu wird der Kunde, zusätzlich zu den von ihm verfassten Suchkriterien, auch digital vermessen – die Basis dazu sind seine eigenen Angaben und externe Daten die – selbstverständlich DSGVO konform – gesammelt werden. Auf dieser Grundlage werden ihm in Echtzeit passende Angebote überspielt.

Vertrauen in KI Anwendungen

Die daraus entstehenden Wachstumspotentiale sind enorm, ebenso wie die Notwendigkeit althergebrachte Prozesse auf den Prüfstand zu stellen. Unternehmen, die diesen Weg gehen, stehen häufig vor der Frage, wie weit man den Modellen trauen bzw. vertrauen kann. Die Lösung heißt LIME (Local Interpretative Model agnostic Explanation) – LIME schließt die Lücke zwischen der initialen Business-Fragestellung, die Ausgangspunkt einer jeden Modell-Entwicklung ist und der Frage warum das Modell welche Entscheidung getroffen hat. Damit macht LIME Modelle erklärbar und transparent, was normalerweise nicht Bestandteil der Entwicklung statistischer Modelle ist.

2016 von Marco Ribeiro, Sameer Singh und Carlos Guestrin entwickelt, kann LIME von jedem Klassifikationsalgorithmus verwendet werden, z.B. Random Forest, Gradient Boosting oder Neuronale Netze. Und es funktioniert mit verschiedenen Datentypen, wie Tabellen, Bildern oder Text.

Die Basis von LIME bilden drei Konzepte:

  • Erklärungen werden nicht global für das gesamte Modell gefunden, sondern lokal und für jede Instanz separat.
  • Erklärungen werden anhand von ursprünglichen Variablen gefunden, auch wenn das gelernte Modell mit Abstraktionen arbeitet.
  • Erklärungen werden für die wichtigsten Variablen gegeben, indem ein einfaches Modell lokal an die Vorhersagen angepasst wird.

Es ist also durchaus möglich, auch komplexe Modelle erklärbar zu machen. Dies kann als Grundvoraussetzung gesehen werden, um das Vertrauen in KI basierte Anwendungen und Modelle zu stärken und diese in alle Bereiche mit einfließen zu lassen.

Zusammenfassend lässt sich feststellen, dass künstliche Intelligenz auch in der Finanz- und Immobilienindustrie auf dem Vormarsch ist, es fehlen jedoch noch ausreichend Use-Cases und an einigen Stellen das Vertrauen in die Welt der Algorithmen. Aufhalten oder umkehren lassen wird sich der Prozess sicher nicht mehr. Wenn künftig zusätzliche digital-ethische und DSGVO-Grundsätze berücksichtigt werden, werden wir in den nächsten Jahren Zeuge einer digitalen Revolution, die unsere Arbeitswelt nachhaltig verändern wird.

Ein Beitrag von Dr. Stefan Schulte

Er ist Leiter Big Data & Data Science bei der PlanetHome Group GmbH. Mit mehr als 600 Mitarbeitern an mehr als 100 Standorten in Deutschland und Österreich ist die PlanetHome Group einer der führenden Dienstleister rund um die Immobilie.
Mehr Informationen unter www.planethome.com

Der obige Text spiegelt die Meinung des jeweiligen Kolumnisten wider. Die CASMOS Media GmbH übernimmt für dessen Richtigkeit keine Verantwortung und schließt jegliche Regressansprüche aus.

Bildquellen: PlanetHome / Pixabay / geralt

Hinterlasse einen Kommentar

avatar
  Abonnieren  
Benachrichtige mich bei