S&P hat die weltweit grösste Datenbank mit Bewertungen von Firmen in Bezug auf die Nachhaltigkeit ihrer Praktiken und Geschäftsmodelle. Jedes Jahr werden über 10’000 Firmen rund um den Globus bewertet. 

Dies geschieht zum einen, und das ist das Wertvolle an dieser Methode, über einen branchenspezifischen Fragebogen mit strukturierten sowie unstrukturierten Fragen. Zum anderen werden Geschäftsberichte und öffentlich verfügbare Informationen regelmässig zusammengetragen und analysiert. 

Unsere Lösungen

Machine-Learning

ti&m hat verschiedene Machine-Learning-Modelle trainiert, welche jetzt in der Lage sind, Aussagen und Antworten von Firmen mit Geschäftsberichten und anderen Quellen abzugleichen. Diese nehmen den Analysten repetitive Aufgaben ab und reduzieren die benötigte Zeit für die Bewertung deutlich.

PoC

für zwei spezifische Fragetypen: Relevante Informationen in Dokumenten finden sowie Auswerten von Antworten zur Kategorie «Material Issues» wie zum Beispiel «Executive Compensation».

Frontend / Backend

für die Visualisierung der Dokumente inkl. der Anzeige der relevanten Textpassagen für die entsprechende Kategorie.

Globale Suche

in allen relevanten Dokumenten der zu bewertenden Firma.

Data Processing Pipeline & Integration

für die Extraktion von Text aus Dokumenten mittels OCR in die bestehende S&P Applikation.

Machine Learning Modell Verwaltung

für das Erstellen und Trainieren von neuen Modellen für eine bestimmte Kategorie.

Technische Umsetzung

der Software als Microservice Architektur.

Unser Vorgehen

In Kreativ-Workshop zum Thema Künstliche Intelligenz (KI) wurden gemeinsam die Use Cases definiert. Zeitgleich wurde in einem iterativen Prozess ein PoC (Proof-of-Concept) entwickelt. Hauptteile: Training des KI-Modells für die eigentliche Prüfung. Überführung des PoCs in eine produktive Applikation mit Userinterface, inkl. Deployment in die S&P Umgebung (Kubernetes Cluster). Integration in Prozess- und Ziel-Applikation des Kunden und Internalisierung des Deployments.

Gemeinsame Ziele

Unterstützung der Analystenteams bei der täglichen Arbeit mit dem Ziel der Skalierung. Die Spezialisten sollen sich nicht mit dem Zusammensuchen der Informationen aufhalten, sondern sich darauf konzentrieren, den Inhalt zu bewerten. Die so generierten Daten sollen zu einem späteren Zeitpunkt weiteren Modellen dazu dienen, ebenfalls den Bewertungsprozess zu unterstützen. Erfahrungen sammeln im Umgang mit intelligenten Algorithmen und diese sinnvoll zu nutzen.

Herausforderungen

01

NLP Modelle

auf die spezifische Domäne zu trainieren ohne grosse Datenmengen.

02

Daten

Der Prozess musste zuerst so angepasst werden, dass die Analysten strukturierte Daten generieren, welche dann als Ground-Truth für die Modelle diente.

03

Herangehensweisen

Viele verschiedene Fragetypen (Dokumente/Quantitative Antworten/Zeitreihen/Freitext) machen verschiedene Modelle und Herangehensweisen erforderlich.

04

Prio

Priorisiert wurde nach dem Zeiteinsparungspotential pro Fragetyp.

Zusammenarbeit

Angefangen hat das Projekt in Zusammenarbeit mit der Corporate Sustainability Assessment (CSA) Abteilung von RobecoSAM (2019), welche später durch S&P Global übernommen und integriert wurde (2020/21).

Produktumsetzung

61

Branchen

10000

Firmen

170000

Dokumente

2,4

Mio. Datenpunkte

Pascal Wyss

Head Artificial Intelligence

Pascal Wyss

Bei allen Anliegen rund um Themen zu KI sind wir Ihr Experte! Wir beraten Sie gerne vollumfänglich.