10. August 2019

AI und die Cloud – ein Patentrezept für alles?

google datacenter

AI hat sich heute zum wahren Modewort entwickelt. Jedoch ist der Begriff inzwischen so emotional aufgeladen, dass Realität und Vorstellung sehr weit auseinanderliegen. Dieser Artikel soll ein Erklärungsversuch darstellen, was AI heute schon leisten kann und warum Cloud-Technologien dabei so eine entscheidende Rolle spielen.

Worüber sprechen wir überhaupt? «Artificial Intelligence (AI)» oder deutsch «Künstliche Intelligenz (KI)» beschreibt das grundsätzliche Konzept, bei dem Maschinen «smarte» Aufgaben erfüllen. Der untergeordnete Begriff «Maschinelles Lernen (ML)» stellt hingegen den Lernprozess dar, mit dem sich ein System anhand von Daten selbst ein bestimmtes Verhalten aneignet. Es lässt sich generell sagen: ML ist das Lernen anhand von Mustern, Beispielen und Erfahrungen. Jedoch sind die Algorithmen auch heute noch recht «einfach gestrickt». Bisher besteht die Programmierung vor allem darin, Regeln zu definieren.
Maschinelles Lernen ist das Programm, welches diese Regeln 
für uns findet und im Laufe der Zeit mit der Hilfe von Daten laufend verbessert.


AI ist nicht nur High Tech & Robotics

Künstliche Intelligenz wird häufig mit Robotern in Verbindung 
gebracht, die uns irgendwann zu Diensten sein werden. Dieses Bild wird medial überzeichnet – AI bedeutet häufig schlicht und einfach, dass Daten durch smarte Algorithmen verwendet werden können, um Prozesse zu unterstützen. Auch heute schon helfen uns zahlreiche AI-Anwendungen aus der Cloud in unserem Alltag: Google Maps leitet uns automatisch auf dem schnellsten Weg zu unserem Ziel, Haushalte nutzen intelligente Geräte zur Messung und selbstständigen Anpassung des Stromverbrauchs, und die besten E-Mail-Spam-Filter funktionieren dank AI. Auch in Unternehmen kann maschinelles Lernen viele praktische Auf­gaben erledigen: von der Unterstützung bei der Zuweisung von Ressourcen über die Vorhersage und Reaktion auf die zukünftigen Bedürfnisse der Kunden bis hin zur Automatisierung lästiger und repetitiver Aufgaben.


Vortrainierte AI-Systeme aus der Cloud

Verschiedene Technologieanbieter wollen künstliche Intelligenz zugänglicher machen und stellen Schnittstellen, sogenannte APIs, zur Verfügung, mit denen jede Organisation bereits vortrainierte AI-Systeme in die eigenen Prozesse integrieren kann. Es gibt bereits zahlreiche APIs, die zur Bildanalyse genutzt werden. So kann mit Google AutoML heute ein eigenes Bilderkennungs-
modell trainiert werden, indem es anhand vordefinierter Modelle von Bildertypen gefüttert wird, anhand derer lernt und mit relativ 
geringem Aufwand verschiedenste Arten von Bildern, z.B. Schrauben, erkannt und benannt werden können.

Daten sind ein wichtiger Teil für die AI-Entwicklung. Und was für eine AI-Anwendung unabkömmlich ist, ist eine datengetriebene Aufgabe – also eine Herausforderung basierend auf Informationen. Diese müssen allerdings nicht im eigenen Unternehmen vorliegen. Zahlreiche digitale Datensätze werden von Communities mit Interesse an ganz unterschiedlichen Themen – von «Wein-Bewertungen», über «Urban Sounds» bis hin zum «Black-
Friday-Konsumenten-Verhalten» – in Text, Satellitenbilder und 
Videos zur freien Verfügung gestellt. 

Das Erkennen und Benennen von Bildern wird bereits jetzt von verschiedenen Unternehmen genutzt und kann heute immer 
spezieller trainiert werden. Mit Google AutoML stellt Google Cloud ein System zur Verfügung, mit dem jeder ohne viel Vorkennt­nisse sein eigenes ML-Modell erstellen und trainieren kann. 

Zwei Beispiele: Disney nutzt AutoML Vision, um Produkte und Produktfotos schnell bestimmten Kategorien im Webshop zuzuordnen. Ein Produktmanager lädt beispielsweise Fotos von einem T-Shirt mit Spiderman-Motiv auf die Website hoch und das Produkt wird sofort mit «Spiderman», «T-Shirt», «Marvel» und «Super­helden» gelabelt.

Die Zoological Society of London (ZSL) hat sich dem Schutz von Tierarten weltweit verpflichtet. Um diese Aufgabe effektiv wahrzunehmen, wurden auf der ganzen Welt sogenannte Kamerafallen installiert. Auf diese Weise können Tiere in der Natur erfasst und gezählt werden. Mit AutoML Vision hat die ZSL ein ML-Modell trainiert, das erkennt, welche Tiere fotografiert wurden, was eine automatisierte Klassifizierung ermöglicht. So wurden aus vielen Wochen Arbeit nur wenige Stunden oder sogar nur einige Minuten.  

 

Rechenpower aus der Cloud

Was hat das nun alles mit der Cloud zu tun? Maschinelles Lernen, Deep Learning und künstliche Intelligenz im Allgemeinen brauchen sehr viel Rechenleistung. Ein einfacher Weg ist das Mieten von Hochleistungs-Hardware in Rechenzentren, auf die Nutzer über das Internet zugreifen können. Die neueste Technologie, mit der die Rechenleistung für AI-Systeme stark verbessert wird, sind Tensor Processing Units (TPU). TensorFlow ist wichtiger Bestandteil zahlreicher AI- und ML-Systeme. Der von Google entwickelte Prozessor TPU ist darauf ausgelegt, das Open-Source-AI-Framework TensorFlow besonders schnell betreiben zu können. 

Dadurch können AI-Systeme um das 15- bis 30-Fache beschleunigt werden. Das entspricht einem Sprung von sieben Jahren 
in die Zukunft, verglichen mit bisherigen Entwicklungszyklen. In unseren Rechenzentren können wir eine Vielzahl an sogenannten Pods einbauen, auf denen die TPUs angebracht sind. Ein Pod allein bringt bereits die Leistung von 11,5 Petaflops. Eine solche Hardware kann kaum ein Unternehmen lokal bereithalten. Aus 
diesem Grund spielt Cloud Computing eine Schlüsselrolle in der Entwicklung von AI-Systemen.


Die drei Punkte für eine erfolgreich angewandte AI sind folglich:

  1. Es braucht qualitativ hochwertige Datensätze, mit denen ML-Systeme Muster erlernen. Idealerweise trainiert man ML-Systeme mit Daten, die repräsentativ in der realen Welt vorkommen.
  2. Gute Werkzeuge und Frameworks sind essentiell. Obwohl sich die grundlegenden ML-Algorithmen in ein paar Minuten beschreiben lassen, sind diese ziemlich kompliziert zu implementieren. Daher braucht es eine Reihe von Services, welche keiner ML- oder Programmierkenntnisse bedürfen.
  3. Eine besonders grosse Rechenleistung ist notwendig. Die Cloud bietet eben diese leistungsfähige Hardware an, die Unternehmen und Entwickler für ihr eigenes ML-Modell nutzen können. 

Mit diesen einfachen Schritten kann der Einstieg in die Anwendung von AI in der Cloud gelingen. 


Christian  Sciullo
Christian Sciullo

Seit über 20 Jahren im Technologiebereich hilft der Ökonom (lic. oec. HSG) Kunden, neue Technologiekonzepte sowie Cloud-Lösungen umzusetzen. 2013 wechselte er zu Google in den Bereich Cloud. Seit Januar 2018 verantwortet er als Country Manager das Google-Cloud-Geschäft in der Schweiz und Österreich. 

Weitere Beiträge

Security 750x410
Warum Security ohne Usability zu Fehlern führt!

Neue regulatorische Anforderungen wie PSD2 und GDPR, sowie die ansteigende Bedrohung durch Cybercrime haben das Thema Security ganz oben auf die Agenda gesetzt. Kritisch ist aber, wie diese erhöhten Security-Anforderungen umgesetzt werden. Ungenügende Security macht angreifbar, andererseits kann schlecht umgesetzte Sicherheit zum Business-Killer werden.

Mehr erfahren
Identität Roboter 750x410
Die Identität von Robotern

Wir leben gleichzeitig in einer realen und in einer virtuellen Welt. Heute geht es darum, dass die Unterscheidung zwischen Menschen und Maschinen mit dem technologischen Fortschritt immer schwieriger wird

Mehr erfahren
Welcome_Lead
Google Anthos – Die Cloud Platform der Zukunft

Niemand Geringeres als Urs Hölzle hat das Anthos-Projekt von Google in Zürich vorgestellt. Anthos soll nichts weniger als zum Linux für die Cloud werden. Unser Senior Software-Ingenieur Fabian Camenzind war dabei und gibt einen Einblick in die wesentlichen Features sowie die Vor- und Nachteile von Anthos.

Mehr erfahren
emily-morter-188019-unsplash
Cloud Computing – Macht NoOps den IT-Betrieb bald überflüssig?

Während viele Unternehmen noch damit beschäftigt sind, im Rahmen ihrer agilen Transformation eine DevOps-Kultur einzuführen, entwickelt sich im Tooling-Bereich schon der Begriff NoOps, um weitere Schritte auf dem Weg zur vollständigen Automatisierung im Software-Betrieb zu beschreiben. Braucht es in Zukunft überhaupt noch ein Operations-Team?

Mehr erfahren
Thomas_Wuest 1000px
Die Ruhe vor dem Sturm – oder ist die Disruption wieder abgesagt?

Mehr erfahren