+49 (0) 431 – 88 38 026

So arbeiten wir bei 40°


40° – das Labor für Innovation – bietet Wissen, Kompetenzen, Werkzeuge und Plattformservices an, um aus Kundendaten und offenen Daten (Open Data) neue Erkenntnisse für die Entwicklung der Organisation, des Geschäftsmodells sowie der Märkte zu gewinnen.

Mit unserem Predictive Data Science Ansatz nutzen wir Machine Learning und Deep Learning, um aus fundierten Datenanalysen zu lernen und Ableitungen für zukünftige Entscheidungen zu treffen. Dazu setzen wir freie Werkzeuge ein, die sowohl in der Cloud als auch im Rechenzentrum bei unseren Kunden einsetzbar sind. Zur effektiven Nutzung der Daten und Analysen und um ein fundiertes Verständnis der Daten zu gewährleisten entwickeln wir kundenindividuelle Dashboard- und Managementsysteme oder bieten die Erkenntnisse in Echtzeit über Standardschnittstellen (Restfull API) an.

Wir sind davon überzeugt, dass Künstliche Intelligenz zu den nützlichsten Erfindungen der Menschheit gehört. Eine Technologie, die wir mit unserem Angebot mittelständischen Unternehmen zur Verfügung stellen.

Unsere Arbeit ist praxis- und ergebnisorientiert. Wir gehen iterativ an die Lösung von Problemen heran und sind stets auf der Suche nach neuen Erkenntnissen, Chancen und Möglichkeiten. Wir arbeiten bei Bedarf nach bewährten Projekt- und Prozessmanagement-Standards wie Scrum (PSM-I), PRINCE2® oder ITIL4®.


How we work at 40 Grad

Technologien, die wir lieben


Python / R / SWIFT / C#

Die bewährten Programmiersprachen für Data Science, Machine Learning, Deep Learning und Data Lake Web-Services.

Numpy, Scikit-Learn et. al.

Umfangreiche und leistungsstarke Open Source Bibliotheken und Rahmenwerke für Datenanalysen in Python oder R.

Apache Spark

Werkzeug für Cluster Computing und hoch performante Data Analytics, um Daten ins Zentrum des Handelns zu stellen.

Tensorflow & Keras

Auf Basis von TensorFlow mit integriertem Keras setzen wir Modelle für Machine Learning und Deep Learning um.

Create/Core ML

Für Edge Computing und Machine Learning auf dem Endgerät nutzen wir die Core/Create ML Infrastruktur von Apple.

MatPlot, D3, Tableau & Power BI

Interaktive Datenvisualisierung mit dem Ziel, durch umfangreiche Datenanalysen das visuellen Verstehen von Daten zu fördern.

Pandas

Rahmenwerk und Datenanalysetools zur Umsetzung leistungsstarker Datenstrukturen in Python.

Flask, Vapor, asp.net, SpringBoot

Restfull-API Microservice für performante Business-Services und Data Lakes im Backend. On premise oder in der Cloud.

Hadoop

Skalierbares Framework zur verteilten Verarbeitung großer Datenmengen über Cluster von Computern.