Tag Archives: Big Data

Wissenschaft Technik Umwelt

GeoRocket: Wie ein Geodatenspeicher bei der Vorhersage von Naturkatastrophen hilft

Stand 12.0A.015, Halle 12.0: Eine 3D-gedruckte Miniaturstadt veranschaulicht verschiedene Anwendungen – von Digitale Stadt bis hin zu Umwelt.

GeoRocket: Wie ein Geodatenspeicher bei der Vorhersage von Naturkatastrophen hilft

Eine Analyse aller verfügbaren Geodaten ermöglicht die Vorhersage über den Weg von Erdrutschen. (Bildquelle: @Fraunhofer IGD)

Neue Geräte und immer ausgefeiltere Sensoren erzeugen tagtäglich Massen an Geodaten. Forscher des Fraunhofer IGD präsentieren mit der Software GeoRocket einen cloudbasierten Speicher, der es mit der steigenden Anzahl an Geodaten aufnimmt und damit zur Vorhersage von Naturkatastrophen beitragen kann.

Mit dem Fortschritt der Wissenschaft und der Technik werden in allen Bereichen immer genauere Daten gesammelt – auch solche, die Aussagen zu einem bestimmten Standort oder einem geographischen Gebiet treffen. Diese Geodaten werden in ihrer Masse immer größer, komplexer und dadurch unüberschaubar. Das Fraunhofer-Institut für Graphische Datenverarbeitung IGD bietet mit GeoRocket einen Geodatenspeicher an, der schnell und flexibel auf die gestiegenen Ansprüche reagiert.

Hochgenaue und vollständige Vermessungsdaten lassen sich nur dann gewinnbringend einsetzen, wenn sie überall unkompliziert zur Verfügung stehen. Dann leisten sie einen wertvollen Beitrag zum Beispiel zur Gefahrenanalyse in von Erdrutschen bedrohten Gebieten. Neben menschlichen Faktoren können auch natürliche Landformen das Entstehen von Naturkatastrophen begünstigen. Dafür stehen Satellitenbilder, Bodenstudien und am Computer generierte 3D-Landschaftsmodelle zur Verfügung, um hydraulische Simulationen durchzuführen – so lassen sich die errechneten Wassermassen bei hohen erwarteten Niederschlägen und ihr Weg hangabwärts visualisieren. Der Speicherbedarf all dieser Informationen ist dabei immens – je feiner und naturgetreuer nämlich das Relief des Geländes abgebildet wird, desto realistischer gelingt selbstverständlich eine Vorhersage über den Weg des Erdrutschs. Um der Masse an Geodaten mit ihrem enormen Speicherbedarf zu begegnen, bedarf es einer geeigneten technischen Lösung.

Der Geodatenspeicher GeoRocket ist cloudbasiert, arbeitet damit sehr schnell und ist flexibel aufrufbar. Das kostenlose Open-Source-Programm bleibt selbst bei großen Datenmengen und parallel stattfindenden Anfragen reaktionsfreudig. Die Microservice-Architektur skaliert die benötigte Performance dynamisch auf wechselnde Faktoren wie zu übertragendes Datenvolumen oder die Anzahl an Nutzern und laufenden Prozessen. Auch die Echtzeitsuche nach Geodaten oder etwa Attributen, Layern und vergebenen Tags wird durch eine gezielte Datenausgabe entsprechend der Suchanfrage enorm schnell durchgeführt. Der Clou: Die Geodaten werden zwar in ihren ursprünglichen Formaten gespeichert, aber GeoRocket fügt die Dateien für die Dauer ihrer Verwendung automatisiert zusammen. Eine solche Konvertierung ist unerlässlich, da die Dateiformate der verschiedenen Geoinformationssysteme äußerst heterogen sind.

Neben der kostenlosen Version gibt es speziell für Unternehmen auch eine Pro-Version, die neben kostenfreiem Support auch mit weiteren Funktionen wie einer Administrationsoberfläche mit Kartendarstellung sowie Features zur Datensicherheit aufwartet. Ein nächster Entwicklungsschritt von GeoRocket soll die Ausgabe bereits aufgearbeiteter Datensätze als Big-Data-Analyse sein, um so Geologen, Landwirte oder kommunale Ämter noch besser bei der Arbeit zu unterstützen.

Das Fraunhofer IGD präsentiert GeoRocket auf der internationalen Leitmesse für Geodäsie, Geoinformation und Landmanagement INTERGEO vom 16. bis zum 18. Oktober 2018 in Frankfurt a.M. An dem Stand 12.0A.015 in Halle 12.0 veranschaulicht eine 3D-gedruckte Miniaturstadt verschiedene Anwendungen aus den Bereichen Digitale Stadt, Planungsunterstützung und Bürgerbeteiligung, Umweltmonitoring, Big Data in der Landwirtschaft sowie Innere Sicherheit.

Weiterführende Informationen:

https://www.igd.fraunhofer.de/presse/jahresbericht-2017/datenspeicher-fuer-geoinformationssysteme
https://georocket.io/

Das vor 30 Jahren gegründete Fraunhofer IGD ist heute die international führende Einrichtung für angewandte Forschung im Visual Computing. Visual Computing ist bild- und modellbasierte Informatik. Vereinfacht gesagt, beschreibt es die Fähigkeit, Informationen in Bilder zu verwandeln (Computergraphik) und aus Bildern Informationen zu gewinnen (Computer Vision). Die Anwendungsmöglichkeiten hieraus sind vielfältig und werden unter anderem bei der Mensch-Maschine-Interaktion, der interaktiven Simulation und der Modellbildung eingesetzt.

Unsere Forscher an den Standorten in Darmstadt, Rostock, Graz und Singapur entwickeln neue technische Lösungen und Prototypen bis hin zur Produktreife. In Zusammenarbeit mit unseren Partnern entstehen dabei Anwendungslösungen, die direkt auf die Wünsche des Kunden zugeschnitten sind.

Unsere Ansätze erleichtern die Arbeit mit Computern und werden effizient in der Industrie, im Alltagsleben und im Gesundheitswesen eingesetzt. Schwerpunkte unserer Forschung sind die Unterstützung des Menschen in der Industrie 4.0, die Entwicklung von Schlüsseltechnologien für die „Smart City“ und die Nutzung von digitalen Lösungen im Bereich der „personalisierten Medizin“.

Durch angewandte Forschung unterstützen wir die strategische Entwicklung von Industrie und Wirtschaft. Insbesondere kleine und mittelständische Unternehmen sowie Dienstleistungszentren können davon profitieren und mit Hilfe unserer Spitzentechnologien am Markt erfolgreich sein.

Kontakt
Fraunhofer-Institut für Graphische Datenverarbeitung IGD
Daniela Welling
Fraunhoferstraße 5
64283 Darmstadt
+49 6151 155-146
presse@igd.fraunhofer.de
http://www.igd.fraunhofer.de

Computer IT Software

Consist erneut unter den Erstplatzierten beim diesjährigen Boss of the SOC von Splunk

700 Teilnehmer bei renommiertem IT-Security-Wettkampf in den USA

Consist erneut unter den Erstplatzierten beim diesjährigen Boss of the SOC von Splunk

Bekanntgabe der Gewinner des Boss of the SOC auf der .conf18
Quelle: Consist

9.000 Teilnehmer auf der .conf18 in Orlando: Vom 1. – 4. Oktober fand Splunks führende Thought-Leadership-Veranstaltung für IT-Security-Spezialisten in Orlando, Florida statt. Den Auftakt bildete der Boss of the SOC – Wettkampf am 1. Oktober mit mehr als 700 Teilnehmern.

Kiel – Beim Boss of the SOC 2018 lieferten sich Consist und Sony ein spannendes Kopf-an-Kopf-Rennen, welches Sony erst in den letzten Minuten für sich entscheiden konnte und das Team von Consist ganz knapp auf Platz zwei verwies. Damit gelang dem US-Konzern quasi die Revanche gegen das IT-Unternehmen aus Deutschland. Denn im letzten Jahr war es der IT-Riese, der als Zweitplatzierter das Nachsehen gegenüber Consist hatte.

Was ist der Boss of the SOC?

Beim Boss of the SOC (auch bekannt als BOTS) werden reale Sicherheitsszenarien mit der marktführenden Operational-Intelligence-Plattform Splunk abgebildet. IT-Sicherheitsvorfälle, die in einer realistischen aber fiktiven Unternehmensumgebung aufgetreten sind, werden von den teilnehmenden Analysten gelöst. Im Stile eines capture-the-flag-esque müssen die gegeneinander antretenden Teams in einer bestimmten Zeit möglichst viele Punkte erreichen. Diese Form des Wettkampfes wurde vor allem durch Hacker-Konferenzen bekannt.

Mit Spannung wird nun der nächste BOTS erwartet, in dem sich vielleicht wieder ein Wechsel in der Führung anbahnt.

Die Consist Software Solutions GmbH ist Spezialist für IT-Services und Software. Seine Kunden unterstützt der IT-Dienstleister im gesamten Software-Lifecycle, von Entwicklungsprojekten über die Wartung in der Betriebsphase, bis hin zu ergänzenden Big Data- und Security-Produkten. Mit mehr als 200 Mitarbeitern an den Standorten Kiel, Berlin und Frankfurt setzt Consist bundesweit qualitative Maßstäbe in den Bereichen Data Analytics, IT-Security und Managed Services. Gegründet 1994 am Stammsitz Kiel führt das Unternehmen seinen Wachstumskurs nachhaltig fort, der Consist zu einem der erfahrensten IT-Dienstleister macht, dank ausgewiesener Mainframe-Kompetenz und hochqualifizierter Spezialisten für innovative Technologien. Ausgezeichnet mit dem großen Preis des Mittelstandes erhielt Consist in 2016 erneut den Premier-Sonderpreis.

Kontakt
Consist Software Solutions GmbH
Petra Sauer-Wolfgramm
Falklandstr. 1-3
24159 Kiel
+49(0)431/ 39 93 525
+49(0)431/ 39 93 999
sauer-wolfgramm@consist.de
http://www.consist.de

Wissenschaft Technik Umwelt

Intergeo 2018 – Mit Geoinformationen Polizeieinsätze und Bäume in der Nachbarschaft planen

Fraunhofer auf der Intergeo 2018: Halle 12.0 am Stand 12.0A.015 und am Hessischen Gemeinschaftsstand in Halle 12.1, Stand 12.1F.033

Intergeo 2018 - Mit Geoinformationen Polizeieinsätze und Bäume in der Nachbarschaft planen

Visualisierte Geodaten: Bürger können aktiv an der Stadtplanung teilhaben, z.B. bei Baumpflanzungen

Wenn Geodaten richtig verarbeitet werden, erhöht sich ihr Wert ungemein. Dann tragen sie zu einer breiteren Bürgerbeteiligung, Digitalisierung in der Stadt und aktivem Umweltmonitoring bei. Das Fraunhofer IGD stellt technische Lösungen zur Speicherung, Indizierung und interaktiven Visualisierung von Geoinformationen auf der Messe INTERGEO vor.

Die Vermessung der Welt beschäftigt die Menschheit schon seit Jahrhunderten. Mit dem Fortschritt der Wissenschaft gelingt dieses Vorhaben zunehmend präziser. Doch nur durch die richtige Auswertung und die Nutzung zur Entscheidungsfindung schöpfen die gesammelten Geodaten ihr Potential voll aus. Das Fraunhofer-Institut für Graphische Datenverarbeitung IGD forscht mit einer eigenen Abteilung an neuen Wegen zur umfassenden Integration, Verwaltung und Visualisierung von Geoinformationen.

Auf der internationalen Leitmesse für Geodäsie, Geoinformation und Landmanagement INTERGEO präsentiert das Fraunhofer IGD vom 16. bis zum 18. Oktober 2018 in Frankfurt a.M. eine Reihe von Anwendungen aus den Bereichen Digitale Stadt, Planungsunterstützung und Bürgerbeteiligung, Umweltmonitoring, Big Data in der Landwirtschaft sowie Innere Sicherheit. Alle Anwendungen haben zum Ziel, den Nutzen und Wert von Geoinformationen durch die Entwicklung innovativer technischer Lösungen zu erhöhen. Die enorm großen Geodatenmengen werden in der Cloud verwaltet, verarbeitet und visualisiert. Am anschaulichen Exponat einer 3D-gedruckten Miniaturstadt können Messebesucher am Fraunhofer-Stand die Vielfalt an Funktionalitäten und Integrationsmöglichkeiten von Geodaten erleben und auf dem Monitor verschiedene Szenarien interaktiv gestalten.

Das Fraunhofer IGD arbeitet in verschiedenen Projekten an der Verarbeitung sehr großer Mengen an Geodaten. Das auf der Messe vorgestellte Projekt smarticipate ermöglicht es Bürgern, sich intensiv an politischen Entscheidungen und Planungsprozessen ihrer Städte zu beteiligen. Basis ist eine Plattform, die politische Entscheidungen versachlicht und den Dialog in städtebaulichen Planungen unterstützt. Dadurch werden wichtige Aspekte einer SmartCity wie Transparenz und Bürgerbeteiligung realisiert. Partnerstädte für die Pilotphase sind London, Rom und Hamburg. Hamburg will die Bürger beispielsweise dabei einbinden, geeignete Standorte für neue Baumpflanzungen im Stadtgebiet zu finden und diese virtuell in einer 3D-Landschaft zu integrieren. Die Baumpflanz-Anwendung kann dabei direktes Feedback zu der Realisierbarkeit ausgewählter Standorte sowie einen Ausblick auf die Auswirkungen eines gepflanzten Baumes geben, z.B. wie der Schattenwurf verläuft und welchen Beitrag der Baum für die CO2-Einsparungsbilanz der Stadt leistet.

Messebesucher können sich über ein Pilotprojekt zur Integration von 3D-Geodaten im polizeilichen IT-Umfeld informieren. Eine Software zur Darstellung einer 3D-Karte mit allen relevanten topographischen und bautechnischen Objekten soll vor allem im Bereich der Einsatzplanung einen taktischen Mehrwert bringen. Durch die Möglichkeit, Sichtlinien zu beurteilen, Standpunkte von Beobachtern in der dritten Dimension darzustellen und nachzuvollziehen, ergeben sich Vorteile beispielsweise in der Planung von Aufzugsstrecken oder operativen Tätigkeiten im polizeilichen Umfeld. Durch die Möglichkeit, einer Szene zusätzliche Informationen hinzuzufügen, etwa Festzelte oder Fahrgeschäfte bei einem Volksfest, wird ein detaillierterer Überblick über Flucht- und Rettungswege bei polizeirelevanten Ereignissen erreicht. Zum Einsatz kommen könnte die Software auch für Spezialkräfte, Einsatzleitungen und für die Tatortrekonstruktion.

Einen ganz anderen Fokus der Geodaten-Nutzung setzt das Projekt DataBio mit dem Ziel, Big Data für Land-, Forst- und Fischwirtschaft zugänglich zu machen, um operative Entscheidungen effektiv zu unterstützen. Landwirte beispielsweise möchten ihre Saat vorausschauend planen, um möglichst großen Nutzen aus Faktoren wie Bodenbeschaffenheit, Flächennutzung und Wetter zu ziehen. Um wirklich alle zur Verfügung stehenden Daten optimal nutzen zu können, bedarf es automatisierter BigData-Lösungen für deren Strukturierung und Analyse. Das Fraunhofer IGD stellt dafür eine optimierte cloud-basierte Infrastruktur für die Verwaltung, Verarbeitung und Visualisierung der sehr großen Geodatenbeständen bereit.

Diese und weitere Projekte präsentiert das Fraunhofer IGD in Frankfurt a. M. auf der Messe INTERGEO 2018 vom 16. bis zum 18. Oktober 2018 in Halle 12.0 am Stand 12.0A.015. Unter dem Motto 3D-Geo-Innovation aus Hessen ist das Fraunhofer IGD zudem in Kooperation mit der Hessischen Verwaltung für Bodenmanagement und Geoinformation (HVBG) am Hessischen Gemeinschaftsstand in Halle 12.1, Stand 12.1F.033 vertreten.

Weiterführende Informationen:

www.igd.fraunhofer.de/veranstaltungen/intergeo-2018

www.igd.fraunhofer.de/trends/lebensmittelindustrie

www.igd.fraunhofer.de/projekte/databio

Das vor 30 Jahren gegründete Fraunhofer IGD ist heute die international führende Einrichtung für angewandte Forschung im Visual Computing. Visual Computing ist bild- und modellbasierte Informatik. Vereinfacht gesagt, beschreibt es die Fähigkeit, Informationen in Bilder zu verwandeln (Computergraphik) und aus Bildern Informationen zu gewinnen (Computer Vision). Die Anwendungsmöglichkeiten hieraus sind vielfältig und werden unter anderem bei der Mensch-Maschine-Interaktion, der interaktiven Simulation und der Modellbildung eingesetzt.

Unsere Forscher an den Standorten in Darmstadt, Rostock, Graz und Singapur entwickeln neue technische Lösungen und Prototypen bis hin zur Produktreife. In Zusammenarbeit mit unseren Partnern entstehen dabei Anwendungslösungen, die direkt auf die Wünsche des Kunden zugeschnitten sind.

Unsere Ansätze erleichtern die Arbeit mit Computern und werden effizient in der Industrie, im Alltagsleben und im Gesundheitswesen eingesetzt. Schwerpunkte unserer Forschung sind die Unterstützung des Menschen in der Industrie 4.0, die Entwicklung von Schlüsseltechnologien für die „Smart City“ und die Nutzung von digitalen Lösungen im Bereich der „personalisierten Medizin“.

Durch angewandte Forschung unterstützen wir die strategische Entwicklung von Industrie und Wirtschaft. Insbesondere kleine und mittelständische Unternehmen sowie Dienstleistungszentren können davon profitieren und mit Hilfe unserer Spitzentechnologien am Markt erfolgreich sein.

Kontakt
Fraunhofer-Institut für Graphische Datenverarbeitung IGD
Daniela Welling
Fraunhoferstraße 5
64283 Darmstadt
+49 6151 155-146
presse@igd.fraunhofer.de
http://www.igd.fraunhofer.de

Computer IT Software

Big Data: Extensis und LizardTech fusionieren

Extensis, führender Anbieter von Asset Management-Lösungen und Schriftverwaltungs-Software, und LizardTech, Spezialist für Geoinformationen, sind ab sofort eine gemeinsame Firma.

Big Data: Extensis und LizardTech fusionieren

MrSID-Technologie von LizardTech in Portfolio integriert.

PORTLAND, Oregon, USA – 04.10.2018 – Die beiden IT-Unternehmen Extensis® and LizardTech schließen sich zu einer weltweit tätigen Firma zusammen. Sie soll es Organisationen und Firmen noch besser ermöglichen, ihren Return on Investment (ROI) und den Wert ihrer digitalen Assets, Schriften und großen Bilddateien mit Geoinformationen zu steigern.
Extensis zählt mit über 100.000 verkauften Installationen zu den Marktführern beim professionellen Management digitaler Assets und Schriften. In Kombination mit der Expertise von LizardTech bei der Bildverwaltung und der patentierten Komprimierungstechnologie für Bilder mit Geoinformationen sieht sich die vereinte Firma in einer einzigartigen Position – mit besten Voraussetzungen, umfassende Lösungen und beste Unterstützung für alle Herausforderungen anzubieten, die digitale Assets mit sich bringen.
Eine dieser Herausforderungen ist das Big Data-Problem der riesigen Datenmenge bei der Bereitstellung von Geoinformationen.
LizardTech hat dafür die patentierte LiDAR-Kompressionstechnologie im Jahr 2009 entwickelt. Auf der Grundlage der verlustlosen, sehr stark verdichtenden Wavelet-Algorithmen komprimiert LiDAR über die selbst entwickelte Punktwolken-Komprimierung Satelliten- und Luftbilder in MrSID-Formate. Dabei lassen sich die ursprünglichen Dateien auf ein 20stel ihrer Größe verlustlos verkleinern.
„Unternehmen investieren heute in Bilder aller Art, einschließlich Fotografien, die aus der Luft- und Raumfahrt stammen, um nur einige zu nennen“, sagt Osamu Ikeda, CEO von Extensis. „Die vollständige Nutzung dieser digitalen Dateien ist gleichbedeutend mit einer einfachen und effizienten Möglichkeit, sie zu organisieren, zu speichern, darauf zuzugreifen und sie zu verteilen.“
Ikeda führt weiter aus: „Die Fusion von Extensis und LizardTech macht es uns leichter, unseren Kunden effektive und erprobte Lösungen zur Maximierung des Wertes digitaler Assets aller Art anzubieten.“
Torsten Köbel, Country Manager von Extensis Europe, ergänzt: „Für den deutschsprachigen Markt ist die Erweiterung des Produktportfolios eine gute Nachricht. Dank der exzellenten Komprimierungstechnologie von LizardTech lässt sich extrem viel Speicherplatz sparen und der Datenaustausch beschleunigen. Die Bedeutung von Geodaten für viele Anwendungsbereiche nimmt auch hierzulande stark zu – daher freuen wir uns sehr über diesen Schritt!“
Das Unternehmen operiert unter der Marke Extensis mit Hauptsitz in Portland, Oregon, und einer Niederlassung in Seattle, Washington, dem bisherigen Sitz von LizardTech.
Ab sofort sind die Produkte von LizardTech – GeoExpress®, Express Server®, GeoViewer – ein Teil der Extensis-Lösungen. Diese umfassen Digital Asset Management, Schriftverwaltung, Asset Management für Marken, Bildverwaltung und die Komprimierung von Bildern.
Weitere Informationen zu den Digital Asset Management-Lösungen von Extensis erhalten Sie unter www.extensis.com/portfolio

Über Extensis
In den 25 Jahren seines Bestehens ist Extensis® ein führender Entwickler von Lösungen, die Unternehmen helfen, den ROI und den Wert ihrer digitalen Assets, Schriften und großen Bilder zu steigern. Die Lösungen von Extensis werden von mehr als 100.000 professionellen Anwendern und 5.000 Unternehmen auf der ganzen Welt eingesetzt und beschleunigen Arbeitsabläufe, damit Kunden ihre Ziele schneller erreichen können.
Extensis wurde 1993 gegründet und hat seinen Hauptsitz in Portland, Oregon sowie Niederlassungen in Seattle, New York, Großbritannien, Frankreich, Deutschland und Australien. Um mehr über Extensis umfassende Lösungen für Digital Asset Management, Schriftarten-Asset-Management, Bild-Asset-Management und Bildkomprimierung zu erfahren besuchen Sie unsere Website http://www.extensis.com/de oder folgen uns auf Twitter @extensis.

Über LizardTech
Seit mehr als zwei Jahrzehnten liefert LizardTech innovative Softwareprodukte für die Verwaltung, den Zugriff auf und die Verteilung von massiven, hochauflösenden Geodaten wie Luft- und Satellitenbildern und LiDAR-Daten. LizardTech ist der Pionier der MrSID-Technologie, einem leistungsstarken Wavelet-basierten Bild-Encoder, Viewer und Dateiformat. Das MrSID-Format wird in allen wichtigen GIS-Anwendungen unterstützt

© 2018 Celartem, Inc. firmiert unter Extensis. Alle Rechte vorbehalten. Extensis, das Extensis Logo, Suitcase Fusion, Suitcase TeamSync, Extensis Portfolio, Portfolio NetPublish, Portfolio Flow und Universal Type Server sind Marken oder eingetragene Marken von Extensis in den USA, Kanada, Europa und/oder anderen Ländern. Die Auflistung der Marken erhebt keinen Anspruch auf Vollständigkeit. Weitere Marken, eingetragene Marken, Produktnamen, Unternehmensnamen, Marken- oder Leistungsbezeichnungen, die genannt werden, sind Eigentum von Extensis oder den jeweiligen anderen Eigentümern.

Kontakt
shortways communications
Vera Sander
Belfortstr. 3
81667 München
0898906670
vsander@shortways.de
http://www.shortways.de

Wissenschaft Technik Umwelt

Caterpillar integriert OSIsoft Connected Services in seine Cat Asset Intelligence

Integration des Datenmanagementsystems von OSIsoft in Caterpillars innovative Analyseplattform hilft Reedereien dabei, Treibstoff- und Wartungskosten zu senken und die Betriebszeiten zu erhöhen.

Caterpillar integriert OSIsoft Connected Services in seine Cat Asset Intelligence

Die Cat Asset Intelligence Platform sammelt mithilfe des PI-Systems Sensordaten von Kraftstoffpumpen (Bildquelle: OSIsoft Europe GmbH)

OSIsoft, ein führender Anbieter intelligenter Lösungen für Betriebsabläufe, gibt bekannt, dass Caterpillar die Connected Services von OSIsoft in seine Cat Asset Intelligence Plattform integriert hat.

Die Cat Asset Intelligence Plattform ist eine Suite abonnementbasierter AI-Dienste zur Analyse des Treibstoffverbrauchs, des Maschinenzustands und anderer kritischer Operationen in Echtzeit. Cat Asset Intelligence Services können dazu verwendet werden, die Leistung von Dieselantrieben und Generatoren sowie anderer Maschinen verschiedener Marken zu optimieren, nicht nur von Cat-Ausrüstung. Caterpillar integriert außerdem die Connected Services von OSIsoft in Cat Asset Intelligence Services für viele landgestützte Maschinenlinien.

Reedereien steht eine Ära bevor, in der die Feinabstimmung ihrer Betriebsabläufe für Erfolg und Nachhaltigkeit absolut entscheidend ist. Kraftstoff allein kann 50 Prozent oder mehr der gesamten Kosten über die Lebensdauer eines Schiffes ausmachen: eine Reduzierung um ein paar Prozentpunkte kann Millionen an Einsparungen pro Jahr bedeuten. Neue Sicherheits- und Umweltvorschriften, wie die von der International Marine Organization geforderte Senkung des Schwefelgehalts von Kraftstoffen von 3,5 Prozent auf 0,5 Prozent Masse/Masse bis 2020, erfordern darüber hinaus eine Verbesserung des Situationsbewusstseins von Schiffen und Häfen.

„Unser Ziel ist es, den Verantwortlichen der Schifffahrtsbranche die höchste Verfügbarkeit bei niedrigsten Gesamtbetriebskosten zu bieten, indem sie einen besseren Einblick in ihre Abläufe erhalten und damit bessere Entscheidungen treffen können,“ erklärte Ken Krooner, Geschäftsführer von Caterpillar Marine Asset Intelligence. „Die Technologie von OSIsoft trägt dazu bei, die Qualität und Genauigkeit der von Cat Asset Intelligence zur Diagnose verwendeten Daten sicherzustellen. Wenn Asset Intelligence der Motor für die digitale Transformation in der Schifffahrt ist, ist die PI System-Technologie von OSIsoft der Treibstoff.“

Zu den frühen Erfolgsstorys der Kombination aus Cat Asset Intelligence und OSIsoft-Technologie für Marine-Kunden gehören unter anderem:
-Caterpillar beriet ein Unternehmen mit RoRo-Schiffen, also riesigen Schiffen, die schwere Maschinen wie Planierraupen befördern, wann es optimal wäre, die Rümpfe zu reinigen, um den Fahrtwiderstand zu reduzieren. Durch den Umstieg von der regelmäßigen Reinigung nach Zeitplan soll das Unternehmen 450.000 US-Dollar pro Schiff und Jahr durch eine Reduktion des Kraftstoffverbrauchs einsparen.
-Mithilfe der Analyse von Kraftstoffdruck, Motorleistung und anderen Daten informierte Cat Asset Intelligence den Betreiber eines Binnenschleppers über Probleme mit seinem Dieselmotor von einem Dritthersteller sieben, vier und zwei Tage vor dem drohenden Ausfall.
-Eine Kreuzfahrtlinie soll mithilfe von Cat Asset Intelligence 1,5 Millionen US-Dollar pro Schiff beim Treibstoffverbrauch einsparen.

Connected Services mit PI als Herzstück
Connected Services von OSIsoft sind ausgewählte, cloudbasierte Dienste, mit denen Hardware-Hersteller, Softwareentwickler und Service Provider die PI System-Technologie effektiv in ihr Angebot integrieren können. Das PI System von OSIsoft wird von mehr als 65 Prozent der in den Fortune 500 gelisteten Industrieunternehmen eingesetzt. Es wandelt die umfangreichen Datenströme von Sensoren und anderen Geräten in aussagekräftige Echtzeiteinblicke um, die direkt von den Verantwortlichen genutzt werden können, um Geld zu sparen, die Effizienz zu steigern oder synthetisierte Daten an andere Anwendungen zu übergeben, um die Geschwindigkeit und Genauigkeit digitaler Dienste zu verbessern. Das PI System findet sich in Windparks, Labors, im Bahnwesen, in Rechenzentren, Stadien, in über 1.000 führenden Versorgungsunternehmen und in mehr als 90 Prozent der weltgrößten Öl- und Gasunternehmen.
Weltweit werden mehr als 2 Milliarden sensorbasierte Datenströme von PI Systemen verwaltet.
„Eines ist allen Vorhersagen über das Internet of Things gemein: sie unterschätzen die Reichweite und das Ausmaß der Veränderungen, die wir erleben werden. Alle Industrieunternehmen und Maschinenhersteller werden die Art und Weise, wie sie Geschäfte abwickeln, in den nächsten 10 Jahren grundlegend verändern,“ merkte Dr. J. Patrick Kennedy, CEO und Gründer von OSIsoft, an. „Wir begrüßen die Zusammenarbeit mit Caterpillar sehr. Gemeinsam schaffen wir die Grundlage für ein neues Kapitel in der Geschichte der Schifffahrt.“

Über Caterpillar Marine Asset Intelligence
Caterpillar Marine Asset Intelligence bietet seinen Kunden digitale Dienste und Lösungen, die mithilfe von Datenanalyse und Expertenberatung Anlagenausfälle vorhersagen und vermeiden, den Kraftstoff- und Energieverbrauch reduzieren und die Wartung optimieren können. Dieses Angebot ist zwar als Teil von Caterpillar relativ neu, aber das Unternehmen bietet seinen Kunden seit 15 Jahren einen signifikanten Mehrwert, der nicht zuletzt auf mehr als 50 Millionen Stunden Erfahrung in der Maschinenüberwachung basiert. Dieses innovative Technologie- und Serviceangebot ergänzt die Produkte und Technologien von Caterpillar Marine, die darauf ausgerichtet sind, höchste Verfügbarkeit und geringste Kosten über die Lebenszyklen hinweg zu gewährleisten. Für weitere Informationen besuchen Sie uns bitte unter www.cat.com/assetintel

Über OSIsoft
OSIsoft konzentriert sich auf die Bereitstellung eines einzelnen transformativen Produktes, das PI System. Dieses bietet den Kunden eine offene Unternehmensinfrastruktur, um sensorenbasierte Daten, Systeme und Menschen miteinander zu verbinden. Für weitere Informationen besuchen Sie uns bitte unter www.osisoft.de

Firmenkontakt
OSIsoft Europe GmbH
Engelbert Leichum
Voltastr. 31
60486 Frankfurt/M.
+49 (0)69 951 555-162
eleichum@osisoft.com
http://www.osisoft.de

Pressekontakt
Lermann Public Relations
Sylvia Lermann
Am Hochacker 2
85630 Grasbrunn
08106-300 899
info@lermann-pr.com
http://www.lermann-pr.com

Computer IT Software

MariaDB übernimmt Clustrix

Dank der Clustrix-Technologie kann MariaDB zukünftig auf ein Niveau skalieren, das bisher nur NoSQL-Lösungen erreichen, ohne dabei grundlegende Enterprise-Funktionen zu beeinträchtigen.

MariaDB übernimmt Clustrix

MENLO PARK, Kalifornien / HELSINKI, 20. September 2018 – Die MariaDB® Corporation gibt heute bekannt, dass sie Clustrix, den Pionier verteilter Datenbanktechnologien, für einen nicht genannten Betrag übernommen hat. Mit der Übernahme optimiert MariaDB die Skalierbarkeit von Datenbankanwendungen, die lokal auf Standard-Hardware oder in beliebigen Cloud-Umgebungen laufen – und das mit einer besseren Skalierbarkeit und Verfügbarkeit als bei anderen gängigen verteilten Lösungen wie Oracle RAC.

Nachdem MariaDB vor kurzem bekannt gegeben hat, mit einer zusätzlichen Investition weitere Innovationen bei der Datenbankentwicklung voranzutreiben, trägt die aktuelle Übernahme dazu bei, die Ziele von MariaDB Labs zu erreichen, auch extreme Herausforderungen im Datenbankbereich zu bewältigen. Dazu gehören verteilte Systeme, maschinelles Lernen, neue Chip-Architekturen und Speichertechnologien.

„Heutzutage sind die Möglichkeiten für die Skalierung einer Datenbank begrenzt. Entweder wählen sie eine traditionelle Lösung wie Oracle mit hohen Kosten und viel Overhead oder eine NoSQL-Anwendung, deren Möglichkeiten zur Einhaltung der Datenintegrität begrenzt sind“, sagt Michael Howard, CEO der MariaDB Corporation. „Mit Clustrix kann MariaDB eine bessere Lösung für unsere Kunden anbieten, die anspruchsvolle Scale-Out-Enterprise-Anwendungen im Einsatz haben. Unsere dezentrale Lösung wird auch extremen Anforderungen unserer größten Kunden gerecht und gibt ihnen die Freiheit, sich aus der Herstellerabhängigkeit von Oracle zu lösen.“

Die verteilte Technologie von Clustrix erledigt bei den Kunden mehr als 25 Billionen Transaktionen pro Monat, was sich in Milliarden von Tabellenzeilenänderungen in den Datenbanken niederschlägt. Im Vergleich zu Legacy-Systemen wie Oracle RAC skaliert Clustrix problemlos – unabhängig von der Größe der bereitgestellten üblichen Hardware.

„Bei Nielsen Marketing Cloud benötigen wir eine sehr leistungsfähige Lösung, wir verarbeiten über 100.000 Transaktionen pro Sekunde“, erläutert Bent Keator, Vice President of Infrastructure bei Nielsen Marketing Cloud (vormals eXelate). „Die verteilte Technologie von Clustrix in Verbindung mit dem erstklassigen Support-Team brachten uns die Skalierbarkeit, Leistungsfähigkeit und Zuverlässigkeit, auf die wir uns verlassen können. Wir freuen uns, dass Clustrix nun ein Teil von MariaDB wird. Wir können einfach weiterhin die Technologie nutzen, die unsere hohe transaktionale Arbeitslast verarbeitet. Und gleichzeitig können wir die populäre, moderne MariaDB-Plattform mit der nachgewiesenen Funktionalität auf Enterprise-Niveau einsetzen.“

Dank einer Architektur, die modulare, speziell entwickelte Speicher-Engines unterstützt, ist MariaDB unabhängig von den Anforderungen an die Arbeitslast anpassbar. Dieser einzigartige Ansatz macht eine Vielzahl spezialisierter Datenbanken überflüssig und ermöglicht es Unternehmen, eine einzige vollständige Datenbank unabhängig von der Arbeitslast zu verwenden, ohne die wichtigsten Kernfunktionen einer Enterprise-Datenbank wie Standard-SQL und ACID-Konformität zu beeinträchtigen.

Dies ist der zweite Zukauf von MariaDB in diesem Jahr. Im März gab das Unternehmen bekannt, dass es MammothDB erworben hat. Dieser Zukauf hat direkt zu einer Stärkung der modernen Analyselösung MariaDB AX geführt und die übergeordnete Database-as-a-Service (DBaaS)-Strategie erfolgreich vorangetrieben.

Weitere Informationen
Video: Michael Howard, CEO MariaDB, spricht über MariaDB Labs auf der jährlichen User Conference
Webseite von mariadb.com
@mariadb auf Twitter
Der MariaDB Blog

MariaDB befreit Unternehmen von den Schattenseiten proprietärer Datenbanken wie hohe Kosten, Einschränkungen und Komplexität. Sie können wieder in den Bereich investieren, der wirklich wichtig ist: die schnelle Entwicklung innovativer Anwendungen für die Kunden. MariaDB nutzt modulare, maßgeschneiderte Speicher-Engines. Damit kann MariaDB Arbeitslasten verarbeiten, die bislang eine ganze Reihe unterschiedlicher Spezialdatenbanken erforderten. Mit Wegfall von Komplexität und Einschränkungen können sich die Unternehmen nun auf eine einzige, umfassende Datenbank verlassen, die jeden Bedarf abdeckt. Und die auf Standard-Hardware ebenso läuft wie in der bevorzugten Cloud. MariaDB ist innerhalb weniger Minuten einsatzbereit, sowohl für analytische als auch für transaktionale Einsatzbereiche. MariaDB bietet unerreichte operative Agilität, ohne dass die wichtigen Enterprise-Merkmale wie ACID-Konformität und vollständige SQL-Implementierung dabei auch der Strecke bleiben. Unternehmen wie Deutsche Bank, DBS Bank, Nasdaq, Red Hat, The Home Depot, ServiceNow und Verizon vertrauen auf MariaDB. Denn MariaDB liefert dieselben Kernfunktionen wie proprietäre Datenbanken. Und das zu einem Bruchteil der Kosten. Deshalb ist MariaDB auch die am schnellsten wachsende Open-Source-Datenbank. Echtes Business verlässt sich auf MariaDB™.

Firmenkontakt
MariaDB Corporation
Jürgen Giesel
Tekniikantie 12
02150 Espoo
+49 7022 904493
juergen.giesel@mariadb.com
http://www.mariadb.com

Pressekontakt
sayIT Public Relations
Jan Schulze
Franz-Brombach-Str. 11
85435 Erding
+49 8122 954 77 13
jan@sayit-pr.de
http://www.sayit-pr.de

Computer IT Software

Speaker für das Data Festival 2019 in München gesucht

Speaker für das Data Festival 2019 in München gesucht

Alexander Thamm, CEO der Alexander Thamm GmbH, Dr. Carsten Bange, Geschäftsführer von BARC

Das Data Festival geht nach seinem erfolgreichen Start 2018 in die zweite Runde. Die Konferenz ist die erste Plattform im deutschsprachigen Raum, die Daten-Experten miteinander vernetzt und den gegenseitigen Austausch fördert. Speaker können sich bis zum 7. Oktober 2018 für die Konferenz bewerben.

Ganz gleich ob Data Scientists, Data Engineers, AI- oder Machine Learning Experten, Analysten, Softwareentwickler oder Wissenschaftler: Das Data Festival vernetzt 2019 zum zweiten Mal Daten-Experten und zeigt die neuesten Techniken und Technologien für Künstliche Intelligenz, Data Science, Datenvisualisierung und Data Engineering. Experten aus diesen Bereichen können sich noch bis zum 7. Oktober über das Online-Formular um einen der Speaker-Slots bewerben: https://www.datafestival.de/call-for-presentation Die Vorträge sollen konkrete Lösungen für Problemstellungen und deren Umsetzung für ein technisch versiertes Publikum vorstellen. Die Präsentation bietet zum einen die Möglichkeit, die eigene Expertise und Position in Bezug auf zukunftsweisende Technologien weiterzugeben und zum anderen, sich mit Unternehmen und anderen Data-Experten zu vernetzen. Ziel ist die Weiterbildung der Teilnehmer und ein Austausch über neue und erfolgreiche Techniken und Technologien in Artificial Intelligence, Data Science und Data Engineering. Speaker erhalten ein kostenfreies Konferenzticket sowie ein um die Hälfte ermäßigtes Ticket für eine Begleitperson.

Deutschland muss in Sachen Künstliche Intelligenz und Big Data aufholen

Die dreitägige Konferenz findet vom 19. bis 21. März 2019 im Muffatwerk in München statt. Das Event wurde von dem unabhängigen Beratungs- und Analystenhaus BARC und der Data-Science-Beratung Alexander Thamm GmbH ins Leben gerufen und fand im April 2018 erstmals in München statt. Unter der Marke Data Festival werden künftig neben der Konferenz weitere Austauschformate etabliert, um zur zentralen Plattform für die Data Community im deutschsprachigen Raum zu werden. „Im Vergleich zu China und den USA hinkt Deutschland in Sachen AI und Big Data deutlich hinterher“, sagt Alexander Thamm, Geschäftsführer der Data Festival GmbH. „Um dem entgegenzuwirken und die führenden Köpfe in diesen zukunftsorientierten Bereichen zusammenzubringen, haben wir das Data Festival ins Leben gerufen.“ Auch über vermeintliche Tabu-Themen soll hier offen gesprochen werden: „Wir wollen während der Konferenz auch über Probleme sprechen und gemeinsam in Erfahrung bringen, was man aus solchen Herausforderungen lernen kann. Den richtigen Rahmen hierfür bildet unsere Fuck-up-Session, in der Fehlschläge offen angesprochen werden“, sagt Dr. Carsten Bange, Gründer und Geschäftsführer von BARC.

Über das Data Festival
Das Data Festival ist eine dreitägige Konferenz, in der sich Experten und Unternehmen aus den Bereichen Künstliche Intelligenz, Data Science und Data Engineering über aktuelle Technologien und Zukunftstrends austauschen. Ziel ist es, die Data Community in Deutschland zu vernetzen, um von Erfahrungen zu lernen, Wissen zu transferieren und sich über kommende Entwicklungen auszutauschen. Für die Zukunft sollen weitere Formate und Austauschmöglichkeiten wie Meet-Ups und Roadshows geschaffen werden. www.datafestival.de

Firmenkontakt
Data Festival GmbH
Michaela Tiedemann
Vogelhartstr. 1
80807 München
+49 (0) 89 – 30760880
contact@datafestival.de
http://www.datafestival.de

Pressekontakt
Startup Communication
Alisa Augustin
Thalkirchner Straße 66
80336 München
089120219260
aa@startup-communication.de
http://www.startup-communication.de

Computer IT Software

Fraunhofer IGD Fachkonferenz: Go-Visual – In die Zukunft sehen ganz ohne Glaskugel

Fraunhofer IGD Fachkonferenz: Go-Visual - In die Zukunft sehen ganz ohne Glaskugel

Die Anwendungen des Fraunhofer IGD visualisieren Big Data-Analysen. (Bildquelle: Fraunhofer IGD)

Am 28. September 2018 veranstaltet das Fraunhofer IGD in Berlin mit der Go-Visual eine Fachkonferenz zur visuellen Assistenz in der Produktion. Thema in diesem Jahr: die visuelle Analyse smarter Daten und wie uns Big Data die Entscheidungsfindung erleichtern.

Die Science-meets-Business-Konferenz Go-Visual diskutiert jährlich die Möglichkeiten und neuesten Entwicklungen zu Themen der visuellen Assistenz in der Produktion. Fachleute aus Wirtschaft und Forschung sind eingeladen, sich am 28. September 2018 in Berlin auszutauschen und gemeinsam Lösungsansätze zu erörtern.

„Industrie 4.0“ ist das Schlagwort, das in aller Munde liegt und die aktuellen technologischen Entwicklungen prägt. Immer mehr und mehr Daten werden im Zuge der Digitalisierung gesammelt und stehen zur Nutzung und Auswertung bereit. Wie aber kann diese digitale Datenvielfalt, Big Data, nun genutzt werden, um durch die Integration von IT in die moderne Produktion eine höhere Flexibilität und Effizienz zu erreichen? Antworten dazu gibt das Fraunhofer-Institut für Graphische Datenverarbeitung IGD und diskutiert in Berlin die Ansätze mit Vertretern aus Wirtschaft, Wissenschaft und Forschung.

Prädiktion: mit Big Data die Zukunft smart steuern

Ganz ohne Glaskugel arbeitet das Team der Abteilung „Visual Assistance Technologies“ an der visuellen Analyse großer sowie komplexer Datenmengen, um damit einen Blick in die Zukunft zu wagen. „Unser Ziel ist es, die zur Verfügung stehenden Daten nutzen zu können, um zukünftige Prozesse durch präzise datenbasierte Vorhersagen optimal zu steuern,“ erläutert Abteilungsleiter Dr. Mario Aehnelt. Die Chance von Big Data in der Produktionssteuerung liegt in der Möglichkeit, durch den automatisierten Abgleich mit zurückliegenden Fällen eine Aussage über zukünftige Ereignisse treffen zu können, die mit einer hohen Wahrscheinlichkeit tatsächlich eintreten. Ein Beispiel: Der bei der Wartung festgestellte Verschleißgrad eines Maschinenteils gibt zunächst keinen Anlass zum Handeln. Der Abgleich mit unzähligen anderen Daten ergibt allerdings, dass in Vergangenheit Teile mit vergleichbarem Verschleißgrad vor der nächsten Wartung repariert werden mussten und einen Anlagenausfall verursachten. Dieser Prozess geschieht dank der Fraunhofer-IGD-Anwendungen in Echtzeit, dessen Ergebnis als visuelle Darstellung dem Nutzer intuitiv präsentiert wird. Mit der Prädiktion werden also Ursachen ermittelt und auf die Zukunft übertragen, um die Anwender in Anlagenbau und -wartung bei einer smarten Entscheidungsfindung zu unterstützen. Auf der Go-Visual präsentieren Vertreter des Fraunhofer IGD ihre neuesten Forschungsergebnisse und konkreten Anwendungen zur Visualisierung der Big Data-Analysen, so dass diese allen Prozessverantwortlichen – vom Produktionsleiter bis zum Montagearbeiter – zur Verfügung stehen.

Intelligente Datenlogger als neue Analyse- und Steuerungseinheit

Welche Chancen die Nutzung der digitalen Daten in Produktion und Prozesssteuerung heute und in Zukunft bietet, führen Wirtschaftsvertreter in ihren Vorträgen aus. So präsentiert beispielsweise der Rostocker Mittelständler pironex GmbH ein neues Kooperationsprojekt mit dem Fraunhofer IGD. Datenlogger, also flexibel einsetzbare Datenaufzeichnungsgeräte, sollen nicht wie bisher nur Betriebsdaten erfassen und zur Auswertung zur Verfügung stellen, sondern selbst intelligenter gemacht werden. Mit eigenen Sensoren und Dateninterface ausgestattet, werden neue Parameter erfasst, unbekannte Betriebszustände erkannt und Anomalien frühzeitig identifiziert. Die Datenlogger übernehmen mittels künstlicher Intelligenz künftig auch die Analyse der gesammelten Daten und kommunizieren mit der verbundenen Anlage, die ihrerseits selbstständig Einstellungsanpassungen vornehmen kann. Die Wirtschaftlichkeit kann dadurch enorm verbessert, die Lebensdauer von Maschinen und Anlagen erhöht und die Fehlerausfallsicherheit deutlich optimiert werden. In dem neuen Forschungsprojekt geht es um die Erarbeitung neuer Kommunikationskonzepte bei der Maschine-zu-Maschine-Kommunikation und neuer Visualisierungsansätze der durch die Datenlogger bereitgestellten Informationen.

Die Go-Visual bietet am Rande der Vorträge die Möglichkeit, miteinander ins Gespräch zu kommen und möchte aktiv die Vernetzung verschiedenster Akteure fördern. Wer in Sachen visueller Analyse und Aufbereitung der digitalen Daten im Unternehmen einen Einblick in den neuesten Stand der Forschung und Entwicklung und die künftigen Möglichkeiten erhalten möchte, kann sich auf www.igd-r.de/govisual anmelden.

GO-VISUAL:
Visuelle Analyse von Smart Data
28. September 2018, 9.30-16.30 Uhr
Fraunhofer-Forum, Anna-Louisa-Karsch-Straße 2, 10178 Berlin

Weiterführende Informationen: www.igd-r.de/govisual

Das vor 30 Jahren gegründete Fraunhofer IGD ist heute die international führende Einrichtung für angewandte Forschung im Visual Computing. Visual Computing ist bild- und modellbasierte Informatik. Vereinfacht gesagt, beschreibt es die Fähigkeit, Informationen in Bilder zu verwandeln (Computergraphik) und aus Bildern Informationen zu gewinnen (Computer Vision). Die Anwendungsmöglichkeiten hieraus sind vielfältig und werden unter anderem bei der Mensch-Maschine-Interaktion, der interaktiven Simulation und der Modellbildung eingesetzt.

Unsere Forscher an den Standorten in Darmstadt, Rostock, Graz und Singapur entwickeln neue technische Lösungen und Prototypen bis hin zur Produktreife. In Zusammenarbeit mit unseren Partnern entstehen dabei Anwendungslösungen, die direkt auf die Wünsche des Kunden zugeschnitten sind.

Unsere Ansätze erleichtern die Arbeit mit Computern und werden effizient in der Industrie, im Alltagsleben und im Gesundheitswesen eingesetzt. Schwerpunkte unserer Forschung sind die Unterstützung des Menschen in der Industrie 4.0, die Entwicklung von Schlüsseltechnologien für die „Smart City“ und die Nutzung von digitalen Lösungen im Bereich der „personalisierten Medizin“.

Durch angewandte Forschung unterstützen wir die strategische Entwicklung von Industrie und Wirtschaft. Insbesondere kleine und mittelständische Unternehmen sowie Dienstleistungszentren können davon profitieren und mit Hilfe unserer Spitzentechnologien am Markt erfolgreich sein.

Kontakt
Fraunhofer-Institut für Graphische Datenverarbeitung IGD
Daniela Welling
Fraunhoferstraße 5
64283 Darmstadt
+49 6151 155-146
presse@igd.fraunhofer.de
http://www.igd.fraunhofer.de

Computer IT Software

BARC-Seminare vermitteln Expertenwissen für Business Intelligence, Datenmanagement und Analytics

Erfahren Sie in den BARC-Seminaren im November was Business Analysten über Data Science wissen müssen, wie Sie Ihre Business Intelligence im Rahmen der Digitalisierung organisieren sollten und was aktuelle Softwarewerkzeuge für die Planung können.

BARC-Seminare vermitteln Expertenwissen für Business Intelligence, Datenmanagement und Analytics

BARC Seminare auf der „Big Data World“

Im November stellt das Business Application Research Center (BARC) in seiner Seminarreihe aktuelles Expertenwissen zu BI- und Analytics Trendthemen vor. Die Seminare finden am 6.11. am Vortag des IT-Events Big Data World statt, in dessen Rahmen auch die Veranstaltungen B ARC BI & DATA Management Congress sowie die BARC Advanced und Predictive Analytics Tagung durchgeführt werden. Die Bündelung an Veranstaltungen für Datenanalyse und Big Data bietet Besuchern ein umfassendes Informations-, Weiterbildungs- und Networking-Programm zu aktuellen Datenthemen: Daten- & Stammdatenmanagement, Business Intelligence & Analytics, Big Data, Maschine Learning, Data Engineering, Data Governance uvm.

Als Auftakt zum Event bietet BARC fünf inhaltsstarke Seminare zu aktuell hochrelevanten Themen an, denn „im Geschäftsalltag kann es schwerfallen, immer mit den aktuellen Marktentwicklungen Schritt zu halten. Unsere Kunden schätzen die Seminare für den intensiven Wissenstransfer und die Beantwortung individueller Fragen. Zusätzlich bieten wir den Teilnehmern einen inhaltsstarken Auftakt zur Big Data World“, sagt Dr. Carsten Bange, Geschäftsführer von BARC.

Folgende Seminare stehen am 6. November 2018 zur Auswahl:

Data Science für Business Analysten

Das Seminar führt Anwender in die Vorgehensweise und die Methoden der Data Science ein. Dabei werden wesentliche Schritte der Datenaufbereitung, Datenanalyse und Ergebnispräsentation in kompakten Einzelabschnitten vorgestellt.

Anwender erhalten nach der Teilnahme am Seminar das nötige Knowhow um Daten aufzubereiten, Muster in Daten zu identifizieren und Ergebnisse aus Data Labs zu interpretieren.

BI-Strategie und -Organisation im Rahmen der Digitalisierung (zweitägig – 5. und 6. November)

Die eigenständige Entwicklung wesentlicher Inhalte einer BI Strategie in praxisorientierten Übungsaufgaben und die Gestaltung einer nachhaltigen BI-Strategie sind ebenso Thematiken im Seminar wie das kennenlernen von Leitfäden, Templates und Checklisten durch die Vermittlung bewährter BARC-Methodiken.

Anwender erhalten nach der Teilnahme am Seminar fundierte Kenntnisse welche fachlichen, technischen und organisatorischen Facetten eine BI-Strategie umfasst und lernen, deren Kerninhalte zu bearbeiten.

Advanced Data Architecture & Design für Analytics

Eine sorgfältig gestaltete Datenarchitektur mit bewusst eingesetzten Designprinzipien macht sich schnell bezahlt. Diskutieren Sie u.a. folgende Fragestellungen im Workshop: Das datenzentrische Unternehmen – warum eine Datenarchitektur? Was unterscheidet das Data Warehouse vom Data Lake?

Anwender erhalten nach der Teilnahme dieses Seminars einen besseren Einblick in verschiedene Datenarchitektur-Konzepte, um die Herausforderung der Datenbeschaffung und Aufbereitung professionell meistern zu können.

Auswahl von Frontends für Reporting, Dashboards und Analyse

Das Seminar gibt einen neutralen und fundierten Einblick in aktuelle Entwicklungen am BI-Markt. Wesentliche Lösungen für Reporting/Berichtswesen, Dashboards und Analyse werden mit ihren Stärken und Herausforderungen sowie Kundenfeedback aus der weltgrößten Umfrage zu BI-Produkten „BARC BI Survey 18“ vorgestellt.
Anwender erhalten nach der Teilnahme am Seminar einen Marktüberblick und eine erste Einschätzung, welches Frontend für Ihre spezifische Herausforderung das am besten geeignet ist.

Softwarewerkzeuge für die Unternehmensplanung

Im Seminar erhalten Sie einen neutralen und fundierten Einblick in den Markt für Planungswerkzeuge. Anwender lernen die verschiedenen Kategorien an Planungslösungen kennen und zu unterscheiden, um diese mit Ihren eigenen Anforderungen abgleichen zu können.

Weitere Informationen zu den Seminaren finden Sie auch hier: https://barc-congress.de/expertenwissen/

Das Business Application Research Center (BARC) ist ein Forschungs- und Beratungsinstitut für Unternehmenssoftware mit Fokus auf die Bereiche Business Intelligence/Analytics, Datenmanagement, Enterprise Content Management (ECM), Customer Relationship Management (CRM) und Enterprise Resource Planning (ERP).

BARC-Analysten unterstützen seit 20 Jahren Unternehmen bei Strategie, Organisation, Architektur und Evaluationsfragen in diesen Themengebieten. Dabei vereinen die BARC-Analysten Markt-, Produkt- und Einführungswissen. Know-how-Basis sind die seit Jahren ständig durchgeführten Marktanalysen und Produktvergleichsstudien, die ein umfassendes Detailwissen über den Leistungsumfang aller marktrelevanten Softwareanbieter, neueste Entwicklungen und Best Practices sicherstellen. BARC-Veranstaltungen bieten einen konzentrierten Überblick über führende Softwarelösungen, zukunftsweisende Entwicklungen und aktuelle Anforderungen sowie Marktentwicklungen zu den verschiedenen Bereichen von Unternehmensapplikationen.

BARC formt mit den Analystenhäusern CXP und PAC die führende europäische Analystengruppe für Unternehmenssoftware und IT Services mit Präsenzen in acht Ländern.

Kontakt
BARC GmbH
Peter Kretschmer
Berliner Platz 7
97080 Würzburg
0931 8806510
info@barc.de
http://www.barc.de

Computer IT Software

Was ist Big Data?

Wie Big Data Ihrem Unternehmen wirklich Vorteile bringt.

Was ist Big Data?

Was ist Big Data? Wie Big Data Ihrem Unternehmen wirklich Vorteile bringt.

Big Data bekommt in letzter Zeit sehr viel Aufmerksamkeit und das nicht ohne Grund.Die Technologien zum Analysieren von Big Data haben einen bislang beispiellosen Grad an Genauigkeit erreicht. Algorithmen haben die menschliche Leistung beim Klassifizieren von Daten und dem Entdecken von reproduzierbaren Mustern weit übertroffen. Die Software gestützte Auswertung von Big Data ist daher, aufgrund der großen Datenmengen sowie der sehr komplexen Berechnungen, für viele Unternehmen in den Focus gerückt. Hiermit ist die Analyse von Big Data gemeint. Big Data (Große Datenmengen) fallen heute in fast jedem Unternehmen an, da kein Unternehmen mehr ohne die Nutzung von IT-Infrastrukturen und Datenbanken auskommen kann.

Die Analyse von Big Data ermöglicht es Potenziale zu Ermitteln. Die Bereiche die von Big Data profitieren reichen vom Qualitätsmanagement und der Produktionsoptimierung bis hin zu Marketing, Forschung und Entwicklung. Auch Bereiche wie Logistik und Controlling ziehen einen messbaren Nutzen aus den zur Verfügung stehenden Daten. Der wirtschaftliche Nutzen der gewonnen Erkenntnisse aus den zur Verfügung stehenden Daten ist für viele Unternehmen enorm.

Der neue Big Data Blog https://blog.meta-data-mining.de/ hilft Ihnen als Informationsquelle zu alle wesentlichen Themen dieser wegweisenden Technologie. Interessante Artikel, News, Anleitungen und Tools für Big Data Interessierte.

Informationen und Berichte zu Big Data. Hilfreiche Artikel zu Themen wie Big Data, Data Mining, Deep Learning und Data Science.

Kontakt
Big Data
Alexander Hadj Hassine
Lahnstraße 18
38120 Braunschweig
01631935219
alexander@hadj-hassine.de
https://blog.meta-data-mining.de/