We’ll do it AGAIN-and AGAIN-and AGAIN…
So schön war unser digitales Barcamp nämlich wieder.
Besonders der internationale Austausch, der so zustande kommt, ist – unserer Meinung nach – Gold wert. Wann kann man sich mal in lockerer Runde, ohne Rückreise oder Terminstress mit den Schweizer Kollegen unterhalten? Dass dieser Aspekt so wertvoll ist, hätten wir uns vor dem ersten digitalen Barcamp nicht träumen lassen – aber manchmal kommt es ja einfach so, wie es kommen soll.

Was sagt die Community?
„Ich habe wieder spannende Insights bekommen und freue mich jedes Mal über die guten Diskussionen. Außerdem ist es schön, alle mal wieder zu sehen“, sagt Armin, der mittlerweile ein fester Bestandteil der Community ist. Aber auch neue Teilnehmer konnten wir begeistern. Bianca beschreibt ihr erstes Barcamp Erlebnis folgendermaßen: „Ich war wirklich überrascht wie schnell die Zeit vergeht. Es war super interessant, sodass ich mir gut vorstellen könnte auch bei einem längeren Format dabei zu sein.“
Und Jakob, der das erste Mal als Sessionleiter teilgenommen hat sagt: „Mir hat der Austausch richtig gut gefallen. Es war super hilfreich die unterschiedlichen Meinungen zu meinem Thema zu hören.“ Alle sind sich in der Feedbackrunde einig: Es hat viel Spaß gemacht J An dieser Stelle ein großes DANKE an die Sessionleiter und alle Teilnehmer! Ohne euch – kein Barcamp!
Nach dem Barcamp ist vor dem Barcamp
Wir sind auf jeden Fall schon wieder in der Planung für Vol. 3 und freuen uns auf die vielen altbekannten und neuen Gesichter, die wir bei jeder Ausgabe des Data & Analytcs Barcamps – egal ob analog oder digital – begrüßen dürfen.
Wenn ihr wissen wollt wie unsere Planung oder die genaue Durchführung abläuft, schaut doch mal im Blogartikel zu Vol. 1 vorbei.
Hier unsere Inhalte & Sessions vom Barcamp Vol. 2:
- Dreamteam Menschen & Daten: Menschen befähigen, mit Daten sicher umzugehen und Mehrwert aus Daten zu generieren, aber wie? (Julia)
- Herausforderungen:
- Es gibt viele unterschiedliche Tools und jeder hat sein Lieblingstool oder hält an alten Tools fest: „Das hat bisher auch super funktioniert (z.B. Excel). Warum soll ich dann ein neues nutzen?“
- Kennt das Business überhaupt das Problem?
- Implementiert und dann? Was gibt es noch an Herangehensweisen außer Schulungen?
- Tipps & Best Practices:
- Je früher die Menschen einbezogen werden und sich ausprobieren dürfen, desto höher ist die Akzeptanz von neuen Technologien
- Champions, Follower, Multiplikatoren, Data Agents etc.: Menschen, die Bock auf das Thema haben und mit großem Interesse und Spaß andere in der Organisation begeistern und inspirieren
- Es braucht einen zentralen Treiber, z.B. in Form von dem CEO/CDO, ein Data Team oder einer Stabstelle, damit die Ansprechpartner und Verantwortlichen für alle präsent sind
- Veranstaltungen wie Workshops oder Diskussionsrunden, um den Austausch untereinander zu fördern
- Stakeholder-Analyse: Wie erreiche ich meine Stakeholder? Was brauchen meine Stakeholder und wofür würden sie die neue Technologie überhaupt nutzen? Was nutzen sie bereits?
- Nicht zentral und in Silos denken, sondern bereichsübergreifend agieren, um Vorhaben transparenter zu machen und den Wissenstransfer zu fördern
- Aktivitäten transparent halten und Menschen informieren und auf dem Laufenden halten, z.B. über Intranet, Collaborations-Tools (MS Teams, Slack und Co.), internen Podcast, News Vlog oder Erklärvideos
- *Fuck up Hours: Menschen einen Raum geben, wo Ängste, innere Wut und negative Emotionen freigelassen werden können (*Fuck up´s sind Veranstaltungen, wo über gescheiterte Vorhaben geredet und Learnings geteilt werden. Hier ist aber gemeint: Mitarbeiter einfach mal „auskotzen“ lassen über das, was gerade an Veränderungen in der Organisation passiert. Überleg dir gerne einen anderen passenderen Namen 😉 )
- Herausforderungen:
- Daten Demokratisierung – Begriff, Methoden, Erfahrungen (Julian)
- Was versteht man darunter? Daten stehen an jeder Stelle einer Organisation zu Verfügung und werden auch genutzt (Daten-gestützte Entscheidungen)
- Herausforderungen: Zugriffsmanagement (Überwachung, Wer sieht was), Fehlende Qualitätssicherung und Metadaten, Auffindbarkeit (Datenkataloge sind noch in den Kinderschuhen, wenn überhaupt vorhanden), Stakeholdern fehlt oft Zeit sich damit auseinanderzusetzen, Fehlende Skills (Data Literacy)
- Best Practices: Gute Sandboxes zum „Rumspielen“, Vermeiden von Hürden (Einfache Zugänglichkeit von Daten), Right-Tool-For-The-Job (Richtige Software für Stakeholder, bspw. Drag&Drop für Marketing und QueryEngine für Power User)

- Machine Learning in IBM Planning Analytics mit Python, Jupyter Notebooks & H2O.ai (Alex & Johannes)
- Um einen ersten Einstig in das Thema Machine Learning zu erhalten, haben wir uns zum Ziel gesetzt, eine Prognose über die Anzahl und die Preisentwicklung verkaufter Waren zu erstellen. Zuerst haben wir mit TM1Py Rohdaten aus IBM Planning Analytics in einem Python Script mit Jupyter Notebooks geladen. Dabei findet eine Machine Learning-konforme Vorverarbeitung statt. H2O startet dann einen Machine Learning-Prozess, um den besten Machine Learning-Algorithmus zu ermitteln und diesen anzuwenden. Die Ergebnisse werden anschließend in IBM Planning Analytics zurückgeschrieben. Als Ergebnis erhalten wir aussagekräftige und valide Prognosen über Anzahl und Preisentwicklung verkaufter Waren. Die Konzeption und Umsetzung konnte innerhalb nur einer Woche realisiert werden. Dabei sind Vorkenntnisse in allen Technologien ratsam, um die Vorteile beider Welten nutzen und die Stärken von TM1 sowie Machine Learning gänzlich ausschöpfen zu können.
- Vizualising „Big Data“ – Erfahrungen und Best Practices über veröffentlichte Visualisierungen von Daten über 5-10 GB (Jakob)
- Thoughtspot als Tool zum Visualisieren von riesigen Datenmengen
- In den Datenbanken aggregiert die Daten speichern -> weniger Zeilen/Daten
- Heikel weil man dadurch Informationen verlieren kann
- Hot-warm-cold approach von Tableau um riesige Datenmengen zu meistern
- https://tc19.tableau.com/learn/sessions/hot-hotter-hyper-how-handle-big-data
- Daten in der Cloud speichern und mit dem Dashboard visualisieren (bspw. Power BI) um Performance zu steigern – Daten nicht lokal speichern
- Vorgerechnete Data-Cubes die Daten auf aggregieren (zeitlich, über Hierarchien)
- Principle component analysis um Cluster zu bauen aus mehreren Variablen
- Workshops und Schulungen in Corona-Zeiten – ein Erfahrungsaustausch (Raphael)
- Remote Workshops- und Schulungen verstärken positive wie negative Muster: z.B. gute Vorbereitung wird noch wichtiger, regelmäßige Pausen, praktische Übungen
- Genug Zeit für das Testen der Technik vorab einplanen
- Ablenkung ist eine große Herausforderung – gleichzeitig wird auch klar, wer sich wirklich für ein Thema interessiert und wer nicht aus eigener Motivation teilnimmt

- Natural Language Processing (NLP) – nutzt ihr bereits NLP? Teilt hier eure Use Cases und Erfahrungen (Armin)

- Anomalieerkennung – Ein Austausch über Erfahrungen und Hindernisse (Chris)
- Texterkennung / Suchen im Text:
- Von einfachen Begriffen
- Zu sehr speziellen Textbausteinen
- Und eventuellen Querverbindungen
- Z.b. Haftungsrechtliches
- „Wer wusste wann von welchem Thema“
- Variablenreduktion / Feature Engeneering
- Vom Rule-based approach towards model-based approach
- Modellkomplexität beachten
- Netzwerke (Konstellationen von Personengruppen)
- Frage der Blickrichtung (Historie oder Zukunft)
- Texterkennung / Suchen im Text:
- Analytical In-House Solutions VS SaaS Platforms – Eure Erfahrungen, Meinungen und Erfolge/Hindernisse (Max)
- HUI = Sicherheit
- On Prem vs. Cloud (SaaS)
- flexibility and lower costs
- SaaS as tailored solutions to specific problem
- faster to set things in motion
- Software providers are experts in their field of application
- SaaS provides full service packages to stay up-to-date
- MEH:
- i.e. Data Driven Forecasts written in Python/Azure to specific for general models
- PFUI = Kosten
- On-Prem zu Vollkosten inkl. Infrastruktur
- Knowledge Transfer from inside to external with SaaS
- HUI = Sicherheit
Ein Kommentar