[Die Teilnahme ist auf 20 Personen begrenzt]
Immer mehr Anwendungen analysieren Videos mit Hilfe von Computer-Vision-Modellen. Von der einfachen Erkennung von Objekten und Anomalien hin zur Bewertung von komplexen Bewegungen bieten diese Modelle ein großes wirtschaftliches Potential. In dieser Hacksession möchten wir gemeinsam mit euch ganz Hands-On verschiedene Bildanalyse-Methoden und -Modelle einsetzen, um mithilfe eurer Webcam, einigen Gegenständen und eurem eigenen Körper ein Computerspiel zu steuern. Auf diesem Wege macht ihr euch spielerisch leicht mit den Grundlagen von Computer-Vision-Modellen vertraut. Ihr benötigt dazu lediglich einen Laptop mit einer Kamera, einer installierten Python 3-Umgebung und einer IDE eurer Wahl. Ihr braucht keine Vorkenntnisse zum Mitmachen, wobei Python-Grundlagen auf jeden Fall nicht schaden.
Die Welt hat viel zu viele Daten, und doch zu wenige. Wo auf der einen Seite Word Embeddings auf Milliarden von Wörtern trainiert werden, fehlt es uns in geschlossenen Systemen wie etwa Unternehmen oder NGOs an zugeschnittenen Trainingsdaten um sinnvolle Algorithmen für Search und Recommender Engines zu entwickeln. In dem Sinne versuchen wir in dieser Hacksession, eine eigene kleine Search zu bauen, die trotz weniger Proprietärdaten sinnvolle Vorschläge unterbreiten kann. Das Ganze bauen wir in Python mit den wunderbaren NLP Libraries Spacy und flair in einer Jupyter Umgebung.
„Warum prognostiziert dein Modell genau diesen Wert? Da hätte ich aber etwas anderes gesagt!“ Diese oder eine ähnliche Aussage hat vermutlich jeder Data Scientist schon einmal in seiner Karriere zu hören bekommen. Doch wie reagiert man auf diese Frage/Aussage? Im Hackathon wenden wir zusammen XAI Methoden anhand eines strukturierten Vorgehensmodells an und interpretieren die Ergebnisse. Was können wir dadurch erklären und was bleibt weiterhin ungeklärt? Nutzt mein mitgebrachtes Beispiel oder bringt eure eigenen Modelle mit und findet es selbst heraus!
Fokus: XAI Methoden für ML Modelle trainiert auf tabellarischen Daten.
Image recognition is one of the most active applications of Machine Learning and Artificial Intelligence. In many cases, the quality of current techniques surpasses even human capabilities. A current trend here is software that runs smoothly even on mobile and embedded hardware.
One popular method for quickly finding objects in images is YOLO („you only look once“). After a brief introduction to image recognition with neural networks, we will apply them in practice. We have prepared for you code snippets that will make it as easy as possible to start using YOLO. We will give an introduction into how you can use these snippets, and then the floor will be yours.
During the session, we would like you to form small groups, to brainstorm on interesting use cases and to then start prototyping them. To fuel your imagination, we are bringing a unique data source.
The simplest requirement to participate in the session is bringing a Laptop and access to Google Colab (i.e. a Google Account). If you like, you can also try to set up the project dependencies on your own Laptop, ideally a Linux machine that has Python 3.x, an environment manager (e.g. Anaconda/Miniconda), and Git installed.
From search engines over natural language processing to genome research so called “Knowledge Graphs” become more and more prevalent. But what exactly is a “Knowledge Graph”, what components does a “Knowledge Graph” consist of and how can I utilise a “Knowledge Graph” to deliver value for my business problems? If you are interested in one of those questions, this session is exactly for you. After the session the participants have jointly created their first Knowledge Graph based on open source technologies, will have a good understanding of the basic terms such as “Knowledge Graph”, “Ontology” or “Semantic Reasoning” and are enabled to acquire further information and put them into the broader context.
For a successful and interactive participation the following things are required: Laptop, Docker (incl. Docker Compose) installation, Git Client and an open mind 🙂