Ausstellung und Dialogplattform
Ob privat oder beruflich; gesellschaftlich oder wirtschaftlich: Robotik und Künstliche Intelligenz haben unser Leben grundlegend verändert – und werden dies auch weiterhin tun. Auf welche Bereiche wird sich der Einsatz innovativer Technologien besonders auswirken? Von welchen neuen Anwendungen werden wir zukünftig profitieren?
Neben konkreten Anwendungen für Arbeitswelt, Gesundheitswesen, Mobilität und Umwelt beleuchtet AI.Society auch ethische Fragestellungen rund um Robotik und KI. Weil der damit verbundene gesellschaftliche Wandel viele Chancen, aber auch neue Herausforderungen mit sich bringt. Umso wichtiger ist die konstruktive Gestaltung eines solchen Transformationsprozesses. Vertreter aus Wissenschaft, Wirtschaft, Politik und Gesellschaft entwickeln gemeinsam Visionen und Ansätze, wie dieser Prozess zu einer lebenswerten Zukunft beiträgt. Eine Zukunft, die immer auch die Gesellschaft mit einbezieht.
Nichts beeinflusst und verändert den Arbeitsbereich so sehr wie die Entwicklung neuer Technologien und Produktionsmittel. Doch es hat ein Umdenken stattgefunden. So verfolgen die Forschungsexperten der Technischen Universität München (TUM) in ihrer Vision der Fabrik der Zukunft einen anderen Ansatz: den menschenzentrierten. Es geht darum, die Fähigkeiten des Menschen zu stärken, handwerkliche Möglichkeiten zu erweitern und eine sichere Arbeitsumgebung zu schaffen.
Das interdisziplinäre Netzwerk Work@MIRMI umfasst mehr als 20 Institute aus den Fakultäten Maschinenbau, Informatik, Automatisierungstechnik, Elektrotechnik, Bauwesen, Geographie, Umwelt, Sport und Gesundheit. Es erforscht Herausforderungen wie den demografischen Wandel, den Fachkräftemangel, den Klimawandel sowie die globale Wettbewerbsfähigkeit Europas. Eins ihrer Leuchtturmprojekte: die KI.FABRIK der Hightech-Agenda Bayern, die für eine krisensichere und profitable Produktion modernster IT- und mechatronischer Hightech-Komponenten bis zum Jahr 2030 umgesetzt werden soll. AI.Society bietet Ihnen vertiefende Einblicke in verschiedene Showcases.
Fahrerlose Transportfahrzeuge (FTF) sind fester Bestandteil in automatisierten Intralogistiksystemen. Auch wenn FTF insbesondere für den Transport von standardisierten Ladungsträgern effektiv eingesetzt werden können, sind sie nicht in der Lage, während des Transports weitere Tätigkeiten durchzuführen, um den Transportprozess wertschöpfend zu gestalten. Ziel des Projekts „Adaptive Prozessplanung mittels mobiler Vormontage-Systeme“ ist die Erweiterung des Aufgabenspektrums von FTF um komplexe Handhabungs- und Vormontageprozesse, die auch während der Fahrt ausgeführt werden können. Durch Kombination eines mobilen Roboters mit zwei kollaborativen Manipulatoren lassen sich insbesondere auch derzeit manuell auf mobilen Plattformen durchgeführte Tätigkeiten automatisieren. Im Gegenzug kann eine ortsfeste Arbeit für Menschen auch in flexiblen Produktionsprozessen ermöglicht werden. Die KI-basierte Steuerung kann flexibel auf Lastspitzen und Fehler reagieren.
Unter Verwendung der Technologie, die im Rahmen des europäischen Horizon 2020-Projekts I.AM. (Impact-Aware Manipulation) entwickelt wurde, zeigen wir einen der Anwendungsfälle, die von der Verfolgung absichtlicher Stöße bei robotischen Manipulationsaufgaben profitieren. Dabei geht es um das schnelle Greifen von Objekten mit einem Doppelarm-Roboter, bei dem der Kontakt zwischen dem End-effektor und dem Objekt mit einer Relativgeschwindigkeit ungleich Null hergestellt wird. In unserer Demonstration zeigen wir, wie diese Idee dazu beitragen kann, die Zykluszeit f ̈ur die Roboterdepalettierung zu ver- ringern. Dazu verwenden wir zwei Franka-Emika-Roboter mit speziell angefertigten flachen Silizium-Endeffektoren und eine Reihe von Test- paketen mit unterschiedlichem Gewicht (bis zu 2 Kilogramm).
Roundpeg präsentiert den ersten Roboter mit integrierter Menschenerkennung, der ohne Zaun mit der Arbeitsgeschwindigkeit von Industrierobotern operiert.
Wenn Roboter durch die Beobachtung des Menschen lernen ist es meist nicht ausreichend nur die Bewegung des Menschen zu verfolgen sondern es müssen weitere Informationen über die Interaktion des Menschen mit der Umgebung bestimmt werden. Die Demo zeigt wie ein Manipulator erflogreich dynamische Parameter von Objekten bestimmen kann indem er mit diesen interagiert. Für eine erfolgreiche Ausführung der zu lernenden Aufgabe sind Masse, Schwerpunkt und Inertia des Objektes von großer Bedeutung.
Netzwerkmanagement in der KI-Fabrik. Wir werden zeigen, wie KI deterministische Garantien für die Netzwerklatenz in einer Fabrik bieten kann.
Digitale Zwillinge werden in der KI.FABRIK sowohl mit Engineering-Daten als auch mit Daten aus dem Betrieb erstellt. Für das WITTENSTEIN-Getriebe wurde ein prototypischer Digitaler Zwilling entwickelt, der ein Asset auf Basis der Asset Administration Shell standardisiert elektronisch beschreibt. Der daraus resultierende Digitale Zwilling ermöglicht den Austausch von Asset-bezogenen Daten zwischen Industrieanlagen sowie zwischen Anlagen und Produktionsorchestrierungssystemen oder Engineering-Tools.
CENTRAL.AI und automatische Planung & Rekonfiguration ermöglichen konkurrenzfähige automatisierte Fertigung (Production-as-a-Service) in Bayern auch für Losgröße 1 bei komplexen Produkten.
Diese Demo zielt darauf ab, das Problem der Manipulation von verformbaren Objekten im Produktionsprozess anzugehen, das derzeit nur manuell gehandhabt werden kann. Visuelle und taktile Informationen werden zur Erkennung und Verfolgung bereitgestellt, und die Verdrahtungsaufgabe wird autonom durch die Zusammenarbeit von zwei Panda-Robotern gelöst.
Ein leistungsfähiger Digitaler Zwilling ermöglicht einen neuen Weg zur Verbesserung des Produktionsmanagements und der Zugänglichkeit für menschliche Bediener. Die Digital Twin-Mediated Teleoperation zielt darauf ab, die Herausforderungen einer menschenzentrierten Teleoperationsstation für Produktionsaufgaben wie der Montage, die derzeit weitgehend manuell durchgeführt werden, zu bewältigen. Visuelles und bilaterales haptisches Feedback ermöglicht es dem menschlichen Experten, Montageaufgaben aus der Ferne zu unterstützen, indem er/sie gemeinsam mit dem Roboter in der Fabrik agiert. Die modellvermittelte Teleoperation kann sowohl die Transparenz als auch die Stabilität der robotischen Teleoperation verbessern. Sie besteht aus einem lokalen Modell der Umgebung, das verwendet werden kann, um sofortiges visuelles und haptisches Feedback zu vermitteln, anstatt auf verzögerte Signale aus der entfernten Umgebung angewiesen zu sein.
Die mobile Roboterdemo in der KI-Fabrik zeigt die Fähigkeiten eines fortschrittlichen autonomen Roboters in einer Produktionsumgebung. Der Roboter ist mit hochmodernen KI-Technologien und Sensoren ausgestattet, die es ihm ermöglichen, durch die Fabrik zu navigieren, Objekte zu identifizieren und Aufgaben mit hoher Präzision und Effizienz auszuführen.
Collective Learning oder das Roboter Kollektiv ist Teil der KI.FABRIK und besteht aus 100 Robotern. Ihre Aufgabe ist es die Handgriffe zu lernen, die die Central AI der KI.FABRIK für die Produktion eines neuen Bauteils vorsieht. Möglich macht das die breite Auswahl an Aufgabe, die das Kollektiv im Hintergrund lernt. Aus dieser, im Bereich Robot Learning bisher einzigartigen, Big Data Sammlung, lässt sich auch für neue Aufgaben der passende Handgriff schnell finden.
Wir nutzen generative künstliche Intelligenz (KI) Algorithmen und additive Fertigungstechnologie, um das Produktdesign für kleine Produktionsmengen zu optimieren. Unser Programm ermöglicht eine nahtlose Interaktion zwischen menschlichen Designern und KI, was einen natürlichen und intuitiven Designprozess ermöglicht. Durch die iterative Auswahl von KI-generierten Designvorschlägen, die bestimmte Kriterien erfüllen, können Designer die KI durch den Generierungsprozess führen. Die Verwendung von additive Fertigungstechnologie ermöglicht es uns, das generierte Design schnell und kosteneffektiv zu drucken und einzusetzen. Dieser Prozess ist schnell, kosteneffektiv und sehr anpassungsfähig, was ihn ideal für die Entwicklung von kundenindividuellen Produkten macht.
Hydrabyte stellt mit der Robosphere ein System zur optimalen Nahfeldbewegungsplanung von Manipulatorgruppen vor. Die einzigartige Multi-Roboter-Technologie von Hydrabayte erlaubt die simultane Durchführung mehrerer Montagevorgänge auf kleinstem Raum. Zusammen mit der Olive Robotics GmbH wird am Stand die Montage von robotischen Systemen unter Verwendung der modularen robotischen Komponenten von Olive Robotics demonstriert.
Mimetik entwickelt Lösungen für die menschenzentrierte Automatisierung und Robotersteuerung. Das Know-how von Mimetik ist ein IIoT-Sensor für menschliche Aktivitäten. Er basiert auf KI-gesteuerten Datenhandschuhen in Industriequalität, die Hand-/Fingerbewegungen verfolgen und eine Intelligenz aus den Bewegungsdaten extrahieren. Die firmeneigene KI sorgt für hohe Genauigkeit und schnellen Einsatz. Mit dem Schwerpunkt auf industriellen Anwendungen verbessert Mimetik das Training von Arbeitern an Fließbändern, optimiert die Effizienz und Ergonomie von Arbeitsplätzen und verbessert die automatische Qualitätskontrolle.
Die Demo soll einen Überblick darüber geben, wie das Meshmerize-Netz dazu beitragen kann, schnell eine Netzabdeckung in den Gebieten bereitzustellen, die eine Herausforderung für Mobilfunknetze darstellen. Wir freuen uns darauf, in unserem Szenario zu zeigen, wie einfach es ist, ein zuverlässiges Netzwerk einzurichten und eine starke Konnektivität aufrechtzuerhalten, die den Feuerwehreinsätzen sehr zugute kommt. Da es nicht von der Infrastruktur eines Mobilfunknetzes abhängig ist, kann es sowohl in einem abgelegenen Wald als auch in einer belebten Stadt eingesetzt werden. UAVs und Mesh können den Feuerwehrleuten ein zusätzliches Paar Augen bei der Bekämpfung der Flammen zur Verfügung stellen und so eine sichere Inspektion des Geländes, eine nach Prioritäten geordnete und strategische Katastrophenhilfe, effiziente Such- und Rettungsmaßnahmen, den Austausch von Informationen und die Verfolgung der Standorte der Teammitglieder gewährleisten.
Die Demo Kollektives Lernen zeigt die überlegene Lerngeschwindigkeit einer vernetzten Roboter-Gruppe im Vergleich zu einem einzelnen. Während dieser mehrere Stunden bräuchte, um eine Aufgabe wie das Einsetzen zu lernen, baut die Gruppe hingegen auf den Erfahrungen der anderen auf – und gelangt so in kürzerer Zeit zur besseren Lösung.
Bei Future of Workshop geht es um die Themen Skill-Learning, Mensch-Roboter-Kollaboration, Kraft-Impedanz-Kontrolle und Bewegungsplanung, die hier nachvollzogen und getestet werden können.
Der Demonstrator Remote Robotic Teleoperation zeigt die Herausforderungen einer menschenzentrierten Teleoperationsstation für Produktionsaufgaben, die derzeit weitgehend manuell ausgeführt werden – zum Beispiel die Montage. Visuelles und bilaterales haptisches Feedback im Zusammenspiel von Mensch und Roboter ermöglicht die ferngesteuerte Unterstützung von Montageaufgaben.
Die Digitalen Zwillinge in der KI.Fabrik werden mit Hilfe von Engineering-Daten und Live-Betriebsdaten erstellt. Für das Wittenstein-Getriebe wurde ein prototypischer Digitaler Zwilling entwickelt, der ein Asset elektronisch standardisiert beschreibt und dabei auf die Asset Administration Shell zurückgreift. Das ermöglicht den Datenaustausch zwischen Industrieanlagen sowie zwischen Anlagen und Produktionsorchestrierung oder Engineering-Tools. Aufgrund des hohen Aufwands bei der manuellen Informationsextraktion aus den verfügbaren Engineering-Dokumenten wird in dieser Demonstration ein Werkzeug zur automatischen Generierung einer Asset Administration Shell aus .stp-Dateien (CAD) des Wittenstein-Getriebes gezeigt. Weitere automatisierte Werkzeuge zur Informationsextraktion, z.B. für die Formate .pdf und .xml, werden entwickelt. Dies ist der erste Schritt in Richtung eines industriellen Echtzeit-Digitalen Zwillings des gesamten Set-ups der KI.Fabrik.
Der Automated Cable Insertion Demonstrator zielt auf das Problem der Manipulation verformbarer Objekte im Produktionsprozess ab – denn dieses muss derzeit noch manuell gelöst werden. Zur Erkennung und Nachverfolgung werden visuelle und taktile Informationen bereitgestellt; die Verkabelung wird autonom durch die Zusammenarbeit von zwei Panda-Robotern gelöst.
In der Natur wird die Bewegung von Vierbeinern durch die kombinierte Aktion von Wirbelsäule und Beinen ausgeführt. In Anlehnung daran wurde die biomimetische Maus mit einer seitlich gebogenen Wirbelsäule entworfen, um ihre Fortbewegung zu optimieren. Der Mausroboter profitiert von der regelmäßigen seitlichen Biegung einer weichen Wirbelsäule – dadurch kann er sich agiler fortbewegen und durch ein Labyrinth-Szenario laufen.
Das Start-up Olive Robotics präsentiert intelligente modulare Roboterkomponenten mit nativer ROS-Unterstützung für ein einfaches Prototyping und zur flexiblen Erweiterung ROS-basierter Roboter- und Automatisierungssysteme.
RobCo hat die Vision des Roboters für jedermann. Mit ihrer maßgeschneiderten All-in-One-Roboterlösung können sie KMUs bei ihrem Transformationsprozess zur Industrie 4.0 begleiten.
Mobilität bewegt uns alle – im wahrsten Sinne des Wortes – und damit auch die Robotik und AI.Society. Nachhaltige und flexible Mobilitätslösungen werden unsere Zukunft prägen. Autonome Fahrzeuge, vernetzte Mobilität, fliegende Roboter, Dynamikmodellierung und Kollisionserkennung sind wesentliche Bestandteile der mobilen Robotik. Darüber hinaus erleichtert uns KI den Zugang zu neuen Mobilitätsformen und hilft uns, menschliche Fehler auszuschließen.
Driveblocks stellt seine Softwarelösung für „Mapless Autonomy“ im Nutzfahrzeugsektor vor. Diese findet Anwendung im Transportverkehr auf der Autobahn oder in der Betriebslogistik. Der neue Ansatz zum autonomen Fahren bietet deutliche Vorteile mit Blick auf Skalierung und Robustheit, da es vollständig auf hochgenaue Karten verzichtet. Das Produkt wird in modularer Form in einem Lizenzmodell vertrieben, entweder als einzelne Softwarekomponenten oder als komplette Autonomielösung.
Autonomes Fahren ist ein Megatrend der Industrie. Den großen Durchbruch autonomer Autos auf öffentlichen Straßen haben wir jedoch noch nicht erlebt. Auch wenn es viele Algorithmen für einzelne Teilaufgaben des autonomen Fahrens gibt, wie z. B. die Bilderkennung. Die Entwicklung einer optimalen, robusten Gesamtsoftware bleibt die große Herausforderung. Unsere Forschung zielt auf diesen Aspekt ab: Wir wollen einen vollständig autonomen Software-Stack entwickeln, der auf öffentlichen Straßen eingesetzt werden kann. Dafür haben wir ein autonomes Forschungsfahrzeug, das mit umfangreicher Sensorik und Hochleistungsrechnern ausgestattet ist, um die entwickelte Software einzusetzen und zu testen.
"Unsere Demo zeigt das DARKO-Konzept eines mobilen Manipulators, der effizient und sicher intralogistische Aufgaben in der agilen Produktion erledigt und dabei mit Menschen in seiner Umgebung interagiert. Der Roboter nimmt Objekte aus einem Regal und bewegt sie ans Ziel, wobei er einen anthropomorphen „Fahrer“ verwendet, um auf natürliche Weise mit den Mitarbeitern zu interagieren. Anschließend wirft er die Objekte in Kisten auf einem Förderband."
Wir stellen unseren innovativen Elektromotor für den Mobilitätssektor vor. Aktuelle Elektromotoren nutzen Magnete aus seltenen Erden, um hohe Leistungen bei niedrigem Gewicht zu erzielen. Unser hochoptimierter Motor übertrifft die Leistungsdichte aktueller Motoren mit Magneten. Der Verzicht auf Magnete macht unseren Antrieb billiger und nachhaltiger.
Die Flugrobotertechnik hat in den letzten Jahren enorme Fortschritte gemacht. Wir werden die neuesten Ergebnisse eines unkonventionellen Flugrobotersystems vorstellen, das nachgiebige Elemente im mechanischen Design nutzt, um neuartige hybride Fortbewegungs- und Manipulationsaufgaben am Boden und in der Luft auszuführen. Darüber hinaus werden wir eine studentische Drohnen-Renninitiative für eine neue Klasse großer unbemannter Flugsysteme vorstellen.
Artisense entwickelt eine integrierte Lokalisierungsplattform für die Automatisierung von Robotern, Fahrzeugen und Anwendungen der räumlichen Intelligenz.
Fernride, ein weiteres TUM-Spin-off, präsentiert sein Projekt für nachhaltige Logistik, das die Fähigkeiten von Fernfahrern mit autonomen Technologien kombiniert.
Viele Roboter, die zuvor in der Industrie eingesetzt wurden, werden nun angepasst, um den anspruchsvolleren Herausforderungen des Gesundheitssektors gerecht zu werden. Die Gründe? Eine immer älter werdende Bevölkerung und der Mangel an medizinischem Fachpersonal. Computer Vision, maschinelles Lernen, Virtual und Augmented Reality u. a. werden die Robotik zukünftig auf ein völlig neues Niveau heben, so dass sie zu echten Mitarbeitern werden können.
Niemand verschüttet gerne einen Kaffee – Roboter auch nicht. Bei dieser Demo wollen wir zeigen, dass Roboter Flüssigkeiten mit Sicherheitsgarantien transportieren und manipulieren können. Das heißt, wir präsentieren Roboter mit verschüttungsfreien Fähigkeiten! Wir möchten auch alle Teilnehmer einladen, mit unseren Roboterarmen zu interagieren und sie fernzusteuern, um Ihr Lieblingsgetränk sicher zu transportieren. Würdest du einem Roboter erlauben, dein Lieblingsgetränk zu tragen? Besuchen Sie unseren Stand und unsere Roboter auf der Automatica München_i 2023!
Echtzeit-Visualisierung von Muskelanspannung während einer Reihe von Bewegungen in einem menschlichen Muskel-Skelett-Modell.
Für den allgegenwärtigen Einsatz in modernen Haushalten müssen Roboter neue Skills lernen können, müssen die relevanten Eigenschaften des Skills repräsentieren können und die Skills an ihre eigene Roboterkinematik anpassen, um sie mit (verschiedenen) Objekten in einer neuen Umgebung auszuführen, die andere Einschränkungen als derjenigen Umgebung haben kann, in der das Skill gelernt wurde. Wir stellen ein Zwei-Phasen-System zum erstens Lernen und anschließenden Anpassen von Skills vor. In der Lernphase wird ein modell- und wissensbasierter Ansatz mit einem erfahrungsbasierten Ansatz anhand umfangreicher Repräsentierungsmöglichkeiten verglichen. Und in der Anpassungsphase führt ein Roboter eine der erlernten Aufgaben (d.h. Skillsequenz) selbstständig aus.
Wir möchten gerne neue Fähigkeiten von GARMI zeigen, die seit unserer Präsentation im letzten Jahr entwickelt wurden. GARMI kann via Teleoperation als Avatar funktionieren, der mithilfe verschiedener Eingabegeräte, z.B. unser eigens entwickeltes Exoskelett oder den haptischen Controller Omega gesteuert werden kann. Für die Teleoperation kann eine vollständige VR-Umgebung genutzt werden. Zusätzlich möchten wir auch einige der autonomen Servicefunktionen von GARMI demonstrieren.
Exoskelett zur Fernsteuerung des humanoiden Avatars GARMI und zur Interaktion mit Patienten
Die Telemedizin-Demo zeigt, wie der humanoide Serviceroboter GARMI mit einem haptischen Eingabegerät (Omega.7) oder einem HTC Vive Controller bedient werden kann.
Hände spielen eine wichtige Rolle im menschlichen Leben für Greif-, Propriozeptions- und Kommunikationszwecke. Den Verlust der feinen und koordinierten Funktion der oberen Extremitäten mit Prothesen zu kompensieren, ist eine medizinische, technologische, psychologische und soziale Herausforderung. Auch wenn künstliche Gliedmaßen die Aussicht eröffnen, einige fehlende Fähigkeiten wiederherzustellen, klafft noch immer eine große Lücke zwischen den verfügbaren kommerziellen Geräten und den wahrgenommenen Anforderungen der Prothesenträger. Dieser Stand umfasst neuartige Lösungen für intelligentere Neuroprothesen, sowohl in ihrem Aufbau als auch im Regelkreis. Wir werden Demos von im Handel erhältlichen Händen, explorative und bioinspirierte Designs durch Soft-Robotik und verschiedene Steuerungsmodalitäten präsentieren.
Ziel des Forschungsprojekts AURORA ist die Entwicklung eines mobilen Serviceroboters für den OP-Trakt. Diese "Robotic Circulating Nurse" bewegt sich frei im unsterilen OP-Bereich und unterstützt das OP-Team selbstständig mit kontextabhängigen Aufgaben, wie z.B. der Bereitstellung von Sterilgut oder dem Einstellen von medizinischen Geräten. Dadurch kann der heute herrschende Mangel an Pflegekräften abgeschwächt werden. Außerdem ist das System dazu in der Lage, mit anderen Robotern zu kollaborieren, etwa in Form einer sterilen Übergabe-Interaktion mit dem Instrumentier-Roboter SASHA-OR.
Im Forschungsprojekt SASHA-OR wird ein intelligenter Assistenzroboter für den chirurgischen Operationssaal entwickelt, der für den sterilen Einsatz am OP-Tisch konzipiert ist. Das System unterstützt das Operationsteam durch ein flexibles Instrumenten- und Objektmanagement. Durch den Einsatz von taktiler Sensorik und Computer-Vision-Methoden kann der Roboter verbal mit dem OP-Team interagieren, angeforderte laparoskopische Instrumente und Sterilgüter erkennen, übergeben und entgegennehmen. Neben der Interaktion zwischen Roboter und Mensch zielt das System auch auf die Interaktion zwischen Roboter und Roboter ab, um sterile Übergabevorgänge mit dem Springer-Roboter AURORA zu ermöglichen.
Wir freuen uns, unsere Forschungsergebnisse zu einigen der neuesten Entwicklungen im Bereich der Katheter-Trackingtechnologien und deren mögliche Auswirkungen auf künftige minimalinvasive endovaskuläre Verfahren vorstellen zu können. Diese Technologien nutzen fortschrittliche Algorithmen und eine Vielzahl von Bildgebungs- und Sensortechniken, um eine Echtzeitführung während der Katheterplatzierung zu ermöglichen. Die Integration dieser Technologien hat das Potenzial, die Genauigkeit und Effizienz medizinischer Verfahren zu verbessern, selbst bei komplexen anatomischen Strukturen. Durch die Verringerung von Fehlern und die Verbesserung der Patientenversorgung stellen die Technologien zur Katheter-Tracking einen spannenden Wachstumsbereich in der Medizintechnik dar. Ihre Einbindung in medizinische Eingriffe unterstreicht das Potenzial der künstlichen Intelligenz, den Bereich der interventionellen Medizin zu verändern und die Patientenversorgung zu verbessern.
Patienten auf der Intensivstation müssen ständig überwacht werden, um Zwischenfälle wie Stürze oder das Entfernen von Kathetern zu vermeiden. Aufgrund des Personalmangels im Gesundheitswesen und der ständig wachsenden Menge an Dokumenten ist es jedoch nicht möglich, ständig eine Pflegekraft an der Seite des Patienten zu haben. Um dieses Problem zu lösen, schlagen wir die Verwendung von Kameras zur Überwachung von Patienten vor, indem wir ihre 3D-Skelette verfolgen. Anhand der verfolgten Skelette können dann die Handlungen der Patienten erkannt werden. Anhand dieser Informationen kann ein System entwickelt werden, das das Pflegepersonal benachrichtigt, wenn einem Patienten etwas zugestoßen ist.
Bei der Spiegeltherapie sieht der Nutzer eine Reflexion der nicht-betroffenen Hand in einem in der Körpermittelachse aufgestellten Spiegel an der Stelle der betroffenen Hand. Die Beobachtung normaler Handbewegungen an der räumlichen Position der betroffenen Extremität hat einen stark stimulierenden Effekt auf das motorische System und wird sehr erfolgreich in der Therapie von Schlaganfall. In der VR Demo können Sie das nachvollziehen, wenn Bewegungen ihrer virtuellen Hand von der gegenüberliegenden realen Hand gesteuert werden. In verschiedenen einhändigen oder beidhändigen Spielen können Sie die Leistung Ihrer Avatar-Hand verbessern.
Die Leuchtturm-Initiative Geriatronik in Garmisch-Partenkirchen entwickelt adaptive, humanoide Serviceroboter zum Erhalt der Selbstbestimmung im Alter. Mit Hilfe von 3D-Navigation, Umgebungsüberwachung und Objektmanipulation entstehen zuverlässige Tools zur Patientenüberwachung, die alten Menschen mehr Sicherheit geben und das Pflegepersonal unterstützen. Ziele: der Erhalt von Mobilität und der zwi-schenmenschlichen Interaktion im Alter sowie längere Selbstständigkeit durch technische und intuitiv zu bedienende Assistenzsysteme. Geriatronik zeigt die Interaktion zwischen verschiedenen Robotern: z. B. den Prototypen von GARMI und seinen Partnern MUCKI und PARTI, die für verschiedene Aufgaben wie Prävention, Diagnose oder Rehabilitation konzipiert sind.
Während sich die Telekonsultation in den letzten Jahrzehnten rasch weiterentwickelt hat, hinken Telediagnostik und Telemanipulation noch hinterher. Um das zu ändern, hat ProteCT eine robotergestützte Telediagnosestation entwickelt, die berührungslose Untersuchungen ermöglicht – von grundlegenden Vitalparametertests bis hin zu Untersuchungen, die eine intensivere körperliche Interaktion erfordern wie Rachenabstriche oder das Abtasten des Abdomens. Das System wird vom Arzt ferngesteuert und garantiert so eine berührungslose Interaktion, die eine vertrauensvolle Arzt-Patienten-Beziehung gewährleistet.
Die Entlastung von OP-Teams bei chirurgischen Eingriffen ist das Ziel des Projekts AURORA. Der kontextsensitive mobile Assistenzroboter ist in der Lage, sich autonom im unsterilen Bereich des Operationssaals zu bewegen und dem sterilen OP-Team Instrumente, Medikamente u.a. zu bringen. Dazu kombiniert das System Elemente des autonomen Fahrens mit Domänenwissen und Situationsbewusstsein, die durch intelligente Objektmanipulation ergänzt werden.
Das Start-Up Enari stellt mit dem MPER Lab sein System zur Erstellung von Bewegungsprofilen vor, das die Aktivitäten des menschlichen Muskelskeletts erfasst und überwacht. Dank eines Digitalen Zwillings können menschliche Bewegungsabläufe mit Hilfe spezieller Sensoren interpretiert und vorhergesagt werden. Darüber hinaus liefern die Sensoren Informationen über Sehnen und Bänder, die Muskelinnervation sowie das Verhältnis von Muskel- und Fettgewebe.
Zu unseren dringlichsten Problemen gehört der Bereich Klima und Umwelt. Wie können KI und intelligente Roboter dazu beitragen, diese große globale Herausforderung gezielt anzugehen? In der nachhaltigen Landwirtschaft, beim Umweltschutz und zur Messung der Luftqualität kommen bereits verschiedene Anwendungen zum Einsatz.
90 % des Handels werden auf dem Seeweg abgewickelt, aber die überwiegende Mehrheit der heute eingesetzten Frachtschiffe wird mit dem schmutzigsten Kraftstoff betrieben, den es gibt. Gleichzeitig ist die Schifffahrtsindustrie nicht in der Lage, auf eine zunehmend dynamische und dezentralisierte Wirtschaft zu reagieren. CargoKite adressiert diese Probleme mit einem innovativen, zum Patent angemeldeten, autonomen Mikro-Frachtschiff, das ausschließlich durch Windenergie angetrieben wird. Der Hauptantrieb dieses Segelschiffs des 21. Jahrhunderts ist ein Airborne Wind Energy System, dessen Hauptbestandteil ein Kite ist. Dadurch, dass dieser auf einer Höhe von 100 bis 300 m fliegt, ist immer genügend Wind da, um das Schiff zuverlässig zu betreiben. Der neu konzipierte Schiffsrumpf ermöglicht es, die Windenergie auf die effizienteste Weise zu nutzen und sie direkt in eine Vorwärtsbewegung des Schiffes umzuwandeln. Damit eliminiert die Lösung nicht nur alle Emissionen, sondern beschleunigt auch die Lieferung von Gütern und ermöglicht dank der angepassten Transportkapazität von 16 Containern eine individuelle Routenplanung.
Die Professur für Umweltsensorik und Modellierung setzt maschinelles Lernen ein, um die Genauigkeit von Umweltsensorik, insbesondere bei der Messung von Luftqualität, Kohlenstoff- und Methanemissionen mit Low-Cost Sensorik zu verbessern. Zudem nutzen wir atmosphärische Modellierungen auf Basis großer Datensätze in Verbindung mit maschinellem Lernen, um Informationen aus Messungen auch auf Standorte ohne Messung zu extrapolieren. Dies ist eine wichtige Aufgabe beispielsweise im Zusammenhang mit CO2 Emissionen, wo Schätzungen nicht zureichend durch genaue Messungen validiert sind. Die Kombination aus fortschrittlichen Sensoren, atmosphärischer Modellierung und künstlicher Intelligenz schafft ein leistungsfähiges Instrument, das die Entscheidungsfindung in der Politik und im Umweltmanagement unterstützt.
Diese Studie untersucht die Verwendung von Sensoren wie Kameras, multispektralen Kameras und Wärmekameras, um festzustellen, ob der Boden vor autonomen landwirtschaftlichen Feldrobotern befahrbar ist. Ein umfassender Datensatz wird mithilfe einer Robotikplattform in anspruchsvollen natürlichen Umgebungen und schwierigen handgefertigten Geländen gesammelt. Die Experimente werden mehrmals durchgeführt, mit Variationen in Umgebungsbedingungen und während unterschiedlicher Jahreszeiten. Die handgefertigten Gelände werden den autonomen landwirtschaftlichen Feldrobotern besonders anspruchsvolle Bedingungen bieten, wie beispielsweise stark feuchten Boden, tiefe Furchen, gefrorener Boden und landwirtschaftliche Rückstände.
Angsa, eine Ausgründung der TUM, stellt einen autonomen Roboter vor, der kleine Abfälle auf Grün- und Kiesflächen erkennen und selektiv entfernen kann.
SeaClear geht noch deutlich weiter und sorgt für die Reinhaltung der Ozeane. Per Roboter lassen sich Abfälle auf dem Meeresboden selbst kilometerweit unter der Oberfläche lokalisieren und einsammeln.
Die robotergestützte Umweltüberwachung sorgt für valide Datensammlungen, die live per Telepräsenz an Umweltexperten übermittelt werden. Future of Environmental Monitoring via Accessible Robot Interfaces zeigt, wie diese Technologie auch von Nicht-Experten genutzt werden kann – in Form interaktiver Telepräsenz-Sitzungen mit ferngesteuerten Robotern am AI.Society-Stand.
Aerial Manipulation präsentiert eine Drohne, die bei der Ernte von Obst und Gemüse behilflich ist – vor allem im schwer zugänglichen Umfeld.
Über die technische Machbarkeit der Robotik und Automation hinaus geht es im Forum i_space. Handverlesene Demo-Teams gewähren spannende Einblicke in ihre aktuelle Forschung und reale Szenarien. Zu den Programm-Highlights gehört der „Ethics Round Table“ sowie die Podiumsdiskussion „KI.FABRIK Bayern“.