Anzeige

Session 4: Learning, Understanding and Interaction

„Du Mensch, ich Roboter“ – von der Kommunikation und Interaktion mit Maschinen

Wenn der Informationsaustausch zwischen Maschinen das Thema von morgen ist, dann ist die Kommunikation zwischen Roboter und Mensch die Thematik von übermorgen. Zumindest, wenn sie auf einem Niveau stattfinden soll, das sozialer Interaktion gleichkommt. Wie sehen die Deep-Learning-Prozesse der Zukunft aus? Werden Künstliche Intelligenzen in Zukunft Lehrer haben – anstelle von Programmierern? Und wie wird die Interaktion von Mensch und Maschine unsere Welt verändern?

Ihre neuesten Erkenntnisse präsentieren:

Prof. Wolfram Burgard, University of Technology Nuremberg
Melonee Wise, Zebra Technologies
Prof. Jens Kober, Delft University of Technology
Prof. Giorgio Metta, Italian Institute of Technology (IIT)
Session-Chair
Anzeige

Closing Speech – der munich_i Summit geht zu Ende:

Prof. Seth Hutchinson, Georgia Institute of Technology

„Es geht auch klüger“: KI-Pionier Prof. Wolfram Burgard von derTU Nürnberg zeigt in seinem Vortrag, wie Roboter mithilfe von Deep-Learning-Ansätzen ihre KI optimieren. Burgard gilt als internationaler Experte für autonomes Fahren. Von 2019 bis 2021 war er Vice President für Automated Driving Technology und Machine Learning am Toyota Research Institute in Los Altos, CA, USA.

Müssen Roboter die Welt verstehen, um effizient arbeiten zu können? Dieser Frage geht Melonee Wise, Vice President of Robotic Automation von Zebra Technologies nach. Die Zuhörer dürfen gespannt sein: Laut Online-Magazin „Business Insider“ gehört Wise zu den acht CEOs, deren Tätigkeit unsere Arbeitswelt am stärksten verändern werden.

Werden Programmierer in Zukunft Lehrer sein? Prof. Jens Kober von der Delft University of Technology forscht zu Lerntechnologien von KI. Die Aneignung und das Verbessern motorischer Fähigkeiten bezeichnet er als eine der größten Herausforderungen der Robotik. Gemeinsam mit Kollegen und Publikum will probate Strategien diskutieren.

iCub is watching you! Prof. Giorgio Metta vom Italian Institute of Technology (IIT) beschäftigt sich mit sozialer Roboter-Mensch-Interaktion. In seinem Vortrag berichtet er von seinen Erfahrungen mit dem humanoiden Roboter iCub. Dieser unterstützt Forschungsprozesse im IIT. Jüngst wurden dort Algorithmen zur Verarbeitung externer Information und kontaktloser Interaktion durch Optik und Akustik entwickelt.

Abschlussvortrag und Sonderschau „AI.Society“:

Den abschließenden Überblicksvortrag hält Prof. Seth Hutchinson vom Georgia Institute of Technology, der auch Weltpräsident der IEEE Robotics and Automation Society und ein Pionier der visionsbasierten Robotersteuerung ist.

Als „Wrap up“ fasst Prof. Dr.-Ing. Sami Haddadin, Direktor des Munich Institute of Robotics and Machine Intelligence (MIRMI) und Inhaber des Lehrstuhls für Robotik und Systemintelligenz der Technischen Universität München (TUM), die Ergebnisse zusammen.

Ein gemeinsamer Rundgang auf der automatica über die munich_i-Sonderschau und Dialogplattform AI.Society ermöglicht zusätzliche, praxisnahe Einblicke in die Zukunftstrends von Robotik und Künstlicher Intelligenz.

Die Speaker und Vorträge dieser Session

“Probabilistic and Deep Learning Approaches for Intelligent Robots and Automated Driving”

For autonomous robots and automated driving, the capability to robustly perceive environments and execute their actions is the ultimate goal. The key challenge is that no sensors and actuators are perfect, which means that robots and cars need the ability to properly deal with the resulting uncertainty. In this presentation, I will introduce the probabilistic approach to robotics, which provides a rigorous statistical methodology to deal with state estimation problems. I will furthermore discuss how this approach can be extended using state-of-the-art technology from machine learning to deal with complex and changing real-world environments.

Wolfram Burgard ist Professor für Informatik an der Technischen Universität Nürnberg, wo er die Arbeitsgruppe für Robotik und Künstliche Intelligenz innehat. Von 2019 bis 2021 war Wolfram Burgard VP für Automated Driving Technology und Machine Learning am Toyota Research Institute in Los Altos, CA, USA. Wolfram Burgard ist bekannt für seine Beiträge zu Navigation, Perzeption, Manipulation und zum Lernen von Robotern.

Probabilistic and Deep Learning Approaches for Intelligent Robots and Automated Driving

For autonomous robots and automated driving, the capability to robustly perceive environments and execute their actions is the ultimate goal. The key challenge is that no sensors and actuators are perfect, which means that robots and cars need the ability to properly deal with the resulting uncertainty. In this presentation, I will introduce the probabilistic approach to robotics, which provides a rigorous statistical methodology to deal with state estimation problems. I will furthermore discuss how this approach can be extended using state-of-the-art technology from machine learning to deal with complex and changing real-world environments.

Hightech-Session 4: Learning, Understanding and Interaction

„Do robots need to understand the world to be effective?”

A look into how robots perceive the world that they work in and the impact of their understanding of the world when working with people and human operated machines.

Melonee Wise ist Vice President of Robotics Automation bei Zebra Technologies. Sie kam durch die Übernahme von Fetch Robotics zu Zebra, wo sie als CEO tätig war. Melonee leitete bei Willow Garage als zweite Angestellte ein Team von Ingenieuren, das Hard- und Software für Roboter der nächsten Generation entwickelte, darunter die Systeme ROS, PR2 und TurtleBot. Melonee ist Vorsitzende der IFR Service Robot Group, Mitglied des Robotik-Beirats von A3 und Mitglied des MHI Roundtable Advisory Committee. Melonee wurde vom MIT Technology Review mit dem Nachwuchspreis TR35 ausgezeichnet und vom Silicon Valley Business Journal in den Kategorien Women of Influence und 40 Under 40, vom Robotics Business Review RBR50 und von Business Insider als eine von acht CEOs, die unsere Arbeitswelt verändern, genannt.

Do robots need to understand the world to be effective?

A look into how robots perceive the world that they work in and the impact of their understanding of the world when working with people and human operated machines.

Hightech-Session 4: Learning, Understanding and Interaction

“Robots Learning (Through) Interactions”

The acquisition and self-improvement of novel motor skills is among the most important problems in robotics. We will discuss various learning techniques we developed that enable robots to have complex interactions with their environment and humans. Complexity arises from dealing with high-dimensional input data, non-linear dynamics in general and contacts in particular, multiple reference frames, and variability in objects, environments and tasks.

A human teacher is always involved in the learning process, either directly (providing data) or indirectly (designing the optimization criterion), which raises the question: How to best make use of the interactions with the human teacher to render the learning process efficient and effective?

We will discuss various methods we have developed in the fields of supervised learning, imitation learning, reinforcement learning, and interactive learning. All these concepts will be illustrated with benchmark tasks and real robot experiments ranging from fun (ball-in-a-cup) to more applied (sorting products).

Jens Kober ist außerordentlicher Professor an der Technischen Universität Delft in den Niederlanden. Er arbeitete als Postdoktorand am CoR-Lab der Universität Bielefeld und am Honda Research Institute Europe in Deutschland. Er promovierte 2012 in Ingenieurwissenschaften an der TU Darmstadt und am Max-Planck-Institut für Intelligente Systeme.

Für seine Forschung erhielt er den jährlich verliehenen Georges Giralt PhD Award für die beste Doktorarbeit in der Robotik in Europa, den 2018 IEEE RAS Early Academic Career Award und erhielt einen ERC Starting Grant als Stipendium.

Seine Forschungsinteressen umfassen das Erlernen motorischer Fähigkeiten, (tiefes) bestärkendes Lernen, Imitationslernen, interaktives Lernen und maschinelles Lernen für Regelungssysteme.

Robots Learning (Through) Interactions

The acquisition and self-improvement of novel motor skills is among the most important problems in robotics. We will discuss various learning techniques we developed that enable robots to have complex interactions with their environment and humans. Complexity arises from dealing with high-dimensional input data, non-linear dynamics in general and contacts in particular, multiple reference frames, and variability in objects, environments and tasks.

A human teacher is always involved in the learning process, either directly (providing data) or indirectly (designing the optimization criterion), which raises the question: How to best make use of the interactions with the human teacher to render the learning process efficient and effective?

We will discuss various methods we have developed in the fields of supervised learning, imitation learning, reinforcement learning, and interactive learning. All these concepts will be illustrated with benchmark tasks and real robot experiments ranging from fun (ball-in-a-cup) to more applied (sorting products).

Hightech-Session 4: Learning, Understanding and Interaction

“Physical and Social Human-robot Interaction”

This talk covers two main research directions based on the iCub humanoid robot. The iCub is a humanoid robot designed to support research in embodied AI. The iCub is being used at the Italian Institute of Technology as a model platform to develop the technology of future interactive service robots. In particular, I will describe our work in the field of physical and social interaction. For example, through extensive use of machine learning, we developed algorithms to interpret and use external contact information in a variety of tasks as well as contactless cues – vision, sound – to ease interaction between the user and the robot.

Giorgio Metta ist wissenschaftlicher Direktor des Istituto Italiano di Tecnologia (IIT). Er hat seinen Master 1994 mit cum laude abgeschlossen und seinen Doktortitel (2000) in Elektrotechnik an der Universität Genua erhalten. Von 2001 bis 2002 war Metta als Postdoktorand am MIT AI-Lab tätig. Zuvor arbeitete er an der Universität Genua und von 2012 bis 2019 als Professor für Kognitive Robotik an der University of Plymouth (UK). Er war Mitglied des Verwaltungsrats von euRobotics aisbl, dem europäischen Verein für Mitglieder aus der Europäischen Robotik-Community. Giorgio Metta war von 2016 bis 2019 stellvertretender wissenschaftlicher Direktor des IIT. Er koordinierte die Teilnahme des IIT an zwei Kompetenzzentren des Ministeriums für wirtschaftliche Entwicklung für die Industrie 4.0 (ARTES4.0, START4.0).

Als einer der drei italienischen Vertreter nahm er am G7-Gipfel zur Künstlichen Intelligenz 2018 teil und fungierte kürzlich als Autor für die Strategische Agenda für Künstliche Intelligenz Italiens. Metta koordinierte mehr als ein Jahrzehnt lang die Entwicklung des iCub-Roboters und machte ihn de facto zur Referenzplattform für die Forschung im Bereich der verkörperten KI. Derzeit gibt es mehr als 40 dieser Roboter, die in Laboren in Japan, China, Singapur, Deutschland, Spanien, Großbritannien und den Vereinigten Staaten eingesetzt werden.

Giorgio Metta forscht auf dem Gebiet der biologisch motivierten und humanoiden Robotik, insbesondere in der Entwicklung humanoider Roboter, die sich anpassen und aus Erfahrungen lernen können. Er ist Autor von mehr als 300 wissenschaftlichen Veröffentlichungen und hat in etwa einem Dutzend internationaler Forschungs- und Industrieprojekte als Forschungsleiter und Wissenschaftler gearbeitet.

Physical and Social Human-robot Interaction

This talk covers two main research directions based on the iCub humanoid robot. The iCub is a humanoid robot designed to support research in embodied AI. The iCub is being used at the Italian Institute of Technology as a model platform to develop the technology of future interactive service robots. In particular, I will describe our work in the field of physical and social interaction. For example, through extensive use of machine learning, we developed algorithms to interpret and use external contact information in a variety of tasks as well as contactless cues – vision, sound – to ease interaction between the user and the robot.

Hightech-Session 4: Learning, Understanding and Interaction

Session-Chair

„Learning, Understanding and Interaction” wird von Prof. Dr. Stefan Leutenegger, Ordinarius am Lehrstuhl für Machine Learning for Robotics (TU München), als Session Chair moderiert.


Technologien haben das Potenzial, Menschen zu unterstützen und unsere Lebensqualität zu verbessern. Es ist jedoch unerlässlich, Technologien so zu gestalten, dass der Nutzen für die Vielen und nicht für die Wenigen im Vordergrund steht. Fragen der sozialen Gerechtigkeit und Gleichberechtigung müssen in den Mittelpunkt der Technologieentwicklung rücken, insbesondere in Bereichen wie KI und Robotik. Dazu müssen wir die interdisziplinäre Zusammenarbeit zwischen den Sozialwissenschaften und der KI-Forschung fördern und soziale, ethische und politische Fragestellungen bereits bei der Technologieentwicklung integrieren.

“Closing Speech”

Seth Hutchinson is the Executive Director of the Institute for Robotics and Intelligent Machines at the Georgia Institute of Technology, where he is also Professor and KUKA Chair for Robotics in the School of Interactive Computing. His research in robotics spans the areas of planning, sensing, and control. He has published widely on these topics, and is coauthor of the books "Robot Modeling and Control," published by Wiley, and "Principles of Robot Motion: Theory, Algorithms, and Implementations," published by MIT Press.

Hightech-Summit: Closing Speech

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
munich_i
Session 1: Next Generation Robotics

Wie sehen kommende Robotergenerationen aus, welche Aufgaben übernehmen sie in der Zukunft und wie unterscheiden sie sich von den heute bekannten...

Learn more
munich_i
Session 2: Networking Intelligence

In Zukunft werden Roboter in intelligente und selbst lernende Systeme eingebunden sein – in der Industrie, in der Medizintechnik und Pharmaforschung.

Learn more
munich_i
Session 3: Industrial Perception and Autonomy

Ohne Umfelderkennung kann die Robotik Potenziale nicht ausschöpfen. Bildverarbeitung ist grundlegend für technologischen Autonomisierungsprozess.

Learn more