Sie sind hier:
KI sieht, hört und handelt – Von Vision Models zu humanoiden Robotern
ChatGPT war erst der Anfang – die nächste große Entwicklung stellen humanoide Roboter dar, die kognitive Fähigkeiten wie Wahrnehmung, Sprache und Problemlösen miteinander verknüpfen und daraus eigenständige Handlungen ableiten. Damit beginnt die Ära der „Embodied Intelligence“. Sie wird die Grenze zwischen digitaler und physischer Intelligenz zunehmend verwischen und uns näher an die Vorstellung eines echten „Roboter-Assistenten“ bringen.
Inhalte des Vortrags:
Multimodale Modelle: Wie moderne KI-Modelle wie GPT-4o, Gemini 2.0 und Claude 3.5 in der Lage
sind, Sprache, Bild und Ton zu kombinieren, um die Welt ganzheitlich zu verstehen.
Computer Vision 2026: Vom bloßen Erkennen von Bildern hin zum echten Verstehen von Szenen –
wie KI in Zukunft komplexe visuelle Eindrücke interpretieren wird.
Vision-Language-Modelle (VLMs): Wie diese Modelle als Grundlage für die Entwicklung autonomer
Roboter dienen, die in der Lage sind, ihre Umgebung zu erkennen und darauf zu reagieren.
Humanoide Roboter: Welche humanoiden Roboter sind bereits in Entwicklung oder sogar
vorbestellbar, wie der X1 Robotics für etwa 20.000 €?
Marktpotenzial: Warum NVIDIA den Markt für humanoide Roboter bis 2050 auf über fünf Billionen
US-Dollar schätzt und welche wirtschaftlichen Auswirkungen dies haben könnte.
Dieser Vortrag vermittelt Ihnen einen klaren Einblick in eine der fortschrittlichsten Entwicklungen im Bereich der KI: die Robotertechnik. Anhand von aktuellen Beispielen aus der Industrie, Logistik und dem Alltag wird sichtbar, warum Roboter längst schon keine Zukunftsvision mehr darstellen, sondern dass sie schon heute in vielen Bereichen unseres Lebens eine entscheidende Rolle spielen.
Sie sind hier:
KI sieht, hört und handelt – Von Vision Models zu humanoiden Robotern
ChatGPT war erst der Anfang – die nächste große Entwicklung stellen humanoide Roboter dar, die kognitive Fähigkeiten wie Wahrnehmung, Sprache und Problemlösen miteinander verknüpfen und daraus eigenständige Handlungen ableiten. Damit beginnt die Ära der „Embodied Intelligence“. Sie wird die Grenze zwischen digitaler und physischer Intelligenz zunehmend verwischen und uns näher an die Vorstellung eines echten „Roboter-Assistenten“ bringen.
Inhalte des Vortrags:
Multimodale Modelle: Wie moderne KI-Modelle wie GPT-4o, Gemini 2.0 und Claude 3.5 in der Lage
sind, Sprache, Bild und Ton zu kombinieren, um die Welt ganzheitlich zu verstehen.
Computer Vision 2026: Vom bloßen Erkennen von Bildern hin zum echten Verstehen von Szenen –
wie KI in Zukunft komplexe visuelle Eindrücke interpretieren wird.
Vision-Language-Modelle (VLMs): Wie diese Modelle als Grundlage für die Entwicklung autonomer
Roboter dienen, die in der Lage sind, ihre Umgebung zu erkennen und darauf zu reagieren.
Humanoide Roboter: Welche humanoiden Roboter sind bereits in Entwicklung oder sogar
vorbestellbar, wie der X1 Robotics für etwa 20.000 €?
Marktpotenzial: Warum NVIDIA den Markt für humanoide Roboter bis 2050 auf über fünf Billionen
US-Dollar schätzt und welche wirtschaftlichen Auswirkungen dies haben könnte.
Dieser Vortrag vermittelt Ihnen einen klaren Einblick in eine der fortschrittlichsten Entwicklungen im Bereich der KI: die Robotertechnik. Anhand von aktuellen Beispielen aus der Industrie, Logistik und dem Alltag wird sichtbar, warum Roboter längst schon keine Zukunftsvision mehr darstellen, sondern dass sie schon heute in vielen Bereichen unseres Lebens eine entscheidende Rolle spielen.
-
Gebühr8,00 €
- Kursnummer: J2813
-
StartDi. 23.06.2026
18:00 UhrEndeDi. 23.06.2026
19:30 Uhr -
1x Termin
-
Dozent*in:
Cornelia Hayn