Hayn, Cornelia
Moderne KI-Modelle wie ChatGPT wirken auf den ersten Blick rein softwarebasiert – doch im Hintergrund ist eine enorme Menge spezialisierter Hardware im Einsatz. Dieser Kurs beleuchtet die technischen Grundlagen der Recheninfrastruktur, die große Sprachmodelle antreibt, und erklärt, warum leistungsstarke Chips – insbesondere GPUs – dabei eine zentrale Rolle spielen. Behandelt werden unter anderem folgende Aspekte: – Wie lässt sich Rechenleistung messen – und warum sind FLOPS dabei so entscheidend? – Warum stehen Matrixoperationen im Zentrum des KI-Trainings? – Wie ermöglichen spezialisierte Chips, etwa von Nvidia, das Training großer Modelle in vertretbarer Zeit? – Was passiert beim Training eines Sprachmodells mit Milliarden Parametern im Hintergrund? Am Beispiel von ChatGPT wird verständlich gemacht, wie Rechenzentren, GPUs und Cloud- Infrastruktur zusammenwirken, um generative KI in der Praxis nutzbar zu machen. Aktuelle Entwicklungen – etwa rund um den „DeepSeek-Moment“ – sowie Herausforderungen wie Ressourcenverbrauch, Energiebedarf und Chip-Knappheit werden ebenfalls diskutiert.
Textbasierte Modelle wie ChatGPT markieren nur den Anfang der KI-Entwicklung. Die nächste Phase ist bereits im Gange: KI-Systeme, die Bilder und Videos verstehen, eigenständig handeln und sogar mit der physischen Welt interagieren. Dieser Vortrag gibt einen Einblick in genau diese neue Generation von KI – jenseits reiner Textverarbeitung. Zu Beginn werden die Grundlagen von Sprachmodellen wie ChatGPT verständlich erläutert. Anschließend folgt der Blick nach vorn: – Bild- und Videomodelle: Wie KI visuelle Informationen interpretiert und in Bereichen wie Gesundheitswesen, Landwirtschaft, Fertigung, Einzelhandel oder Umwelttechnik eingesetzt wird. – Autonome KI-Agenten: Systeme, die eigenständig Aufgaben ausführen, auf externe Datenquellen zugreifen (z. B. über RAG), Entscheidungen treffen und Prozesse automatisieren. – Humanoide Roboter: Die Vision (und Realität) von KI-gestützten Robotern, die Sprache, Sehen und Handeln kombinieren. Dabei werden sowohl aktuelle Technologien wie DALL·E, Sora oder Segment-Anything vorgestellt als auch praktische Beispiele aus Industrie, Forschung und Alltag diskutiert – von automatisierter Müllsortierung bis zur KI-gestützten Klimaforschung. Der Kurs richtet sich an alle, die verstehen möchten, wie sich KI gerade rasant weiterentwickelt – von der sprachbasierten Assistenz hin zu echten autonomen Systemen mit Sensorik, Vision, Reasoning Fähigkeiten Handlungskompetenz.
Künstliche Intelligenz (KI) ist längst ein fester Bestandteil unseres Alltags und beeinflusst viele Bereiche unseres Lebens, von der Sprachsteuerung über Empfehlungen auf Streaming-Diensten bis hin zu komplexen Anwendungen wie autonomem Fahren. Aber wie funktioniert KI eigentlich? Was steckt hinter den beeindruckenden Ergebnissen, die wir sehen, und wie entstehen diese Systeme? In diesem Vortrag erhalten Sie einen Überblick über moderne KI-Systeme, insbesondere neuronale Netze, und lernen, wie diese Technologien in der Praxis angewendet werden. Dabei wird der Fokus auf das grundlegende Funktionsprinzip gelegt, ohne zu sehr in technische Details oder Fachjargon abzutauchen. Inhalte des Vortrags: Was ist Künstliche Intelligenz? Eine Einführung in die KI und ihre Geschichte. Wie hat sie sich entwickelt und welche grundlegenden Technologien stecken dahinter? Wie entstehen KI-Systeme? Ein Überblick über den Entwicklungsprozess von KI – von der Datensammlung und -verarbeitung bis hin zum Training eines Modells. Wie funktioniert ein neuronales Netz? Wir erklären anschaulich, wie diese "intelligenten" Systeme lernen und Muster aus großen Datenmengen erkennen können. Was unterscheidet KI von klassischer Software? KI lernt aus Erfahrung, während klassische Software nach vordefinierten Regeln arbeitet. Aber was bedeutet das konkret für die Funktionsweise? Wo liegen die Grenzen der KI? Welche Herausforderungen gibt es bei der Entwicklung von KISystemen, und warum ist KI manchmal noch nicht so "intelligent", wie wir uns das wünschen? Highlight des Kurses ist eine anschauliche Live Demonstration, bei der gezeigt wird, wie ein einfaches KIModell in Python erstellt und trainiert wird – und das ganz ohne Programmierkenntnisse. So wird KI auch ohne jegliche Vorkenntnisse für jedermann nachvollziehbar und greifbar.
ChatGPT war nur der Anfang – im Jahr 2026 erleben wir den Durchbruch von Agentic AI, die nicht nur Sprache versteht, sondern eigenständig handelt, Entscheidungen trifft und Wissen dynamisch abruft. Diese neue Generation von KI-Systemen markiert den Übergang von reaktiver zu autonomer Intelligenz und geht einen entscheidenden Schritt weiter als heutige Sprachmodelle: Agentic AI kombiniert Sprachverständnis, Entscheidungslogik, Gedächtnis und externe Werkzeuge, um selbstständig Aufgaben auszuführen. Inhalte des Vortrags: Von Sprachmodellen zu Agenten: Wie KI-Systeme sich von einfachen Textgeneratoren zu Agenten entwickeln, die eigenständig Aufgaben planen und ausführen können. Aufbau von KI-Agenten: Wie Agentic AI funktioniert, basierend auf Reasoning, Tool Use, Memory und der Interaktion mit ihrer Umgebung. Weiterentwicklung von RAG und LLMs: Warum Agentic AI die logische Fortsetzung von Retrieval Augmented Generation (RAG) und Large Language Models (LLMs) ist. Praktische Anwendungen: Wie Frameworks wie ChatGPT Agent Builder oder N8N diese Konzepte in realen Anwendungen umsetzen. Einsatzmöglichkeiten: Wo KI-Agenten heute schon sinnvoll eingesetzt werden – von E-Mail- Automatisierung bis hin zur Prozessoptimierung. Der aktuelle Hype: Warum Experten von der "Dekade der Agenten" sprechen und nicht nur vom "Jahr der Agenten". Um zu veranschaulichen, wie Agentic AI bereits in der Praxis eingesetzt wird, werden Live-Demos von praktischen Anwendungen wie Cursor und Lovable gezeigt, sowie weitere Beispiele aus Bereichen wie HR, Marketing und IT. Außerdem erhalten Sie Einblick in aktuelle Forschungsthemen wie MCP und Agentic Workflows.
ChatGPT war erst der Anfang – die nächste große Entwicklung stellen humanoide Roboter dar, die kognitive Fähigkeiten wie Wahrnehmung, Sprache und Problemlösen miteinander verknüpfen und daraus eigenständige Handlungen ableiten. Damit beginnt die Ära der „Embodied Intelligence“. Sie wird die Grenze zwischen digitaler und physischer Intelligenz zunehmend verwischen und uns näher an die Vorstellung eines echten „Roboter-Assistenten“ bringen. Inhalte des Vortrags: Multimodale Modelle: Wie moderne KI-Modelle wie GPT-4o, Gemini 2.0 und Claude 3.5 in der Lage sind, Sprache, Bild und Ton zu kombinieren, um die Welt ganzheitlich zu verstehen. Computer Vision 2026: Vom bloßen Erkennen von Bildern hin zum echten Verstehen von Szenen – wie KI in Zukunft komplexe visuelle Eindrücke interpretieren wird. Vision-Language-Modelle (VLMs): Wie diese Modelle als Grundlage für die Entwicklung autonomer Roboter dienen, die in der Lage sind, ihre Umgebung zu erkennen und darauf zu reagieren. Humanoide Roboter: Welche humanoiden Roboter sind bereits in Entwicklung oder sogar vorbestellbar, wie der X1 Robotics für etwa 20.000 €? Marktpotenzial: Warum NVIDIA den Markt für humanoide Roboter bis 2050 auf über fünf Billionen US-Dollar schätzt und welche wirtschaftlichen Auswirkungen dies haben könnte. Dieser Vortrag vermittelt Ihnen einen klaren Einblick in eine der fortschrittlichsten Entwicklungen im Bereich der KI: die Robotertechnik. Anhand von aktuellen Beispielen aus der Industrie, Logistik und dem Alltag wird sichtbar, warum Roboter längst schon keine Zukunftsvision mehr darstellen, sondern dass sie schon heute in vielen Bereichen unseres Lebens eine entscheidende Rolle spielen.