KI Trends reflektiert: Technologische Entwicklungen zwischen Nobelpreis und Regulierungen

Künstliche Intelligenz sorgt weiter für bahnbrechende Entwicklungen – und auch für kontroverse Diskussionen. In der aktuellen Folge von Ausgesprochen digital ist Prof. Dr. Frank Schönefeld bereits zum sechsten Mal zu Gast, um die spannendsten Trends einzuordnen.
Und da war wieder einiges los – Nobelpreise unterstreichen die Bedeutung von KI, aber gingen ebenso mit Warnungen der Preisträger einher. Und auch das Wettrennen der Tech-Giganten geht weiter mit beeindruckenden Fortschritten bei Sprachmodellen wie GPT, Gemini und Claude. Wir sprechen aber auch über die wirtschaftlichen Auswirkungen des KI-Booms und die Rolle von Edge-Modellen für energieeffiziente Lösungen. Denn der wachsende Energiebedarf ist eine echte Herausforderung und hat in jüngster Zeit auch zu kontroversen Lösungsansätzen hinsichtlich der Rolle der Kernenergie geführt. Eine Folge voller Einblicke in technologische Meilensteine und Fortschritte unserer Zeit.
Im Gespräch mit Prof. Dr. Frank Schönefeld
Prof. Dr. Frank Schönefeld ist ein erfahrener Experte im Bereich der künstlichen Intelligenz und ein regelmäßiger Gast im Podcast "Ausgesprochen digital". Er ist seit 27 Jahren bei der Telekom MMS tätig und beschäftigte sich bereits davor mit neuronalen Netzen für Zeitreihenvorhersage und Gesichtserkennung -- eine Technologie, die heute durch Deep Learning eine Renaissance erlebt. Er ist also ein echter Zeitzeuge und hat die Entwicklung der KI über Jahrzehnte hinweg miterlebt und beobachtet. Im Podcast teilt er regelmäßig seine Einschätzungen zu aktuellen KI-Trends und -Entwicklungen, wobei seine Perspektive geprägt ist von technischer Expertise und gleichzeitiger kritischer Reflexion der Chancen und Herausforderungen.
- Dauer der Folge: 54:32 Minuten
- Tags: KI, künstliche Intelligenz, Meilensteine, Sprachmodelle, Edge-Modelle, Energiebedarf, Teuken-7B, AI-Act
- Transkript: >barrierefreies PDF
Historische Anerkennung: Nobelpreise für KI-Pioniere
Ein herausragendes Ereignis des Jahres 2024 war die Verleihung von Nobelpreisen an zwei Informatiker, die maßgeblich zur Entwicklung der KI beigetragen haben. Zum ersten Mal in der 120-jährigen Geschichte der Nobelpreise wurden Forscher aus dem Bereich der Informatik ausgezeichnet. Geoffrey Hinton, einer der Pioniere der neuronalen Netze, erhielt den Nobelpreis für Physik. Seine grundlegenden Arbeiten haben den Weg für die heutigen Deep-Learning-Systeme geebnet, die in zahlreichen Anwendungen von der Bilderkennung bis zur Sprachverarbeitung zum Einsatz kommen.
Der Nobelpreis für Chemie ging an Demis Hassabis für seine wegweisenden Arbeiten zur Proteinstrukturvorhersage mit AlphaFold 2. Dieses KI-System, das auf den Prinzipien von AlphaGo Zero basiert, hat die Möglichkeiten der Strukturbiologie revolutioniert und eröffnet neue Perspektiven für die Medikamentenentwicklung und das Verständnis von Krankheiten.
Die Verleihung dieser Preise unterstreicht die enorme Bedeutung, die KI-Forschung für verschiedene wissenschaftliche Disziplinen gewonnen hat. Gleichzeitig markiert diese Auszeichnung eine wichtige Reflexion über die Chancen und Risiken künstlicher Intelligenz, da insbesondere Hinton sich nicht nur als Verfechter technologischen Fortschritts, sondern auch als kritischer Mahner bezüglich möglicher negativer Auswirkungen der KI positioniert.
Die Entwicklungen der "Glorreichen Sieben"
Im Zentrum der KI-Entwicklung stehen nach wie vor die großen Technologieunternehmen aus den USA, oft als die "Magnificent Seven" bezeichnet. Aber die Sache ist auch hochpolitisch, wie der jüngste Vorstoß aus China mit dem Start-up DeepSeek zeigt. Die Auswirkungen auf die Technologiebranche und Lieferketten bleiben abzuwarten, aber es bedeutet definitiv nochmal einen neuen Schwung im Wettstreit um die technologische Vorherrschaft. Denn trotz der Handelsbeschränkungen beweist China, dass es möglich ist mit begrenzten Ressourcen eine größere Effizienz zu schaffen. Sowohl der günstige Preis als auch der Open-Source Ansatz machen die Technologie außerdem zugänglich und vereinfachen die Marktdurchdringung.
Nvidia bleibt der unangefochtene Marktführer im Bereich der KI-Hardware. Das Unternehmen verzeichnete im vergangenen Jahr ein beeindruckendes Börsenwachstum von 200 Prozent. Auf der CES in Las Vegas präsentierte Nvidia einen Desktop-Computer für etwa 3.000 Dollar, der eine massive Beschleunigung von KI-Prozessen verspricht. Im Serverbereich, wo die großen neuronalen Netze trainiert werden, führt Nvidia mit seinen H1-Architekturen und den neuen Blackwell-Architekturen. Diese Hardwareüberlegenheit bildet das Rückgrat für die Entwicklung immer leistungsfähigerer KI-Modelle. Google, OpenAI und Anthropic liefern sich ein enges Rennen um die Leistungsfähigkeit ihrer Sprachmodelle. Gemini 2.0 von Google und GPT-4 von OpenAI liegen in Benchmarks nahezu gleichauf.
Interessanterweise führt Anthropic, der Partner von Amazon, in vielen Benchmarks knapp die Spitze an, auch wenn dies in der europäischen Wahrnehmung oft untergeht. Die Bewertung von Anthropic spiegelt das enorme Potenzial wider, das Investoren in KI-Unternehmen sehen. Der vorbörsliche Wert von Anthropic überstieg bereits den von Mercedes-Benz – ein deutliches Zeichen für die Verschiebung wirtschaftlicher Gewichte in Richtung KI-Technologie.
Meta hat mit seinen LLaMA-Modellen (Large Language Model Meta AI) einen bemerkenswerten Erfolg erzielt. Obwohl die Modelle nicht vollständig quelloffen sind, ermöglichen die Lizenzbedingungen eine breite Nutzung. Die neueste Version, LLaMA 3.3, mit 405 Milliarden Parametern, spielt eine wichtige Rolle in der KI-Community. Die Verbreitung der LLaMA-Modelle ist beeindruckend: Durchschnittlich wurde in den letzten zwei Jahren eine Million Versionen pro Tag heruntergeladen. Diese Strategie hat Meta eine starke Position im KI-Ökosystem verschafft.

Rückkehr zur Kernkraft? Auf der Suche nach einer Energiequelle
Mit dem Übergang von analytischer zu generativer KI hat sich auch das Energieprofil der Technologie drastisch verändert. Während bei analytischer KI das Training teuer, aber die Anwendung relativ günstig war, sind bei generativer KI sowohl Training als auch Anwendung energieintensiv. Prognosen zufolge wird sich der Energieverbrauch für KI in Rechenzentren bis 2030 verdoppeln oder sogar verdreifachen. Es wird erwartet, dass bis zu 6 Prozent des weltweiten Primärenergieverbrauchs allein auf KI entfallen werden. Diese Entwicklung stellt die Tech-Giganten vor große Herausforderungen, insbesondere angesichts ihrer Verpflichtungen zur CO2-Neutralität.
Als Lösung setzen viele Unternehmen auf alternative Energiequellen. Überraschenderweise rückt die Kernkraft wieder in den Fokus. Google hat Verträge für den Bau von sechs bis acht neuen Kernkraftwerken geschlossen, um den Energiebedarf seiner KI-Systeme zu decken. Dabei setzt das Unternehmen auf sogenannte "Small Power Modules", kleinere Reaktoren mit geringerem Risikopotenzial. Microsoft plant die Wiederbelebung des Kernkraftwerks Three Mile Island, bekannt durch den größten Atomunfall in der Geschichte der USA. Diese Entwicklungen zeigen, dass die KI-Revolution auch unerwartete Auswirkungen auf die Energiepolitik und -infrastruktur hat.
Edge Computing: Eine Antwort auf den Energiehunger?
Eine mögliche Lösung für den hohen Energieverbrauch könnte in der Entwicklung von Edge-Modellen liegen. Diese Technologie könnte einen entscheidenden Beitrag zur Reduzierung des ökologischen Fußabdrucks von KI-Systemen leisten, indem sie die Datenverarbeitung näher an die Quelle bringt.
Edge-Modelle sind speziell konzipierte KI-Systeme, die direkt auf lokalen Geräten ausgeführt werden, ohne eine permanente Verbindung zu entfernten Cloud-Servern zu benötigen. Diese Architektur bringt mehrere Vorteile mit sich: Edge-Modelle operieren typischerweise mit einer deutlich geringeren Anzahl an Parametern – oft nur einer Milliarde oder weniger – im Vergleich zu ihren Cloud-basierten Gegenstücken. Diese Verschlankung ermöglicht einen signifikant niedrigeren Energieverbrauch während des Betriebs.
Die Reduzierung der Parameteranzahl geht Hand in Hand mit einer Spezialisierung auf bestimmte Aufgaben, was die Effizienz weiter steigert. Ein weiterer Vorteil von Edge Computing ist die Minimierung der Latenzzeit. Da die Datenverarbeitung lokal erfolgt, entfällt die Verzögerung durch die Datenübertragung zu und von entfernten Servern. Dies führt zu nahezu sofortigen Reaktionen, was für viele Anwendungen, wie autonomes Fahren oder industrielle Steuerungssysteme, von zentraler Bedeutung ist.
Die lokale Verarbeitung sensibler Daten auf Edge-Geräten bietet zudem erhöhte Sicherheit und verbesserten Datenschutz. Sensible Informationen müssen nicht über potenziell unsichere Netzwerke übertragen werden, was das Risiko von Datenlecks oder unbefugtem Zugriff reduziert. Allerdings ist zu beachten, dass die Energieeinsparung hauptsächlich im Betrieb erfolgt. Das Training dieser Modelle bleibt energieintensiv, auch wenn der Umfang der Trainingsdaten und die Komplexität der Architektur geringer sind als bei großen Cloud-basierten Modellen.
Praktische Anwendungsbereiche und Herausforderungen
Die Nutzung von generativer KI hat sowohl im privaten als auch im geschäftlichen Bereich stark zugenommen. Prof. Dr. Frank Schönefeld berichtet von seiner Erfahrung an der HTW Dresden, wo mittlerweile die große Mehrheit der Studierenden regelmäßig generative KI verwendet. Im geschäftlichen Kontext wird die Integration von KI in Unternehmen thematisiert. Über 92 Prozent der Fortune 500 Unternehmen setzen gezielt KI ein. Google hat dazu eine beeindruckende Sammlung von über 300 Use Cases, die zeigen, wie vielseitig KI genutzt werden kann – von Marketing bis hin zur Einkaufsunterstützung.
Auch der Mittelstand kommt nicht zu kurz. Entscheidend für eine erfolgreiche Implementierung ist hier die digitale Bereitschaft. Unternehmen, die bereits gut in der digitalen Transformation aufgestellt sind, können nahtlos KI-Technologien integrieren. Praktische Beispiele zeigen, wie KI die Verarbeitung von Eingangsformularen und die Automatisierung von Prozessen intelligent unterstützt.
Dennoch bleiben trotz der Euphorie und Aufbruchstimmung wesentliche Herausforderungen und Risiken bei der Nutzung von generativer KI. Ein besonders interessanter Punkt ist die Problematik von Halluzinationen in KI-Modellen und die Notwendigkeit von Gegenchecks, um die Qualität der Ergebnisse zu verbessern. Transparente und nachvollziehbare Modelle sowie Lösungen zur Datenkuration sind also entscheidende Entwicklungen für die weitere Vertrauensbildung.
Wir werden ein Jahrzehnt der intensiven Kollaboration zwischen Mensch und Maschine, Mensch und KI erleben. Prof. Dr. Frank Schönefeld, KI-Berater und ehem. CTO der Telekom MMS
Souverän und sicher: Europäische Perspektiven
Es lohnt dennoch ein Blick auf Deutschland und Europa. Auch hier gibt es bedeutende Entwicklungen im Bereich der KI. Ein prominentes Beispiel ist das Unternehmen Aleph Alpha, das sich auf die Entwicklung von Sprachmodellen spezialisiert hat. Obwohl es in letzter Zeit etwas ruhiger um Aleph Alpha geworden ist, haben sie sich von einem reinen Sprachmodellanbieter zu einem gemischten Service- und Produktanbieter entwickelt.
Die Black Forest Labs mit ihrer schnellen generativen KI zur Bilderzeugung sind ein weiteres Beispiel. Ihr Modell Flux.1 ist derzeit führend in diesem Bereich. Auch Mistral aus Frankreich behauptet sich in Europa mit seiner Leistungsfähigkeit.
Deutschland fördert mit dem EU-Projekt OpenGPT-X die Entwicklung offener und vertrauenswürdiger KI-Sprachmodelle, um die digitale Souveränität zu stärken und europäischen Institutionen den Zugang zu generativer KI zu ermöglichen. Unter Leitung der Fraunhofer-Institute IAIS und IIS entstand das mehrsprachige Modell Teuken-7B, das energie- und kosteneffizient in allen 24 EU-Amtssprachen arbeitet. Mit Open-Source-Lizenzierung und optimierter Leistung setzt es neue Standards für europäische KI-Lösungen. In Benchmarks stieg Teuken-7B von Platz 25 auf 17, und Prof. Dr. Frank Schönefeld sieht weiteres Potenzial, die Spitzenplätze zu erreichen.
Die Perspektiven in Europa sind aber auch durch eine Vielzahl von Gesetzen und Regulierungen geprägt, die darauf abzielen, die Risiken der KI zu minimieren. Zu den wichtigsten Verordnungen gehören der Data Governance Act, der Data Act, der AI Act und der DigitalMarkets Act. Diese Regulierungen sollen sicherstellen, dass KI verantwortungsvoll und sicher eingesetzt wird. Allerdings gibt es Bedenken, dass eine übermäßige Regulierung die Innovationskraft in Europa beeinträchtigen könnte. Nicolai Tanger, Chef des norwegischen Staatsfonds, hat diesbezüglich angemerkt: "Europa hat viel Regulierung und wenig KI und die USA hat viel KI und wenig Regulierung." Diese Aussage unterstreicht die Notwendigkeit, eine ausgewogene Herangehensweise zu finden, um unsere Wirtschaft und Gesellschaft nicht abzuhängen.
Ausblick: KI als treibende Kraft der Zukunft
In den kommenden Jahren wird KI weiterhin eine zentrale Rolle in der technologischen Entwicklung spielen. Ein drängendes Thema ist der hohe Energieverbrauch aktueller KI-Modelle. Es wird erwartet, dass neue Algorithmen und Technologien entwickelt werden, um den Energieverbrauch zu reduzieren, ohne die Intelligenz der Modelle zu beeinträchtigen. Ein Beispiel dafür sind neue Algorithmen von Mamba oder DeepSeek, die mittels Sequenzmodellierung (Selektive SSM) effizienter arbeiten.
Ein weiterer wichtiger Aspekt ist die Steigerung der Intelligenz der KI-Modelle. Der Chefwissenschaftler von Meta, Yann LeCun, betont, dass KI-Systeme, die nur auf Textdaten basieren, nicht die gleiche Intelligenz erreichen können wie Systeme, die auch reale Weltreize verarbeiten. Daher wird die Integration von multimodalen Trainingsdaten, einschließlich Bildern und Videos, eine entscheidende Rolle spielen, um die nächste Stufe zu erreichen. Auch die Zusammenarbeit zwischen Mensch und Maschine wird in den nächsten Jahren intensiviert durch agentische KI.
KI wird sich zunehmend ganz natürlich in verschiedenen Geschäftsprozessen integrieren und die Produktivität steigern. Gleichzeitig wird der Bedarf an einem integrierten Vertrauens-, Risiko- und Sicherheitsmanagement für KI zunehmen, um rechtliche, ethische und betriebliche Anforderungen zu erfüllen und sicherzustellen, dass KI-Systeme transparent, regelkonform und vertrauenswürdig arbeiten.
Eins ist sicher: die KI-Revolution wird weiterhin viele Wellen schlagen und unser Leben und Arbeiten nachhaltig verändern – der Gesprächsbedarf mit Frank Schönefeld dürfte so schnell nicht ausgehen.
Moderiert wird diese Folge von Steffen Wenzel, Mitgründer und Geschäftsführer von politik-digital.
Wir haben Sie auf den Geschmack, ... aufs Gehör gebracht?
Dann lesen Sie doch begleitend...
- KI in Unternehmen erfolgreich einsetzen
- Schub für digitale Souveränität: Telekom bietet Sprachmodell ‚Made in Germany‘ von OpenGPT-X an
... und hören Sie auch:
Ausgesprochen Digital bei:
Neugierig auf die weiteren Themen?