8
0
1
.8
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
8
0
5
0
5
9
4
9
4
9
4
9
3
8
3
8
3
8
3
8
2
7
2
7
2
7
2
6
1
6
1
8
0
3
5
8
0
3
6
8
1
4
6
9
1
4
7
9
2
5
7
0
2
5
8
0
3
6
8
1
3
6
9
1
4
6
9
2
4
7
0
2
5
7
0
3
9
GEPRÜFTE BAUSTELLEN IM JAHR
Vorsicht bei diesen Firmen  Spenden gegen Pfusch am Bau  Newsletter abonnieren  Bessere-Welt-Prämie

In den letzten Beiträgen haben wir bereits erfahren, dass hinter den bekannten KI-Chatbots (wie ChatGPT) komplexe neuronale Netzwerke stehen. Im Hintergrund arbeiten Modelle (genauer gesagt Transformer-Modelle als modernste Form neuronaler Netzwerke), die mit riesigen Datenmengen trainiert wurden, um unsere (menschliche) Sprache zu „verstehen“ und anschließend kontextbezogen neue Texte zu generieren (also passende Antworten zu formulieren). Solche Konzepte zur Textverarbeitung und Textgenerierung werden übergeordnet als Large Language Models (LLM, auf Deutsch: großes Sprachmodell) bezeichnet. Im Jänner 2025 wurde ein neues LLM veröffentlicht, das die KI-Welt derzeit intensiv beschäftigt und teilweise sogar auf den Kopf stellt. Es geht um die KI-Modelle DeepSeek-R1 und DeepSeek-V3 des Unternehmens DeepSeek aus China. Zunächst wurde DeepSeek-V3 am 24. Dezember 2024 veröffentlicht. Am 20. Januar 2025, also zu Neujahr, folgte anschließend DeepSeek-R1. Dieser Release sorgt nun für großes Aufsehen. Im Vergleich zu bekannten Modellen wie GPT-4o (eingesetzt in ChatGPT von OpenAI, USA), Llama 3.1-405B (Meta AI, USA), Gemini (Google DeepMind, USA) oder Claude 3.5 Sonnet (Anthropic, USA) scheint DeepSeek in nahezu allen Kategorien überlegen zu sein. Mit Kategorien ist in diesem Zusammenhang die Bewertung verschiedener KI-Modelle anhand von Benchmark-Tests gemeint. Durch diese standardisierten Tests ist es möglich, die Leistung eines Modells mit anderen zu vergleichen und zu evaluieren. Solche Benchmarks existieren beispielsweise in den Bereichen Mathematik, Coding (Programmierung), Allgemeinwissen, Sprachverständnis und weiteren Disziplinen. Die getesteten Modelle werden anhand von Prozentpunkten bewertet. Allerdings sollte nicht unerwähnt bleiben, dass Benchmarks grundsätzlich nur eine Orientierung bieten und kritisch hinterfragt werden sollten. Interessanterweise wird auf den Webseiten der jeweiligen Entwickler das „eigene“ Modell in Benchmark-Tests überwiegend als führend präsentiert. Aus meiner Sicht werden dabei bessere Modelle teilweise gar nicht in den Vergleich mit aufgenommen. Was macht DeepSeek bisher aus? Jedes LLM ist im Detail unterschiedlich aufgebaut (als Basis ein Transformer-Modell mit eigenen Modifikationen). Die oben genannten Sprachmodelle nutzen verschiedene Techniken, um die Ergebnisse zu optimieren und den Betrieb effizienter zu gestalten. Zudem spielt auch die Größe der Modelle eine entscheidende Rolle. Sie wird anhand der Anzahl der Parameter angegeben. Diese können als „Stellschrauben“ des Modells betrachtet werden. Ein Modell mit einer hohen Anzahl an Parametern kann leistungsfähiger und komplexer sein. Die Daten zu DeepSeek (V3 und R1) stammen aus dem offiziellen Paper von DeepSeek, das auf GitHub veröffentlicht wurde. GitHub ist eine Online-Plattform, auf der Entwickler Softwareprojekte speichern und gemeinsam verwalten können. DeepSeek-V3 verfügt offiziell über 671 Milliarden Parameter. Das Spannende dabei ist, dass bei der Nutzung…

Weiterlesen

Bereits im ersten Beitrag wurde die derzeit bekannteste Künstliche Intelligenz „ChatGPT“ von OpenAI erwähnt. Laut der neuen KI-Verordnung (AI-Act) handelt es sich dabei um sogenannte KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI Models, kurz: GPAI-Models). Diese Modelle werden nicht für eine spezifische Aufgabe entwickelt und können daher flexibel für zahlreiche Anwendungen in der Verarbeitung und Generierung unstrukturierter Texte, Bilder, Audios und Videos eingesetzt werden. In einem der vorherigen Beiträge wurde die Unterscheidung von KI in „starke“ KI (auf einer Ebene mit dem Menschen) und „schwache“ KI (nur für eine spezifische Aufgabe ausgelegt) erläutert. GPAI-Modelle bewegen sich zwischen diesen Kategorien, werden jedoch eher als fortschrittliche „schwache“ KI betrachtet. Mit welchen GPAI-Modellen haben wir es also zu tun und wie funktionieren diese? Hinter dem uns bekannten Chatbot „ChatGPT“ von OpenAI steckt ein komplexes „Transformer-Modell“, das zu den GPAI-Modellen (laut AI Act) gezählt werden kann und übergeordnet als „Large Language Model“ (LLM, „großes Sprachmodell“) bezeichnet wird. Diese Transformer basieren auf fortschrittlichen neuronalen Netzwerken, die in den nächsten Beiträgen näher betrachtet werden. Die Sprachmodelle hinter ChatGPT heißen beispielsweise GPT-4 oder GPT-4o (veraltet ist GPT-3.5). GPT steht für „Generative Pre-trained Transformer“. Kurz gesagt: Das Modell wurde vorher mit großen Datensätzen trainiert und kann bei einer neuen Eingabe die Beziehungen zwischen Wörtern in einem Satz erkennen, um so einen passenden Output zu generieren. Der Begriff ChatGPT bezeichnet „nur“ die Benutzeroberfläche bzw. die Chatbot-App, über die Menschen mit dem Sprachmodell interagieren können. Mittlerweile sind die typischen Sprachmodelle nicht mehr nur Sprachmodelle, sondern vielmehr „multimodale“ Modelle. Neben der Fähigkeit, Sprache bzw. Texte zu verarbeiten, verfügen sie auch über weitere „Modi“ wie die Audio- und Bildverarbeitung. Sprache in Form von Texten war in den veralteten Modellen wie GPT-3.5 der einzige „(Daten-)Modus“. Die Modelle von OpenAI (z. B. GPT-4) sind jedoch nicht die einzigen großen KI-Modelle. Beispielsweise gibt es auch KI-Modelle von Meta AI (Llama 3.1-405B), Mistral AI (Mistral Large 2), Google DeepMind (Gemini 1.0 Ultra) oder Anthropic (Claude 2). Diese KI-Modelle sind jeweils im Hintergrund einer eigenen Benutzeroberfläche implementiert. Die Benutzeroberfläche (die Chatbot-App) für Mistral Large 2 heißt „le Chat“. Die Unterscheidung zwischen dem KI-Modell (z. B. GPT-4 oder Mistral Large 2) und der Benutzer-App (z. B. ChatGPT oder le Chat) ist wichtig, da die KI-Modelle für die Anwendungen im eigenen Unternehmen von Bedeutung sind. Der Chatbot „Microsoft Copilot“ nutzt beispielhaft ebenfalls das Sprachmodell GPT-4. Es ist wichtig, die Eigenschaften dieser unterschiedlichen Modelle zu erkennen, da sie sich rasant weiterentwickeln…

Weiterlesen