GEPRÜFTE BAUSTELLEN IM JAHR
Vorsicht bei diesen Firmen  Spenden gegen Pfusch am Bau  Newsletter abonnieren  Bessere-Welt-Prämie

Bereits im ersten Beitrag wurde die derzeit bekannteste Künstliche Intelligenz „ChatGPT“ von OpenAI erwähnt. Laut der neuen KI-Verordnung (AI-Act) handelt es sich dabei um sogenannte KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI Models, kurz: GPAI-Models). Diese Modelle werden nicht für eine spezifische Aufgabe entwickelt und können daher flexibel für zahlreiche Anwendungen in der Verarbeitung und Generierung unstrukturierter Texte, Bilder, Audios und Videos eingesetzt werden. In einem der vorherigen Beiträge wurde die Unterscheidung von KI in „starke“ KI (auf einer Ebene mit dem Menschen) und „schwache“ KI (nur für eine spezifische Aufgabe ausgelegt) erläutert. GPAI-Modelle bewegen sich zwischen diesen Kategorien, werden jedoch eher als fortschrittliche „schwache“ KI betrachtet. Mit welchen GPAI-Modellen haben wir es also zu tun und wie funktionieren diese? Hinter dem uns bekannten Chatbot „ChatGPT“ von OpenAI steckt ein komplexes „Transformer-Modell“, das zu den GPAI-Modellen (laut AI Act) gezählt werden kann und übergeordnet als „Large Language Model“ (LLM, „großes Sprachmodell“) bezeichnet wird. Diese Transformer basieren auf fortschrittlichen neuronalen Netzwerken, die in den nächsten Beiträgen näher betrachtet werden. Die Sprachmodelle hinter ChatGPT heißen beispielsweise GPT-4 oder GPT-4o (veraltet ist GPT-3.5). GPT steht für „Generative Pre-trained Transformer“. Kurz gesagt: Das Modell wurde vorher mit großen Datensätzen trainiert und kann bei einer neuen Eingabe die Beziehungen zwischen Wörtern in einem Satz erkennen, um so einen passenden Output zu generieren. Der Begriff ChatGPT bezeichnet „nur“ die Benutzeroberfläche bzw. die Chatbot-App, über die Menschen mit dem Sprachmodell interagieren können. Mittlerweile sind die typischen Sprachmodelle nicht mehr nur Sprachmodelle, sondern vielmehr „multimodale“ Modelle. Neben der Fähigkeit, Sprache bzw. Texte zu verarbeiten, verfügen sie auch über weitere „Modi“ wie die Audio- und Bildverarbeitung. Sprache in Form von Texten war in den veralteten Modellen wie GPT-3.5 der einzige „(Daten-)Modus“. Die Modelle von OpenAI (z. B. GPT-4) sind jedoch nicht die einzigen großen KI-Modelle. Beispielsweise gibt es auch KI-Modelle von Meta AI (Llama 3.1-405B), Mistral AI (Mistral Large 2), Google DeepMind (Gemini 1.0 Ultra) oder Anthropic (Claude 2). Diese KI-Modelle sind jeweils im Hintergrund einer eigenen Benutzeroberfläche implementiert. Die Benutzeroberfläche (die Chatbot-App) für Mistral Large 2 heißt „le Chat“. Die Unterscheidung zwischen dem KI-Modell (z. B. GPT-4 oder Mistral Large 2) und der Benutzer-App (z. B. ChatGPT oder le Chat) ist wichtig, da die KI-Modelle für die Anwendungen im eigenen Unternehmen von Bedeutung sind. Der Chatbot „Microsoft Copilot“ nutzt beispielhaft ebenfalls das Sprachmodell GPT-4. Es ist wichtig, die Eigenschaften dieser unterschiedlichen Modelle zu erkennen, da sie sich rasant weiterentwickeln…

Weiterlesen

Der letzte KI-Beitrag beschreibt die Grundidee des überwachten Lernens (Supervised Learning) innerhalb des maschinellen Lernens (ML). Dabei wird dem KI-Modell (einem mathematischen Algorithmus) ein Input gegeben, um einen Output vorherzusagen (wir nutzen ein Vorhersagemodell). Das könnte zum Beispiel ein Bild von einer Brücke sein, das die KI als Brücke „klassifizieren“ (erkennen) soll. Während des Trainings sind Input (Beispiel) und Output (Beispiellösung) bekannt, da sie vom Menschen so definiert werden. Das unüberwachte Lernen (Unsupervised Learning) hingegen verfolgt einen anderen Ansatz. Hierbei erhält die KI keine Beispiele oder Beispiellösungen, sondern lediglich einen Datensatz. Der ML-Algorithmus soll versteckte Muster und Zusammenhänge zwischen den Datenpunkten im Datensatz erkennen. Ein beliebter Ansatz hierfür ist das sogenannte „Clustering“. Um dies etwas anschaulicher zu machen, folgt ein einfaches Beispiel aus der Bauwelt. Gegeben sind verschiedene Bauprojekte A bis E im Hochbau, für die in den Spalten unterschiedliche Merkmale eingetragen sind. Zunächst sind wir „faul“ und jedes Bauprojekt erhält eine eigene Gruppe. Das Ziel besteht jedoch darin, Muster und Zusammenhänge zwischen den Bauprojekten zu erkennen. Wir möchten Gruppen (Cluster) aus ähnlichen Bauprojekten bilden. Jedes Merkmal wird für das jeweilige Bauprojekt mit Punkten bewertet: Welche Bauprojekte sind sich nun untereinander „nahe“, um sie anschließend in eine bestimmte Anzahl von Gruppen einteilen zu können? Projekt D und E sind sich hinsichtlich aller Merkmale „nahe“. Nach welchem Maßstab sollen jedoch die Projekte A bis C gruppiert werden? Dominiert das Merkmal „Auftragsvolumen“, wären sich A und C näher als B. Oder bilden Projekt A und B eine passendere Gruppe hinsichtlich der Merkmale „Komplexität“ und „Projektrisiko“? Dies soll verdeutlichen, dass der ML-Algorithmus des unüberwachten Lernens nicht allmächtig ist und nicht mit einem Knopfdruck das „eine“ richtige Ergebnis liefern kann. Sachkundige Personen müssen definieren, nach welchem Maßstab die Bauprojekte in Gruppen eingeteilt werden sollen. Markus Nussbaum, Bauingenieur & KI-Beauftragter, in Kooperation mit tecTrain.at  (Veröffentlicht am 16.12.2024)…

Weiterlesen

KI und Bauwirtschaft – unnötig Stress oder große Chance? Im letzten KI-Beitrag ging es um die Einführung der neuen EU-Verordnung (AI Act), die hauptsächlich darauf abzielt, Künstliche Intelligenz im Hinblick auf „Transparenz“ zu regulieren. Doch welche Auswirkungen hat diese Verordnung, insbesondere auf die Bauwirtschaft? Hier gleich die enttäuschende Antwort: Das lässt sich nicht eindeutig sagen. Die KI-Verordnung regelt nicht alle Aspekte rund um das Thema KI. Es kommen zum Beispiel auch Bestimmungen aus dem Urheberrecht, dem Datenschutzrecht und dem Produkthaftungsrecht ins Spiel. Der Tatsache, dass der AI Act Künstliche Intelligenz innerhalb der EU regulieren soll, steht gegenüber, dass die derzeit meistgenutzten KI-Modelle aus Regionen außerhalb der EU (konkret aus den USA) stammen. Im Rahmen der KI-Verordnung müssen KI-Entwickler unter anderem die Trainingsdaten der verwendeten KI-Modelle transparent offenlegen (vorausgesetzt, die Verordnung gilt für die jeweilige KI, die in der EU eingesetzt wird). Die Reaktion der US-amerikanischen Tech-Giganten auf die EU-Regulierung dürfte kaum positiv ausfallen. So plant Meta (früher Facebook) nach aktuellem Stand, die neueste Version seines Sprachmodells „LLaMA“ nicht in der EU zur Verfügung zu stellen. Andererseits könnte dies die Entwicklung von „AI made in Europe“ fördern. Ausgerechnet OpenAI (Entwickler von ChatGPT) ist doch sehr verschlossen, was die verwendeten Trainingsdaten angeht. Was hat es mit den diesen Daten auf sich? Lassen wir die rechtlichen Aspekte beiseite und tauchen tiefer in das Thema Daten und KI-Training ein. In unserer Welt gibt es nahezu unendlich viele Informationen, die aus den unterschiedlichsten Quellen stammen können (z. B. durch Messen und Beobachten). Wir versuchen stets, diese Informationen zu speichern und weiterzugeben. Durch diesen Prozess entstehen „Daten“. Ein Beispiel dafür ist ein Datensatz in Form einer Tabelle mit Spalten und Zeilen, der Informationen über etwas enthält (z. B. eine einfache Excel-Tabelle). Wenn man etwas beobachtet, kann es verschiedene Merkmale aufweisen. Diese Merkmale (auch Features genannt) werden in den Spalten der Tabelle dargestellt. Die jeweiligen Beobachtungen entsprechen den Zeilen. Der Schnittpunkt eines bestimmten Merkmals mit einer bestimmten Beobachtung wird als Datenpunkt bezeichnet. Daten in diesem Format sind „strukturierte“ Daten (geordnet). Viele andere Daten sind jedoch nicht strukturiert (z. B. Bilder, Videos, Audios und Dokumente). In diesem Fall sprechen wir von „unstrukturierten“ Daten. Die Daten selbst bestehen entweder aus Zahlen (numerische Daten) oder Wörtern (kategorische Daten). Diese unterschiedlich strukturierten Daten werden dem jeweiligen ML-Algorithmus zum Training zur Verfügung gestellt. Das Maschinelle Lernen (ML) kennt folgende Lernarten: Überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen. Wichtig…

Weiterlesen

KI und Bauwirtschaft – unnötig Stress oder große Chance? Im August 2024 ist das weltweit erste Gesetz zur Regulierung von künstlicher Intelligenz in Kraft getreten. Mit der Einführung des AI Acts wurden zahlreiche Begriffe in diesem Zusammenhang definiert. Die Anwendungen von künstlicher Intelligenz entwickeln sich nicht nur sehr schnell, sondern können maßgeblich die Gesundheit, die Grundrechte und die Umwelt beeinflussen. Das macht eine übergeordnete EU-Regulierung dieser Technologie, insbesondere im Rahmen einer geschäftlichen Tätigkeit, notwendig. Ebenso stellt sich nun die Frage, inwiefern Unternehmen von den neuen Regelungen des AI Acts betroffen sind. Konkret: Werden im Unternehmen KI-Systeme eingesetzt, die unter den Anwendungsbereich des AI Acts fallen? Vorab: Diese und weitere Fragen kann der vorliegende Beitrag nicht beantworten. Er soll jedoch ein Grundverständnis vermitteln und das Interesse für die rechtlichen Aspekte einer KI-Anwendung im eigenen Unternehmen im Rahmen des AI Acts fördern. Dieser Beitrag kann eine individuelle Rechtsberatung nicht ersetzen. Der AI Act definiert ein KI-System als Software, die mehr oder weniger autonom betrieben werden kann, anpassungsfähig ist und aus gelernten Daten (Aspekt des maschinellen Lernens) Schlussfolgerungen (Entscheidungen, Prognosen etc.) ableiten kann, um bei Bedarf sogar einen neuen Output zu erzeugen. Wichtig ist hierbei die Unterscheidung zu herkömmlichen Softwaresystemen, bei denen der Mensch zuvor umfassende Regeln programmiert hat, die die Software in der Anwendung strikt befolgt. KI-Systeme sollten sich vielmehr diese Regeln selbst erstellen. Diese Definition kann dennoch sehr breit interpretiert werden (wir erhalten jedoch erstmalig eine Legaldefinition von „KI“). Der AI Act teilt KI-Systeme in verschiedene Stufen hinsichtlich ihres Anwendungsrisikos ein: Verbotene KI-Systeme (z. B. Manipulation des menschlichen Verhaltens) KI-Systeme mit hohem Risiko (z. B. Komponenten in der kritischen Infrastruktur) KI-Systeme mit begrenztem Risiko (z. B. Chatbots wie ChatGPT) KI-Systeme mit minimalem bzw. keinem Risiko (z. B. in Videospielen) Jede dieser Risikostufen legt unterschiedliche Verpflichtungen für die jeweiligen Akteure im Sinne des AI Acts fest. Daher die nächste Frage: Wer bin ich (als Unternehmer) für das Gesetz? Die Begriffsbestimmungen des AI Acts definieren in dieser Hinsicht KI-Akteure wie Anbieter, Bereitsteller, Händler und Betreiber. Unternehmen in der Baubranche werden überwiegend als „Betreiber“ oder „Anbieter“ agieren. Ein Anbieter wäre z. B. ein Unternehmen, das sich ein KI-System von anderen entwickeln lässt und es dann auch in der eigenen Organisation in Betrieb nimmt. Ein „Betreiber“ verwendet das KI-System in eigener Verantwortung und kann daher auch ein Anbieter sein. Das bedeutet, es gibt für die jeweilige Risikostufe des KI-Systems Verpflichtungen, die von…

Weiterlesen

Die meisten Unternehmen in der Baubranche verfügen weder über eine interne Innovationsabteilung noch über Mitarbeiter, die sich intensiv mit neuen digitalen Technologien und Methoden beschäftigen. Laut der KMU Forschung Austria (2022) sind 99,8 % der Unternehmen im Bauwesen kleine und mittlere Unternehmen (KMU). Großunternehmen können sich leichter „modern“ aufstellen und Investitionen für KI-Projekte oder andere IT-Projekte tätigen. Die finanziellen Mittel von KMUs sind im Vergleich dazu nicht ausreichend, um eine KI-Implementierung im Unternehmen „einfach so“ auszuprobieren. Das bedeutet jedoch nicht, dass KI in diesen Unternehmen nicht funktionieren kann. In den meisten Fällen wäre es sogar falsch, direkt KI-Projekte radikal in die Unternehmensprozesse einzubauen. Nur weil diese Technologie vorhanden ist, heißt das noch lange nicht, dass man KI unbedingt einsetzen muss (technologiegetrieben). Im Nachhinein hat die KI dann häufig keinen größeren Nutzen und Gelder wurden umsonst ausgegeben. KI-Anwendungen müssen konkrete Geschäftsprobleme im Unternehmen lösen können. Bevor wir über moderne KI-Anwendungen sprechen können, müssen wir die Unternehmen in der Baubranche auf die Nutzung von KI vorbereiten. Dabei ist es von großer Bedeutung, die richtigen Fragen zu stellen: Welche Prozesse sind repetitiv und kosten viel Zeit? Welche Ideen haben die Mitarbeiter zum Thema KI? Wie sehen das Mindset und das Vertrauen der Mitarbeiter aus? Benötigen die Mitarbeiter Weiterbildungen im Bereich KI? Schließlich sind die betroffenen Mitarbeiter auch die künftigen KI-Nutzer. Oft scheitert es auch an der Kommunikation und fehlenden Wertschätzung. In Österreich ist es nicht üblich, Unwissen offen zuzugeben. Hier trifft das Konzept des „lebenslangen Lernens“ auf einen Widerspruch. Wie soll ein Quereinstieg für Menschen in den großen Bereich der KI möglich sein, wenn kein offenes Lernklima vorherrscht? Es soll eine Umgebung geschaffen werden, in der offene Fragen gestellt werden dürfen. Diese Umgebung muss durch die Führungskräfte gefördert werden. Es wird nicht selten vorkommen, dass im KI-Projektteam ein KI- oder Datenexperte über Fachthemen spricht, die für andere Besprechungsteilnehmer völlig unverständlich sind. Die Konsequenz: Diese Teilnehmer beteiligen sich nicht mehr am Gespräch und wertvoller Input geht verloren. Durch die Beobachtung bereits umgesetzter KI-Projekte in Großunternehmen kann ebenfalls viel gelernt werden. Die Erprobung von KI in der Praxis findet aktuell überwiegend dort statt, insbesondere in Zusammenarbeit mit der Forschung. KMUs müssen jedoch nicht nur Zuschauer sein, sondern können auch aktiv mitgestalten. Gerade die Zusammenarbeit und das Vernetzen mit anderen kleinen und mittleren Unternehmen, einschließlich Start-ups, kann für alle Beteiligten große Vorteile bringen. Ich stehe Ihnen auch jederzeit für Fragen zur Verfügung: m.nussbaum@bauherrenhilfe.org Markus Nussbaum,…

Weiterlesen