Themen Weitere Themen folgen in Kürze. DIVE – Kreislaufwirtschaft mit Schneider Electric Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden. Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren Weitere Informationen DIVE – IoT & IIoT mit Siemens Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden. Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren Weitere Informationen DIVE – Digital Twin mit CANCOM Austria Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden. Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren Weitere Informationen DIVE – LoRaWAN mit Drei Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden. Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren Weitere Informationen Digitaler ProduktpassDatenaustauschGenerative AIDigitaler Produktpass Digitaler Produktpass Der digitale Produktpass (DPP) ist ein Schlüsselelement der europäischen Kreislaufwirtschaftsstrategie. Er initiiert den Aufbau einer digitale Basisinfrastruktur für Kreislaufführung. Künftig werden zahlreiche Produkte mit eindeutig identifizierbaren Markern versehen werden, mit denen spezifische Informationen entlang der Wertschöpfungskette, zum Beispiel zu Reparierbarkeit oder CO2-Fußabdruck, ausgelesen werden können. Dies soll die Kreislauffähigkeit von Produkten vorantreiben, Kund:innen bei ihrer Kaufentscheidung besser informieren und insgesamt mehr Transparenz entlang der Wertschöpfungskette schaffen. ÜBERLBICK & STATUS QUO ZUM DIGITALEN PRODUKTPASS (DPP) Dr. Verena Halmschlager bietet in ihrer Präsentation mit einem Überblick über die Grundlagen des DPP und beleuchtete die Frage „Was ist der DPP?“ aus unterschiedlichen Perspektiven: Aus technischer Perspektive handelt es sich beim DPP um einen strukturierten Datensatz Produkt- bzw. materialbezogener Daten. Diese werden über den gesamten Lebenszyklus digital gespeichert und sind durch einen einfachen Zugriff (z.B. durch QR-Codes) auslesbar („Lebenslauf eines Produktes“). Regulatorische Grundlage des DPP bildet die Ökodesign Verordnung (Kapitel 3) der EU (u.a. Interoperabilität, Geltung für alle Import- und Export-Produkte, Verantwortung beim Inverkehrbringer eines Produktes). Diese wiederum ist im Kreislaufwirtschaftsaktionsplan des Kreislaufwirtschaft-Paktes unter dem EU Green Deal verankert. Sektor- bzw. Produkt-Spezifikationen für die bereitzustellenden Daten (u.a. Recyclingfähigkeit, Nachhaltigkeit, Werterhalt etc.). werden in Form von delegierten Rechtsakten erarbeitet. Durch die Schaffung von Voraussetzungen für den Austausch produktbezogener Informationen gilt der DPP als „Enabler für die Kreislaufwirtschaft“ und hat zum Ziel Produktkreisläufe, Effizienzsteigerungen, nachhaltige Verbraucherentscheidungen sowie die Überprüfung von Verpflichtungen durch Behörden zu ermöglichen. DPP: CHANCEN & HERAUSFORDERUNEGN FÜR KMU – TECHNISCHE, ORGANISATIONALE & RECHTLICHE PERSPEKTIVE Prof. Tassilo Pellegrini schließt inhaltlich mit einer weiteren Einordnung des DPPs und seiner Implikationen an. Der DPP kann als Instrument an der Schnittstelle von Dekarbonisierung und Vermeidung on Überproduktion gesehen werden. Er lässt sich als eine Brücke zwischen der EU Data Strategy und dem EU Green Deal einordnen und verbindet das Ziel einer „saubereren Produktion“ mit Corporate Governance (u. Reporting-) Vorgaben. Zu den Herausforderungen in Bezug auf die Einführung des DPP zählt u.a. die Etablierung von soliden technischen Standards für das Teilen von Produktinformationen, die Vielfalt der Stakeholder in einer Kreislaufwirtschaft sowie Produkt-Komplexitäten entlang der Wertschöpfungskette. Darüber hinaus gibt die Studie „DPP4ALL“ u.a. Einblicke in die Unternehmens- und Kundenperspektive auf den DPP: Mögliche Chancen werden z.B. in Bezug auf neue Geschäftsmodelle, die Evaluation der Wertschöpfungskette, und die Feststellbarkeit der Nachhaltigkeit von Produkten gesehen. Unsicherheiten bestehen u.a. in Zusammenhang mit rechtlichen Implikationen wie z.B. Geheimhaltung, IPR, Garantie, und GDPR. Unabhängig von der Demografie ist die Relevanz des DPP bei den Kund:innen eng verknüpft mit Einstellungen und Lebensstil. Insgesamt Zeichnen sich Kund:innen durch eine hohe Bereitschaft zur Weitergabe ihrer Daten unter Wahrung ihrer Privatsphäre aus. Nützliche Empfehlungen für KMU in Vorbereitung auf den DPP runden seinen Vortrag ab: Know your data! Überprüfen Sie Methoden & Metriken! Von Interoperabilität profitieren! Organisationale Komplexität meistern! EINBLICK IN DIE PRAXIS – VORBEREITUNG & ERSTE SCHRTTE RICHTUNG UMSETZUNG Ing. Karl Sagmeister beschreibt die Relevanz des DPP aus unternehmerischer Perspektive und gibt wertvolle Tipps in Bezug auf Vorbereitung und Umsetzung. Über die Einhaltung der Compliance Vorgaben hinaus, ist der DPP aus strategischer Perspektive zu betrachten. Geschäftsmodelle (Kosten- und Qualitätsführerschaft) können auf unterschiedliche Weise von den Implikationen der Ausrollung eines digitalen Produktpasses profitieren bzw. erst ermöglicht werden. Eine Bestandsaufnahme in Bezug auf Daten & Infrastruktur ist hilfreich, um davon ausgehend erste konkrete Ziele zu setzen, welche zu der Strategie beitragen. Es lohnt sich zu Beginn Verantwortlichkeiten im Unternehmen zu bestimmen und bei der Aufstellung eines Projektteams (je nach Unternehmensgröße) die Einbindung unterschiedlichen Berieche (z.B. Nachhaltigkeit, Produktion und Compliance) sicherzustellen. Nicht zu vernachlässigen sind bereits bestehende Angebote und Hilfestellungen bei der Einführung des DPP. So kann beispielsweise in Zusammenarbeit mit FHs und Universitäten wertvolle Expertise gewonnen werden, um interne Wissenslücken effizient zu schließen und projektbezogene Kostenexplosion vermeiden. Eine mögliche Vorgangsweise: Klären Sie die Erwartungen (eigene und die der Kunden) an zirkuläre Ziele. Legen Sie eine Grundlinie fest und setzen Sie sich Ziele (Welche Daten habe ich?). Holen Sie Ihr Team mit ins Boot. Implementieren Sie Governance und Richtlinien. Binden Sie die richtigen Partner ein – machen sie es nicht alleine! PRÄSENTATIONEN ZUM DOWNLOAD Dr. Halmschlager: Grundlagen, Überblick & Status Quo (April 2024) Prof. Pellegrini: Chancen und Herausforderungen für KMU aus technischer, organisatorischer & rechtlicher Perspektive DI Sagmeister: Einblicke in die Unternehmenspraxis: Vorbereitung & erste Schritte Richtung Umsetzung (Schneider Electric) NÜTZLICHE INFORMATIONEN Infos zum DPP & Events: https://plattformindustrie40.at/digitaler-produktpass/ DPP Basics: Factsheet Einführung in den EU Digital Product Passport: Introducing the EU Digital Product Passport Studie DPP4ALL: Digital Product Passport for All CIRPASS (Coordinated Support Action): https://cirpassproject.eu/ CIRPASS-2 (Das europäische DIGITAL Leuchtturmprojekt zum Digitalen Produktpass): https://plattformindustrie40.at/cirpass-2/ bzw. https://cirpass2.eu/ ZUM MITMACHEN DPP Check-Ins: Regelmäßiger Austausch von Informationen → Kostenlose Anmeldung HIER oder bei: verena.halmschlager@plattformindustrie40.at ASI Komitee zum DPP: Mitarbeit im Technischen Komitee der ASI → Kontakt: Jörg Nachbaur. Delegated Acts: Die Konsultation der Stakeholder wird voraussichtlich mehrere Möglichkeiten bieten, sich einzubringen. Updates dazu wird es in den regelmäßigen Check-Ins geben. Weitere nützliche Links finden Sie in den Präsentationen. ANSPRECHPERSONEN Plattform Industrie 4.0 Roland Sommer, roland.sommer@plattformindustrie40.at Verena Halmschlager, verena.halmschlager@plattformindustrie40.at Stefanie Werderits, werderits@plattformindustrie40.at Schneider Electric DI Karl Sagmeister, karl.sagmeister@se.com FH St. Pölten Tassilo Pellegrini, tassilo.pellegrini@fhstp.ac.at WKNÖ Sparte Industrie: alexander.schroetter@wknoe.at Thomas Strodl, Walter Glanninger, Astrid Parth (TIP digital): tip.digital@wknoe.at Weiterführende Informationen zu Förderungen. Weitere Informationen zum DIVE-Event in NÖ mit dem Themenschwerpunkt „Digitaler Produktpass“ im April 2024 finden Sie HIER. Datenaustausch Datenaustausch Der firmenübergreifende Datenaustausch („Data Sharing“) mit Kund:innen und Lieferant:innen gilt als entscheidender Schritt für die digitale Produktion. Er bildet die Grundlage für Effizienzsteigerungen und neue Geschäftsmodelle in komplexen Wertschöpfungsnetzwerken. Dieser Austausch von Informationen ermöglicht es Unternehmen, ihre Produkte und Prozesse zu optimieren und ihre Leistungsfähigkeit zu steigern, indem sie auf Echtzeitdaten zugreifen und diese effizient und strategisch nutzen können. INTELLIGENTE VERNETZUNG: VERTIKALES DATASHARING IM MASCHINENBAU Stefan Murauer (Teamleiter Softwareentwicklung) eröffnete den Themenschwerpunkt Datenaustausch, indem er Aktivitäten der Firma FILL vorstellte. Zu den Beweggründen sich im Unternehmen aktiv mit dem Thema auseinanderzusetzen zählen die Unterstützung bei regulatorischen Vorgaben (Digitaler Produktpass, Nachhaltigkeitsbericht etc.), die Entwicklung neuer Geschäftsmodelle sowie die Verbesserung bestehender Produkte und Prozesse. Zunächst beschrieb er letzteres anhand eines Anwendungsfalls: Das von FILL entwickelte Bearbeitungszentrum „SYNCROMILL“ ist eine komplexe Maschine, unter anderem bestehend aus Komponenten unterschiedlichster Zulieferer. Viele davon sind heutzutage in der Lage mithilfe von Auswerteeinheiten den Status ihrer Subkomponente zu analysieren. Um den Gesamtzustand der Maschine richtig zu analysieren, bedarf es jedoch einer übergeordneten Auswertung, welche eine Aggregation aller Subkomponenten und deren Zustände durchführt. Dies wird über ein separates Edge Device realisiert, wobei die Sensor- und Maschinendaten der „SYNCROMILL“ automatisiert ausgewertet und in eine Cloud übertragen werden. Zukünftig sollen die proprietären Daten- Protokolle – welche Hersteller, Kunden und Zulieferer bislang bei sich behalten – in einem Datenökosystem ausgetauscht werden. Im Rahmen des EU-Projektes „SM4RTENANCE“ werden dazu die technischen und rechtlichen Rahmenbedingungen für einen produktiven Einsatz geschaffen. Aus dem Anwendungsfall für Datenaustausch ließen sich neben Verbesserungspotenzialen des Produkts auch neue Geschäftsmodelle ableiten. Eine automatisierte Anlagendurchsicht könnte automatische Auswertungen und Berichte anhand von „Machine Performance Indicators (MPIs)“ ermöglichen und Störungsbehebung & Ursachenfindung könnten damit in Verbindung angeboten werden. MEHRWERTMÖGLICHKEITEN MIT DIGITALEN DIENSTEN Roman Rampsel von der Linz Center of Mechatronics GmbH (LCM) setzte inhaltlich mit der Verknüpfung des Datenaustausches entlang der Wertschöpfungskette mit Anwendungen für digitale Dienste und dessen Mehrwertmöglichkeiten fort. Unter digitalen Diensten versteht man über das Internet bereitgestellte Anwendungen und Services, die eine Vielzahl an Tools und Plattformen umfassen (z.B. Marktplätze, Wetterdienste, digitales Amt etc.). So kann zum Beispiel ein digitales Abbild eines Produktes über einen digitalen Dienst bereitgestellt werden. Dies ermöglicht es Konsumenten, Angebote verschiedener Hersteller in der Suchmaschine zu finden und aufgrund von Angaben unterschiedlicher Parameter (Werkstoffe, Fertigungsmöglichkeiten, Preis etc.) zu vergleichen. Um darüber hinaus ein umfangreiches Bild der Produkteigenschaften zu zeichnen, sind Informationen aus der Wertschöpfungskette notwendig. Somit kommt den Produktzulieferern (einzelner Komponenten) eine wichtige Rolle bei der Bereitstellung von Daten zu, welche kombiniert und für Berechnungen genutzt werden können: Zum Beispiel ermöglicht Datenaustausch die Bereitstellung des CO2-Bilanz-Ergebnisses für individuelle Produktkonfigurationen. Die Kombination solcher und komplexerer Anwendungen kann etwa über die von LCM entwickelte Softwareplattform „SyMSpace“ durchgeführt werden. Weiterer Mehrwert kann im Austausch von Daten durch das Zusammenspiel mehrerer Unternehmen (vertikal und horizontal in der Wertschöpfungskette) entstehen, um komplexe Zusammenhänge durch die Verknüpfung über digitale Dienste abzubilden: Zum Beispiel könnte ein Auftrag zur automatischen Erstellung eines Produktes nach bestimmten Rahmenbedingungen, CO2-Fußabdruck-Vorgaben und gewichteten Optimierungskriterien für spezifische Kundenanfragen ermöglicht werden. Vor dem Hintergrund der Ökodesign-Richtlinie und der voraussichtlich mit 2027 zu erwartenden Verordnung inklusive Vorgaben zum digitalen Produktpass, bedarf es eines erheblichen Austauschs an Daten zwischen Unternehmen, welcher auch bereits im Designprozess Einfluss finden muss. Die Transformation besteht unter anderem im Aufbau von Kompetenzen im firmenübergreifenden Produktdesign, welche die Digitalisierung von Prozessen und die Einbindung von Unternehmenspartnern sowie Lieferanten bereits in die Entwicklungsphase erfordert. Die LCM unterstützt Unternehmen u.a. im Rahmen von AI5Production bei dieser Transformation. CATENA-X: DATENAUSTAUSCH IM AUTOMOBILSEKTOR Roland Wiesmüller und Nina Popanton von T-Systems beleuchteten das Thema Datenaustausch mit Fokus auf das richtungsweisende Datenökosystem der Automobilindustrie: „Catena-X“. Bereits über 170 Automotive-Unternehmen sind Teil des seit 2021 von deutschen Automobilherstellern ausgehenden Datenraums. T-Systems war als Teil des Projekt-Konsortiums maßgeblich in die technologische Entwicklung eingebunden und bietet daher nun Services an, um die Dateninfrastrukturen von Zulieferern bis hin zu Recycling-Unternehmen zu verbinden. Beim Teilen von Daten lassen sich unterschiedliche Ansätze voneinander unterschieden: Der herkömmliche bilaterale Datenaustausch („One to One“ z.B. EDI – Electronic Data Interchange), Datenaustausch in einer geschlossenen Community („Few to Few“ z.B. skywise) und das offene, kollaborative Daten-Ökosystem („Many to Many“ z.B. Catena-X). Dadurch können Datenanbieter und -nutzer, die gemeinsamen Access und Usage Policies zustimmen, über sog. „Connectors“ im Datenraum miteinander interagieren. Nur verifizierte Teilnehmer dürfen ihre Daten auf dem „Marktplatz“ austauschen und darauf aufbauende Applikationen nutzen. Datenaustausch kann unterschiedlichen Anwendungsfällen dienen: Neue Regulatorien erfordern den Austausch von Daten (z.B. Verfügbarkeit des Product Carbon Footprint, Lieferkettengesetz; auch KMU sind Teil mehrerer Wertschöpfungsketten und müssen daher berichten) bei gleichzeitiger Datensicherheit und Souveränität (vgl. Data Act), Nachhaltigkeits- bzw. ESG-ziele können besser verfolgt werden (Vergleichbarkeit der Berechnungsstandards, Kreislaufwirtschaft) und Innovationen können im Unternehmen durch strategische Daten-Nutzung ermöglicht werden – von Kostenreduktion (IT-Schnittstellen konsolidieren, Dienste gemeinsam nutzen, Geschwindigkeit & Effizienz) bis hin zu Daten-getriebenen Geschäftsmodellen. So ergeben sich durch den Datenaustausch entlang der gesamten Wertschöpfungskette in Catena-X Use-Cases für die Automobilindustrie, welche auch für andere Industrien in ähnlicher Weise nützlich sein können. Interne Use-Cases betreffen u.a. die Entwicklung eines datengesteuertes Produktions- und Lieferkettenmanagement (z.B. Produktportal, Produktionsplanung, Lageroptimierung, Qualitäts- & Ursachenanalyse, Erhöhung der Produktqualität, Prädiktive Wartung, Transparenz der Produkt- und Prozessabläufe, Datenintegration über den gesamten Produktlebenszyklus, widerstandsfähigere Lieferketten durch Vorhersage und Alarmierung). Durch Catena-X wurden Standards (z.B. Kompatibilität von technischen Standards und Datenmodellen) festgelegt und Lücken geschlossen, um einen sicheren (z.B. durch bestätigte Identitäten „eIDAS-konform“, Verifizierung etc.) und souveränen Datenaustausch zu ermöglichen, was auch anderen Sektoren als Vorbild dient. Neben Catena-X bestehen und entstehen weitere sektorspezifische und -übergreifende Data Spaces wie beispielsweise der „Austrian Manufacturing Innovation Data Space“ für die Vernetzung produzierender Unternehmen oder in Deutschland die 2024 ins Leben gerufenen Datenräume Manufacturing-X (die Plattform Industrie 4.0 ist Teil des Manufacturing-X Council) oder Aerospace-X. PRÄSENTATIONEN ZUM DOWNLOAD Stefan Murauer: Intelligente Vernetzung Vertikales Datasharing im Maschinenbau (Mai 2024) DI Roland Rampsel: Mehrwertmöglichkeiten mit digitalen Diensten (Mai 2024) Roland Wiesmüller & Nina Popanton: Catena-X made easy – SMEs in Automotive Data Ecosystems (Mai 2024) NÜTZLICHE INFORMATIONEN Gaia-X Hub Austria: https://www.gaia-x.at/ Gaia-X EU Website: https://gaia-x.eu/ Catena-X (Automotive Network): https://catena-x.net/de/ International Manufacturing-X Council: Die Plattform ist Teil des Councils. Das Kick-Off fand im Februar 2024 statt. ZUM MITMACHEN Check-Ins des Gaia-X Hub Austria: Regelmäßiger Austausch (virtuell) zu aktuellen Informationen rund um Data Sharing→ Kostenlose Anmeldung HIER oder bei: fälbl@plattformindustrie40.at Zusammenfassung der Check-Ins: Auf der Website der Plattform Industrie 4.0 werden unter „Aktuelles“ laufend Übersichten veröffentlicht. -> Hier gelangen Sie zum Check-In. Weitere nützliche Links finden Sie in den Präsentationen. ANSPRECHPERSONEN Plattform Industrie 4.0 Roland Sommer, roland.sommer@plattformindustrie40.at Michael Fälbl, faelbl@plattformindustrie40.at Stefanie Werderits, werderits@plattformindustrie40.at WKOÖ (Sparte Industrie) Sabine Huber, sabine.huber@wkooe.at FILL DI Alois Wiesinger, wiesinger@fill.co.at Stefan Murauer, murauer@fill.co.at Linz Center of Mechatronics (LCM) DI Roman Rampsel, rampsel@lcm.at T-Systems Roland Wiesmüller, wiesmueller@t-systems.com Nina Popanton, popanton@t-systems.com Weiterführende Informationen zu Förderungen. Weitere Informationen zum DIVE-Event in OÖ mit dem Themenschwerpunkt „Data Sharing“ im Mai 2024 finden Sie HIER. Generative AI Generative KI Generative künstliche Intelligenz („Generative AI“) ist ein vielseitiges Tool für die Verarbeitung, Analyse, Erstellung und innovative Nutzung von Daten. Sie ermöglicht Effizienzsteigerungen im Umgang mit großen Datenmengen und fördert die Interaktion als benutzerfreundliche Schnittstelle zum Menschen. Seit der Veröffentlichung von ChatGPT finden Generative AI und Large Language Models (LLMs) durch vielfältige Anwendungsmöglichkeiten den Weg aus der IT-Welt des Silicon Valley in die Industrie. GENERATIVE KI UND FOUNDATION MODELS Professor Dr. Michael Gadermayr (FH Salzburg) führte in das Thema „Generative AI“ ein, indem er zunächst die grundlegenden Begriffe und unterschiedlichen Teilbereiche der „künstlichen Intelligenz“ strukturiert erklärte und dabei die zentrale Frage „Was ist künstliche Intelligenz?“ beantwortete. – Kurz gesagt: „KI zielt darauf ab, Systeme zu schaffen, die in der Lage sind, Aufgaben zu bewältigen, die menschliche Intelligenz erfordern.” Künstliche Intelligenz lässt sich in verschiedenen Ebenen bzw. Unterkategorien einteilen: Ein zentraler Teilbereich ist das maschinelle Lernen (Machine Learning), das Unterkategorien wie „shallow learning“ und „deep learning“ beinhaltet. Generative KI, wie beispielsweise das Programm ChatGPT, stellt wiederum eine spezifische Art der Anwendung von „deep learning“-Algorithmen dar, die Inhalte wie etwa Texte, Bilder oder Videos eigenständig erstellen können. [1] Um ein grundlegendes Verständnis und einen Überblick im „Buzz Word“ Dschungel zu erhalten, ging er einen Schritt zurück und beleuchtete maschinelles Lernen näher: Klassisches maschinelles Lernen zielt auf Mustererkennung in großen Datensätzen ab und wird unterteilt in überwachtes (supervised) und unüberwachtes (unsupervised) Lernen. Beim überwachten Lernen werden Trainingsdaten und Labels benötigt, die von einem „Supervisor“ vorgegeben werden. Es wird etwa durch den Menschen festgelegt, ob ein Objekt im Trainingsdatensatz ein Auto ist oder nicht. Im Fall des unüberwachten Lernens ist hingegen kein „Supervisor“ notwendig: Es werden keine Labels von außen vorgegeben. Es werden Cluster (Häufigkeiten) von Datenpunkten gebildet, die idealerweise Kategorien entsprechen. Als Beispiel für Deep-Learning Anwendungen nannte Prof. Gadermayr die Bildanalyse zur Bestimmung von Hautkrebs sowie die Gesichtserkennung mittels sog. „Deep-Convolutional Networks” oder „Transformer“ Architekturen. Das sogenannte „Transformer Modell“ bildet die Grundlage für vielseitig einsetzbare Sprach- und Bildverarbeitungssysteme (und weitere). Dabei handelt es sich um ein „Foundation Model“ – also um ein Basismodell, welches riesige Datensätze benötigt, um trainiert zu werden und anschließend auf unterschiedliche Aufgaben angewendet werden oder durch weitere Trainings für spezifische Anwendungen fein-abgestimmt werden kann. ChatGPT ist ein Beispiel, aber auch anderer Programme u.a. zur Text- und Bild Verarbeitung fallen in diese Kategorie. „Foundation Models“ entwickeln sich in Richtung „generischer Modelle“, da sie weniger problembezogenes Training erfordern bzw. oft mit relativ kleinen zusätzlichen Datensätzen performant sind, und so insgesamt eine breite Palette an Anwendungen ermöglichen. Stärken von Deep Learning: Oft präzise und meistens effizient Hochgradig übertragbar auf Anwendungsgebiete (Inferenz) Sparen menschliche Zeit Ermöglichen schnelle Datenanalyse Unterstützen quantitative Messungen Schwächen von Deep Learning: Schneiden oft schlecht ab, wenn die Trainingsdaten klein/unausgewogen/variabel sind, d.h. sie sind anfällig für Verzerrungen (Biases) „verstehen“ die Welt nicht bzw. kein „vernetztes Denken” „Halluzinationen“ NO MAGIC: DIE ZUKUNFT DER KI Dr. Bernhard Nessler (Software Competence Center Hagenberg – SCCH) knüpfte an die Einführung an und räumt mit Mythen im Bereich der künstlichen Intelligenz (KI) auf. Er verdeutlichte die grundlegenden Unterschiede zwischen menschlicher und maschineller Intelligenz: Obwohl wir oft ähnliche Begriffe wie „verstehen“, „denken“, „lernen“ und „wissen“ verwenden, unterscheiden sich die zugrundeliegenden Mechanismen der biologischen und maschinellen Datenverarbeitung grundsätzlich. Treffender beschreiben ließe sich KI durch Begriffe wie „komplexe Datenverarbeitung“, „Optimierung“, „Statistik“, „Berechnung“, „Vorhersage“ und „Klassifikation“. Diese Begriffe sind weniger beladen mit menschlichen Vorstellungen, vermeiden daher Missverständnisse, und helfen dabei, die Technologie „KI“ tendenziell sachlicher zu betrachten und mit Aspekten wie „Daten“, „Zielen“ und „mathematischen Berechnungen“ zu verknüpfen. Maschinelle Intelligenz ist nämlich Datenverarbeitung basierend auf mathematischen Berechnungen und Optimierung. Menschliche Intelligenz umschließt u.a. auch Intuition und Bauchgefühl (System 1) und rationales Denken (System 2) und die Kombination davon. In beiden Systemen gibt es dennoch in einigen Aspekten Ähnlichkeiten mit künstlicher Intelligenz. Während die Parallelen zu „System 2 – rationales Denken“ einleuchtend erscheinen, mag es überraschend wirken, das maschinelles Lernen (ML), Deep Learning und Large Langue Models (LLMs), wie ChatGPT, sich mit „System 1“ vergleichen lassen. D.h. es werden Entscheidungen zu ML, DL und bei LLMs oft analog zum System 1 getroffen. Das liegt daran, dass sich sog. Entscheidungen „aus dem Bauch heraus“ – ähnlich wie maschinelles Lernen – abstrahieren lassen können als: Ableitungen für die Zukunft basierend auf der Verarbeitung von mehr als 10.000 Inputs sowie auf Erfahrungen. Entscheidungen, die auf maschinellem Lernen beruhen, erscheinen intuitiv, da sie oft nicht logisch hergeleitet oder vollständig erklärbar sind (die zugrundeliegende Logik der Konklusion ist nicht ersichtlich bzw. es handelt sich um Ergebnisse, die keine „justifiable conclusion“ darstellen). Sie basieren auf „Erfahrungswerten“ abgeleitet aus den eingespielten Trainingsdaten und ermöglichen durch komplexe und teils schwer durchschaubare Berechnungsmethoden Vorhersagen für zukünftige Szenarien. Ergo: Ein ML-Modell erkennt Muster in den Daten und nutzt diese, um Klassifikationen festzulegen oder Vorhersagen zu treffen, ohne dass es einen expliziten, logischen Beweis (für den Zusammenhang) liefern kann. Wie wird ein Large Language Modell (LLM) trainiert? Ein LLM bzw. großes Sprachmodell (wie z.B. ChatGPT) wird durch enorme „Pre-Trainingsdatensätzen“, beispielsweise Texte aus dem Internet, trainiert. Diese allgemeinen Daten werden in einem Fine -Tuning durch Aufgaben-spezifische Daten ergänzt. Zu bedenken sind in Bezug auf das Training mögliche Verzerrungen in den Daten, welche zu voreingenommenen Ergebnissen führen (Biases) sowie urheberrechtliche Problematiken (Copyright-Bruch). „Maschinelle Intuition“ bzw. auch der Output eines LLM-Modells entsteht durch das Berechnen von Ähnlichkeiten ergänzt durch das Hinzufügen von Hintergrundinformation (z.B. in Bezug auf welche Merkmale der Daten relevant für eine spezifische Aufgabe sind). GENERATIVE KI – GRUNDLAGEN, FALLSTRICKE, CHANCEN Dr. Stefan Gindl (Research Studios Austria Forschungsgesellschaft – RSA FG) setzte mit einem Fokus auf die Anwendung von Large Language Models bzw. Sprachmodellen fort. Er gibt eine Übersicht (nicht abschließend) über die unterschiedlichen Einsatzbereiche von LLM-Modellen und aktuell verfügbarer Programme: Text-generierende KI: ChatGPT, Google Gemini, Claude, etc. Bild-generierende KI: Dall-E, Midjourney, Stable-Diffusion, etc. Video-generierende KI: Sora (OpenAI), HeyGen, Synthesia, etc. Konversations-generierende KI: Notebook LM Seit 2018 haben sich unterschiedlichen LLM-Software-Angebote rasant erweitert und verbessert. Neben kommerzieller Software gibt es auch einige „Open Source Modelle“. Kommerzielle LLms vs. Open Source (Stand Oktober 2024): Kommerzielle LLMs zumeist bedeutend leistungsfähiger Bezahlung mit Abo-Modellen Kostenpflichtiger API-Zugriff Open Source: OpenBeispiel: Source-Modelle zunehmend leistungsfähiger Mistral (https://mistral.ai/news/mistral-large/) Llama (https://llama.meta.com/) In beiden Fällen sind große Rechenkapazitäten notwendig. Welche Chancen bieten Large Language Modelle? Helfen beim Umgang mit großer Wissensbasen und deren Interpretation für Anwender:innen Inspirieren bei der Ideenbildung Unterstützen bei Content-Creation Zugang zu individuellem Graphik-Design, ohne die dafür notwendigen Fähigkeiten Unterstützung beim Proof-Reading. Anhand eines Beispiels aus der Prozessautomatisierung in der Aquaponik (Fischzucht in einem Kreislaufsystem) lassen sich einige Chancen illustrieren: Ein „virtueller Consultant“ kann unter Einbeziehung von Umgebungsvariablen der Anlage (Sensordaten) über Eingriffe das System beraten (z.B. ob Fische mehr Futter brauchen). Das KI-Programm kann basierend auf Messdaten potenzielle Gründe für die Werte erklären und geeignete Maßnahmen beschreiben und empfehlen. Ähnlich könnte dieses Prinzip sich auf ein System/Prozess in der Produktion anwenden lassen. Auch können LLMs beispielsweise im Bildungsbereich hilfreich sein: Das Tool Teachino ist auf die Unterstützung von Lehrkräften bei der Unterrichtsgestaltung spezialisiert. Zu den Funktionen zählt beispielsweise Inspiration mittels Inhaltsvorschlägen, übersichtliche Planung und Tracking, strukturierte Ablage von Inhalten und flexible Aufbereitung, Möglichkeit zur Zusammenarbeit mit anderen Lehrenden und selektiver Zugriff für Schüler:innen. Eine weitere Anwendung, welche von Unternehmen genutzt werden kann, ist die automatisierte Aufbereitung und Generierung von Informationsmaterial (z.B. mit NotebookLM) oder in Form eines KI generierten Video-Chatbot, der unterschiedliche Sprachen spricht und als Avatar mit Kunden interagieren kann (z.B. mit HeyGen). Welche Fallstricke sollten beachtet werden? Das Blackbox Problem: Entscheidungen entstehen auf Grundlage intransparenter und komplexer Modelle, deren Entscheidungsprozesse für den Menschen nicht nachvollziehbar sind. Das erschwert die Logik hinter Entscheidungen zu verstehen oder Fehlerquellen zu identifizieren (wie zum Beispiel voreingenommene Trainingsdaten und daraus resultierende Biases). Im Gegensatz dazu steht „explainable“ (oder White-Box) KI, die inhärent interpretierbar ist. Diese kann jedoch oft nicht im selben Umfang komplexe Muster erfassen wie beispielsweise künstliche neuronale Netze, die zur Familie der Black-Box-KI gehören. Energieverbrauch: KI-Programme benötigen viel Energie in der Ausführung, wobei Text basierte Aufgaben (Anhaltspunkt: 0,0068 kWh pro 1.000 Interferenzen) energieeffizienter ausgeführt werden können als Bild-Basierte Aufgaben (ca.1,35 kWh/Bildgenerierung). Zum Vergleich: Letzteres braucht bis zu 50% einer Smartphone Ladung für die Generierung eines Bildes.[2] Behinderung von Lerneffekten: Studien zeigen, dass die Unterstützung von KI z.B. beim Programmieren, Vor- und Nachteile in Bezug auf die Lerneffekte der Anwender:innen haben kann. Auswirkungen auf die menschliche Kreativität: Eine Studie hat gezeigt, dass generative KI die individuelle Kreativität von Schriftstellern steigern kann, aber das Risiko beinhaltet den kollektiven Neuheitsgehalt von Kreationen zu mindern. Weitere zu beachtende Fallstricke: Over-promising und Hype Bei unklarem Verwendungszweck gibt es keine positiven Effekte Überflutung mit digitalem Content Abflachen der Kreativität, Eintönigkeit in der Content-Erstellung Fehlende Notwendigkeit, einen geschliffenen Sprachstil zu erwerben Unreflektiertes Übernehmen von Inhalten, kein Hinterfragen des Wahrheitsgehalts (Halluzinationen) ANWENDUNG VON GENERATVER KI – REALITY INSIGHTS Thomas Lamprecht (Tietoevry) baute auf den Beiträgen der Vorredner auf und zeigte wie LLMs in der Praxis angewendet werden können. Für seine Präsentation nutzte er bereits die Unterstützung von ChatGPT. Der folgende Einleitungstext für seinen Vortrag wurde von ChatGPT vorgeschlagen: „In den nächsten Minuten möchte ich mit Ihnen teilen, wie generative AI nicht nur die Art und Weise, wie wir produzieren, verändert, sondern auch, wie sie uns ermöglicht, völlig neue Produkte und Dienstleistungen zu entwickeln. Wir werden gemeinsam erkunden, wie diese Technologien implementiert werden können (…).“ Es gilt richtig zu „prompten“ und den Text anschließend individuell an die Bedürfnisse anzupassen. Auch zur Erstellung der Power Point Präsentation kann generative KI genutzt werden: Man entwirft eine kurze Beschreibung des erwünschten Ergebnisses, wie zum Beispiel: „Erstelle eine Präsentation für eine Keynote vor Vertretern erfolgreicher Unternehmen. Sie soll inspirieren und die Möglichkeiten von KI aufzeigen. Ich möchte Beispiele und Einblicke für den praktischen Einsatz von KI haben. Besonders die Vorteile sind interessant.“ Außerdem kann ein bereits vorhandener Präsentations-Entwurf hochgeladen werden. Es handelt sich um sehr generische Beispiele in Bezug auf PowerPoint und Redetext. Diese Anwendungen sind daher nicht Industrie spezifisch. Diese Demonstration zeigt also die Vielseitigkeit generativer KI-Tools, die viele Bereiche der Büroarbeit effizient unterstützen können. Allerdings lässt sich nach anfänglicher Euphorie oft Ernüchterung beobachten, wenn es um den erhofften Mehrwert und die transformative Wirkung der Technologie durch den Einsatz im Unternehmen geht. Auch hier gilt es, ähnlich wie bei anderen neuen Technologien, dennoch nicht die Wirkung und langfristige Transformation zu unterschätzen, die sich manchmal erst schrittweise entwickelt. „Mindful AI“ – Strategien für nachhaltige Anwendungsfälle Unternehmen sollten gezielt nachhaltige Use Cases entwickeln und dabei strategisch vorgehen: Ziele definieren und Geschäftsprozesse analysieren – Die Herausforderungen und Potenziale der KI in spezifischen Prozessen erkennen. Erfolgsmetriken festlegen – Kriterien für die Bewertung des KI-Einsatzes formulieren. Passende Use Cases auswählen und implementieren – Praktische Anwendungen wie maßgeschneiderte, KI-gestützte Assistenten umsetzen. Eine einfach umsetzbare Anwendung generativer KI ist die Entwicklung eines individuell angepassten Chatbots, der auf spezifische Aufgaben zugeschnitten ist. Thomas Lamprecht zeigt live vor, wie beispielsweise ein „Industrie 4.0 Assistent“ erstellt werden kann: Es wird dem System (Open AI) mitgeteilt, dass es auf Daten der Plattform Industrie 4.0, wie Websites, Publikationen und Präsentationen zugreifen soll. Der entsprechende „Prompt“ könnte lauten: „Du bist ein Mitarbeiter für die Plattform Industrie 4.0 in Österreich. Du kümmerst dich um Events, Publikationen und beantwortest Fragen von Mitgliedern.“ „Nutze dafür immer plattformindustrie40.at und gib bei Eventanfragen Name, Kurzbeschreibung, Ort, Datum und Uhrzeit an.“ Effiziente KI-Anwendungen bei Tietoevry Tietoevry setzt GPT-Modelle gezielt für integrierte Assistenzsysteme und Lösungen ein, darunter: Ask HR – Ein Chatbot für personalbezogene Anfragen. Legal Document Expert – Unterstützung bei juristischen Dokumenten. Project Expert – Hilfe bei Projektmanagement-Aufgaben. Works Council Chatbot – Kommunikation mit Betriebsräten. Universal Chat & Document Support – Allgemeine Unterstützung bei Dokumenten- und Kommunikationsprozessen. Diese Anwendungsbeispiele unterstreichen das Potenzial von generativer KI, Unternehmen effizienter und innovativer zu gestalten. PRÄSENTATIONEN ZUM DOWNLOAD Dr. Stefan Gindl: Generative AI – Grundlagen, Fallstricke, Chancen (Okt 2024) Thomas Lamprecht: Generative AI – Reality Insights (Okt 2024) NÜTZLICHE INFORMATIONEN Publikation zu vertrauenswürdiger KI: AI4Good – Ein Praxisleitfaden zur erfolgreichen Einführung von KI-Systemen AI-Act: Das KI-Gesetz gibt Entwicklern und Betreibern von KI klare Anforderungen und Verpflichtungen in Bezug auf spezifische Anwendungen von KI vor. ZUM MITMACHEN AI Pact: Die Initiative der europäischen Kommission unterstützt Organisationen bei der Vorbereitung auf die Umsetzung des AI Act. U.a. werden Informations-Events angeboten. European Digital Innovation Hub – AI5Production: Der österreichische Hub unterstützt produzierende KMU und Mid-Caps bei der digitalen Transformation und damit auch bei der Einführung von KI-Anwendungen. Im Rahmen des „Test Before Invest“ Services können konkrete Use-Cases gemeinsam mit Expert:innen erprobt werden. Bis zu 40.000 Euro werden zu 100% gefördert. Außerdem wird kostenloser Zugang zu Trainings, Unterstützung bei der Finanzierungssuche und Vermittlung zu Partnern aus dem europäischen Netzwerk geboten. Nehmen Sie unverbindlich Kontakt auf. Weitere nützliche Links finden Sie in den Präsentationen. ANSPRECHPERSONEN Plattform Industrie 4.0 Roland Sommer, roland.sommer@plattformindustrie40.at Michael Fälbl, faelbl@plattformindustrie40.at Stefanie Werderits, werderits@plattformindustrie40.at WKSalzburg (Sparte Industrie) Anita Wautischer: awautischer@wks.at WK Bezirksstelle Pinzgau: Dietmar Hufnagl: dhufnagl@wks.at FH Salzburg: Dr. Michael Gadermayr, michael.gadermayr@fh-salzburg.ac.at Software Competence Center Hagenberg – SCCH: Bernhard Nessler, bernhard.nessler@scch.at Research Studios Austria Forschungsgesellschaft – RSA FG Dr. Stefan Gindl , stefan.gindl@researchstudio.at Tietoevry: Thomas Lamprecht, lamprecht@tietoevry.com European Digital Innovation Hub (EDIH) – AI5Production: Ing. Franz Sümecz, franz.suemecz@tuwien.ac.at Claudia Schickling, pilotfabrik@tuwien.ac.at Ing. Christian Wögerer, christian.woegerer@profactor.at Weiterführende Informationen zu Förderungen. Weitere Informationen zum DIVE-Event in Salzburg mit dem Themenschwerpunkt „Generative KI“ im Oktober 2024 finden Sie HIER.