Zukunft und Gegenwart zugleich
In vielen Anwendungen wird Künstliche Intelligenz schon heute genutzt. Aktuell arbeiten Forscher und Entwickler intensiv an der verbesserten Nutzung der Foundation-Modelle.
Ist Künstliche Intelligenz (KI) eine noch weit entfernte Zukunftstechnologie? Die Antwort ist ja und nein zugleich. Nein, weil KI-Anwendungen schon lange in unserem Leben Einzug gehalten haben. Zum Beispiel bei der Gesichtserkennung, die das Smartphone entsperrt. Oder bei Übersetzungsdiensten, die Texte und Dokumente in wenigen Sekunden in mittlerweile höchster Perfektion in eine Vielzahl von Fremdsprachen übersetzen. Oder Chatbot-Systeme wie ChatGPT oder Copilot, mit denen heute Schülerinnen und Schüler sowie Studierende Hausarbeiten auf eine ganz neue Art erstellen.
Drei Beispiele für IT-Anwendungen, die nicht auf klassischer Wenn-Dann-Programmierung beruhen. Sie basieren vielmehr auf umfangreichen Trainingsdaten und Lernverfahren, wie Supervised- oder Reinforcement-Learning, und Algorithmen, die oftmals hoch-komplexe neuronale Netze nutzen. Das Ergebnis eines KI-Algorithmus ist dabei niemals „0“ oder „1“. Die KI liefert immer eine Wahrscheinlichkeit, mit der eine mathematisch berechnete Vorhersage richtig ist. Hundert Prozent wird dabei nie erreicht. Künstliche Intelligenz irrt, mindestens ein bisschen. Und genau diese Eigenschaft erfordert einen kritischen Umgang mit den Ergebnissen, ohne aber das große Potenzial dieser neuen Technologie zu negieren. Nur mit künstlicher Intelligenz lassen sich auch für komplexeste Zusammenhänge und praxistaugliche Lösungsvorschläge berechnen. KI-Anwendungen sind mehr wie ein intelligenter Kollege, der vieles weiss, aber sich manchmal auch täuscht.
Einzug gehalten hat KI auch in der Logistik. Schon vor über sechs Jahren wurde im DACHSER Enterprise Lab am Fraunhofer IML damit begonnen, Algorithmen zu entwickeln, die die Tonnagemengen im DACHSER Stückgutnetzwerk 25 Wochen im Voraus prognostizieren. Geschaffen wurde auch eine Bilderkennung, die Packstücke im Stückgutlager in Echtzeit identifizieren, lokalisieren und vermessen kann. Bei DACHSER arbeiten Logistiker und Prozessexperten zusammen mit Mathematikern und Software-Entwicklern – so das seit einigen Jahren bewährte Grundkonzept der KI-Umsetzungsstrategie.
Neue, unerwartete Möglichkeiten
Dennoch bleibt Künstliche Intelligenz auch eine Zukunftstechnologie. Hier eröffnen neue Modelle immer wieder unerwartete Möglichkeiten. Dazu gehören derzeit vor allem die Foundation-Modelle der generativen KI. Diese mit sehr viel Daten aus dem Internet trainierten grossen Algorithmen können Texte und Bilder verstehen und kreieren. Insbesondere Large Language Models (LLM) wie ChatGPT suggerieren dabei eine scheinbare „Intelligenz“. Dahinter steckt am Ende aber auch nur eine mathematische Funktion, die sinnvolle Wortreihenfolgen vorhersagt.
Foundation-Modelle in der KI: Ein Foundation-Modell bezeichnet in der Künstlichen Intelligenz (KI) ein grosses, bereits vortrainiertes Modell, das auf umfangreichen Datensätzen basiert und für eine Vielzahl von Aufgaben verwendet werden kann. Es gibt verschiedene Arten von Foundation-Modellen, darunter Large Language Models (LLMs) und visuelle Verarbeitungsmodelle. LLMs wie „GPT-4“ von OpenAI, „Gemini (vormals Bard)“ sowie „Bert“ von Google oder „Llama3“ von Meta sind darauf spezialisiert, natürliche Sprache zu verstehen und zu generieren. Visuelle Modelle wie Sora und DALL-E von OpenAI sind darauf ausgelegt, Videos und Bilder aus freien Texteingaben (Prompts) zu generieren. Foundation-Modelle werden oft als Grundlage für spezialisierte Anwendungen verwendet, indem sie weiter auf spezifische Aufgaben oder Datensätze angepasst werden.
Foundation-Modelle in der KI: Ein Foundation-Modell bezeichnet in der Künstlichen Intelligenz (KI) ein grosses, bereits vortrainiertes Modell, das auf umfangreichen Datensätzen basiert und für eine Vielzahl von Aufgaben verwendet werden kann. Es gibt verschiedene Arten von Foundation-Modellen, darunter Large Language Models (LLMs) und visuelle Verarbeitungsmodelle. LLMs wie „GPT-4“ von OpenAI, „Gemini (vormals Bard)“ sowie „Bert“ von Google oder „Llama3“ von Meta sind darauf spezialisiert, natürliche Sprache zu verstehen und zu generieren. Visuelle Modelle wie Sora und DALL-E von OpenAI sind darauf ausgelegt, Videos und Bilder aus freien Texteingaben (Prompts) zu generieren. Foundation-Modelle werden oft als Grundlage für spezialisierte Anwendungen verwendet, indem sie weiter auf spezifische Aufgaben oder Datensätze angepasst werden.
RAG: fundiertere KI-gestützte Recherche
Im Fokus vieler KI-Entwicklungen ist auch die Retrieval-Augmented Generation (RAG), die die Qualität der Ergebnisse von grossen Foundation-Modellen erhöhen soll. Im Kern werden durch RAG dem LLM für den Anwendungsfall qualitativ hochwertigere Daten- und Wissensquellen an die Seite gestellt. Dadurch wird verhindert, dass ein LLM ein Ergebnis erfindet, wenn es keine Lösung mit hoher Wahrscheinlichkeit der Korrektheit berechnen kann. Dieses Verhalten von LLM-Tools wird auch als „Halluzination“ bezeichnet und untergräbt beim Nutzer nicht selten das Vertrauen in Künstliche Intelligenz.
Die weitere Erforschung der Künstlichen Intelligenz wird noch eine ganze Reihe von neuen Anwendungsmöglichkeiten hervorbringen. Unternehmen wie DACHSER müssen dabei den richtigen Mix zwischen der Nutzung von standardisierten KI-Anwendungen und Eigenentwicklungen finden. Vor allem für spezielle logistische Prozesse und Lösungen müssen KI-Modelle mit spezifischen unternehmensinternen Daten trainiert werden. Allgemeine im Internet verfügbare Informationen langen hier als Trainingsgrundlage nicht aus. Gleichzeitig sind auch die Kosten insbesondere von rechenleistungsintensiven KI-Modellen sowie die Einhaltung des neuen Rechtsrahmen der Europäischen Union für KI-Anwendungen (AI Act) zu beachten. Wirtschaft und Gesellschaft stehen erst am Anfang einer tiefgreifenderen und mit einigen Herausforderungen versehenden Nutzung von künstlicher Intelligenz.
Autor: Andre Kranke, Head of Corporate Research & Development bei DACHSER