Frederic Miskawi, CGI

Frederic Miskawi

Vice-President, AI Innovation Expert Services Lead, Global AI Enablement Center of Expertise

 

Im ersten Teil dieses Blog-Artikels haben Sie erfahren, warum die Zukunft der KI in Multimodell-Ökosystemen liegt. Im zweiten Teil stehen Ethik und Sicherheit im Mittelpunkt.

Ob Sie KI-Ergebnisse erreichen, die mit Ihren Zielen und ethischen Grundsätzen übereinstimmen, hängt nicht nur von Ihrem KI-Ökosystem ab, sondern auch davon, wie Sie Ihre Modelle trainieren und ob Sie diese mit Daten füttern, die ihren Standards entsprechen. Jede Organisation hat dabei unterschiedliche Ansprüche und Toleranzgrenzen.

Was die Sicherheit betrifft, so gibt es mehrere potenzielle Angriffsmöglichkeiten im Zusammenhang mit LLMs und KI-Modellen im Allgemeinen. Eine recht neue Bedrohung stellen Kriminelle dar, die die Ergebnisse eines Modells mittels KI Social Engineering beeinflussen wollen. Wie Menschen können auch LLMs anfällig für Beeinflussung sein, wenn sie einer sorgfältig ausgewählten Reihe von Prompts ausgesetzt sind. Um diesen Bedrohungen entgegenzuwirken und zu verhindern, dass Ihre Modelle mehr Daten preisgeben als erwartet, können KI-Modelle wie Sicherheitsbeamte agieren, die beaufsichtigen und unterstützen – ähnlich einem Supervisor in einem menschlichen Callcenter.

Techniken zur Erhöhung der Sicherheit von KI-Ökosystemen

Ergänzend zu den Aufsichts-Modellen sollten Unternehmen zusätzlich die folgenden Techniken in Betracht ziehen:

  • Adversarial Training, um Modelle zu härten, damit sie gegen speziell erstellte Eingaben gewappnet sind – das sollte hohe Priorität haben
  • Sandbox-Validierung, um vor dem Produktivbetrieb nicht vertrauenswürdige Eingaben für Tests zu isolieren und somit zu verhindern, dass sich Bedrohungen auf aktive Systeme auswirken
  • Explainability-Metriken, um Erkenntnisse über die Modell-Logik und mehr Sicherheit bei der Identifizierung von Unregelmäßigkeiten zu gewinnen
  • Authentifizierungsmechanismen, um Überprüfungen zu ermöglichen und zu verbessern
  • Überwachen von Leistungsabweichungen, um Vorfälle wie Data Poisoning (das Einschleusen manipulierter Daten) zu erkennen
  • Integration von Blockchain-Algorithmen mit generativer KI in Ihr Ökosystem, um vertrauenswürdige Ergebnisse zu erzielen
     

Unternehmen sollten sich frühzeitig um Sicherheit und Datenschutz bemühen, indem sie sicherstellen, dass ihr KI-Ökosystem die notwendigen Kontrollmechanismen enthält.

In einem gesunden KI-Multimodell-Ökosystem lassen sich Parallelen zu vielen Aspekten der modernen menschlichen Gesellschaft ziehen. Die so genannten „Guten“ werden die Verwendung spezialisierter und generalistischer Modelle beibehalten wollen, um den so genannten „Bösen“ entgegenzuwirken, die die Modelle für ihre eigenen unlauteren Zwecke missbrauchen und korrumpieren wollen. In vielerlei Hinsicht ist dieses Rennen bereits jetzt in vollem Gange.

Mit „Human Experts in the Loop“ falsche Informationen verhindern

Eine zentrale Herausforderung bei LLMs und anderen generativen KI-Modellen ist der Umstand, dass sie unbelegte oder unlogische Informationen liefern können – so wie es sein kann, dass Menschen sich ungenau an Fakten erinnern. Solche „Halluzinationen“ liegen in der Arbeitsweise der Deep-Learning-Netze begründet.

Vereinfacht gesprochen, nehmen die Modelle Elemente aus Datensätzen wie Wörter und wandeln sie in Tokens um, die Bausteine von Text oder Code sind. Basierend auf den Beziehungen der Tokens in einem bestimmten Kontext, werden die Tokens als Nächstes in multidimensionale Vektoren übersetzt, die als Zahlenfolge aufgebaut sind. Wenn diese bei einer Eingabe in natürliche Sprache zurückübersetzt werden, generieren die Modelle – basierend auf ihrem Training – den statistisch wahrscheinlichsten Text, was zu falschen oder irrationalen Aussagen führen kann. Es gibt eine Vielzahl von Techniken und Ansätzen, mit denen Unternehmen das Auftreten von Halluzinationen minimieren können. Einige Beispiele:

  1. Direkte Einbindung der menschlichen Urteilskraft: Bessere „Human in the Loop“-Tools zur Ergebnisvalidierung und Kennzeichnung von Anomalien sowie das iterative Training durch KI-Expertinnen und -Experten ermöglichen Fehlerkorrekturen, Feedback und ein verbessertes Modell-Training in Echtzeit.
  2. Anwenden von Trainingstechniken und Prozessverbesserungen: Bestärkendes Lernen durch menschliches Feedback, Adversarial Training und Multitasking-Lernen können die Fakten verbessen, indem sie das Modell verschiedenen, von Expertinnen und Experten ausgewählten Szenarien und Reaktionen aussetzen. Darüber hinaus sorgen vergrößerte Datensätze, Confidence Scoring (die Bewertung der Zuverlässigkeit) und die Quantifizierung von Unsicherheiten dafür, dass das Modell eine solide Trainingsgrundlage hat und seine Leistung bewerten kann.
  3. Einsatz neuartiger Modell-Architekturen: Das Einbinden externer Wissensspeicher und modularer logikgesteuerter Komponenten kann zusätzliche Informations- und Entscheidungsebenen liefern, damit die KI genauere Ergebnisse liefert.
  4. Implementierung mehrerer Basismodelle: In einem gesunden KI-Ökosystem kann der Einsatz mehrerer Modelle zum Vergleich von Ergebnissen und zur Verringerung von Abweichungen eine zusätzliche Ebene der Kreuzvalidierung etablieren, die insgesamt die Genauigkeit der Ergebnisse erhöht.
  5. Einbeziehen von Kausalität und Argumentation in die Modellziele: Zusätzlich zur Vorhersagegenauigkeit können Kausalität und Argumentation dem KI-Modell ein besseres Datenverständnis vermitteln, wodurch sich die Wahrscheinlichkeit falscher Schlussfolgerungen verringert.
  6. Fokussierung auf hybride Ansätze: Die Kombination aus neuronalen Deep-Learning-Techniken mit symbolischer Logik (traditionelleren Algorithmen wie Blockchain) und Wissensrepräsentation kann die Genauigkeit und Treffsicherheit erhöhen, die Trainingszeit verringern und die Markteinführung durch Wiederverwendung beschleunigen.
     

Auch wenn diese Techniken helfen, unlogische Ergebnisse zu reduzieren, werden LLMs weiterhin fehlbar sein – so, wie es auch die menschliche Kommunikation manchmal sein kann. Dies bedeutet, dass KI-Ökosysteme auf absehbare Zeit weiter kontinuierliche Überprüfungen durch Menschen benötigen werden. Statt menschliche Arbeitskräfte durch KI zu ersetzen, werden sich Unternehmen, die das volle Potenzial von KI ausschöpfen wollen, auf Trainingsprogramme fokussieren, die ihre Mitarbeitenden zur Nutzung dieser Technologien befähigen. Wenn sie richtig implementiert wird, kann KI Mitarbeitende unterstützen und ihnen mehr Zeit für anspruchsvolle Aufgaben verschaffen, bei denen menschliche Stärken und Interaktionen gefragt sind. Zum Beispiel könnten Lehrkräfte mehr Zeit für den persönlichen Austausch mit ihren Schülerinnen und Schülern haben (siehe das 1984 von Benjamin Bloom beschriebene 2-Sigma-Problem). Solche Produktivitätssteigerungen könnten bei der Bewältigung des Fachkräftemangels helfen, der viele Unternehmen betrifft. Für einige Berufsgruppen könnte die Veränderung allerdings eine Herausforderung darstellen und Umschulungen sowie Unterstützung erfordern.

Mit einem durchdachten Ansatz in einem Multimodell-KI-Ökosystem mit Kontrollmechanismen können Unternehmen die Vorteile maximieren und möglichen Fehlentwicklungen entgegenwirken – indem sich KI und menschliche Arbeitskräfte gemeinsam weiterentwickeln, statt miteinander zu konkurrieren.

Unsere Sicht auf die KI-Ökosysteme der Zukunft

So wie ein Symphonieorchester die Talente verschiedener Musiker zu einem harmonischen Ganzen vereint, so erfordert die Ausschöpfung des vollen Potenzials von KI eine durchdachte Integration von Technologien, Daten und menschlichem Fachwissen.

Wir bei CGI sind überzeugt, dass es diese Verschmelzung ist, mit der sich die wertvollsten KI-gestützten Ergebnisse erzielen lassen. Unsere CGI PulseAI-Plattform steht beispielhaft für den Aufbau gesunder Ökosysteme, um verschiedenen KI-Modellen die Zusammenarbeit unter menschlicher Aufsicht zu ermöglichen – so, wie ein Dirigent die verschiedenen Instrumentengruppen anleitet.

Generalistische Sprachmodelle bieten eine solide Grundmelodie, auf die spezialisierte Computer-Vision- und Vorhersagemodelle aufbauen können. Durch die Orchestrierung dieser verschiedenen Fähigkeiten – die Kombination allgemeiner und spezialisierter Modelle, die Verwendung hochwertiger Datenbestände und das Ermöglichen der Zusammenarbeit von KI-Systemen und Menschen durch menschenzentriertes Design – entstehen maßgeschneiderte Lösungen für jede geschäftliche Herausforderung.

Die Zukunft der KI liegt in dieser harmonischen Synthese aus Modellen, Daten und Menschen. Das Ergebnis sind Lösungen, die einen greifbaren Mehrwert schaffen. Sprechen Sie uns gerne an, um über unsere Sicht auf Multimodell-KI und Best Practices für die Implementierung zu diskutieren.

Über diesen Autor

Frederic Miskawi, CGI

Frederic Miskawi

Vice-President, AI Innovation Expert Services Lead, Global AI Enablement Center of Expertise

Fred Miskawi leitet die AI Innovation Expert Services in unserem AI Enablement Center of Expertise. Er ist verantwortlich dafür, die KI-Expertinnen und -Experten aus den CGI-Innovation-Centern sowie den Emerging Technology Practices zusammenzubringen. Mit seiner Expertise in den Bereichen KI, menschenzentriertes Design und agile Umsetzung ...