AI hier, AI da, AI überall

Auf zum Test!

Ich habe mir in der Zwischenzeit verschiedenste KIs angeschaut. Ich bleibe hier auch bei KI, obwohl ich das eher als falsche Bezeichnung empfinde.

Copilot, ChatGPT, Gemini, über Infomaniak bereitgestellte KIs. Lokale KIs.

Allen war gemein, dass die Technik beeindruckend war, das Endergebnis aber eher als fragwürdig oder zumindest teilweise qualitativ minderwertig betitelt werden kann.

LLMs – Large Language Models

LLMs sind große Sprachpakete mit viel Wissen. Meist auf Englisch, verstehen diese aber auch immer mehr andere Sprachen. Im Normalfall wird man aber mit Englisch bessere Ergebnisse bekommen.

Das Problem, egal ob Cloud-basiert oder lokal auf dem Rechner, sie sind halt nur so gut, wie ihre Wahrscheinlichkeit es ausrechnet, wie gut die Datengrundlage ist und wie restriktiv sie eingestellt sind. Grundlegende Informationen werden meist korrekt im Web recherchiert und dargestellt. Wenn es aber darum geht, ein nicht näher bekanntes Problem zu lösen, schwierig.

Kleine Anekdote:
Ich hatte über Switch Embedded Teaming eine Anfrage bei Copilot gestellt. Ist ja Microsoft, also stehen die Chancen gut, gute Ergebnisse zu bekommen. Die Frage war hauptsächlich wie genau die Technik hinter den Load Balancing-Methoden jetzt konkret den Netzwerkverkehr leitet. Die KI hat mir die selben FAQ Seiten gegeben, die ich bereits gefunden hatte, worin allerdings nicht die abgefragte Information dargestellt wurde, sondern nur das es Hyper-V Port und Dynamic Mode gibt. Auf weitere Nachfragen und Hinweise, dass die Seiten nicht die Technik dahinter genau erklären, hat der Algorithmus dann angefangen, Webseiten-URLs zu erstellen, die dem Schema der FAQ-Seiten von Microsoft ähneln, aber natürlich ins Nirgendwo führten. Die KI hat auf Grund von Wahrscheinlichkeiten und Muster einfach neue URLs erfunden.

Auch das neue Vibe Coding ist ein Problem, was man am Beispiel Microsoft ganz gut sieht. Es ist kein Monat in der letzten Zeit vergangen, wo ein Windows Update nicht irgendwie Probleme gemacht hat.
https://www.computerbase.de/news/apps/microsoft-ceo-satya-nadella-20-bis-30-prozent-des-microsoft-codes-sind-ai-generiert.92425/
Das Problem ist, dass die KI auf Muster setzt, die ihr bereits vorab durch Dokumentation der Programmiersprache und das Analysieren der vorhandenen Quellcodes vorgegeben wird.

Auch hier eine Anekdote:
Ich habe Copilot mal gefragt, es soll ein Powershell Skript erstellen, um die primären Benutzer aus dem Intune-Computerobjekt in die Bezeichnung der jeweiligen AD-Objekte zu schreiben. Das Skript sah im ersten Blick gut aus. Auf den zweiten Blick waren manche Befehle etwas merkwürdig. Die Struktur von Powershell Befehlen ist „Tue-DasHier“, also Remove-ADObject, Set-ADObject, New-ADObject. Da ist der Haken, die KI hat dann sowas ähnliches wie Create-ADObject und Change-ADObject daraus gemacht. Nur blöd, das es beide Befehlsstrukturen unter Powershell nicht gibt. Zumindest habe ich sie bisher nicht gesehen. Aus der Wahrscheinlichkeit und dem Muster her war es aber logisch für die KI. Ein Mensch, der aber schon in Powershell gearbeitet hat, kann sehr schnell antizipieren, das etwas nicht stimmt, auch wenn er vielleicht nicht sofort mit einer faktenbasierten Antwort den Fehler eingrenzen kann.

Intuition hat auch was mit Intelligenz und Erfahrung zu tun. KI hat keine Erfahrung, die weiß nur wie das Muster aussieht und was theoretisch die Dokumentation beschreibt. Wenn die Wahrscheinlichkeit es falsch berechnet, ist das Muster ein Problem.

T2I – Text-to-Image Models – Bild- und Videogenerierung

Ich bin beeindruckt wie gut das funktioniert. Online wie auch Lokal. Auch wieder auf Muster und Wahrscheinlichkeiten berechnet, kann es aber deutlich effektiver arbeiten – sie hat genau eine Aufgabe worauf diese spezialisiert ist.

Als Beispiel ein Prompt:
Zeichne mir ein Bild von zwei Hasen. Einer isst Gras und der zweite sitzt auf einem bunt bemalten Osterei. Im Hintergrund sieht man Berge mit einer Schneekuppe. Es ist sonniger Tag.

Hoppala, was ist denn da passiert? Alle sehen recht ähnlich aus und dazu sind Copilot und ChatGPT auch noch fast identisch.
Das hängt mit der vorhanden Datenbasis ab und wie diese interpretiert wurden. Da es halt eine Methode gibt, welche effizient Bildmuster erkennen tut und die Datenlage theoretisch erstmal für alle KIs die gleiche ist, das Internet, sehen eben auch alle Bilder recht ähnlich aus. Zusätzlich kommt noch dazu, dass ChatGPT und Copilot hauptsächlich von oder in Kooperation mit OpenAI kommen und daher fast identische Techniken verwenden.

Fantasie ist das was der KI prinzipiell fehlt. Sie kann nur das zeichnen, was sie vorher gesehen hat. Wenn man speziell Kindern beim Zeichnen zu schaut, dann weiß man aber, was mit der menschlichen Fantasie und Kreativität alles möglich ist.

Weitere Modellarten

Es gibt auch noch andere Modellarten, je spezialisierter umso besser arbeiten diese. Text-to-Speech, Audio Modelle, Image-to-Video Modelle. Es gibt mittlerweile eine wirklich große Vielfalt an spezialisierten Modellen. Und das ist auch die größte Stärke von KIs, wenn sie spezialisiert auf ein kleines Aufgabenfeld sind.

Prompt: Der linke Hase frisst genüsslich sein Gras und der rechte Hase auf dem Osterei schau freudig in die Kamera.
Über ComfyUI – WAN 2.2 14B Image-to-Video Flow-Vorlage

⬇️ Hier geht es zur nächsten Seite!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert