Intel Core Ultra PCs erhalten optimierte AI-Modelle, einschließlich stabiler Diffusion


Cutting Edge
2024-05-01T19:52:01Z

Die Revolution der generativen KI konzentrierte sich bisher vor allem auf die Ausführung großer und komplexer KI-Modelle in Server-Rechenzentren. Einige KI-Modelle sind jedoch so optimiert, dass sie auch auf normalen Computern laufen können, und Intel macht hier einige Fortschritte.

Intel gab heute bekannt, dass es inzwischen über 500 KI-Modelle gibt, die für seine neuen Intel Core Ultra Prozessoren optimiert sind, die im Dezember vorgestellt wurden und bereits in neuen PC-Laptops zum Einsatz kommen. Diese Liste enthält wahrscheinlich viele experimentelle und Testmodelle, die für die meisten Anwendungen keinen praktischen Nutzen haben, aber es gibt ein paar große Modelle: Phi-2, Metas Lllama-Modell, Mistral, Bert, Whisper und Stable Diffusion 1.5.

In einer Pressemitteilung von Intel heißt es: "Modelle bilden das Rückgrat von KI-gestützten Softwarefunktionen wie Objektentfernung, Bildauflösung oder Textzusammenfassung. Es besteht ein direkter Zusammenhang zwischen der Anzahl der aktivierten/optimierten Modelle und dem Umfang der benutzerseitigen KI-Funktionen, die auf den Markt gebracht werden können. Ohne ein Modell kann die Funktion nicht entwickelt werden. Ohne Laufzeitoptimierung kann die Funktion nicht ihre beste Leistung erreichen."

Die meisten (wenn auch nicht alle) dieser KI-Modelle können auf Nicht-Intel-Hardware ausgeführt werden, aber durch die Unterstützung der neueren Hardware-Funktionen, die für Intels neueste Chips spezifisch sind, werden sie für den realen Einsatz praktischer. Laut Intel umfasste der Optimierungsprozess des OpenVINO-KI-Modells beispielsweise "die Lastverteilung auf alle Recheneinheiten, die Komprimierung der Modelle zur effizienten Ausführung in einem KI-PC und die Optimierung der Laufzeit, um die Vorteile der Speicherbandbreite und der Kernarchitektur des Intel Core Ultra zu nutzen."

Maschinelles Lernen und KI-Modelle, die lokal auf Computern laufen, sind nichts Neues, aber die lokale Ausführung neuerer generativer KI-Modelle auf PCs hat einige interessante Anwendungsfälle. Man könnte so etwas wie ChatGPT und Microsoft Copilot komplett auf dem eigenen PC laufen lassen und damit möglicherweise die Bedenken bezüglich des Datenschutzes und der Netzwerkverbindung ausräumen, die mit dem Senden von Promptdaten an externe Server verbunden sind. Der lokale ChatRTX-Chatbot von NVIDIA ist ein Schritt in diese Richtung, aber er ist noch experimentell und erfordert einen PC mit einer leistungsstarken Grafikkarte der RTX 30- oder 40-Serie.

Intel hofft, dass Software, die diese optimierten Modelle verwendet, die Menschen zum Kauf neuerer Computer mit Core Ultra-Prozessoren bewegen könnte. Vorerst aber bleiben Cloud-basierte KI-Tools wie ChatGPT und Copilot bestehen.

Quelle: Intel