Ant Group führt einheimische KI-Chips ein, um Kosten und Abhängigkeit zu senken

Inhaltsverzeichnis

Ant Group setzt auf einheimische Chips für KI-Training, um Kosten und Abhängigkeit von US-Technologie zu reduzieren

Als kostensparende Maßnahme für das Training von Modellen der künstlichen Intelligenz (KI) hat die Ant Group, der Fintech-Arm von Alibaba, zunehmend auf einheimische chinesische Halbleiter zurückgegriffen, um ihre Abhängigkeit von eingeschränkter US-Technologie zu verringern oder zu minimieren. Laut Quellen, die mit der Angelegenheit vertraut sind, ist es dem Unternehmen gelungen, große Sprachmodelle (LLMs) auf einheimischen Chips von Huawei und internen Lieferanten von Alibaba zu trainieren, und zwar mit einer Leistung, die mit der von LLMs vergleichbar ist, die mit Nvidia H800 GPUs trainiert wurden.

In Anbetracht der Tatsache, dass die USA die Ausfuhrkontrollen für fortschrittliche Chips verschärft haben, könnten diese Verschiebungen eine immer stärkere Position der Ant Group im zunehmenden KI-Wettlauf chinesischer Technologieunternehmen mit US-amerikanischen Unternehmen widerspiegeln, insbesondere für Unternehmen, die nach kosteneffizienten Alternativen suchen.

Ant’s Umstellung auf einheimische Chips und der Ansatz des MoE

Die Ant Group hat mit der Mixture of Experts (MoE)-Methode experimentiert, einer KI-Trainingstechnik, bei der Aufgaben in kleinere Datensätze aufgeteilt werden, die von spezialisierten Teilmodellen bearbeitet werden. Dieser Ansatz, der auch von Google und dem chinesischen KI-Startup DeepSeek verwendet wird, verbessert die Effizienz, da sich verschiedene Komponenten auf bestimmte Aspekte eines Problems konzentrieren können – ähnlich wie ein Team von Spezialisten, die zusammenarbeiten.

Das Forschungspapier des Unternehmens mit dem Titel „Scaling Models Without Premium GPUs“ (Skalierung von Modellen ohne Premium-GPUs) beschreibt, wie Ant seinen KI-Trainingsprozess mit weniger spezifizierten einheimischen Chips optimierte und dabei ähnliche Leistungswerte wie mit den High-End-GPUs H800 von Nvidia erreichte.

Die wichtigsten Ergebnisse der Ameisenforschung:

Das Trainieren von einer Billion Token (die grundlegenden Dateneinheiten für das KI-Lernen) kostete mit herkömmlicher Hochleistungshardware 6,35 Millionen Yuan (~ 880.000 US-Dollar).

Durch die Optimierung seiner Schulungsmethoden konnte Ant die Kosten auf 5,1 Millionen Yuan (ca. 700.000 US-Dollar) senken – eine Reduzierung um 20 % – und dabei günstigere einheimische Chips verwenden.

Die Modelle des Unternehmens, Ling-Lite (16,8 Milliarden Parameter) und Ling-Plus (290 Milliarden Parameter), zeigten in einigen Benchmarks eine vergleichbare Leistung wie die Modelle von Meta.

Warum dieser Schritt für Chinas KI-Industrie wichtig ist

Die USA haben strenge Ausfuhrkontrollen für fortschrittliche KI-Chips, darunter die Grafikprozessoren A100 und H100 von Nvidia, verhängt und zwingen chinesische Technologieunternehmen, nach Alternativen zu suchen. Obwohl der H800 (eine herabgestufte Version des H100) in China noch erhältlich ist, bleibt seine Versorgung aufgrund geopolitischer Spannungen unsicher.

Der Erfolg von Ant bei der Verwendung einheimischer Chips für das KI-Training könnte ein Zeichen für einen breiteren Wandel in Chinas Technologie-Ökosystem sein:

  • Geringere Abhängigkeit von US-Technologie: Durch den Beweis, dass chinesische Chips wettbewerbsfähige Ergebnisse liefern können, ebnet Ant den Weg für andere Unternehmen, diesem Beispiel zu folgen.
  • Niedrigere Kosten für die KI-Entwicklung: Kleinere Unternehmen, die sich die Premium-GPUs von Nvidia nicht leisten können, können von kostengünstigen einheimischen Alternativen profitieren.
  • Förderung der lokalen Halbleiterinnovation: Die Ascend-Chips von Huawei und die hauseigenen Hanguang-Prozessoren von Alibaba entwickeln sich zu brauchbaren Ersatzprodukten, die Chinas Eigenständigkeit bei KI-Hardware stärken.

Herausforderungen und Beschränkungen

Trotz der Fortschritte räumt das Forschungspapier von Ant ein, dass das Training von KI-Modellen auf einheimischer Hardware nicht unproblematisch ist:

  • Instabilität der Leistung: Kleine Anpassungen der Hardware oder der Modellstruktur führten manchmal zu Leistungsschwankungen, einschließlich plötzlicher Spitzen bei den Fehlerraten.
  • Bedenken in Bezug auf die Skalierbarkeit: Während MoE die Effizienz verbessert, ist es nach wie vor schwierig, diese Modelle so zu skalieren, dass sie die Fähigkeiten von Branchenführern wie OpenAIs GPT-4.5 (geschätzte 1,8 Billionen Parameter) erreichen.
  • Anhaltende Abhängigkeit von Nvidia: Ant verwendet für einige KI-Aufgaben immer noch Nvidia-GPUs, was darauf hindeutet, dass eine vollständige Umstellung auf einheimische Chips einige Zeit dauern kann.

Die KI-Ambitionen von Ant: Gesundheitswesen, Finanzen und mehr

Die Ant Group konzentriert sich nicht nur auf die Kostensenkung, sondern erweitert auch ihre KI-Anwendungen in realen Branchen:

  • Gesundheitswesen: Anfang dieses Jahres übernahm Ant Haodf.com, eine führende chinesische Online-Medizinplattform, um KI-gesteuerte Diagnose- und Patientenversorgungslösungen zu integrieren.
  • Finanzen: Das Unternehmen betreibt KI-gestützte Finanzdienstleistungen, darunter Zhi Xiao Bao (ein virtueller Assistent) und Maxiaocai (eine Finanzberatungsplattform).
  • Open-Source-KI-Modelle: Durch die Veröffentlichung von Ling-Lite und Ling-Plus als Open-Source-Modelle will Ant die Zusammenarbeit fördern und die Einführung von KI in allen Branchen beschleunigen.

Das Gegenargument von Nvidia: Der Bedarf an mehr Leistung

Während Jensen Huang, CEO von Nvidia, über kosteneffiziente Lösungen spricht, bekräftigt er die ständig steigende Nachfrage nach Rechenleistung, unabhängig von Effizienzsteigerungen. Er erklärt, dass Unternehmen eher zu den leistungsstärkeren Chips (wie Nvidias neuen Blackwell-GPUs) greifen werden, um Geld zu verdienen, als Kompromisse mit billigeren Systemen einzugehen, die einfach nicht mehr ausreichen.

Diese Divergenz in der Strategie wirft ein Schlaglicht auf eine zentrale Debatte in der KI Entwicklung:

  • Ansicht der Ameise: Optimieren Sie Modelle und Hardware, um Kosten und Abhängigkeit von ausländischer Technologie zu reduzieren.
  • Ansicht von Nvidia: Forcieren Sie fortschrittlichere GPUs, um immer komplexere KI-Arbeitslasten zu bewältigen.

Wie geht es weiter mit Chinas KI-Chipindustrie?

Das Experiment der Ant Group mit einheimischen Chips ist nur ein Teil von Chinas breiterem Bestreben nach Unabhängigkeit im Halbleiterbereich. Andere wichtige Entwicklungen sind:

  • Huawei’s Ascend AI Chips: Werden bereits von großen Unternehmen wie iFlytek und Baidu verwendet.
  • Biren Technology und Moore Threads: Chinesische GPU-Startups, die an wettbewerbsfähigen Alternativen zu Nvidia arbeiten.
  • Staatliche Unterstützung: Pekings „Big Fund“ investiert weiterhin stark in die heimische Chipfertigung.

Experteneinblick

„Wenn man einen Angriffspunkt findet, um den weltbesten Kung-Fu-Meister zu schlagen, kann man immer noch sagen, dass man ihn besiegt hat – deshalb ist die Anwendung in der Praxis so wichtig“, sagt Robin Yu, CTO des in Peking ansässigen KI-Unternehmens Shengshang Tech. Diese Philosophie steht im Einklang mit der Strategie von Ant, sich auf praktische, kosteneffiziente KI-Lösungen zu konzentrieren, anstatt nur auf die reine Rechenleistung zu setzen.

Schlussfolgerung:

In erster Linie unterstreicht der Schritt der Ant Group, KI-Chips im eigenen Land zu entwickeln, die Bedeutung, die diese Entwicklung für Chinas Dynamik in Richtung technologischer Autarkie haben wird. So kosteneffizient und leistungsfähig, wie es dem Unternehmen gelungen ist, seine Produkte herzustellen, könnte dieses Phänomen auch weitere chinesische Technologieunternehmen zur Übernahme ermutigen. Innovationen, wie sie Ant in seinem auf dem MoE basierenden Training vorstellt, könnten sich als entscheidend für die künftige Entwicklung der globalen KI erweisen, insbesondere angesichts der Spannungen zwischen China und den USA.

Table of Contents

Jetzt kostenloses Erstgespräch vereinbaren

Details

Aktie

Buchen Sie noch heute Ihre kostenlose KI-Beratung

Stellen Sie sich vor, Sie könnten Ihren Affiliate-Marketing-Umsatz verdoppeln, ohne Ihren Arbeitsaufwand zu verdoppeln. Klingt zu schön, um wahr zu sein. Dank der schnellen …

Ähnliche Beiträge

Frau dankt ChatGPT: Wie KI ihren Krebs vor den Ärzten entdeckte

Microsoft’s KI spart 4 Milliarden Dollar: Eine mächtige Waffe gegen KI-gesteuerten Betrug

Googles Gemini 2.5 Flash gewinnt an KI-Kontrolle für intelligentere Entscheidungen