BrainChip: Neuromorphe KI-Verarbeitung in der Cloud

Die BrainChip Developer Akida Cloud ist ein cloudbasierter Zugangspunkt zu mehreren Generationen und Konfigurationen der neuromorphen Akida-Technologie von BrainChip. Die erste Version der Developer Cloud bietet Zugriff auf die KI-Technologie der zweiten Generation, Akida 2.

Durch den Cloud-Ansatz wird der Zeit- und Arbeitsaufwand für die Nutzung von Akida reduziert, sodass Entwickler ihre Netzwerkmodelle schneller programmieren und ausführen können, um sofortige Ergebnisse zu erzielen und die Produktentwicklung zu beschleunigen. Gleichzeitig kann BrainChip den Entwicklern Neuerungen schneller und kostengünstiger zur Verfügung stellen.

Entwickler können nun ihre Echtzeitdaten an die Akida Cloud streamen, dort Inferenzberechnungen durchführen und die Ergebnisse wieder lokal streamen.

Die wichtigsten Vorteile von BrainChip Developer Akida Cloud sind:

  • Schnelle Prototypenerstellung: Entwickler können auf die neuesten Akida-Funktionen zugreifen und diese nutzen, ohne physische Hardware zu benötigen.
  • Entwickler-First-Zugriff: Ingenieure können parallel zur Hardware-Bereitstellung mit der Entwicklung beginnen.
  • Erweiterbarkeit: Wenn neue Versionen und Konfigurationen von Akida veröffentlicht werden, kann BrainChip diese über die Cloud bereitstellen.
  • Vorteile für Partner: Partner können Kunden funktionierende Modelle und Prototypen vorführen, sodass diese parallel arbeiten können, bevor sie Zugang zu Akida-Boards oder -Chips erhalten.
  • Flexibles Geschäftsmodell: Es umfasst begrenzten kostenlosen Zugang und nutzungsbasierte Preise mit Gutschriften für spätere Hardwarekäufe. Darüber hinaus bietet BrainChip eine Akida FPGA-Entwicklerplattform für Kunden, die eine Vor-Ort-Lösung bevorzugen.

Akida 2 wurde für hocheffiziente KI mit geringem Stromverbrauch entwickelt und ist jetzt in der Cloud verfügbar. Sie bietet eine viermal höhere Leistung und Effizienz als Akida 1 und dank der neuen Architekturunterstützung für 8-Bit-Quantisierung können Entwickler nun komplexere Modelle mit höherer Genauigkeit erstellen. Zu den neuen unterstützten Modellen gehören auf Zustandsraummodellen basierende Temporal Event-based Neural Networks (TENNs), die die Verarbeitung von Rohdaten aus Video-, Audio- und Sensordaten verbessern. Diese Kombination vereinfacht die Entwicklungspipeline, reduziert die Modellgröße und beschleunigt den Einsatz fortschrittlicher KI in Edge-Anwendungen verschiedener Branchen. (jr)

Link zur Originalmeldung

Link zur Produktseite