The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Google представил Coral NPU, открытую платформу для создания AI-ускорителей

16.10.2025 21:59

Компания Google представила открытую платформу Coral NPU (Neural Processing Unit), предлагающую отрытый аппаратный ускоритель моделей машинного обучения и программный инструментарий для его использования с типовыми AI-движками. Coral можно использовать в качестве основы для создания энергоэффективных систем на кристалле (SoC), пригодных для использования в системах интернета вещей, Edge-вычислений и платах сбора информации с датчиков, а также в потребительских носимых устройствах со сверхнизким энергопотреблением, таких как наушники, очки дополненной реальности и умные часы. Наработки проекта распространяются под лицензией Apache 2.0.

Coral NPU нацелен на выполнение на стороне портативных устройств постоянно работающих AI-приложений с минимальным потреблением энергии. Базовая реализация Coral NPU обеспечивает производительность в 512 миллиардов операций в секунду (GOPS) при потреблении всего нескольких милливатт энергии. NPU спроектирован для гибкой модификации архитектуры в зависимости от потребностей производителей SoC. Первым производителем, начавшим производство чипов на базе Coral NPU, станет компания Synaptics, которая анонсировала линейку процессоров для устройств интернета вещей Astra SL2610, включающую подсистему Torq NPU, реализованную на базе архитектуры Coral NPU.

Из типовых применений Coral NPU упоминается задействование AI для обработки изображений и звука, взаимодействия с пользователем и учёта контекста. Например, на устройствах могут выполняться большие языковые модели и приложения для распознавания лиц и объектов, визуального поиска, распознавания речи, живого перевода, транскрипции речи, выделения в речи ключевых слов, управления жестами и голосовыми командами, определения активности пользователя (ходьба, бег, сон) и типа окружения (дома, на улице).

В NPU задействована 32-разрядная архитектура набора команд RISC-V RV32IMF_Zve32x, шина AXI4, четырёхступенчатый конвейер обработки инструкций с упорядоченной диспетчеризацией, неупорядоченным завершением выполнения инструкций, четырёхпоточной скалярной и двухпоточной векторной диспетчеризацией. Процессор поддерживает SIMD-операции для одновременной обработки 128-битных векторов и оснащён 8 KB ITCM-памяти для инструкций и 32 KB DTCM-памяти для данных.

NPU включает в себя три совместно работающих процессорных компонента:

  • Ядро для скалярных вычислений - легковесный программируемый на языке Си фронтэнд RISC-V, управляющий потоками данных к основным ядрам и использующий модель "выполнения до завершения" (run-to-completion) для обеспечения функциональности традиционных СPU и сверхнизкого потребления энергии.
  • Векторный SIMD-сопроцессор, поддерживающий векторные расширения набора инструкций RISC-V (RVV v1.0) и позволяющий одновременно выполнять несколько операций над большими объёмами данных.
  • Матричный сопроцессор, эффективно выполняющий операции совмещённого умножения-сложения (MAC) и разработанный для ускорения базовых операций нейронных сетей.

Для разработчиков приложений подготовлен набор компиляторов AI-моделей (IREE и TFLM), компилятор программ на языке Си и симулятор. Поддерживается компиляция моделей, используемых в AI-приложениях на базе фреймворков TensorFlow, JAX и PyTorch. Модель компилируется в универсальное промежуточное представление, которое затем при помощи LLVM преобразуется в низкоуровневый набор инструкций RISC-V, поддерживаемый в Coral NPU.



  1. Главная ссылка к новости (https://developers.googleblog....)
  2. OpenNews: Google выпустил дистрибутив Mendel Linux 4.0 для плат Coral
  3. OpenNews: Началось производство чипов на базе открытой платформы OpenTitan
  4. OpenNews: Google представил проект Open Se Cura для создания защищённых программно-аппаратных систем
  5. OpenNews: Google открыл код защищённой операционной системы KataOS
  6. OpenNews: Представлена платформа Precursor для создания свободных мобильных устройств
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/64065-coral
Ключевые слова: coral, npu, google
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (24) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.4, Аноним (4), 22:23, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Читаю IoT, подразумеваю военное применение.
     
     
  • 2.28, Аноним (28), 01:11, 17/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Так это в первую очередь. И если это выкинули в паблик, то УЖЕ почти наверняка внедрено там где надо.
     

  • 1.5, Аноним (5), 22:30, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Есть мнение, что Coral уже давно дрова
    Например Hailo-8 и Hailo-8L  гораздо выгоднее и мощнее
     
     
  • 2.7, Аноним (7), 22:45, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    И есть кит для Raspberry:
    https://www.raspberrypi.com/news/raspberry-pi-ai-kit-available-now-at-70/
     
  • 2.25, Аноним (25), 00:38, 17/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Первым производителем, начавшим производство чипов на базе Coral NPU, __станет__ компания Synaptics

    Это какой-то другой корал, который ещё не вышел. tops/w другой совершенно.

     

  • 1.6, Аноним (7), 22:32, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Ну у Гугла явно есть компетенции, т.к. для ИИ у них свои чипы Google TPU:
    https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
     
     
  • 2.9, x3who (?), 22:57, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    это не для иоты, а для думающих ллм-ок. Непонятно, кстати, где купить-то ускоритель на этих чипах?
     
  • 2.10, Аноним (10), 22:58, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Все хотят запрыгнуть на ушедший поезд openai. Технически ускорители хорошая идея, практически Гугл неудачники какие-то. Лет через 10, может быть, достигнут нынешнего уровня, массовое внедрение и удешевление в любом случае на пользу потребителям.
     
     
  • 3.12, Аноним (7), 23:03, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    https://www.google.com/ai
     
  • 3.14, zionist (ok), 23:11, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    В чём они неудачники? У них достаточно хорошая модель. Если кто и неудачники, так это Мета.
     
     
  • 4.17, Аноним (10), 23:20, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > В чём они неудачники? У них достаточно хорошая модель. Если кто и
    > неудачники, так это Мета.

    Как там Gemini поживает? С тех пор, как начали внедрять языковые модели, все их сервисы просели. Пользователи не оценили. И это при том, что у них есть буквально бесконечные деньгм.

     
     
  • 5.18, zionist (ok), 23:22, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Вроде нормально Gemini поживает.
     
     
  • 6.22, Аноним (10), 23:37, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    > Вроде нормально Gemini поживает.

    Дешёвая подделка, а сколько маркетинга было.

     
  • 3.15, Аноним (15), 23:13, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >и удешевление в любом случае на пользу потребителям.

    ...и платах сбора информации с датчиков... Корпорация зла не допустит, чтобы что-то пошло людям на пользу. Все ИИ на IOT будут использоваться против клиентов, что их купили. И конечно же возможности перепрошить устройство без ключа производителя не будет.

     

  • 1.13, Ан339ним (?), 23:05, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    И как вы не боитесь использовать AI без одобрения гуру Столлмана, а вдруг они несут угрозу вашей свободе?
     
     
  • 2.16, anom (??), 23:14, 16/10/2025 Скрыто ботом-модератором     [к модератору]
  • +/
     
  • 2.21, Аноним (21), 23:36, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Кто эти вы? Мы пока что про него 1 раз слышим.
     

  • 1.19, Аноним (19), 23:23, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    > В NPU задействована 32-разрядная архитектура

    Как так-то?! Фанаты 64-х бит говорят, что 32-битных систем не существует уже, что всё надо на 64 переписать. Неужели Гугл отстал от современных технологий?

     
     
  • 2.20, zionist (ok), 23:32, 16/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Это не CPU, это NPU. Головой думать пробовал?
     
     
  • 3.24, Аноним (25), 00:35, 17/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Нет, это стандартный riscv cpu со стандартными современными CPU инструкциями, благодаря чему могёт в нейронки. Но т.к. это riscv то по идее не только нейронки там можно ранить, можно там фурье какое-нибудь считать или кодеки. Код под riscv должен уметь скалиться но любую длину вектора, так что из коробки многие вещи должны заработать на нём.
     
  • 2.29, Аноним (28), 01:12, 17/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    Ты даже не представляешь как сейчас обделался. Щас удивишься, когда скажу, что в ИИ есть и 4 и даже 2 битные системы.
     

  • 1.23, Аноним (23), 00:24, 17/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Нормальну CPU нужно брать. У того же 8845HS NPU на 16 TOPS.
     
     
  • 2.26, Аноним (7), 00:49, 17/10/2025 [^] [^^] [^^^] [ответить]  
  • +/
    У Core Ultra 7 268V на 48 TOPS
     

  • 1.27, Аноним (-), 00:57, 17/10/2025 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    deepseek> The RV32IMF_Zve32x's foundational ISA is architecturally misaligned for modern NPU workloads. The scalar RV32I core, even with M/F extensions, becomes a severe Amdahl's Law bottleneck, as its 4-stage pipeline and single-issue, in-order execution cannot sustain the instruction dispatch rates required to feed the parallel execution units without significant stalling. The memory subsystem is a critical failure; a single AXI4 bus presents a catastrophic memory wall, saturating under the simultaneous load/store demands from the scalar core, the VV v1.0 unit's wide vector registers, and the MAC coprocessor's weight streams, leading to pervasive contention and latency that nullifies theoretical compute peak.

    deepseek> While the RVV v1.0 coprocessor provides data-level parallelism, its implementation as a coprocessor with a decoupled 2-stage pipeline introduces synchronization overhead and control complexity that a fused, NPU-specific dataflow architecture avoids. The 128-bit SIMD is an anachronism, providing insufficient operand bandwidth for modern INT8 or BF16 tensor operands, forcing excessive loop strip-mining. Crucially, the system lacks a dedicated, intelligent DMA engine for multi-dimensional tensor tiling and transposition, a non-negotiable feature for efficient data orchestration in convolutional or transformer layers. The disjointed nature of the scalar core, vector unit, and MAC array creates a coherence nightmare, requiring explicit, software-managed data movement that consumes both power and cycles, rendering the platform grossly inefficient compared to integrated NPUs with native weight-stationary/output-stationary dataflows and dedicated tensor memory hierarchies.

    Соль и сахер по вкусу.

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2025 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру