QNAP® Systems, Inc. (QNAP), wiodący dostawca rozwiązań z dziedziny computing, networking oraz storage zaprezentował dziś dwie nowe karty akceleracyjne, zaprojektowane z myślą o zadaniach z dziedziny inferencji głębokiego uczenia (deep learning) AI. Nowości to modele Mustang-V100 (VPU) oraz Mustang-F100(FPGA) – użytkownicy mogą instalować te karty PCIe w wyposażonych w procesory Intel® komputerach PC, serwerach oraz urządzeniach QNAP NAS, by sprawniej obsługiwać złożone zadania obliczeniowe z zakresu sztucznej inteligencji w zastosowaniach przemysłowych, medycznych, handlowych, monitoringu wideo, etc.
“Szybkość przetwarzania danych jest kluczowym aspektem dla wydajności aplikacji z dziedziny sztucznej inteligencji (AI). Choć karty QNAP Mustang-V100 oraz Mustang-F100 są zoptymalizowane dla architektury OpenVINO™ i mogą z maksymalną wydajnością obsługiwać zadania obliczeniowe na platformie Intela, to można je również wykorzystywać w połączeniu z QNAP OpenVINO Workflow Consolidation Tool, aby zapewnić sobie maksymalne zwiększenie wydajności w zastosowaniach z dziedziny inferencji głębokiego uczenia, w najkrótszym możliwym czasie” – wyjaśnia Dan Lin, Product Manager QNAP.
Karty Mustang-V100 oraz Mustang-F100 stanowią atrakcyjne cenowo rozwiązania do inferencji AI, można je również wykorzystać z pakietem narzędzi OpenVINO do zoptymalizowania inferencji zadań obliczeniowych na potrzeby np. klasyfikacji czy rozpoznawania obrazów. Opracowany przez Intela toolkit OpenVINO umożliwia szybkie tworzenie i implementowanie rozwiązań wykorzystujących rozpoznawanie obrazu oraz tzw. głębokie uczenie. Zawiera on również mechanizmy Model Optimizer oraz Inference Engine, który można wykorzystać do optymalizowania modeli deep learning (takich jak Caffe and TensorFlow) do postaci IR (intermediate representation), a następnie do uruchamiania „silnika” inferencyjnego na całej platformie sprzętowej Intel (CPU, GPU, FPGA oraz VPU).
Urządzenia QNAP NAS stale ewoluują, z myślą o sprawnej obsłudze jak największej liczby aplikacji i potencjalnych zastosowań (w tym np. monitoringu wideo, wirtualizacji czy sztucznej inteligencji) – jako, że oferują one dużą przestrzeń dyskową oraz możliwość rozbudowy via PCIe, stanowią one również świetną platformę dla rozwiązań z dziedziny AI. QNAP stworzył narzędzie OpenVINO Workflow Consolidation Tool (OWCT) bazujące na technologii Intel OpenVINO – wykorzystanie go w urządzeniach QNAP NAS z procesorami Intela sprawia, że użytkownik otrzymuje do dyspozycji idealne rozwiązanie Inference Server, świetnie sprawdzające się w firmach chcących szybko budować systemy inferencyjne. Developerzy AI mogą dzięki niemu szybko wdrażać na QNAP NAS trenowane modele, a zainstalowanie kart rozszerzeń Mustang-V100 lub Mustang-F100 pozwoli im na zapewnienie sobie odpowiedniej do tych zadań wydajności.
Obsługa kart Mustang-V100 oraz Mustang-F100 pojawiła się w urządzeniach QNAP NAS wraz z najnowszą wersją systemu operacyjnego QTS 4.4.0. Listę modeli QNAP NAS obsługujących QTS 4.4.0 można znaleźć na stronie www.qnap.com. Aplikację OWCT dla QNAP NAS znaleźć można w App Center.
Specyfikacja
- Mustang-V100-MX8-R10
Karta w formacie o połowie wysokości, 8x Intel® Movidius™ Myriad™ X MA2485 VPU, interfejs PCI Express Gen2 x4, zapotrzebowanie na energię poniżej 30W - Mustang-F100-A10-R10
Karta w formacie o połowie wysokości, Intel® Arria® 10 GX1150 FPGA, interfejs PCI Express Gen3 x8, zapotrzebowanie na energię poniżej 60W
Źródło: QNAP.COM