PR-QM2-2P_2S10G1TA-en
,

QNAP prezentuje nowe karty QM2 PCIe dla NAS-ów i komputerów PC

PR-QM2-2P_2S10G1TA-en

QNAP® Systems, Inc. rozszerzył swoją linię kart rozszerzeń QM2 PCIe o dwa modele, wykorzystujące kontroler Aquantia® AQC107: kartę rozszerzeń z dwoma złączami M.2 2280 SATA SSD i jednym portem 10GbE (model QM2-2S10G1TA) oraz kartę z dwoma złączami M.2 2280 PCIe NVMe SSD i jednym portem 10GbE (model QM2-2P10G1TA). Użytkownicy mogą w łatwy sposób instalować karty QM2 w kompatybilnych urządzeniach QNAP NAS lub komputerach i stacjach roboczych Windows®/Linux® i doposażać je w ten sposób w złącza M.2 SSD (nośniki M.2 SSD oferowane są oddzielnie) oraz łączność 10GBASE-T Multi-Gigabit (10G/5G/2.5G/1G/100M).

“Karty QM2 stanowią dla użytkowników atrakcyjne cenowo rozwiązanie pozwalające na łatwe zwiększenie wydajności i możliwości systemu. Zintegrowanie w jednej karcie złączy M.2 SSD oraz łączności 10 GbE pozwala jednocześnie zwiększyć prędkość transferów oraz wydajność, a tym samym – sprawnie obsługiwać nowoczesne aplikacje wymagające najwyższej szybkości i to bez ponoszenia znaczących wydatków na rozbudowę infrastruktury” – wyjaśnia Dan Lin, Product Manager QNAP.

Innowacyjne karty QM2 M.2 SSD wyposażone są w sensor temperatury (pozwalający na jej stałe monitorowanie) oraz cichy system chłodzenia (radiator oraz inteligentny wentylator), co minimalizuje ryzyko przegrzania i zapewnia stałą, wysoką wydajność. W porównaniu z nośnikami SATA, bazujące na PCIe, karty QM2 oferują znacznie wyższą przepustowość. Nowe modele kart QM2 obsługują dwa moduły M.2 SSD, pozwalając na korzystanie z funkcji SSD caching przy większej pojemności, co pozwala na zoptymalizowanie działania najbardziej wymagających aplikacji, a także na korzystanie z technologii tiered storage w QNAP NAS i obsługę RAID 0/RAID 1 (zapewniającą optymalny balans pomiędzy pojemnością i ochroną danych).

Specyfikacja nowych kart QM2 PCIe

Model Opis PCIe i linie
QM2-2S10G1TA Karta rozszerzeń z dwoma złączami M.2 2280 SATA SSD i jednym portem 10GbE PCIe Gen2 x 4
QM2-2P10G1TA Karta rozszerzeń z dwoma złączami M.2 2280 PCIe NVMe SSD i jednym portem 10GbE PCIe Gen2 x 4

 

Więcej informacji o kartach QM2 PCIe oraz kompatybilnych modelach QNAP NAS, znaleźć można na stronie:

Źródło: QNAP.COM

Mustang-V100-F100-en
,

QNAP prezentuje karty akceleracyjne Mustang wyposażone w Intel VPU/FPGA Vision Accelerator Solution

Mustang-V100-F100-en

QNAP® Systems, Inc. (QNAP), wiodący dostawca rozwiązań z dziedziny computing, networking oraz storage zaprezentował dziś dwie nowe karty akceleracyjne, zaprojektowane z myślą o zadaniach z dziedziny inferencji głębokiego uczenia (deep learning) AI. Nowości to modele Mustang-V100 (VPU) oraz Mustang-F100(FPGA) – użytkownicy mogą instalować te karty PCIe w wyposażonych w procesory Intel® komputerach PC, serwerach oraz urządzeniach QNAP NAS, by sprawniej obsługiwać złożone zadania obliczeniowe z zakresu sztucznej inteligencji w zastosowaniach przemysłowych, medycznych, handlowych, monitoringu wideo, etc.

“Szybkość przetwarzania danych jest kluczowym aspektem dla wydajności aplikacji z dziedziny sztucznej inteligencji (AI). Choć karty QNAP Mustang-V100 oraz Mustang-F100 są zoptymalizowane dla architektury OpenVINO™ i mogą z maksymalną wydajnością obsługiwać zadania obliczeniowe na platformie Intela, to można je również wykorzystywać w połączeniu z QNAP OpenVINO Workflow Consolidation Tool, aby zapewnić sobie maksymalne zwiększenie wydajności w zastosowaniach z dziedziny inferencji głębokiego uczenia, w najkrótszym możliwym czasie” – wyjaśnia Dan Lin, Product Manager QNAP.

Karty Mustang-V100 oraz Mustang-F100 stanowią atrakcyjne cenowo rozwiązania do inferencji AI, można je również wykorzystać z pakietem narzędzi OpenVINO do zoptymalizowania inferencji zadań obliczeniowych na potrzeby np. klasyfikacji czy rozpoznawania obrazów. Opracowany przez Intela toolkit OpenVINO umożliwia szybkie tworzenie i implementowanie rozwiązań wykorzystujących rozpoznawanie obrazu oraz tzw. głębokie uczenie. Zawiera on również mechanizmy Model Optimizer oraz Inference Engine, który można wykorzystać do optymalizowania modeli deep learning (takich jak Caffe and TensorFlow) do postaci IR (intermediate representation), a następnie do uruchamiania „silnika” inferencyjnego na całej platformie sprzętowej Intel (CPU, GPU, FPGA oraz VPU).

Urządzenia QNAP NAS stale ewoluują, z myślą o sprawnej obsłudze jak największej liczby aplikacji i potencjalnych zastosowań (w tym np. monitoringu wideo, wirtualizacji czy sztucznej inteligencji) – jako, że oferują one dużą przestrzeń dyskową oraz możliwość rozbudowy via PCIe, stanowią one również świetną platformę dla rozwiązań z dziedziny AI. QNAP stworzył narzędzie OpenVINO Workflow Consolidation Tool (OWCT) bazujące na technologii Intel OpenVINO – wykorzystanie go w urządzeniach QNAP NAS z procesorami Intela sprawia, że użytkownik otrzymuje do dyspozycji idealne rozwiązanie Inference Server, świetnie sprawdzające się w firmach chcących szybko budować systemy inferencyjne. Developerzy AI mogą dzięki niemu szybko wdrażać na QNAP NAS trenowane modele, a zainstalowanie kart rozszerzeń Mustang-V100 lub Mustang-F100 pozwoli im na zapewnienie sobie odpowiedniej do tych zadań wydajności.

Obsługa kart Mustang-V100 oraz Mustang-F100 pojawiła się w urządzeniach QNAP NAS wraz z najnowszą wersją systemu operacyjnego QTS 4.4.0. Listę modeli QNAP NAS obsługujących QTS 4.4.0 można znaleźć na stronie www.qnap.com. Aplikację OWCT dla QNAP NAS znaleźć można w App Center.

Specyfikacja

  • Mustang-V100-MX8-R10
    Karta w formacie o połowie wysokości, 8x Intel® Movidius™ Myriad™ X MA2485 VPU, interfejs PCI Express Gen2 x4, zapotrzebowanie na energię poniżej 30W
  • Mustang-F100-A10-R10
    Karta w formacie o połowie wysokości, Intel® Arria® 10 GX1150 FPGA, interfejs PCI Express Gen3 x8, zapotrzebowanie na energię poniżej 60W

Źródło: QNAP.COM