ITS OnRobot Schunk

Nové čipy pro umělou inteligenci

Umělá inteligence a samoučící systémy jsou novodobým hitem. Výrobci a vývojáři těchto řešení však narazili na problém: běžné čipy používané pro vyspělé, i když velmi výkonné počítače, nejsou vhodné pro úkoly řešené pomocí umělé inteligence.

 

To, že čipy nejsou i přes svůj vysoký výpočetní výkon pro úkoly tohoto typu příliš efektivní, vyvolalo poptávku po zcela nových technologických řešeních. Ta by měla lépe vyhovovat systémům umělé inteligence (AI) a způsobům, jakým pracují. Začaly proto vznikat první specializované čipy vyvíjené cíleně pro umělou inteligenci umožňující mnohem rychleji zpracovávat data v reálném čase a zvládat svižněji fáze učení.

IT giganti míří na AI
Google, který používá strojové učení a hluboké neuronové sítě v mnoha svých aplikacích, představil na letošní konferenci I/O pod označením TPU (Tensor Processing Unit) vlastní procesor pro oblast AI (psali jsme podrobněji v TM č. 7/2016, str. 44), s nímž chce získat náskok s využitím AI v cloudu a v datacentrech, kde probíhá většina zpracování logických operací pro Big data a různé aplikace. Cílem je proto veškeré tyto procesy maximálně optimalizovat.
TPU je serverový hardware o velikosti pevného disku, který jde snadno integrovat do rackových konstrukcí v datacentrech. Používá platformu pro strojové učení TensorFlow vyvinutou týmem Google Brain, kterou Google poskytl jako open-source pro vývojáře z celého světa. Základní jednotka TPU obsahuje hlavní ASIC čip specializovaný právě pro TensorFlow, desku s paměťovými prvky, konektory PCI Express, chladič a další komponenty. Využívá pevně danou instrukční sadu vyvinutou pro druhou generaci TensorFlow. Tyto jednotky byly využity i v proslulém souboji člověka s umělou inteligencí ve hře Go, kde AI od Googlu přesvědčivě demonstrovala své možnosti a nad nejlepším světovým hráčem v této logicky náročné hře zvítězila.
K nejambicióznějším firmám, které se zaměřily na vývoj nového vybavení pro oblast strojového učení a AI patří Nvidia. Strojové učení, zejména oblast označovanou jako Deep Learning, nechápe jako samostatný segment, ale jako technologii, která bude postupně integrovaná do různých systémů a časem se stane součástí všeho kolem nás. Hluboké neuronové sítě, fungující v určitých oblastech obdobně jako lidský mozek, budou široce využívány v nejrůznějších aplikacích. Nvidia proto vyvíjí jak hardwarové prvky a systémy, tak navazující softwarová řešení pro tuto dynamicky se rozvíjející oblast.
Kromě grafických jednotek Tesla P100 určených pro rychlé inteligentní zpracování obrazové informace pro AI, představila Nvidia loni i první kompaktní „superpočítač” s označením DGX-1, určený pro Deep Learning. Extrémně výkonná výpočetní jednotka (node) zahrnuje 8 špičkových grafických karet Tesla P100, takže učení hlubokých neuronových sítí může být výrazně rychlejší a efektivnější. Pokrok ve zrychlení učení pomocí nových technologií s dedikovanými systémy dokumentuje příklad, který uvedla Nvidia při loňském uvedení svých nových čipů. Zatímco úloha, jejíž řešení ještě v roce 2015 zabralo kvartetu grafických jednotek Maxwel více než den (25 hod) - práce s 1,33 mld. obrázků - zvládlo o rok později 8 grafických jednotek Tesla s novou architekturou Pascal za pouhé dvě hodiny. Během jediného roku se tak výkon grafických procesorů Nvidie s využitím technologie hlubokých neuronových sítí zdvanáctinásobil.
V průběhu červencové konference CVPR 2017 (Computer Vision and Pattern Recognition) na Havaji, zabývající se AI, představila Nvidia svůj nový výpočetní akcelerátor založený na čipu GV100 s novou architekturou Volta Tesla V100. Nové karty už byly předány k testování výzkumníkům v oboru AI z univerzit a jiných institucí, kteří budou moci připravit svůj software pro architekturu Volta - především využitím jejich speciálních jednotek Tensor Cores.

Výrobci procesorů nechtějí propást novou šanci
AMD představila koncem loňského roku novinku s názvem Radeon Instinct, zahrnující hardware v podobě nových grafických akcelerátorů a otevřenou softwarovou platformu ROCm (Radeon Open Compute Platform). Novinka je určena právě pro strojové učení a neuronové sítě, a měla by soupeřit např. i s výkonnými systémy Tesla P100 od Nvidia. Představeny byly tři modely grafických akcelerátorů Radeon Instinct s označením MI6, MI8 a MI25 v různé výkonnosti, z nichž každý je ale založen na jiné konfiguraci. Od nejslabšího MI6, založeného na 14nm čipu s architekturou Polaris, 16 GB paměti GDDR5 s propustností 224 GB/s a výpočetním výkonem 5,7 TFLOPS, až po nejvýkonnější verzi Radeon Instinct MI25, s čipem založeným na architektuře Vega a výkonem 12,5 TFLOPS (SP, v duálním provedení s FP16 pak až 25 TFLOPS).
Na produktech pro segment AI pracuje intenzivně také Intel, který chystá speciální koprocesory pro AI a neuronové sítě v podobě čipů s označením Lake Crest, jejichž výrobu hodlá zahájit už letos. Zatímco dosud se pro Deep Learning používaly hlavně rychlé a výkonné grafické čipy, Lake Crest je vyvíjen přímo pro využití v rámci Deep Learning a neuronových sítí. V první generaci bude mít podobu přídavné karty. Intel ale plánuje i verzi s kódovým označením Knights Crest, která by byla integrována do procesoru Xeon a umožnila větší koncentraci akcelerátorů v serverech. Intel využívá ve svých čipech určených pro segment AI technologii, kterou získal díky loňské akvizici startupu Nervana Systems. Lake Crest by měl podle dostupných informací být čipem s velkým množstvím paralelních jednotek, které sdílejí 32GB paměť HBM2 a nabídnout celkovou propustnost 1 TB/s.
K plejádě výrobců, kteří se zaměřili na oblast AI a Deep Learning se přidala i společnost Fujitsu. Vyvíjí vlastní čip v podobě jednotky DLU (Deep Learning Unit), který má být určen pro servery a superpočítače. V první generaci, jež by měla být uvedena na trh počátkem roku 2019, bude dostupný jako dodatečná karta (akcelerátor). Ve druhé generaci už má být integrován přímo v procesorech Fujitsu Sparc. Podle dostupných informací bude mít nový čip 16 prvků DPE (Deep Processing Elements), z nichž každý bude tvořit osm SIMD jednotek. Kromě velkého registru, který bude možné řídit softwarově, bude čip využívat také rychlé paměti HBM2. Fujitsu pro svou novinku kromě nové instrukční sady použije i vlastní speciální technologii rychlého spojení mezi více čipy s označením Tofu.  /va/

 
Publikováno: 31. 10. 2017 | Počet zobrazení: 860 článek mě zaujal 114
Zaujal Vás tento článek?
Ano