Облака перестали воспринимать только как инструмент экономии, постепенно они становятся основой для цифровой трансформации российского бизнеса. Как облачные технологии помогают крупным компаниям быстрее запускать новые ИТ-сервисы и почему облака неразрывно связаны с внедрением технологических инноваций даже небольшим бизнесом, — этим вопросам посвятил свое выступление на саммите Merlion IT Solutions Summit директор по стратегии облачного провайдера #CloudMTS Антон Захарченко.

Во-первых, облака — это основа для развития цифровых экосистем

В условиях высокой конкуренции и непредсказуемости экономики облака позволяют крупным компаниям повысить гибкость и быстрее реализовывать новые проекты. На основе облаков можно строить целые digital-экосистемы, внедряя, например, бизнес-приложения по аналитике и комплексному управлению производством. При этом все заботы о задействованном в проектах ИТ-оборудовании и его обслуживании — полностью ложатся на плечи облачного провайдера.

Пример: Недавно стартовал проект по внедрению цифровой платформы управления на основе решений SAP для Segezha Group, одного из крупнейших российских вертикально-интегрированных лесопромышленных холдингов с полным циклом лесозаготовки и глубокой переработки древесины. В ходе реализации проекта будет создано цифровое ядро компании, позволяющее управлять предприятием полного производственного цикла. Первый этап проекта рассчитан на 1,5 года: цифровая платформа заменит более ста производственных и управленческих систем Segezha Group. Она будет размещена в частном облаке, созданном в собственном дата-центре МТС — «Авантаж». Провайдер обеспечит внедрение, эксплуатацию и сервисное обслуживание инфраструктуры проекта как на уровне облака, так и ИТ-оборудования. Ожидается, что в результате вырастет точность планирования и исполнения производственных планов, сократятся простои оборудования и складские запасы, будут оптимизированы транспортные расходы.

Во-вторых, облака обеспечивают более быструю разработку и внедрение клиентских сервисов

Крупный бизнес, например, банки и ритейл, все активнее внедряют цифровые клиентские сервисы, развивая каналы обслуживания. По данным российских банков, оборот в дистанционных каналах вырос за последний год более чем на 20%. Развитие онлайн-сервисов обеспечивает бизнесу оптимизацию операционных издержек и повышение общей эффективности. Как показывает практика, облака позволяют минимум в 1,5 раза ускорить процессы разработки и вывода на рынок новых ИТ-сервисов для клиентов.

Пример: Перенос в облако тестовых сред для разработки новых продуктов позволил одному из крупных банков страны быстрее внедрять цифровые интерфейсы и развивать каналы продаж, в том числе удаленного самообслуживания. Кроме того, в разы ускорить запуск приложений и минимум на 40% сократить связанные с этим затраты позволяют контейнерные сервисы, которые снимают «конфликт» между средой разработки ИТ-решений и средой их внедрения. Используя контейнерные технологии, крупный бизнес из финансового сектора, промышленности и ритейла получает возможность кратно быстрее осуществлять разработку и внедрение бизнес-приложений и внешних клиентских сервисов, сокращая time-to-market. Банки, например, будут гораздо быстрее разрабатывать и внедрять сервисы онлайн-банкинга и клиентские мобильные приложения. Онлайн-ритейл получит инструмент, позволяющий оперативно масштабировать ресурсы своих сайтов в зависимости от поступающего на них трафика. Такой сервис создает сейчас #CloudMTS на основе стартапа Containerum из собственного акселератора.

В-третьих, облачные сервисы позволяют выходить на новые рынки и гибко масштабировать бизнес

Победителей определяет скорость. Чем быстрее бизнес выведет свой продукт на рынок, тем быстрее он начнет получать прибыль. То же относится к открытию новых филиалов и представительств. При этом, как правило, аналитики прогнозируют будущий спрос в новом городе или регионе, где планируется открыть представительство. Но всегда остается вероятность, что эти расчеты могут «не сработать». Облака позволяют компаниям гибко реагировать на изменения внешнего контекста и быстро принимать решения о развитии или сокращении филиальной сети.

Пример: В августе прошлого года Газпромбанк запустил новое для себя направление автолизинга в сегменте малого и среднего бизнеса. Рынок автолизинга активно растет, и он очень конкурентный. Облака позволили лизинговой компании быстро масштабироваться, нарастив свое физическое присутствие в регионах. Планируется, что к концу этого года филиальная сеть будет насчитывать около двадцати представительств.

Другим конкурентным преимуществом стало то, что ставка была сделана на полностью цифровой продукт — быстрый и простой лизинг в интернете. Личная встреча с клиентом происходит только в момент выдачи автомобиля. Все клиентские сервисы — мобильные приложения, сайт, личный кабинет — работают на основе облачных технологий #CloudMTS. За счет того, что разместить клиентское приложение можно в разных локациях облака, обеспечена высокая скорость работы сервисов — до десяти раз быстрее по сравнению с традиционным подходом. Это пример нового подхода, когда крупный федеральный игрок развивает новое направление бизнеса, не имея ни одной серверной. И чтобы быстро расти и догонять конкурентов, компания изначально строит весь свой новый бизнес на основе облачных технологий.

В-четвертых, облака делают инновации в разы доступнее

Существует мнение, что внедрение инноваций — это крайне затратно. Текущий уровень развития облачных сервисов позволяет сделать, например, технологии больших данных или искусственного интеллекта доступными для широкого круга компаний.

Пример: Аренда графических карт в облаке позволяет получить ресурсы для тренировки нейронных сетей именно на тот срок и в том объеме, который необходим на время проекта. Подобные облачные решения уже есть на российском рынке. Благодаря им технологические стартапы и небольшие компании могут в сотни раз снижать затраты на высокопроизводительные вычисления, связанные, например, с обработкой видео, распознаванием лиц и речевыми технологиями. Например, облачный суперкомпьютер #CloudMTS в 140 раз ускоряет процессы глубокого обучения нейросетей в сравнении с вычислениями на обычных процессорах, его можно арендовать даже на сутки. В финтехе, к примеру, облачный суперкомпьютер может быть использован для разработки решений по удаленной идентификации или оценки кредитных рисков. Подобные решения сегодня востребованы в финансовом и промышленном секторах, ритейле. При этом даже небольшие компании начинают использовать расчеты на GPU.

GPU в облаке: настоящее и будущее технологии

Облачные вычислительные платформы вполне могут составить конкуренцию традиционным суперкомпьютерам. Это доказал эксперимент, поставленный совместно Суперкомпьютерным центром Сан Диего и Нейтринной обсерваторией Ice Cube.

В эксперименте было задействовано свыше 50 тысяч доступных ускорителей, располагавшихся в облачных платформах Amazon Web Services, Microsoft Azure и Google Cloud Platform в 28 регионах трёх континентов ‒ Северной Америки, Европы и Азии.

Статистика эксперимента: типы GPU и динамика нарастания производительности

Всего в облаках сейчас имеет примерно 80 тысяч NVIDIA Tesla V100. Фактически же для опыта задействовался весь доступный на тот момент для аренды массив разнородных ускорителей ‒ 51500 единиц. Он был объединён в единый комплекс с помощью ПО HTCondor.

Эксперимент начался 16 ноября и длился порядка 200 минут. Он преследовал три основных цели: выяснить, насколько серьёзные мощности можно задействовать таким образом; выявить реальные масштабы использования ГП в облаках; и, наконец, решить реальную научную задачу.На графике хорошо видно, как нарастала мощность «облачного суперкомпьютера»; она достигла максимума примерно к 110 минуте и составила приблизительно 350 Пфлопс (FP32). Для сравнения, лидер списка TOP500, суперкомпьютер Summit, развивает порядка 400 Пфлопс на вычислениях такой же точности.

Все сегменты общей задачи были оптимизированы с учётом особенностей каждой из восьми моделей доступных ускорителей NVIDA. Время работы сегментов не превышало 15‒30 минут для минимизации риска отключения от сервиса из-за внезапно возникшего спроса. Примерная оценка затрат: от $120 до $150 тысяч в первый день вычислений. То есть около половины выделенного на описываемый проект гранта EAGER.

Вклад различных моделей GPU в общее дело

Для расчётов использовались данные, полученные нейтринной обсерваторией IceCube. Это крупнейший в мире детектор нейтрино, размещённый на антарктической станции Амундсен-Скотт. Он имеет массив из 5160 высокочувствительных оптических детекторов, размещённых в специальных скважинах на глубинах от 1450 до 2450 метров.

В 2017 году с помощью нового массива удалось впервые зафиксировать космические нейтрино сверхвысоких энергий и отследить их источник. За час эксперимента удалось провести симуляцию такого объема данных с детекторов IceCube, который в обычных условиях потребовал бы месяца.

Доля разных регионов в проекте

В настоящее время активно развивается так называемая «многоканальная астрономия» (multi-messenger astronomy). Её суть заключается в комплексном исследовании всего, что могут испускать астрономические объекты, от электромагнитного излучения до гравитационных волн и элементарных частиц. Но такая астрономия требует обработки гигантских массивов данных.

Проведённый эксперимент показал, что «облачные системы» подходят для подобных целей и позволяют развёртывать серьёзные мощности весьма оперативно, в течение небольшого промежутка времени, что крайне важно для проектов с жёсткими сроками.

Хотя добиться запланированных изначально 80 тысяч ускорителей NVIDIA Tesla V100 и не удалось, но был получен бесценный опыт, который в перспективе должен проложить дорогу широкому использованию облачных сервисов с ГП-ускорителями и для других научных проектов. В ближайшем будущем бума облачных супервычислений не ожидается, ведь если они станут широко популярными, то стоимость такого предприятия неизбежно вырастет.

Следует также отметить, что «виртуальный суперкомпьютер» подходит для решения далеко не всех научных задач, связанных с супервычислениями. Некоторые из таких задач критичны к пропускной способности межсоединений, а это не самая сильная сторона подобного рода решений. Поставщики облачных услуг это понимают; в частности, на выставке SC19 Microsoft представила новые облачные серверы Azure, использующие внутреннюю сеть на базе InfiniBand HDR со скоростью 200 Гбит/с и поддержкой RDMA.

Облачные GPU-технологии NVIDIA в третий раз поднимают компьютерную индустрию на новый уровень

GPU для графики, GPU для ускорения вычислений, а теперь и GPU для облака

Сегодня компания NVIDIA начала конференцию по GPU-технологиям (GTC), представив третью инновацию с момента своего основания 19 лет назад: технологии, которые ускоряют облачные вычисления, благодаря использованию огромных вычислительных возможностей GPU.

Облачные GPU-технологии NVIDIA, разработка которых заняла пять лет, основаны на новой архитектуре графических процессоров Kepler, созданной для использования в крупных центрах обработки данных. Благодаря своим возможностям по созданию виртуальной среды, доступ к GPU одновременно получают множество пользователей. Возможность ультрабыстрого потокового отображения данных сводит задержки к минимуму, создавая ощущение, что центр обработки данных находится прямо за дверью. А исключительная энергоэффективность и плотность обработки данных снижают затраты на инфраструктуру.

Внедрение облачных GPU-технологий — это еще один колоссальный прорыв NVIDIA после изобретения GPU в 1999 году, которое коренным образом изменило визуальные вычисления, и изобретением CUDA® в 2006, технологии параллельной обработки данных, позволившей значительно увеличить производительность вычислений.

«Облачные GPU-технологии на базе архитектуры Kepler переносят облачные вычисления на новый уровень, — заявил Дженсен Хуанг, президент и генеральный директор NVIDIA. – GPU становится незаменимым. Он чрезвычайно важен для геймеров и CG-художников. Он необходим устройствам с сенсорным экраном для плавной и выразительной графики. С новыми технологиями NVIDIA облачный GPU обеспечит потрясающий рабочий процесс тем, кто работает удаленно, а также геймерам, стремящимся играть автономно от ПК или консоли».

Платформа NVIDIA VGX™ — это реализация облачных технологий на базе архитектуры Kepler для профессионалов, ускоряющая виртуализированные десктопы. Предприятия могут использовать эту платформу для обеспечения плавной удаленной обработки данных, что делает возможным потоковую передачу данных на ноутбуки и мобильные устройства при работе даже в самых требовательных приложениях.

NVIDIA GeForce GRID – это реализация облачных технологий на базе Kepler для геймеров, обеспечивающая вычислительными ресурсами облачные игровые сервисы. Поставщики таких сервисов будут использовать облачные технологии для обеспечения потрясающего удаленного игрового процесса, который потенциально может превзойти качество игр на консолях.

Дополнительная информация содержится в отдельных пресс-релизах, посвященных описанию платформы VGX и технологии GeForce GRID, а также пресс-релизе, представляющему графические процессоры NVIDIA Tesla®, созданные на базе архитектуры Kepler, которые рождают новые стандарты в области высокопроизводительных вычислений.

В рамках основного доклада GTC, на сцене к г-ну Хуангу присоединились представители ключевых партнеров NVIDIA, поддерживающих облачные технологии. В их число вошли: Дэвид Йен (David Yen), руководитель и старший вице-президент Data Center Group в Cisco; Брэд Петерсон (Brad Peterson), технический стратег, и Сумит Дхаван (Sumit Dhawan), вице-президент и генеральный директор Citrix; Дэвид Пэрри (David Perry), генеральный директор и соучредитель Gaikai; а также Грэди Кофер (Grady Cofer), руководитель отдела визуальных эффектов в Industrial Light & Magic.

NVIDIA обновила SDK для машинного обучения и запустила облачный сервис GPU Cloud для ускорения глубинного обучения

NVIDIA обновила SDK для машинного обучения и запустила облачный сервис GPU Cloud для ускорения глубинного обучения

  • Новости , 12 мая 2017 в 20:09
  • Дмитрий Юрченко

На конференции GTC 2017 NVIDIA объявила о запуске новых инструментов для разработчиков, чтобы помочь им справиться с растущей сложностью глубинного обучения. Это, в частности, крупное обновление для NVIDIA SDK, который включает в себя библиотеки и инструменты для создания приложений с поддержкой ИИ.

Что входит в NVIDIA SDK?

Опираясь на запросы разработчиков, NVIDIA раработала инструменты, библиотеки и улучшения модели CUDA, чтобы упростить создание приложений с искусственным интеллектом и высокопроизводительными вычислениями.

Уровень интереса к вычислениям на GPU растет, чему способствуют достижения в области ИИ.

Последние обновления Deep Learning SDK предоставляют новые возможности и оптимизацию производительности для приложений, использующих графические ускорители:

  • CUDA 9 теперь поддерживает графические процессоры Volta, повышает производительность библиотек до 5 раз, а также предоставляет новую модель для управления потоками и обновления отладочных инструментов.
  • TensorRT 3 ускоряет машинное обучение в 3.5 раза благодаря встроенной поддержке оптимизации моделей Caffe и TensorFlow.
  • CuDNN 7 обеспечивает в 2,5 раза более быстрое обучение нейронной сети ResNet50 от Microsoft на платформе Caffe2.
  • NCCL 2 предоставляет возможность масштабирования машинного обучения до восьми серверов с графическим ускорением. Благодаря этому время обучения нейронной сети сокращается с нескольких дней до нескольких часов.
  • Оптимизация процессоров Volta для таких фреймворков, как Caffe2, Microsoft Cognitive Toolkit, MXNet, PyTorch и TensorFlow, ускоряет их работу до 2,5 раз.

Чтобы узнать об изменениях больше, советуем посмотреть выступление генерального директора NVIDIA Хуана Женьсюня:

А что за GPU Cloud?

Компания также анонсировала запуск NVIDIA GPU Cloud (NGC), облачную платформу с графическим ускорением, оптимизированную для глубинного обучения. Платформа предназначена для разработчиков приложений с глубинным обучением, которые не хотят вручную настраивать новейшее программное и аппаратное обеспечение.

Это решение поставляется с NGC Deep Learning Stack — средой разработки, которая будет работать на ПК, суперкомпьютерах DGX и в облаке. Стек программ полностью управляется NVIDIA, поэтому разработчики могут использовать один видеоускоритель на своём ПК и дополнительные облачные ресурсы.

NGC предлагает следующие преимущества:

  • Оптимизация и интеграция: программный стек NGC будет предоставлять широкий спектр программного обеспечения, в том числе: Caffe, Caffe2, CNTK, MXNet, TensorFlow, Theano и Torch, а также обучающие системы NVIDIA DIGITS, NVIDIA Deep Learning SDK, nvidia-docker, для быстрого проектирования глубоких нейронных сетей.
  • Универсальность: она создана для работы в любом месте. Пользователи могут начать с одного графического процессора на ПК и добавить дополнительные вычислительные ресурсы с помощью DGX-системы или через облако. Они могут импортировать данные, настраивать конфигурацию задания, выбирать фреймворк. Затем результат можно загрузить в TensorRT для вывода.
  • С помощью NGC разработчики могут создавать модели любого размера или типа, используя универсальную платформу, а также увеличивать или уменьшать объём используемых вычислительных ресурсов в зависимости от того, что им нужно.

Будущее — за облачными технологиями, и Microsoft это более чем устраивает

Ученые из NASA скопили огромное количество данных по программам Mars Rover и Mars Orbiter, но у них не было простого способа поделиться этой информацией с миллионами исследователей и космических энтузиастов по всему миру.

У фирмы RiskMetrics, занимающейся финансовым анализом, была другая проблема: спрос на их услуги менялся волнообразно, и во время пиков им не хватало собственных мощностей для обработки всех заказов.

У Департамента образования Кентукки тоже была проблема: им нужно было сократить технологическое отставание школ в бедных районах и обеспечить сотни тысяч учащихся, преподавателей и школьных служащих доступом к образовательным ресурсам.

За решением проблем все три организации обратились к «облаку» — и стали нашими клиентами.

Это объясняет, почему в этом году мы вложим в научно-исследовательские работы $9,5 млрд — больше любой другой компании в мире, — и основная часть этих средств пойдет на развитие облачных технологий. 70% из 40 000 инженеров Microsoft работают над облачными продуктами и сервисами. К следующему году эта цифра увеличится до 90%.

Мы выделяем пять направлений, которые определяют нашу работу с «облаком» и влияние, которое оно окажет на жизнь людей:

— «Облако» дает возможность находить клиентов в любой точке мира и накладывает обязанность уважать их личную жизнь.

— «Облако» поможет людям учиться, принимать решения и действовать. Вычислительная техника будет способна понимать, что мы хотим сделать, и предоставлять данные и приложения, отвечающие нашим намерениям.

— «Облако» будет усиливать социальные и профессиональные связи, соединяя людей между собой наиболее удобным и эффективным способом.

— «Облако» приведет к появлению «умных» устройств, которые будут понимать, где находятся и чем заняты их пользователи.

— Наконец, «облако» неизбежно будет стимулировать развитие серверных технологий и создание новых способов хранения и обработки данных между сотнями тысяч соединенных вычислительных устройств.

Наша преданность «облаку» объясняется еще одним фактором — твердой уверенностью, что облачные вычисления создадут огромные возможности для будущего роста компании.

Облачные вычисления значительно расширят количество пользователей, до которых мы можем дотянуться, и позволят нам предоставлять новые продукты и сервисы, увеличивая выручку и прибыль.

По мере распространения облачных вычислений у всех компаний будет достаточно мощностей для всех сотрудников. Успех бизнеса будет ограничиваться не вычислительной мощностью, а воображением, компетентностью и качеством исполнения. Правительства смогут улучшить образование, здравоохранение и безопасность граждан. Исследователи будут быстрее собирать, анализировать и публиковать данные, что ускорит научный прогресс. Наконец, сотни миллионов людей, которые не могли до сих пор воспользоваться преимуществами информационной революции, впервые получат доступ к мировым знаниям.

Уже сейчас, на примере таких клиентов Microsoft, как NASA, RiskMetrics и Департамент образования Кентукки, мы наблюдаем удивительные решения, которые пользователи создают на основе облачных вычислений, и стоящие за ними возможности.

NASA пользуется Windows Azure, чтобы предоставить исследователям возможность работать с сотнями тысяч изображений, полученных во время успешной программы Mars Exploration Rover.

RiskMetrics находит в облаке вычислительные мощности, способные удовлетворить практически любой уровень спроса на их сложные имитационные модели риска.

А Департамент образования Кентукки использует разработанные на основе облачных вычислений коммуникационные инструменты, чтобы связать между собой более 700 000 учащихся, преподавателей и школьных работников.

Эти примеры демонстрируют, насколько реально и мощно «облако» уже сегодня. Но самое интересное не то, как используются облачные технологии сейчас. Интересно, что произойдет, когда до нового поколения технологий дотянутся творческие люди из компаний, учебных аудиторий и кухонь всего мира.

Будущее — за облачными технологиями, и Microsoft это более чем устраивает.

Nvidia GPU Cloud (NGC)

Содержание

Nvidia GPU Cloud (NGC) — репозиторий контейнеров для разработчиков решений для искусственного интеллекта.

2020: Инвестирование $40 млн в ИИ-приложения

27 марта 2020 года «Яндекс» сообщил о сотрудничестве своей платформы «Яндекс.Облако» с Nvidia в рамках развития технологий искусственного интеллекта (ИИ). Партнёры открывают для российских компаний библиотеку приложений для работы с машинным обучением, нейросетями и ИИ Nvidia GPU Cloud (NGC).

Российские компании могут применять приложения NGС для решения прикладных бизнес-задач: построения рекомендательных систем, оптимизированного управления запасами, оптического контроля на производстве, организации дорожного движения в умных городах, разработки различных приложений и систем на основе компьютерного зрения.

Готовые приложения для работы с ИИ и машинным обучением также помогут в создании принципиально новых продуктов и сервисов «завтрашнего дня»: в сфере беспилотного транспорта, генного анализа и медицинских исследований, дополненной и виртуальной реальности.

Платформа «Яндекс.Облако» стала первым публичным облаком в России, получившим статус официального партнера c NGC-сертификацией от Nvidia.

Подразделение «Яндекса» планирует инвестировать в развитие инфраструктуры облачной платформы и разработку инструментов ИИ не менее $40 млн, рассказал «Ведомостям» представитель компании. А если спрос на ИИ-решения будет расти, то инвестиции будут увеличены. С конца 2019 года вложено более $5 млн, уточнил он.

Инвестиции направят на закупку GPU-процессоров для увеличения вычислительных возможностей платформы, а также на расширение команды по разработке собственных сервисов на базе ИИ.

Платформа поможет быстро запускать ИИ в бизнесе, но российские компании стремятся всё сделать сами, а не пользоваться сторонними сервисами, считает главный аналитик Центра по искусственному интеллекту НТИ на базе МФТИ Игорь Пивоваров. [1]

Расширение функционала с добавлением поддержки ONNX и MXNet 1.0

4 декабря 2017 года компания NVIDIA объявила о поддержке облачной платформы Nvidia GPU Cloud (NGC) для продуктов Nvidia Titan и исследователей в области искусственного интеллекта (ИИ), работающих на графических процессорах Nvidia.

Nvidia расширила возможности NGC, добавив программные апдейты для репозитория контейнеров NGC. Теперь исследователям доступен широкий набор инструментов, способных ускорить работу, связанную с искусственным интеллектом и высокопроизводительными вычислениями.

Пользователи GPU TITAN на архитектуре Pascal могут бесплатно зарегистрироваться в системе NGC, чтобы получить доступ к полному каталогу оптимизированных для GPU инструментов глубокого обучения и HPC-вычислений. В список поддерживаемых платформ входят NVIDIA DGX-1, DGX Station и экземпляры с NVIDIA Volta на Amazon EC2.

Репозиорий контейнеров NGC содержит оптимизированные фреймворки глубокого обучения NVIDIA — TensorFlow и PyTorch, HPC-приложения от сторонних компаний, инструменты визуализации NVIDIA для HPC и программируемый ускоритель логических выводов NVIDIA TensorRT 3.0.

Помимо доступности NVIDIA TensorRT в репозитории NGC, NVIDIA анонсировала апдейты для NGC:

  • поддержка Open Neural Network Exchange (ONNX) для TensorRT;
  • поддержка и доступность первого релиза MXNet 1.0;
  • доступность ИИ-фреймворка Baidu PaddlePaddle.

ONNX – это открытый формат, созданный Facebook и Microsoft, через который разработчики могут обмениваться моделями в разных фреймворках. В контейнере разработки TensorRT NVIDIA создала конвертер, позволяющий использовать модели ONNX в движке логических выводов TensorRT. Это позволяет упростить внедрение низколатентных моделей в TensorRT.

Для разработчиков доступен источник программного обеспечения в области ИИ-вычислений – от исследований до разработки, обучения и внедрения приложений.

Открытие доступа к репозиторию контейнеров

25 октября 2017 года компания NVIDIA объявила о доступности репозитария контейнеров NVIDIA GPU Cloud (NGC) для разработчиков ИИ-решений во всем мире.

По мнению компании, бесплатный доступ к полноценному, простому в использовании и оптимизированному программному стеку для задач глубокого обучения NGC поможет разработчикам приступить к разработке программ глубокого обучения.

Облачный сервис доступен пользователям анонсированных инстансов Amazon Elastic Compute Cloud (Amazon EC2) P3 на основе графических процессоров NVIDIA Tesla V100.

После регистрации в NGC разработчики могут загрузить контейнерный программный стек, включающий и оптимизирующий широкий спектр фреймворков глубокого обучения, библиотек NVIDIA и рабочих версий CUDA, которые плавно работают в облаке или в системах NVIDIA DGX.

Разработчикам программ глубокого обучения с помощью NGC нужно выполнить три шага:

  • Бесплатно создать учетную запись NGC на странице www.nvidia.com/ngcsignup.
  • Запустить оптимизированный образ NVIDIA на платформе поставщика облачных сервисов.
  • Загрузить контейнеры из NGC.

Основные свойства репозитария контейнеров NGC:

  • быстрый доступ к фреймворкам с GPU-ускорением:
    • в составе программного пакета, упакованного в контейнеры:
      • NVCaffe,
      • Caffe2,
      • Microsoft Cognitive Toolkit (CNTK),
      • DIGITS,
      • MXNet,
      • PyTorch,
      • TensorFlow,
      • Theano
      • Torch,
      • CUDA, для разработки приложений.
    • производительность: репозитарий контейнеров NGC, настроенный, протестированный и сертифицированный NVIDIA, обеспечивает разработчикам оптимальную производительность на графических процессорах NVIDIA, работающих в облаке.
    • прединтеграция: контейнеры позволяют пользователям приступить к разработке решений глубокого обучения, минуя сложную и долговременную фазу программной интеграции.
    • актуальность: контейнеры совершенствуются командой NVIDIA, гарантируя оптимизацию каждого фреймворка глубокого обучения для быстрого обучения на GPU NVIDIA. Инженеры NVIDIA регулярно оптимизируют библиотеки, драйверы и контейнеры за счет ежемесячным обновлений.

    Представление сервиса Nvidia GPU Cloud, (2017)

    Источник: softaltair.ru

Добавить комментарий