О чем говорят люди: основные моменты симпозиума по горячим фишкам - новости

О чем говорят люди: основные моменты симпозиума по горячим фишкам - новости
О чем говорят люди: основные моменты симпозиума по горячим фишкам - новости
Anonim

О людях, о которых говорят: основные моменты симпозиума Hot Chips

Хаб для технологических инноваций и вдохновения, «Горячие чипы» предоставили учебные пособия, презентации и многое другое.

«Горячие фишки 29: симпозиум по высокопроизводительным чипам» состоялся 20-22 августа в Центре Флинт в Купертино, Калифорния. Симпозиум, который существует с 1989 года, является ведущей в отрасли конференцией, проводимой ежегодно для изучения мира высокопроизводительных микропроцессоров и связанных с ними интегральных схем.

С участием более 500 участников со всего мира мероприятие собирает дизайнеров, компьютерных архитекторов, системных инженеров, прессы и исследователей для совместной работы и изучения новых и инновационных технологий.

2017 не стал исключением.

Image
Image

Архитектура DPU Wave Computing

Wave Computing, основанная всего семь лет назад, является небольшим названием на большом рынке, но до сих пор оказывала значительное влияние на рынке чипов AI. Д-р Крис Никол, ведущий архитектор отдела обработки данных и обработки данных, сказал участникам Hot Chip, что финансирование часто является борьбой за запуск чипов, но он уверен, что их архитектура выйдет после того, как ранние клиенты подтвердят свои баллы.

Wave Computing считает, что архитектуры потоков данных являются наиболее эффективным способом обучения высокопроизводительных сетей. В пресс-релизе они пишут: «В вычислительном приборе Wave Computing, основанном на потоке данных, переопределяется машинное обучение, ускоряя производительность и масштабируемость обучения и выведения для глубоких и мелких нейронных сетей. Первоначально оптимизированный для центра обработки данных, каждое вычислительное устройство Wave доставляет до 2, 9 PetaOps за секунду производительности, более 250 000 элементов обработки и более 2 ТБ высокоскоростных запоминающих устройств ».

Николь пояснил, что DPU имеет 16 000 элементов обработки, более 8000 арифметических единиц и механизм самосинхронизации. Все ядра работают на частоте 6, 7 ГГц, переходя в спящий режим, когда данные не подаются. Следующая платформа предоставляет дополнительную графику / детали.

Квалифицированные компании могут присоединиться к Программе раннего доступа и получить облачный доступ к прототипу до начала продаж.

Image
Image

Платформа ускорения обучения в Microsoft

Чтобы не отстать, Microsoft раскрыла новую платформу под названием Brainwave, призванную повысить функциональность машинного обучения, спроектировав их для программируемого кремния. «Мозговая волна» построена в трех слоях, поясняет Microsoft в пресс-релизе «Высокопроизводительная распределенная системная архитектура, аппаратный механизм DNN, синтезированный на FPGA, а также компилятор и среда выполнения для низкопрочного развертывания обучаемых моделей».

Футуризм сообщает, что эта модель больше, чем другая аппаратная часть, предназначенная для искусственного интеллекта, с моделью Gated Recurrent Unit, которая работает со скоростью 39, 5 терафлопсов на чипе Intel Stratix FPGA.

Платформа не использует операции пакетной обработки, поэтому она может предлагать информацию в режиме реального времени для систем машинного обучения. «Мы называем это AI реального времени, потому что идея состоит в том, что вы отправляете запрос, вы хотите получить ответ», - говорит Дуг Бургер, инженер Microsoft Research. «Если это видеопоток, если это разговор, если он ищет злоумышленников, обнаружение аномалий, все, что вам нужно для взаимодействия и быстрых результатов, вы хотите в реальном времени».

Согласно Venture Beat, Burger также отклонил критику, что FPGA менее эффективны, чем чипы, специально предназначенные для операций машинного обучения. Он заверил слушателей, что эта веха производительности должна показать, что программируемое оборудование также может обеспечить высокую производительность. Он также предложил, что есть возможности для Intel и Microsoft для дальнейшей оптимизации производительности оборудования и использования Brainwave.

Image
Image

Графический потоковый процессор THINCI Inc

THINCI, калифорнийский стартап, представила на конференции симпозиум по потоковой передаче графики в рамках подготовки к выпуску компилятора GSP и Graph Computing. В четвертом квартале этого года они планируют поставлять платы разработки на основе PCIe. В понедельник презентация знаменует собой первое публичное раскрытие архитектуры GSP THINCI и SDK, используемого для программирования фишек.

GPS SOC SOCON THINCI предназначены для работы с графическими вычислениями, а GSP обеспечивает глубокую визуальную обработку изображений на периферийных устройствах, оптимизацию мощности и производительности за счет использования вычислительной архитектуры, где данные одновременно передаются между процессорами, что минимизирует передачу данных между памятью.

Компания может похвастаться тем, что их решение предлагает в 500-100 раз больше возможностей по сравнению с альтернативами, включая nvidia Tesla P4. «Сегодня глубокое обучение и обработка зрения используют большие массивы графических процессоров для оценки огромного количества данных для определения паттернов-распознавания лиц, интерпретации объектов-стоп-знаков, пешеходов, животных, автомобилей и т. Д., Которые затем могут быть запрограммированы в чип, который выполняет этот алгоритм для принятия решений в режиме реального времени. THINCI предоставляет механизм, который выполняет эти алгоритмы, что позволяет, например, обеспечить камеры видеонаблюдения, достаточно интеллектуальные для определения разбойного процесса, возникновения пожара или другого стихийного бедствия и немедленно сообщают об этом соответствующим органам. Что делает технологию THINCI уникальной в том, что она достаточно эффективна для установки в камерах наблюдения, интеллектуальных персональных помощниках, смартфонах, в любом количестве автомобильных датчиков и многих других », - сказал генеральный директор THINCI Динакар Munagala.