Меню

Google заявляет, что чипы машинного обучения делают ИИ быстрее и эффективнее

25 апреля 2017, вторник

На днях Google опубликовал документ касательно своего специализированного чипа TPU, ознаменовавшего собой последнюю стычку в «гонке вооружений» для аппаратного обеспечения ИИ. Чип Tensor Processing Unit, сокращенно TPU был адаптирован для использования с учебной библиотекой TensorFlow с открытым исходным кодом от Google и использовался с начала 2015 года в дата-центрах Google. А в начале этого месяца компания наконец-то представила показатели производительности своего устройства.

По словам компании, нынешнее поколение TPU использует уже обученную нейронную сеть для выполнения некоторых функций, таких как распознавание голосовых команд с помощью Google Now. Компания уверяет, что TPU в 15-30 раз быстрее, чем современные процессоры, и, что не менее важно, они в 30-80 раз более энергоэффективны.

В конце 2000-х годов исследователи обнаружили, что графические процессоры стали де-факто технологией для реализации нейронных сетей. Но по мере того, как использование машинного обучения в Google продолжало расширяться, им нужно было создать что-то специально для собственных нужд.

«Потребность в TPU действительно возникла около шести лет назад, когда мы начали использовать дорогостоящие в вычислительном отношении модели глубокого обучения во все большем количестве наших продуктов. Однако рассчитанные расходы на использование этих моделей заставили нас волноваться», - пишет ведущий инженер Norm Jouppi в своем блоге.

«Если мы рассмотрим сценарий, в котором люди используют голосовой поиск Google всего три минуты в день, а мы запустили глубокие нейронные сети для нашей системы распознавания речи на обрабатывающих устройствах, которые мы использовали, то нам пришлось бы удвоить количество дата-центров Google!»

Google является одной из немногих компаний в мире, у которой есть и деньги и возможность создавать продукт с нуля даже в совершенно новой для себя области. Но Google также является одним из крупнейших покупателей процессоров в мире, поэтому тот факт, что компания решила, что единственный способ удовлетворить свои текущие потребности, это создание собственного процессора является предупреждающим сигналом для всех производителей.

«Публикация этого документа Google призвана повысить уровень обсуждения между сообществом машинного обучения и разработчиками чипов», - пишет Steve Patterson в NetworkWorld. «Учитывая быстрый рост рынка и желание повысить производительность, я думаю, неизбежно, что производители начнут выпускать микросхемы, разработанные исключительно для машинного обучения», - написал аналитик Karl Freund в Forbes.

Конечно, Nvidia вряд ли оставит свои лидирующие позиции на рынке, и в этом году Intel выпустит первые чипы, основанные на технологии Nervana, ориентированной на обучение, приобретенной в августе прошлого года. Даже игроки на рынке мобильных гаджетов начинают действовать в этом направлении.

Микроархитектура Armami от Dynamicq позволит заказчикам создавать ускорители ИИ (искусственного интеллекта) непосредственно в чипах. Проект Zeroth от Qualcomm выпустил комплект для разработки программного обеспечения, который может запускать программы глубокого обучения на таких устройствах, как смартфоны и беспилотные летательные аппараты с процессорами Snapdragon. А выпуск Google TPU и публикация отчетности с указанием его высокой эффективности может быть просто мягким толчком, чтобы направить усилия всех игроков на рынке в нужное русло.