Google ускорила разработку чипов с месяцев до шести часов с помощью ИИ

1 неделя назад 7

Исследователи из Google Research использовали обучение с подкреплением для ускорения создания чипов с нескольких месяцев до шести часов. По их словам, искусственный интеллект не уступает опытным инженерам.

Last year we shared how #ReinforcementLearning could hasten the design of accelerator chips (https://t.co/7KqG2pqTqh). Today we're publishing improved methods, which we've used in production to design the next generation of Google TPUs. Read more in Nature https://t.co/gOQVmbWdeV

— Google AI (@GoogleAI) June 9, 2021

Для достижения такого результата исследователи превратили проектирование чипа в игру. Компоненты процессора выступили в роли фишек, а холст, на котором они расположены, обозначили как игральную доску.

Производительность чипа оценивали с помощью показателей, основанных на базовых наборах данных о размещении 10 000 фишек. В «игре» побеждала та модель, которая показала максимальную эффективность, рассказали в Google.

Инженеры обнаружили, что за шесть часов алгоритмы разработали чипы, которые не уступали, а иногда и превосходили образцы, спроектированные людьми в течение нескольких месяцев.

«Наш метод позволяет создавать технологические планы изготовления микросхем менее чем за шесть часов, по сравнению с самым надежным исходным уровнем, который требует месяцев интенсивных усилий со стороны экспертов-людей», — говорится в исследовании.

Разработчики подчеркнули, что их подход не только экономит время, но и улучшает качество разработок.

Они добавили, что уже применили метод при проектировании тензорного процессора TPUv4, представленного в мае 2021 года.

Впервые Google сообщила, что экспериментирует с искусственным интеллектом для разработки чипов в 2020 году.

Напомним, в мае ученые представили суперкомпьютер Perlmutter для искусственного интеллекта, который поможет построить самую большую в истории 3D-карту видимой Вселенной.

В начале мая года исследователи разработали ИИ, который моделирует Вселенную на одном графическом процессоре в 1000 раз быстрее существующих методов.

В апреле ученые представили механизм глубокого обучения, который работает на центральном процессоре и тренирует нейронные сети в 15 раз быстрее, чем на платформах с видеоускорителями.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Читать полностью