- Промокоды Honkai Star Rail
- Все сундуки Золотого мига в Honkai Star Rail
- Похвала высокой морали в Honkai Star Rail
- Все сундуки в Лофу Сяньчжоу из Honkai Star Rail
- Первооткрыватель в Honkai Star Rail
- Билд Сюэи в Хонкай Стар Рейл
- Билд Аргенти в Хонкай Стар Рейл
- Все сундуки Сада безмятежности в Honkai Star Rail
- Часовщик грезных механизмов
- Первооткрыватель мертвых вод
Самый мощный суперкомпьютер испытали в обучении языковой модели на триллион параметров
Основной проблемой стало параллельное использование ресурсов.
Исследователи из Национальной лаборатории Ок-Ридж использовали Frontier, самый быстрый суперкомпьютер в мире, для обучения большой языковой модели. В рамках эксперимента на Frontier обучили модель с триллионом параметров, это уровень актуальной версии ChatGPT.
Суперкомпьютер Frontier обладает производительностью в 1.19 экзафлопс, но для обучения ИИ использовали только 8% ускорителей, входящих в состав устройства. Как объясняют ученые, основной проблемой была не вычислительная мощность, а память.
Для обучения языковой модели с триллионом параметров требовалось минимум 14 терабайт памяти. Ее было более чем достаточно: суперкомпьютер Frontier состоит из 37888 ускорителей Radeon Instinct, каждый из которых оснащен 64 гигабайтами памяти.
Однако, отмечают ученые, возникла проблема: требовалось сделать так, чтобы множество ускорителей могли распределенно решать одну и ту же задачу, не тратя ресурсы на дублирование вычислений.
В итоге исследователям удалось добиться эффективности масштабирования в 87% для модели с триллионом параметров и 89% для модели со 175 миллиардами параметров.
Такая эффективность означает, что при желании суперкомпьютер можно целиком нагрузить обучением языковой модели и «накладные расходы» на обучение окажутся не слишком велики.