Apple планирует разместить большую языковую модель в памяти будущих устройств

Категории

Apple планирует разместить большую языковую модель в памяти будущих устройств

Обычно для LLM нужно много оперативной памяти, но в смартфонах, планшетах или даже ноутбуках столько ОЗУ разместить не выйдет. Инженеры компании хотят сохранить языковую модель во флэш-памяти устройства, а затем извлекать данные по требованию в ОЗУ в том случае, когда это необходимо. В конечном итоге эта система позволит запускать LLM, которые вдвое превышают доступный объём оперативной памяти, с внушительным приростом скорости вычисления

( 0 )
Комментарии
Пока нет комментариев
Написать комментарий
Имя*
Email
Введите комментарий*
Официальный договор
Официальный договор
24\7 тех. поддержка
24\7 тех. поддержка
Комплексное обслуживание
Комплексное обслуживание
Гарантия качества
Гарантия качества