Apple нашла способ запуска ИИ-модели на смартфонах без использования "облака"

Фото: "Интерфакс"

Москва. 22 декабря. INTERFAX.RU - Американская Apple Inc. разработала метод обеспечения эффективного функционирования больших языковых моделей (LLM), используемых в том числе для приложений искусственного интеллекта (ИИ), на устройствах с ограниченным объемом памяти, говорится в ее исследовании LLM in a flash ("LLM во флэш-памяти" или "Скоростная LLM").

Это говорит о том, что компания может сосредоточиться на развертывании ИИ непосредственно на iPhone, а не в мощных центрах обработки данных, пишет Financial Times.

Большие языковые модели, в частности, используются для формирования связного текста, изображений и программного кода в таких приложениях, как ChatGPT, и обычно работают в "облаке", поскольку требуют существенных вычислительных мощностей.

Специалисты Apple, в свою очередь, предлагают устранить это "узкое место" за счет использования флэш-памяти в дополнение к традиционной динамической памяти DRAM и называют это прорывом, который позволит расширить применимость и повысить доступность LLM в условиях ограниченности ресурсов.

Новая технология может увеличить скорость отклика ИИ-ассистентов и позволить им работать офлайн, отмечает FT. Отсутствие необходимости пересылать данные в "облако" также должно повысить конфиденциальность, которой Apple уделяет особое внимание.

Ранее в декабре Google представила ИИ-модель Gemini, которая уже внедрена в ее смартфоны Pixel 8 Pro. Другие игроки, включая Samsung, намерены вывести на рынок ИИ-смартфоны в следующем году.

По оценкам исследовательской компании Counterpoint, в 2024 году поставки смартфонов, где особая роль отводится ИИ, превысят 100 млн, а к 2027 году доля таких устройств среди новинок достигнет 40%.

Новости