Apple нашла способ запуска ИИ-модели на смартфонах без использования "облака"
Москва. 22 декабря. INTERFAX.RU - Американская Apple Inc. разработала метод обеспечения эффективного функционирования больших языковых моделей (LLM), используемых в том числе для приложений искусственного интеллекта (ИИ), на устройствах с ограниченным объемом памяти, говорится в ее исследовании LLM in a flash ("LLM во флэш-памяти" или "Скоростная LLM").
Это говорит о том, что компания может сосредоточиться на развертывании ИИ непосредственно на iPhone, а не в мощных центрах обработки данных, пишет Financial Times.
Большие языковые модели, в частности, используются для формирования связного текста, изображений и программного кода в таких приложениях, как ChatGPT, и обычно работают в "облаке", поскольку требуют существенных вычислительных мощностей.
Специалисты Apple, в свою очередь, предлагают устранить это "узкое место" за счет использования флэш-памяти в дополнение к традиционной динамической памяти DRAM и называют это прорывом, который позволит расширить применимость и повысить доступность LLM в условиях ограниченности ресурсов.
Новая технология может увеличить скорость отклика ИИ-ассистентов и позволить им работать офлайн, отмечает FT. Отсутствие необходимости пересылать данные в "облако" также должно повысить конфиденциальность, которой Apple уделяет особое внимание.
Ранее в декабре Google представила ИИ-модель Gemini, которая уже внедрена в ее смартфоны Pixel 8 Pro. Другие игроки, включая Samsung, намерены вывести на рынок ИИ-смартфоны в следующем году.
По оценкам исследовательской компании Counterpoint, в 2024 году поставки смартфонов, где особая роль отводится ИИ, превысят 100 млн, а к 2027 году доля таких устройств среди новинок достигнет 40%.