SlimLM, поддерживаемый Adobe, предоставляет возможности мобильного ИИ без облачных вычислений
Благодаря новой малой языковой модели (SLM), разработанной группой исследователей ИИ из Adobe Inc. совместно с коллегами из Обернского университета и Технологического института Джорджии, новые приложения ИИ для смартфонов смогут обрабатывать документы локально, без доступа к облаку. Эта SLM называется SlimLM, и все подробности о ней были опубликованы на arXiv.
"Проводя обширные эксперименты на Samsung Galaxy S24, мы определили оптимальный компромисс между размером модели (от 125M до 7B параметров), длиной контекста и временем вывода для эффективной обработки на устройстве. Модель SlimLM была предварительно обучена на SlimPajama-627B и отлажена на DocAssist, нашем наборе данных для задач обобщения, ответов на вопросы и предложений. Наша самая маленькая модель демонстрирует эффективную работу на S24, а более крупные варианты предлагают расширенные возможности в условиях мобильных ограничений"
сообщила исследовательская группа.
Пока SlimLM недоступен для широких масс, но это может произойти довольно скоро. Благодаря этому фрагменту кода смартфон может использовать возможности искусственного интеллекта для локальной обработки документов, даже не выходя в Интернет. Хотя облачные ИИ-решения часто используют гораздо меньше вычислительных мощностей, чем приложения, работающие локально, самым важным атрибутом, который они предлагают, является конфиденциальность. На сегодняшний день такие приложения уже разработали такие крупные компании, как Google, Apple, и Meta. К сожалению, их статус остается скорее экспериментальным, и ни одно из них не нашло дорогу в массы. Если планы вышеупомянутых исследователей воплотятся в жизнь, SlimLM может стать первым подобным решением.
Тем, кто заинтересовался SlimLM и подобными решениями, стоит приобрести книгу Джесси Спринтера "Demystifying AI: Your Guide to Mastering Small Language Models", которая в настоящее время доступна за $7,11 в формате Kindle, а версия в мягкой обложке стоит $18,99.