Компания Джека Ма, специализирующаяся на финансовых технологиях, использовала отечественные чипы от Alibaba и Huawei для обучения моделей искусственного интеллекта, которые, похоже, могут соперничать с графическими процессорами H800 от Nvidia.
По словам людей, знакомых с этим вопросом, Ant Group придумала способ обучения моделей искусственного интеллекта на полупроводниках китайского производства, что позволило снизить затраты примерно на 20% по сравнению с традиционными методами.
Инсайдеры говорят, что результаты Ant выгодно отличаются от чипов H800 от Nvidia Corp., которые в настоящее время недоступны для китайских компаний из-за Экспортного контроля США. Хотя Ant все еще использует оборудование Nvidia для некоторых своих работ по искусственному интеллекту, компания, как сообщается, теперь делает больший упор на процессоры AMD и китайские альтернативы для своих последних моделей.
В этом месяце компания Ant опубликовала исследовательский документ, в котором утверждается, что ее модели Ling-Plus и Ling-Lite даже превзошли Meta Platforms Inc. в некоторых тестах. Если эти результаты подтвердятся, то эти системы могут стать большим скачком вперед для китайского ИИ, резко сократив расходы на обучение и развертывание ИИ-сервисов.
В статье отмечается, что использование высокопроизводительного оборудования для обучения 1 триллиона токенов обходится примерно в 6,35 миллионов юаней (около $880 000). Но благодаря оптимизированному подходу компании и использованию более дешевого оборудования эта цифра снизится примерно до 5,1 млн. юаней (около $700 000). Для тех, кто не знаком с этим, жетоны - это, по сути, единицы информации, используемые этими моделями для обучения и получения результатов.
В будущем компания Ant намерена использовать эти модели ИИ в здравоохранении и финансах. Ранее в этом году компания приобрела китайскую онлайн-платформу Haodf.com, чтобы укрепить свои услуги ИИ, ориентированные на здравоохранение. Ant также управляет ИИ-приложением "помощник по жизни" под названием Zhixiaobao и ИИ-инструментом для финансовых консультаций под названием Maxiaocai.
Обе модели Ling имеют открытый исходный код: Ling-Lite содержит 16,8 миллиардов параметров, а Ling-Plus - 290 миллиардов. Хотя это и большие цифры, они все же меньше, чем у некоторых других крупных моделей ИИ - по оценкам экспертов, GPT-4.5 имеет около 1,8 триллиона параметров, а DeepSeek-R1 - 671 миллиард.
Компания Ant признала наличие некоторых неровностей на пути, особенно в отношении стабильности во время обучения. В исследовательском документе отмечается, что небольшие изменения в аппаратном обеспечении или дизайне модели иногда вызывали большие скачки в количестве ошибок.
Источник(и)
Bloomberg (на английском языке)