Цены на большие модели продолжают падать, Tongyi Qianwen снова снизил цену
На днях Alibaba Cloud объявила о значительном снижении цен на API вызовов коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена на входные данные основной модели Qwen-Long уровня GPT-4 снизилась с 0,02 юаня за 1k токенов до 0,5 юаня за 1 миллион токенов, что составило снижение на 97%.
Ранее Alibaba Tongyi выпустила открытую модель Qwen1.5-110B с масштабом параметров 1100 миллиардов. Эта модель показала отличные результаты в нескольких бенчмаркингах, превзойдя аналогичные модели с масштабом 70 миллиардов параметров. В рейтинге открытых моделей на HuggingFace Qwen1.5-110B заняла первое место.
Стратегия комбинации "Снижение цен + Открытый исходный код" становится общим согласием среди производителей глобальных моделей. Этот подход помогает решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокая цена API больших моделей и недостаточное качество открытых моделей. Снижение порога входа будет способствовать широкому внедрению AI-приложений.
На самом деле, Туньи Цяньвэнь не является первой крупной моделью, которая приняла стратегию снижения цен. С мая несколько продуктов крупных моделей последовательно выпустили низкие ценовые предложения или объявили о снижении цен:
Подразделение Huanfang Quantitative DeepSeek ( открывает вторую генерацию модели MoE, а цена API составляет лишь одну сотую от известной большой модели.
Zhihu AI снизил цену на вызов модели GLM-3Turbo для индивидуального использования с 5 юаней за миллион токенов до 1 юаня за миллион токенов.
Известная AI-компания выпустила новую версию модели, производительность которой сопоставима с флагманской версией, но цена снижена вдвое, а скорость обращения увеличена в два раза.
Ценовая установка для основного модели вывода豆包 составляет всего 0.0008 рублей за kTokens.
Baidu Intelligent Cloud объявила, что ее большие модели Wenxin полностью бесплатны.
Компания iFlytek объявила о бесплатном доступе к API iFlytek Spark Lite навсегда.
Цены на API больших моделей становятся все более конкурентными, что, вероятно, связано с прогрессом в технологиях вывода и снижением затрат. Это не только предоставляет разработчикам больше выбора, но и будет способствовать бурному развитию AI-приложений.
Помимо снижения цен, Alibaba Tongyi также представила модели различного масштаба для удовлетворения потребностей различных сценариев. Восемь крупных языковых моделей с параметрами от 500 миллионов до 110 миллиардов охватывают различные сценарии применения, от мобильных до корпоративных. Кроме того, Tongyi открыла исходный код многомодальных моделей, таких как понимание визуальной информации, понимание аудио и генерация кода, предоставляя разработчикам всестороннюю поддержку.
В целом, производители крупных моделей, сочетая снижение цен и открытый исходный код, прокладывают путь для разработки AI-приложений. С постоянным прогрессом технологий и снижением затрат у нас есть основания ожидать, что AI-приложения будут процветать в более широких областях.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Ценовая война усиливается: плата за вызов API Tongyi Qianwen снижена еще на 97%
Цены на большие модели продолжают падать, Tongyi Qianwen снова снизил цену
На днях Alibaba Cloud объявила о значительном снижении цен на API вызовов коммерческой модели Tongyi Qianwen и открытой модели. В частности, цена на входные данные основной модели Qwen-Long уровня GPT-4 снизилась с 0,02 юаня за 1k токенов до 0,5 юаня за 1 миллион токенов, что составило снижение на 97%.
Ранее Alibaba Tongyi выпустила открытую модель Qwen1.5-110B с масштабом параметров 1100 миллиардов. Эта модель показала отличные результаты в нескольких бенчмаркингах, превзойдя аналогичные модели с масштабом 70 миллиардов параметров. В рейтинге открытых моделей на HuggingFace Qwen1.5-110B заняла первое место.
Стратегия комбинации "Снижение цен + Открытый исходный код" становится общим согласием среди производителей глобальных моделей. Этот подход помогает решить две основные проблемы, с которыми сталкиваются разработчики AI-приложений: слишком высокая цена API больших моделей и недостаточное качество открытых моделей. Снижение порога входа будет способствовать широкому внедрению AI-приложений.
На самом деле, Туньи Цяньвэнь не является первой крупной моделью, которая приняла стратегию снижения цен. С мая несколько продуктов крупных моделей последовательно выпустили низкие ценовые предложения или объявили о снижении цен:
Подразделение Huanfang Quantitative DeepSeek ( открывает вторую генерацию модели MoE, а цена API составляет лишь одну сотую от известной большой модели.
Zhihu AI снизил цену на вызов модели GLM-3Turbo для индивидуального использования с 5 юаней за миллион токенов до 1 юаня за миллион токенов.
Известная AI-компания выпустила новую версию модели, производительность которой сопоставима с флагманской версией, но цена снижена вдвое, а скорость обращения увеличена в два раза.
Ценовая установка для основного модели вывода豆包 составляет всего 0.0008 рублей за kTokens.
Baidu Intelligent Cloud объявила, что ее большие модели Wenxin полностью бесплатны.
Компания iFlytek объявила о бесплатном доступе к API iFlytek Spark Lite навсегда.
Цены на API больших моделей становятся все более конкурентными, что, вероятно, связано с прогрессом в технологиях вывода и снижением затрат. Это не только предоставляет разработчикам больше выбора, но и будет способствовать бурному развитию AI-приложений.
Помимо снижения цен, Alibaba Tongyi также представила модели различного масштаба для удовлетворения потребностей различных сценариев. Восемь крупных языковых моделей с параметрами от 500 миллионов до 110 миллиардов охватывают различные сценарии применения, от мобильных до корпоративных. Кроме того, Tongyi открыла исходный код многомодальных моделей, таких как понимание визуальной информации, понимание аудио и генерация кода, предоставляя разработчикам всестороннюю поддержку.
В целом, производители крупных моделей, сочетая снижение цен и открытый исходный код, прокладывают путь для разработки AI-приложений. С постоянным прогрессом технологий и снижением затрат у нас есть основания ожидать, что AI-приложения будут процветать в более широких областях.