Виктор Тарнавский, директор по ИИ Т-Банка, отметил, что в мире формируется финансовый пузырь вокруг больших языковых моделей (LLM). По его мнению, разработка технологий ради самого факта их существования редко приносит реальную пользу бизнесу. Это порождает завышенные ожидания, которые сменяются разочарованием, негативно влияя на акции компаний в этой сфере.
Т-Банк вместо универсальной крупной модели делает акцент на создании специализированных моделей под конкретные задачи. Они решают узкие задачи быстрее и обходятся значительно дешевле — стоимость обработки запроса может быть более чем в 10 раз ниже, рассказал Тарнавский.
Экономическая стратегия банка предполагает окупаемость инвестиций в LLM менее чем за пять лет. Тарнавский также отметил, что затраты Т-Банка на языковые модели значительно уступают расходам конкурентов, особенно международных компаний, — в сотни и даже тысячи раз. При этом банк чётко понимает, какие продукты и решения принесут не только пользу, но и финансовую выгоду.
Группа “Т-Технологии” разработала и открыла доступ к двум своим LLM: T-Pro на 32 млрд параметров и обновлённой T-Lite на 7 млрд параметров. Теперь российские компании могут бесплатно использовать эффективные LLM (лучшие открытые модели на русском языке), не тратя время и деньги на создание собственных моделей.
T-Pro лидирует среди открытых моделей своей категории в решении задач на русском языке по бенчмаркам MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval. Среди закрытых моделей T-Pro занимает второе место после GPT-4o по ряду бенчмарков.
Наши компании — Сбер, Тинь и Яша — осознают, что поддержание публичности системы в духе чата GPT требует больших затрат, особенно учитывая проблемы с поставками оборудования в страну. Поэтому они считают целесообразным сосредоточиться на создании подобных продуктов внутри своих экосистем для решения бизнес-задач.