Разбираем, когда есть смысл пользоваться ChatGPT, а когда пора переходить на собственное решение. История заказчика из MENA, для которого мы настраивали LLM на собственных серверах, с подходом, бенчмарками и прочим и когда вам пора будет этим заняться. Кстати, вы знали, что в MENA первый рабочий день — воскресенье?
Сначала LLM в компании выглядит как лёгкая победа: подключили ChatGPT и тексты пишутся быстрее, ответы формулируются аккуратнее, аналитика собирается бодрее, можно собирать еще агентов на Make или N8N, но до определенного лимита.
Вместе с ростом компании, LLM перестаёт быть «помощником» и становится частью процессов: появляются чувствительные данные, требования к контролю доступа, стабильность «каждый день», интеграции во внутренние сервисы, экономика на больших объёмах.
К нам пришел клиент — крупная телеком компания из MENA уже в этой точке. Их запрос был создать фундамент под GenAI внутри корпоративного периметра: чтобы разные команды могли запускать обучение и инференс, работать с данными и развивать системно, без костылей.
On‑premise — это когда AI‑платформа работает внутри контролируемого контура компании (собственный дата‑центр, colocation или private cloud), а не как внешний API-сервис по подписке.
Это даёт компании:
Есть несколько триггеров, после которых внешние LLM решения начинают ограничивать скорость внедрения, а иногда и саму возможность их использования
Данные становятся реальными
Как только в работу попадают внутренние документы, клиентская информация, операционные показатели — вопрос «куда это уходит» перестаёт быть философским. Думаю не надо объяснять, что происходит, если вы загружаете корпоративные документы в ChatGPT.
Как влияет на бизнес: меньше блокировок от security/юристов → быстрее внедрение AI в процессы.
LLM становится частью системы компании
Когда нужно встроить модель в продукты и команды: роли, доступы, контексты, интеграции, чтобы она работала в интерфейсе сотрудника, брала данные из ваших систем и возвращала результат обратно, при этом не отправляя ничего не внешние сервера.
Как влияет на бизнес: меньше рисков и инцидентов, больше доверия у команд, быстрее масштабирование на новые кейсы, компания контролирует кто пользуется (роли и доступы), какие данные доступны (разрешённые источники), что именно делает модель (правила, логирование, аудит).
Растёт объём, меняется экономика
На старте подписка выглядит идеальной. На масштабе компания хочет контролировать стоимость и планировать бюджет, траты на токены могут достигать десятков тысяч долларов, и своя инфраструктура довольно быстро окупится.
Как влияет на бизнес: предсказуемость затрат при росте использования.
On‑prem чаще выбирают компании, у которых AI это 100% будущая часть ежедневной работы и операционки:
Ключевой момент: мы строили не «кластер ради кластера», а внутреннюю платформу, на которой можно развивать GenAI как продуктовую функцию компании.
Мы шли фазами: Phase 1 — подняли основу, Phase 2 — расширили этот же контур и довели его до реальных сценариев обучения и инференса.
Ниже — фактура из наших отчётов, чтобы было понятно, какой именно контур мы собрали.
Сейчас у заказчика на руках уже платформа, которую можно развивать как внутренний продукт. Дальше она обычно раскладывается на несколько практичных направлений.
Корпоративные ассистенты для техподдержки, продаж, операционных команд, юридического блока — с доступом к внутренним базам знаний и регламентам.
Подсказки операторам, суммаризация диалогов, классификация обращений, ускорение обработки тикетов. (Для телекома это часто первый «массовый» кейс.)
Единая точка доступа к внутренним документам, продуктовым материалам, политикам и инструкциям: «вопрос → ответ с источниками».
Когда фундамент готов, следующий этап — донастройка моделей под терминологию, продукты и типовые обращения компании.
Добавление новых моделей, рост числа пользователей и запросов, расширение кластера и storage — без перестройки фундамента.
На базе платформы можно выстроить понятный ритм релизов: тестирование, мониторинг, регресс‑прогоны, контроль качества.
Если убрать термины, смысл такой: у компании появляется AI‑контур, который можно масштабировать и эксплуатировать, а не разовые «запуски модели».
И это лишь один из наших кейсов по внедрению IT-решений.
В Telegram-канале я рассказываю, с чего начать построение IT-отдела в компании.
Сохраните мой контакт — на случай, если захотите применить ИИ или другие IT-решения у себя.
Telegram-канал: https://t.me/egormklive