Узнайте, как LLM работают на GPU и от чего зависит производительность. Развернем несколько моделей на разных платформах и сравним скорость, качество и другие метрики.
Игра Защищ[AI] от Selectel
Узнайте больше о информационной безопасности в ML. Попробуйте себя в промт-инъекциях и убедите чат-бот отдать вам пароль.
Каталог моделей
Приглашаем обсудить будущее ML и протестировать наш Foundation Models Catalog — сервис для запуска LLM в облаке Selectel.
Сервер Selectel & SELECTOS
Прикоснитесь к серверу для ML на базе разработок Selectel и первыми протестируйте AI-ассистента внутри серверной операционной системы SELECTOS.
Партнерский стенд Chaitex
Приходите пообщаться с экспертами и задать интересующие вопросы.
Технический трек / Зал №2
О том, как технологии устроены под капотом.
14:50-15:30
Как выбрать серверное железо под разные ИИ-нагрузки
Дмитрий Шиченко
Руководитель отдела разработки встроенных систем, Selectel
Дискуссия о том, как изменилось отношение к инструментам вайбкодинга и способен ли он заменить классический системный подход к разработке.
Константин Волков
Technical Solutions Manager, Veai
Никита Староверов
Системный архитектор, SelectOS
Дмитрий Попов
Founding Engineer KodaСode, Lead Data Engineer Лаборатория ИИ «Финам»
Егор Шорохов
CDO, Аквариус
Модератор: Мария Седельникова
Руководитель по развитию технологических партнерств, Selectel
11:00-11:40
Keynote
MLечный путь: от цифровизации к агентским платформам
Сегодня вопрос уже не в том, внедрять AI или нет. Главный вызов — как превратить инвестиции в технологии искусственного интеллекта в измеримый бизнес-эффект и сделать их частью системы принятия решений.
В докладе покажем взгляд облачного провайдера на этот путь — от цифровизации процессов к комплексному использованию AI. Обсудим экономику инфраструктуры и роль платформенного подхода, который превращает AI из набора отдельных экспериментов в корпоративную систему агентов.
Александр Тугов
Директор AI-вертикали, Selectel
Владислав Кирпинский
Директор по облачной интеграции, Selectel
Антон Чунаев
Менеджер ML-продуктов, Selectel
14:50-15:30
Как выбрать серверное железо под разные ИИ-нагрузки
Обсудим, чем ИИ-нагрузки принципиально отличаются от классических серверных, как тип нагрузки влияет на архитектуру и как выбрать железо под разные сценарии. Поделимся примером задачи, которую мы решили с помощью наших продуктов.
Дмитрий Шиченко
Руководитель отдела разработки встроенных систем, Selectel
17:10-18:00
От feature importance к mechanistic interpretability: захватят ли нас машины
Поделимся последними результатами исследования интерпретируемости LLM по мотивам участия в сообществах и опыта работы над проектам red- и blue-teaming LLM. Разберемся в эволюции интерпретируемости: от классического внешнего анализа поведения к изучению внутренней структуры и механизмов.
Обсудим практические кейсы, инструменты и подходы к пониманию работы LLM и обеспечению безопасного использования генеративных технологий.
Максим Пантелеев
Руководитель направления Core M&D. Wildberries & Russ
15:30-16:10
RAG для бизнеса: как ускорить процессы и снизить издержки через консолидацию знаний команд
В рабочих процессах бывает непросто отыскать какую-либо информацию, поскольку знания фрагментированы между командами и людьми. В результате на поиск тратится много времени, и это влияет на скорость бизнеса. Классические базы знаний зачастую не спасают, потому что требуют ручного сопровождения и в итоге тоже замыкаются в контуре одной команды.
В таких случаях помогает RAG — технология, которая соединяет языковую модель с базой знаний. В докладе расскажем, как консолидировать информацию из разных источников без полной миграции данных, снизить зависимость от конкретных людей и экспертов и, как следствие, ускорение типовых бизнес-процессов.
Виктория Верезубова
Руководитель группы машинного обучения, X5 Digital
13:20-14:00
Мечтают ли агенты об ИИ-платформах
Эпоха простых взаимодействий с LLM через чат сменяется растущим запросом на агентов. Однако для их эффективной работы необходимо развивать платформенные решения. В докладе разберемся, из каких компонентов состоит современный стек для разработки и внедрения LLM-агентов, с чего начать и каких результатов ожидать.
Михаил Зайцев
Директор продукта Kolmogorov, Data Sapience
14:50-15:30
ИИ-агенты в крупном банке — опыт, эффекты, затраты, ошибки
Поделимся опытом Альфа-Банка по внедрению ИИ-агентов в MLOps/DevOps-среду. Расскажем о трех ключевых решениях:
агенте для описания и инспекции моделей — анализирует логи, проводит кодревью;
агенте сопровождения «Кьюб» — получает runtime‑статус, разбирает ошибки, маршрутизирует задачи;
бизнес‑агенте кешбэка.
Марк Кузнецов
Руководитель Центра разработки MLOps-сервисов, Альфа-банк
Алексей Фатеев
Tech Lead RAG Platform, Альфа-банк
16:30-17:10
Agent Driven SDLC: как меняется разработка
Поговорим про кризис SDLC и почему нельзя просто написать код и ждать результата. Разберем анатомию ИИ-агентов и критерии готовности компании к работе с ними.
Владислав Шевченко
CTO, red_mad_robot
15:30-16:10
Платформизация AI-систем: проблемы больших и малых компаний
Любая ML-платформа начинается одинаково: команде нужны GPU, трекинг экспериментов и способ доставить модель в прод. Сначала хватает devbox-ов, потом в каждом углу компании вырастает отдельная маленькая платформа со своим набором инструментов. GPU общие, контроль — у каждого свой. Рано или поздно велосипеды приходится парковать и строить единую платформу.
Этот путь проходит любая компания — разница в уровне проблем. Маленьким нужна гибкость: быстро собрать из open-source, легко заменить любой компонент. Большим — надежность: 500+ MAU, мультитенантность, observability и команда разработки, которая это поддерживает. Параллельно встает вопрос инференса: ML-модель — не веб-сервис, у нее свой жизненный цикл, и PaaS компании может просто не подойти.
В докладе разберем, на чем можно сэкономить, а где экономия выйдет боком — и почему инференс классических моделей и LLM приходится сочетать на одной платформе.
Антон Алексеев
MLOps инженер, AvitoTech
11:40-12:20
Экономика ИИ-агентов. Взгляд в будущее
Поделимся результатами большого исследования ИИ-агентов: какие задачи они решают, как влияют на бизнес-модели и рабочие процессы, какие риски за собой влекут и в каком направлении будут развиваться. Подробно остановимся на стоимости внедрения и на том, какой экономический эффект оказывает применение агентов в разных сферах.
Андрей Мальков
Ведущий исследователь, Axenix
12:40:13:20
ИИ в деле: как превратить пилот в производственное решение
По данным MIT, 95% GenAI-пилотов не дают измеримого результата. Но как не попасть в это большинство?
В докладе расскажу, как выбрать правильную точку входа, поделюсь методикой оценки процессов под автоматизацию и разберу три кейса с реальными результатами: • голосовой AI-рекрутер в крупной промышленной компании (177 тысяч звонков за три месяца); • эволюция клиентского бота Knauf от 17-страничных сценариев до AI-консультанта с базой знаний; • голосовой ассистент на ПМЭФ-2025, который вдвое снизил нагрузку на контакт-центр.
Дополнительно на примерах покажу, как считать эффект на каждом этапе и почему стратегия малых шагов часто надёжнее, чем «всё снести и переписать».
Антон Саушкин
Руководитель направления GenAI-решений, Just AI
16:30-17:10
Мир китайских GPU — загадочный и интересный
Поговорим о двух вещах, которые в российской AI-индустрии перестали быть «завтрашним днем» и стали актуальным вызовом. Во-первых — о китайских GPU как бизнес-реальности. Не о перспективах, а о том, что уже работает в продакшене: архитектурах MetaX, Moore Threads, Iluvatar, Huawei Ascend, Baidu Kunlun. Разберем, какие AI-нагрузки они тянут сегодня, какой TCO можно получить при замене NVIDIA, что уже удалось мигрировать в российских дата-центрах, а где еще требуются доработки.
Во-вторых — о стратегии управления этим ландшафтом. Когда в инфраструктуре появляются GPU от нескольких вендоров, вопрос уже не «зачем», а «как сохранить управляемость». Обсудим платформу АРКА как способ объединить гетерогенную GPU-инфраструктуру в единый ресурс: маршрутизацию моделей, единый API и работу в air-gapped среде. А также то, почему multi-vendor стратегия — это не временный компромисс, а осознанный путь к независимости от одного поставщика.
Дмитрий Шилов
Технический директор, Chaitex
MLечный путь — шестая конференция Selectel для тех, кто делает ML, и центр притяжения российской AI-экспертизы.
После всех докладов мы не расходимся — наступает время для неформальной части конференции. Будет фуршет, напитки, музыка, множество возможностей для нетворкинга и пара специальных активностей.
Имя сети: MЛечный путь Пароль: Selectel
Чтобы подключиться к сети Wi-Fi, используйте следующие данные:
С 14:00 до 14:50. Еще запланированы кофе-брейки по 20 минут в 12:20 и 16:10 — можно будет подкрепиться снеками.
Задать вопрос спикеру сразу после его выступления. Авторы самых интересных вопросов получат Тирексов.
Да, записи всех докладов мы выложим в канале Selectel на YouTube и VK Видео.