ИИ для НИИ
Когда-то Инга Очнева считала математику своим слабым местом. Сегодня выпускница ШАДа создаёт и обучает нейросети, которые разбираются в научных данных лучше и быстрее человека
12 февраля 2026Когда-то Инга Очнева считала математику своим слабым местом. Сегодня выпускница ШАДа создаёт и обучает нейросети, которые разбираются в научных данных лучше и быстрее человека
12 февраля 2026Правда! Точнее, в её подразделении — Центре научной информации. Я главный специалист отдела анализа и интерпретации больших данных. У нас нечто вроде справочного бюро: к нам обращаются министерства или коммерческие организации и спрашивают, как обстоят дела в той или иной научной области — в России или в странах СНГ. Мы анализируем доступные источники: научные статьи, публикации, патенты и другие материалы. Потом выдаем аналитический отчет, для работы над которым привлекаем экспертов
В такой работе немало задач для ML! Например, недавно решили добавить в этот процесс машинную автоматизацию, за которую я и отвечаю. Раньше поисковик по запросу эксперта выдавал сотни документов, и эксперт вручную отбирал релевантные. Это занимало минимум день, иногда несколько. Теперь мы разрабатываем систему, которая получает от эксперта инструкцию на простом русском языке и сама фильтрует массив, выдавая топ релевантных документов. Ещё одна LLM генерирует описания графиков. Третья будет делать краткую выжимку и анализ найденных статей. Это помогает снизить нагрузку на экспертов, освободить их время для решения серьёзных научных задач.
У нас маленькая команда и нет готовых решений: здесь всё нужно создавать с нуля, это по-настоящему вдохновляет.
У нас есть поисковый движок, связанный с огромной базой научных источников. Этот движок неидеален: он не всегда выдает релевантные документы, среди формально подходящих по ключевым словам статей нередко встречаются те, что на деле не соответствуют запросу.
Например, мы ищем научные статьи по металлоконструкциям. Среди них могут быть действительно полезные материалы — новые исследования, методики, открытия. А могут попадаться публикации вроде «Металлоконструкции среднего Урала» или «В память о профессоре Иванове, почётном строителе металлоконструкций». Таких немало, и прописывать под каждый случай отдельные правила слишком трудоёмко.
Мы решили использовать LLM, которая хорошо работает с русским языком. Вместе с экспертом разобрали, как мы сами принимаем такие решения, и объяснили это модели. Затем развернули инференс — то есть запустили модель в работу. Пока результаты хорошие — система экономит много времени.
Я закончила три курса бакалавриата Физтеха на факультете аэрофизики и космических исследований. К концу третьего курса я поняла, что не чувствую себя на своём месте и не понимаю, куда в этом направлении двигаться.
Оказалось, что информатика мне ближе, чем физика. Я получала больше удовольствия от программирования, чем от выполнения лабораторных. Вообще, у многих друзей на Физтехе постепенно сместился интерес в сторону машинного обучения.
Посмотрела вводную лекцию, потом записалась на бесплатные курсы на Coursera, прошла часть программы Deep Learning School при Физтехе.
А потом пришло время поступать в магистратуру, и я подала документы в ШАД. В первый год я дошла до этапа собеседований, но одно из них прошла не очень удачно. Мне предложили прийти в следующем году сразу на собеседование. В результате я полностью перелопатила всю физтеховскую программу по математике — ту часть, что нужна для машинного обучения. Над столом у меня висела распечатанная карта программы ШАДа. Училась по курсам своего любимого преподавателя Сергея Андреевича Жесткова из Zhestkov University. Через год вернулась на собеседование — и прошла.
Когда я не поступила в первый раз, это сильно меня подкосило. Был момент, когда я всерьёз думала, стоит ли продолжать. Решила, что стоит: вреда не будет, а польза в любом случае останется. Сам факт, что ты проходишь экзамены ШАДа, уже достижение.
Поэтому мой совет: если не получилось с первого раза — не останавливайтесь. Подготовка сама по себе уже награда.
Конечно!
Самый цитируемый в моей жизни курс — это, конечно, лекции по NLP и курсы ML-1 и ML-2, которые тоже к NLP имеют отношение. Например, я недавно вспоминала советы из лекций, когда работала с трансформерами. Они реально помогают.
В целом всё, что я сейчас делаю, связано с моделями: как их запустить, как написать, как обучить. И почти в каждой задаче я опираюсь на то, что было в курсах ШАДа.
В ШАДе появилось ощущение: «я могу». Ушёл страх перед рабочими задачами. Те вещи, которые раньше казались непосильными, перестали пугать. Если раньше дедлайн через неделю означал неделю паники, то теперь я спокойно сажусь и за два дня всё делаю.
Главное, что я усвоила: страх уходит, когда не отступаешь. Не берёшь академ, не откладываешь, а просто садишься и делаешь. С каждой новой победой становится проще. Может, это не универсальный рецепт, но для меня сработало именно так.
Конечно, LLM. Они интересуют сейчас вообще всех. Мне любопытно, в какой момент Alice AI, ChatGPT, DeepSeek и им подобные наконец достигнут предела. И достигнут ли вообще. Как это изменит мир, мою карьеру, да и жизни людей в целом.
Это напоминает плотину, в которой сначала появлялись маленькие дырочки, через которые искусственный интеллект проникал в нашу жизнь. Затем эти дырочки расширялись, плотина начала трескаться.
Самое разумное — укреплять базу: линейную алгебру и теорию вероятностей. Когда модель выдаёт странный результат, всё равно приходится смотреть «под капот» и выяснять, почему это происходит: откуда берутся вероятности, которые к нему привели, и что там вообще внутри.
Глубокое понимание основ даёт уверенность, что ты хотя бы примерно представляешь, как работает этот чёрный ящик. Всё, что можно автоматизировать, будет автоматизировано, поэтому важно иметь фундамент — то, что действительно развивает мышление и понимание задач.
Вообще очень хочется создать максимально интегрированного персонального помощника, что-то вроде чит-кода на всё. Наверное, не только я об этом думаю — аналоги уже появляются. В моём представлении это очень продвинутая Алиса.