Журнал / герои

Искусственный интеллект учителя и студента

Поговорили с Дарьей Касьяненко, экспертом Центра непрерывного образования ФКН НИУ ВШЭ, старшим преподавателем департамента больших данных и информационного поиска ФКН НИУ ВШЭ, аспирантом Института образования НИУ ВШЭ (трек «Анализ данных в образовании») — о том, скоро ли нейросети заменят преподавателей в институте и избавят от необходимости писать дипломы. А также о том, как распознать диплом, написанный GPT

О чём мы вообще говорим? Генеративные модели в образовании — это писать диплом с помощью ChatGPT?

Генеративные модели (GenAI) — это тип искусственного интеллекта, который создаёт текст, код, изображения, музыку и другой контент в ответ на подсказки (промпты).

Конечно, мы знаем кейсы, когда с помощью ChatGPT, самого мощного сейчас чат-бота с искусственным интеллектом, писали дипломы и научные статьи. Однако нужно понимать, что наше представление об искусственном интеллекте сильно искажено поп-культурой.

В «Космической одиссее» Стэнли Кубрика (1968) действует HAL — искусственный интеллект, который не жалеет никого ради поставленной перед экипажем цели. В фильме Ридли Скотта «Бегущий по лезвию» (1982) репликантов было не отличить от людей. Конечно же, нужно вспомнить и «Матрицу» Вачовски (1999). Всё это привело к нереалистичным ожиданиям от появляющихся сервисов. Нам кажется, что искусственный интеллект — это сверхмощный разум, который напишет за нас и контрольную, и диплом.

Большие языковые модели ещё называют «стохастическими попугаями»: они хорошо генерируют тексты, но не понимают их значения — как попугаи, подражающие человеку

На деле модели-трансформеры (GPT — Generative Pre-trained Transformer) учатся на огромном количестве данных и хорошо умеют генерировать связный текст. Ключевое слово — «связный»: они прекрасно предсказывают, какое следующее слово лучше всего подойдёт в рамках контекста. Но они не способны синтезировать новые идеи, верифицировать данные или делать логические выводы. Часто рассуждения ChatGPT красивы и стройны, но выводы контринтуитивны и противоречивы — что и было выявлено в кейсах с написанием дипломов и научных статей.

А это вообще этично? В чём смысл образования, разве не в получении знаний и навыков? С нейронками и учиться, получается, не нужно...

По такой логике и учиться считать не нужно: калькулятор же умеет делать вычисления. Да, но надо осмыслить результаты и сделать выводы. Так и в обучении: инструменты ИИ могут помогать, но вряд ли заменят саму систему образования.

Если вы когда-нибудь мучили ChatGPT или YandexGPT, чтобы они вам написали качественное эссе на какую-нибудь тему, то знаете, что это довольно долгое дело. Да ещё и переписывать потом придётся, а то модели умеют выдумывать, например, персонажей, которых никогда не было в книге.

Вопрос об этичности — главная тема дебатов в сфере образования. Мы видим разные реакции: от полного запрета ChatGPT (Уппсальский университет в Швеции приравнивает студенческие работы, написанные с помощью ИИ, к гострайтингу, и предлагает преподавателям проводить все экзамены устно) до полного разрешения (Университет Агдера в Норвегии разрешает использовать инструменты ИИ для создания текстов — правда, просит потом доработать их с использованием научных источников и проведением собственных экспериментов).

European Network for Academic Integrity предложили такие рекомендации по этичному использованию ИИ в образовании:

  • Если в работе был использован ИИ, то его необходимо указать в источниках: сервис, модель, технические параметры модели.
  • Без указания допустимо использование сервисов, которые влияют только на форму, — инструментов для вычитки и проверки орфографии.
  • Поскольку ИИ не может нести ответственность, человек, использовавший ИИ, всегда отвечает за содержание и результаты.
  • Нужно включать курсы об ИИ в программу обучения всех студентов и повышения квалификации для преподавателей. Если у студентов не будет возможности узнать об этичном использовании ИИ, они будут более склонны к академическому мошенничеству.

Что вообще сейчас умеет ChatGPT или YandexGPT в контексте образования?

Умеет генерировать тезисы, переводить тексты, обрабатывать их, стилизовать, упрощать для объяснения сложных тем, проверять текст по заданным критериям, писать и анализировать код на разных языках программирования (в тренировочных данных ChatGPT был код с GitHub).

Писать полноценные школьные сочинения сервисы с ИИ пока не могут. Они составляют текст с размытыми формулировками, без конкретных примеров, без семантических повторов (что не свойственно для людей). Иногда модель может додумать исторического деятеля или добавить несуществующие детали. Конечно, если и студент, и преподаватель не заинтересованы в эссе, то и написанное нейронкой прокатит.

Я, например, когда смотрю на тексты студентов, сразу вижу куски, где есть красивый стройный текст со сложными конструкциями. Вчитываюсь — и понимаю, что эти куски ни о чём

И в антиплагиате всё, что написано ИИ, чаще всего никак не помечается — ну просто идеально написанный текст, который человек не написал бы. Мы всё-таки склонны к повторам, более корявым рассуждениям, чем математически верное расставление слов друг за другом.

Заведующий лабораторией цифровой трансформации образования Института образования НИУ ВШЭ Иван Александрович Карлов провёл эксперимент с моделью GPT-3. В ходе эксперимента чат-боту дали решить 121 задачу из школьного курса информатики. Задачи подавались на русском языке — так, как они представлены в задачниках, без дополнительных пояснений. Только в семи задачах из 121 чат-бот ответил, что не может найти решение. Во всех остальных случаях он предлагал свои варианты. Из них 50 были правильными, 52 — неправильными, 12 — частично правильными.

Заменит ли нейронка учителя в школе лет через 10–20?

Думаю, что нет.

Проблема ещё вот в чём: во-первых, к 2030–2050 мы будем испытывать недостаток качественных данных, на которых можно было бы обучать модели. Во-вторых, необходимо развитие фундаментальных технологий (квантовые, нейроморфные вычисления). В-третьих, это банально дорого. Каждый день у OpenAI, например, уходит порядка 700 тысяч долларов на поддержание ChatGPT.

А есть ли специализированные AI-инструменты для школьников или студентов?

Сейчас идут разговоры о разработке инструментов EdGPT (Education Generative Pre-Trained Transformers) — одним из драйверов выступает ЮНЕСКО. Идея такая: берётся общая большая языковая модель (как GPT-3) и дообучается на высококачественных специфических для конкретной области данных.

  • Например, MathGPT в формате чата решает для вас математические задачи и объясняет решения. Правда, вычисления не всегда получаются верными.
  • Восточно-Китайский педагогический университет разработал EduChat — чат-бота, который позволяет родителям, студентам и преподавателям готовиться к занятиям и в целом помогает учиться. Доступен только на китайском языке.
  • В Австралии правительство и Microsoft разработали EdChat для школ. Если ChatGPT просто отвечает, то EdChat вместо этого даёт подсказку или задаёт наводящий вопрос — совсем как преподаватель или тьютор.
  • В России инструментов EdGPT пока нет, так что студенты и школьники будут пользоваться неспециализированными сервисами, например YandexGPT.

Ну хорошо. А как трансформировать свой подход к обучению, чтобы активнее вовлекаться в нейросети и чаще использовать их?

Сервисы с искусственным интеллектом могут помочь выстроить график учёбы или объяснить сложные темы простым языком. Также можно избавиться от боязни чистого листа и попросить ИИ написать тезисы, на основе которых дальше развивать собственное эссе.

Microsoft составил промпты (запросы к чат-ботам) для студентов и учителей. Используя их, можно «настроить» чат-бота на определённый стиль взаимодействия.

Например, «тьютор» объясняет выбранную тему с помощью примеров и аналогий, избегая прямых ответов и поощряя собственные рассуждения студента. А «адвокат дьявола» будет предлагать студенту рассмотреть альтернативные точки зрения, недостатки концепций, различные доказательства.