Генеративный искусственный интеллект обещает революционизировать работу и учебу. Исследования показывают впечатляющий рост продуктивности при использовании таких инструментов, как ChatGPT. Но есть важный вопрос, который до сих пор оставался без ответа: как ИИ влияет на способность людей учиться новым навыкам?
Международная команда исследователей из Университета Пенсильвании провела масштабный эксперимент с почти тысячей учащихся турецкой школы, чтобы выяснить это. Результаты оказались неожиданными и тревожными.
Эксперимент: два ИИ-репетитора на основе GPT-4
Исследователи создали два варианта цифрового помощника для уроков математики:
GPT Base — простой интерфейс, похожий на обычный ChatGPT, который помогает решать задачи.
GPT Tutor — усовершенствованная версия со специальными настройками: система получала правильное решение каждой задачи и инструкции не давать готовый ответ, а направлять ученика пошаговыми подсказками.
Эксперимент проходил в течение семестра на четырех 90-минутных занятиях для учеников 9-11 классов. Каждое занятие делилось на три части:
- Учитель объясняет тему и решает примеры у доски
- Практическая работа — ученики решают задачи с доступом к разным ресурсам в зависимости от группы (контрольная группа, GPT Base или GPT Tutor)
- Экзамен — все пишут тест без каких-либо вспомогательных материалов
Впечатляющие результаты… которые исчезают
Во время практической части с доступом к ИИ результаты превзошли ожидания:
- Ученики с GPT Base решили на 48% больше задач, чем контрольная группа
- Ученики с GPT Tutor показали прирост в 127%
Казалось бы, отличная новость. Но затем начался экзамен без доступа к ИИ — и картина резко изменилась.
Ученики, использовавшие GPT Base, справились с экзаменом на 17% хуже, чем те, кто вообще не имел доступа к ИИ. Фактически, доступ к ChatGPT навредил их способности решать задачи самостоятельно.
Специально разработанный GPT Tutor смог нейтрализовать этот негативный эффект — его пользователи показали результаты на уровне контрольной группы. Но даже с продуманными защитными механизмами позитивного влияния на обучение не наблюдалось.
Почему это происходит?
Исследователи проанализировали, как именно студенты взаимодействовали с ИИ, и обнаружили тревожную закономерность.
Использование как «костыля»
Команда изучила все сообщения, которые ученики отправляли системе. Выяснилось, что большинство студентов в группе GPT Base просто просили готовый ответ. Самое популярное сообщение: «Какой ответ?» — составило 31% всех первых запросов.
В группе GPT Tutor картина была другой. Студенты:
- Отправляли значительно больше сообщений (в среднем 3-5 на задачу против 1-2)
- Чаще пытались решить задачу самостоятельно и просили помощь с конкретными шагами
- Проводили на 13% больше времени с системой
Ошибки ИИ — не главная проблема
Исследователи также проверили гипотезу о том, что студенты ухудшили результаты из-за ошибок в ответах GPT-4. Систему протестировали на всех 57 задачах из практических занятий, запрашивая ответ 10 раз для каждой задачи.
Результат: GPT Base давал правильный ответ только в 51% случаев. В 42% ответов содержались логические ошибки, в 8% — арифметические.
Но анализ показал, что ошибки ИИ на практике не влияли на результаты экзамена. Студенты просто копировали ответы, не пытаясь их понять или проверить — поэтому и логические, и арифметические ошибки влияли на их практическую работу одинаково плохо.
Тревожный разрыв между восприятием и реальностью
Особенно настораживает еще один результат исследования. В конце каждого занятия студентов спрашивали, как они оценивают свое обучение и результаты экзамена.
Студенты из группы GPT Base, показавшие худшие результаты, не осознавали, что учились хуже. Более того, студенты GPT Tutor, не показавшие улучшений на экзамене, считали, что справились значительно лучше.
Этот разрыв между восприятием и реальностью делает проблему еще острее — если студенты не понимают, что ИИ мешает их обучению, они продолжат использовать его неправильно.
Что это означает для будущего образования?
Результаты исследования не означают, что генеративный ИИ бесполезен для образования. Скорее они показывают, что простое предоставление доступа к ИИ-сервисам может быть вредным.
Ключевые выводы:
Без защитных механизмов ИИ превращается в машину для выдачи готовых ответов, а не в инструмент для обучения. Студенты выбирают путь наименьшего сопротивления.
Тщательно спроектированные системы могут минимизировать вред, но для этого требуются значительные усилия — включение правильных решений в промпты, инструкции давать пошаговые подсказки, участие учителей в разработке.
Краткосрочный выигрыш в продуктивности не компенсирует долгосрочные потери в обучении — особенно в областях, где требуется глубокое понимание концепций.
Что дальше?
Это исследование поднимает фундаментальный вопрос о будущем взаимодействия человека и ИИ. В отличие от калькулятора, который автоматизирует простые арифметические операции, ChatGPT работает с более сложными интеллектуальными задачами — и последствия чрезмерной зависимости от него могут быть серьезнее.
Образовательным учреждениям стоит внимательно отнестись к этим результатам при внедрении ИИ-инструментов. Необходимы:
- Четкие руководства по использованию ИИ в учебном процессе
- Системы с встроенными механизмами, предотвращающими простое копирование ответов
- Обучение студентов критическому мышлению при работе с ИИ
- Регулярная оценка того, как использование ИИ влияет на реальные навыки
Генеративный ИИ — мощный инструмент, который при правильном применении может улучшить образование. Но это исследование ясно показывает: без продуманного подхода мы рискуем вырастить поколение, которое умеет получать ответы от ИИ, но не умеет думать самостоятельно.