Генеративний штучний інтелект обіцяє революціонізувати роботу і навчання. Дослідження показують вражаюче зростання продуктивності при використанні таких інструментів, як ChatGPT. Але є важливе питання, яке досі залишалося без відповіді: як ШІ впливає на здатність людей навчатися новим навичкам?
Міжнародна команда дослідників з Університету Пенсильванії провела масштабний експеримент з майже тисячею учнів турецької школи, щоб з’ясувати це. Результати виявилися несподіваними і тривожними.
Експеримент: два ШІ-репетитори на основі GPT-4
Дослідники створили два варіанти цифрового помічника для уроків математики:
GPT Base — простий інтерфейс, схожий на звичайний ChatGPT, який допомагає вирішувати завдання.
GPT Tutor — вдосконалена версія зі спеціальними налаштуваннями: система отримувала правильне рішення кожного завдання та інструкції не давати готову відповідь, а направляти учня покроковими підказками.
Експеримент проходив протягом семестру на чотирьох 90-хвилинних заняттях для учнів 9-11 класів. Кожне заняття поділялося на три частини:
- Вчитель пояснює тему і розв’язує приклади біля дошки
- Практична робота — учні розв’язують завдання з доступом до різних ресурсів залежно від групи (контрольна група, GPT Base або GPT Tutor)
- Іспит — всі пишуть тест без будь-яких допоміжних матеріалів
Вражаючі результати… які зникають
Під час практичної частини з доступом до ШІ результати перевершили очікування:
- Учні з GPT Base вирішили на 48% більше завдань, ніж контрольна група
- Учні з GPT Tutor показали приріст у 127%
Здавалося б, чудова новина. Але потім почався іспит без доступу до ШІ — і картина різко змінилася.
Учні, які використовували GPT Base, впоралися з іспитом на 17% гірше, ніж ті, хто взагалі не мав доступу до ШІ. Фактично, доступ до ChatGPT зашкодив їхній здатності вирішувати завдання самостійно.
Спеціально розроблений GPT Tutor зміг нейтралізувати цей негативний ефект — його користувачі показали результати на рівні контрольної групи. Але навіть з продуманими захисними механізмами позитивного впливу на навчання не спостерігалося.
Чому це відбувається?
Дослідники проаналізували, як саме студенти взаємодіяли з ШІ, і виявили тривожну закономірність.
Використання як «милиці»
Команда вивчила всі повідомлення, які учні надсилали системі. З’ясувалося, що більшість студентів у групі GPT Base просто просили готову відповідь. Найпопулярніше повідомлення: «Яка відповідь?» — склало 31% усіх перших запитів.
У групі GPT Tutor картина була іншою. Студенти:
- Надсилали значно більше повідомлень (в середньому 3-5 на завдання проти 1-2)
- Частіше намагалися вирішити завдання самостійно і просили допомоги з конкретними кроками
- Проводили на 13% більше часу з системою
Помилки ШІ — не головна проблема
Дослідники також перевірили гіпотезу про те, що студенти погіршили результати через помилки у відповідях GPT-4. Систему протестували на всіх 57 завданнях з практичних занять, запитуючи відповідь 10 разів для кожного завдання.
Результат: GPT Base давав правильну відповідь тільки в 51% випадків. У 42% відповідей містилися логічні помилки, у 8% — арифметичні.
Але аналіз показав, що помилки ШІ на практиці не впливали на результати іспиту. Студенти просто копіювали відповіді, не намагаючись їх зрозуміти або перевірити — тому і логічні, і арифметичні помилки впливали на їхню практичну роботу однаково погано.
Тривожний розрив між сприйняттям і реальністю
Особливо насторожує ще один результат дослідження. Наприкінці кожного заняття студентів запитували, як вони оцінюють своє навчання та результати іспиту.
Студенти з групи GPT Base, які показали гірші результати, не усвідомлювали, що вчилися гірше. Більш того, студенти GPT Tutor, які не показали поліпшення на іспиті, вважали, що впоралися значно краще.
Цей розрив між сприйняттям і реальністю робить проблему ще гострішою — якщо студенти не розуміють, що ШІ заважає їхньому навчанню, вони продовжать використовувати його неправильно.
Що це означає для майбутнього освіти?
Результати дослідження не означають, що генеративний ШІ марний для освіти. Швидше вони показують, що просте надання доступу до ШІ-сервісів може бути шкідливим.
Ключові висновки:
Без захисних механізмів ШІ перетворюється на машину для видачі готових відповідей, а не на інструмент для навчання. Студенти обирають шлях найменшого опору.
Ретельно спроектовані системи можуть мінімізувати шкоду, але для цього потрібні значні зусилля — включення правильних рішень у підказки, інструкції з покроковими підказками, участь вчителів у розробці.
Короткостроковий виграш у продуктивності не компенсує довгострокові втрати в навчанні — особливо в областях, де потрібне глибоке розуміння концепцій.
Що далі?
Це дослідження порушує фундаментальне питання про майбутнє взаємодії людини та ШІ. На відміну від калькулятора, який автоматизує прості арифметичні операції, ChatGPT працює з більш складними інтелектуальними завданнями — і наслідки надмірної залежності від нього можуть бути серйознішими.
Освітнім установам варто уважно поставитися до цих результатів при впровадженні інструментів ШІ. Необхідні:
- Чіткі інструкції щодо використання ШІ в навчальному процесі
- Системи з вбудованими механізмами, що запобігають простому копіюванню відповідей
- Навчання студентів критичному мисленню при роботі з ШІ
- Регулярна оцінка того, як використання ШІ впливає на реальні навички
Генеративний ШІ — потужний інструмент, який при правильному застосуванні може поліпшити освіту. Але це дослідження чітко показує: без продуманого підходу ми ризикуємо виростити покоління, яке вміє отримувати відповіді від ШІ, але не вміє думати самостійно.