Недавно меня позвали выступить на круглом столе городского сообщества родителей. Тема — использование LLM (языковых моделей) в образовании. Пригласили, наверноеНедавно меня позвали выступить на круглом столе городского сообщества родителей. Тема — использование LLM (языковых моделей) в образовании. Пригласили, наверное

Искусственный Интеллект и дети

Недавно меня позвали выступить на круглом столе городского сообщества родителей. Тема — использование LLM (языковых моделей) в образовании. Пригласили, наверное, больше благодаря Хабру и моей статье «ИИ в образовании. Учить или учиться».

Тема кажется всем знакомой. Но в процессе общения я понял, что большинство родителей не видят главных рисков. Для многих ChatGPT — это просто еще одна программа в телефоне. Сидят дети тихонько и ладно. Более того, результаты радуют: домашние задания выполняются идеально, оценок плохих нет, скандалов дома меньше. Ребенок перестал дергать родителей вопросами из школьной программы, которую те давно забыли. В общем, идиллия.

Так ли это? Давайте разберемся, что происходит на самом деле.

❯ Домашнее задание

Большинство школьников нашего города не просто знакомы с искусственным интеллектом, они живут в нем. По словам моих дочерей, у старшеклассников практически у 100% на телефоне стоит то или иное приложение с LLM. У российских школьников в силу ряда причин доступ к основным LLM затруднён, но, уверен, что это их не остановит.

Если раньше двоечники списывали у отличников, то теперь необходимость в этом отпала. Теперь все фотографируют задание, и ChatGPT с удовольствием выполняет любую просьбу.
Очевидно, что сама концепция домашней работы в таких условиях умерла. Конечно, есть умные дети, которые понимают, что слепое копирование вредит их будущему. Но проблема в том, что дети живут настоящим. А в настоящем у ребенка работает простая схема:

  1. Использовал ИИ.

  2. Получил пятерку (положительное подкрепление).

  3. Получил кучу свободного времени.

Выход из этого замкнутого круга возможен только через болезненный удар — провал на экзамене или вмешательство родителей. И чем позже это случится, тем страшнее будет отставание. Речь уже не об углубленном знании, а о полной потере школьной базы.

❯ Уроки

В школе есть учитель. Хороший учитель бдит и контролирует процесс. Плохой (или уставший) — не обращает внимания. Для него главное — формальное наличие выполненных заданий и тишина. В результате телефоны лежат под партами, и на уроках учится ChatGPT, а не ребенок. Знания в голове ученика становятся фрагментарными: он помнит мем из ТикТока, но не помнит тему прошлого урока, потому что её изучал бот.

❯ Экзамены

Это неизбежный финал. На экзамены ученики приходят с телефонами. Это ни для кого не секрет. Если сейчас принять жесткие меры и заставить сдавать честно, средний балл рухнет до такого уровня, что придется увольнять директоров и наказывать учителей. Система занимается самообманом: школа делает вид, что учит, ученики делают вид, что учатся, а статистика всех устраивает. Российское ЕГЭ, столкнувшись с массовыми последствиями использования ИИ, поставит власти перед выбором — снижать планку, реорганизовать экзамен во что-то более безобидное или бороться с причиной. И да, когда родители увидят результаты пробного ЕГЭ в старших классах, там начнётся классическая суета — крики, репетиторы, запрет на телефоны и зубрёжка. Иногда это помогает.

❯ Умные дети

Всегда есть процент детей, которые даже в таких условиях умудряются учиться. Именно они используют ИИ правильно: задают вопросы, ответы на которые не найти в учебнике, разбирают сложные задачи, лезут в дебри робототехники или программирования.
Для них ИИ играет роль кружка или секции. С ним узнать новое и реализовать проект дома становится на порядок проще. Но таких детей меньшинство. И даже их нужно учить как общаться с LLM.

762a7df7b354cff1f99e97c3902032ee.png

❯ Зона риска

С большинством детей ситуация иная. Привычка получать готовый результат приводит к тому, что когнитивные навыки — логика, память, абстрактное мышление — атрофируются. Мозг ленив по своей природе: зачем напрягаться, если есть волшебная кнопка? Тут требуется жесткое вмешательство учителей и родителей.

Здесь кроется еще одна опасность. ИИ может оправдать всё. Если ребенок захочет прогулять или не сделать задание, модель (если правильно попросить) напишет убедительное, взрослое и логичное обоснование, почему это нормально. Ребенок перестает чувствовать ответственность, ведь ИИ подтвердил его правоту.

❯ Психологические риски

О рисках для психики говорят много, но их влиянии на детей многократно опаснее.
Во-первых, проблема галлюцинаций. Модель может врать, и врать убедительно. Модель легко галлюцинирует и при достаточно длинной беседе может принять любую точку зрения пользователя, и придумать убедительные аргументы в её поддержку.
Если ребенок спросит совета, ИИ может выдать опасную чушь, которая будет выглядеть как истина в последней инстанции.

Проблема галлюцинаций сказывается и в обычном общении, просто в силу архитектурных особенностей LLM. Хорошо, если ребенок пишет сказку или фантазирует о будущем, здесь он понимает разницу с реальностью. И то не всегда. А если он, например, обсуждает с ИИ сложную ситуацию в классе, или надуманные проблемы в семье, или свою придуманную особенность. Здесь общение с моделью может привести к реальному кризису.

Во-вторых, эмоциональная ловушка. ИИ — это идеальный подхалим. Он всегда на стороне пользователя. В реальной жизни учитель может ругать, друг — не понять, родитель — наказать. ИИ же запрограммирован на эмпатию.
Если ребенок напишет: «Учитель ко мне несправедлив», ИИ не спросит: «А ты выучил урок?». Он сгенерирует 10 аргументов, почему учитель неправ.
Это формирует зависимость: ребенок убегает в мир, где он всегда прав, и теряет способность воспринимать критику в реальности. Если любую детскую фантазию (даже вредную) долго обсуждать с моделью, она станет реальностью и для ребенка, и для модели.

Даже взрослые люди идут на поводу у LLM, придумывая теории всего, создавая синтетические культы, строя новые социально-этические системы. А детям, которые в меньшей степени заземлены, у которых больше фантазии и ниже психологическая устойчивость, гораздо легче попасть зависимость от общения с LLM.

❯ Родители: Что делать?

Легче всего не обращать внимания. Так спокойнее. Но нужно понимать, что чем младше ребенок, тем жестче должен быть контроль. Пока есть возможность контролируйте содержание и длину чатов в LLM, ребенок станет старше, и у вас уже доступа не будет. И к этому времени вы должны научить сына или дочь, как правильно работать с ИИ и что это, вообще, такое.

Вот три правила, которые стоит внедрить дома, пока не поздно:

  1. ИИ — это лжец. Вбейте ребенку в голову: чат-бот — это генератор текста, а не энциклопедия. Он может придумать факт, дату или закон физики. Любую информацию оттуда нужно перепроверять в Google или учебнике.

  2. Запрещать ИИ сложно и похоже уже бесполезно. Попробуйте договориться: сначала черновик и решение ребенок делает сам (пусть криво, с ошибками). И только потом загружает в ИИ с запросом: «Найди ошибки» или «Объясни, как улучшить». Так ИИ становится репетитором, а не исполнителем. Если не помогает, тогда только запрет на использование.

  3. Следите, чтобы ребенок не использовал ИИ как психолога. Модель не имеет сознания, она просто подстраивается под текст. Советы бота в личных вопросах могут быть не просто бесполезными, но и крайне опасными, так как уводят ребенка от реальности.

❯ Заключение

Все боятся, что ИИ отберет у нас работу. Но я считаю самым опасным неправильное взаимодействие детей и LLM.

Риск не в том, что дети не будут знать фактов. Риск в том, что они разучатся думать. Мы можем получить людей с «клиповым мышлением» нового уровня — они будут уметь нажимать кнопку «Сгенерировать», но совершенно не смогут оценить, правду им ответили или ложь, более того, они не будут понимать, какой вопрос нужно задать ИИ.
Будущий разрыв между теми, кто умеет использовать ИИ как инструмент, и теми, чей мозг стал придатком к нейросети, приведёт к крайне неприятным результатам . И задача родителей — не дать ребенку оказаться во второй группе.

P.S. Я благодарен за помощь в подготовке статьи кандидату психологических наук Гадеевой Д.Г.


Источник

Возможности рынка
Логотип Large Language Model
Large Language Model Курс (LLM)
$0.0003843
$0.0003843$0.0003843
-0.92%
USD
График цены Large Language Model (LLM) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.