
В условиях, когда последнее поколение моделей искусственного интеллекта создает все более отточенные и безупречные тексты с минимальным количеством ошибок и галлюцинаций, возникает острая необходимость определить, где заканчивается человеческое мышление и начинается работа ИИ. Профессор философии выражает опасение, что если безукоризненное эссе больше не гарантирует, что студент самостоятельно проделал мыслительную работу, то оценка за него, как и сам диплом, становятся пустыми.
Эта проблема не ограничивается учебными аудиториями. В таких сферах, как юриспруденция, медицина и журналистика, доверие граждан основано на уверенности в том, что работой руководило человеческое суждение. Например, пациент ожидает, что рецепт врача отражает мысль и подготовку эксперта. Сегодня продукты ИИ могут поддерживать решения людей, но даже при небольшом участии ИИ невозможно быть уверенным, что процесс направлял профессионал, а не просто написал несколько запросов (промптов). В этой ситуации исчезает подотчетность — способность институтов и отдельных лиц отвечать за то, что они удостоверяют. Это происходит в то время, когда общественное доверие к гражданским институтам уже пошатнулось.
Кризис обучения и неэффективность традиционных мер
Образование становится испытательным полигоном для поиска нового подхода: научиться работать с ИИ, сохраняя при этом целостность и видимость человеческого мышления. Основное взаимодействие между преподавателем и студентом находится под давлением. Исследование Массачусетского технологического института показало, что студенты, использующие большие языковые модели для помощи в написании эссе, чувствовали меньше личной ответственности за свою работу и показали худшие результаты по ключевым показателям, связанным с письмом. Студенты ощущают себя побежденными, спрашивая: «Зачем мне самому думать, если искусственный интеллект может просто сказать мне?». Преподаватели опасаются, что их обратная связь больше не доходит до адресата.
Университеты в замешательстве. Некоторые преподаватели пытаются сделать задания «защищенными от ИИ», требуя личных размышлений или включая в работу промпты и описание процесса. Однако искусственный интеллект способен имитировать практически любое задание или стиль. Другие призывают к возврату к «средневековым стандартам»: тестам в аудитории и устным экзаменам. Однако такие методы, по мнению автора, вознаграждают скорость под давлением, а не рефлексию. Если же ИИ используется вне занятий, преподаватели, вероятно, просто понизят планку качества, как это произошло, когда смартфоны начали подрывать устойчивое чтение и внимание.
Многие учебные заведения прибегают к тотальным запретам или передают проблему фирмам, занимающимся образовательными технологиями, чьи детекторы регистрируют каждое нажатие клавиши. Преподаватели изучают «криминалистические» хронологии, а студенты чувствуют себя под наблюдением. Но искусственный интеллект слишком полезен, чтобы его можно было запретить, и он уходит в подполье, как контрабанда.
Главная сложность заключается не в том, что искусственный интеллект делает доступными сильные аргументы (это делают и книги), а в том, что он постоянно «нашептывает» студенту предложения. Учителя не могут оценить постфактум, повторяет ли студент чужие мысли или интегрирует их в собственное рассуждение. Сильная работа может скрывать зависимость от ИИ, в то время как слабая может отражать настоящую борьбу мысли. Кроме того, ИИ скрывает и другие признаки хода мысли студента, такие как неловкие формулировки, которые улучшаются по ходу работы, качество цитирования и общая беглость изложения.
Восстановление связи между процессом и результатом
Несмотря на желание многих избежать умственных усилий, именно мышление делает обучение устойчивым и подготавливает студентов к тому, чтобы стать ответственными профессионалами и лидерами. Поскольку сам искусственный интеллект не может нести ответственность, а его создатели не хотят брать на себя эту роль, единственным выходом является защита связи между рассуждениями студента и работой, которая их формирует.
Предлагаемый подход — протокол авторства — призван восстановить эту связь. Представьте платформу, где преподаватель устанавливает правила для каждого задания, выбирая разрешенные режимы использования ИИ. Эссе по философии может быть написано в режиме, свободном от ИИ, где отключено копирование/вставка и внешние вызовы к ИИ. Проект по программированию может разрешать помощь ИИ, но перед отправкой система приостановит работу, чтобы задать студенту краткие вопросы о том, как работает его код. После отправки система выдает защищенный чек — цифровой ярлык, подтверждающий, что работа была выполнена в заданных условиях.
Это не детекция, поскольку алгоритм не сканирует работу на наличие маркеров ИИ. Это и не слежка, так как не ведется запись нажатий клавиш. Условия использования ИИ встроены в процесс отправки, и работа, не соответствующая этим условиям, просто не пройдет.
В пилотном проекте, разработанном в Университете Темпл, используется основной режим проверки авторства, в котором помощник ИИ задает краткие, разговорные вопросы в реальном времени, которые возвращают студентов к их мыслительному процессу, например: «Не могли бы вы яснее переформулировать свой основной тезис?». Краткие, моментальные ответы и правки позволяют системе оценить, насколько хорошо согласуются рассуждения студента и окончательный черновик.
Промпты адаптируются в реальном времени к тексту студента. Цель состоит в том, чтобы стоимость мошенничества превысила усилия по самостоятельному мышлению. Это восстанавливает уверенность преподавателей в том, что их обратная связь направлена на реальные рассуждения студента, а студентам помогает развивать метакогнитивное осознание — понимание, когда они действительно думают, а когда просто перекладывают работу на ИИ.
Когнитивное авторство и будущее профессий
Протокол авторства смещает фокус внимания на когнитивное авторство: вопрос не в том, как много ИИ было использовано, а в том, как его интеграция влияет на рефлексию и чувство владения работой. В издательской сфере уже проводятся эксперименты с отметками «написано человеком», но без надежной верификации такие ярлыки могут превратиться в маркетинговые лозунги. Проверять нужно не нажатия клавиш, а то, как люди взаимодействуют со своей работой.
Этот протокол может работать как интерактивный уровень с верификационными метками, которые сопровождают работу. Он дополнит уже существующие технические стандарты проверки цифровой идентичности и происхождения контента, ключевое отличие которых в том, что они сертифицируют артефакт, а не человеческое суждение, стоящее за ним.
Если не дать профессиям контроль над использованием ИИ и не обеспечить сохранение места для человеческого суждения в работе, созданной с помощью ИИ, технология рискует разрушить доверие, на котором зиждутся профессии и гражданские институты. Искусственный интеллект — это не просто инструмент; это когнитивная среда, меняющая наше мышление. Чтобы осваивать эту среду на своих собственных условиях, необходимо создавать открытые системы, которые сохраняют человеческое суждение в центре процесса.

Комментарии (0)