Австралийские университеты продолжают бороться с новыми формами обмана и плагиата, связанными с использованием искусственного интеллекта.

Руководство вузов признает, что автоматизация и легкодоступные цифровые инструменты меняют саму природу обучения и что теперь преподавателям всё труднее отличать самостоятельную работу от машинной.

Однако недавно в центре дискуссии об академическом мошенничестве (academic misconduct) оказались не отдельные случаи списывания с помощью ИИ, а масштаб ошибочных обвинений. Австралийский католический университет (ACU) в 2024 году использовал автоматизированные инструменты для выявления «машинного письма» и направил уведомления примерно 6 000 студентам о возможных нарушениях. Позже выяснилось, что значительная часть этих студентов не совершала ничего предосудительного, алгоритмы и процедуры проверки дали сбой. История показала, что проблема не столько в «хитрых студентах», сколько в поспешном применении “сырых” методов выявления плагиата и обмана.

Австралийский католический университет (ACU) провёл ревизию своих практик: рост обращений к ИИ заметили в эссе, отчётах и рефератах, а отделы по академической честности оказались перегружены делами, которые начинались с автоматического сигнала. Главный риск — ложные срабатывания. Детекторы ИИ не доказывают обман, они лишь указывают на «вероятность машинного стиля», а дальше вступают в силу человеческие решения — и именно здесь система дала сбой, превращая предположения в обвинения.

Технологические эксперты, на которых ссылается ABC, рекомендуют уходить от тотальных запретов. Логика простая: запреты не работают, потому что хорошие модели становятся труднее отличимыми, а студенты всё равно используют инструменты, как когда-то использовали интернет-источники. Вместо этого университетам предлагают встраивать ИИ в учебный процесс прозрачно: разрешать определённые формы помощи с обязательным раскрытием использования, оценивать не финальный текст, а процесс — план, черновики, устную защиту, коды и логи генерации, версию до и после редактирования.

Для студентов это означает смену правил игры: нельзя «прятать» машинную помощь под видом собственной работы, но можно учиться правильно применять ИИ, например, для поиска идей, структуры, проверки фактов и стилистики, с чёткой атрибуцией. Для преподавателей, пересборку оценивания: больше очных элементов, больше заданий с персональными данными, которые сложнее делегировать модели, и меньше «одноходовых» эссе, которые детекторы всё равно распознают ненадёжно.

Справедливость отдельный пункт. Когда тысячи студентов получают письма с подозрениями, репутационный и психологический ущерб неизбежен, даже если дело закрывают без санкций. Университетам придётся выстраивать процедурные гарантии: человеческую апелляцию, прозрачные критерии, возможность представить промежуточные версии работы и устные объяснения. ИИ-детекторы в этой схеме не «судьи», а вспомогательный сигнал уровня «повод присмотреться».

Австралийский контекст делает тему шире локального скандала. Вузам важно сохранить доверие к дипломам, а работодателям к выпускникам, которые умеют работать вместе с ИИ, а не вместо себя. Отсюда и новый баланс: обучать цифровой грамотности (включая этику ИИ), одновременно защищая академическую честность методами, которые выдерживают юридическую и методическую проверку.

Главный вывод прост. Гонка «детекторов» против «генераторов» заранее проигрышна. Работает не запрет и не полная автоматизация, а разумный механизм оценки и честные правила использования ИИ, где ответственность разделяют и студенты, и преподаватели, и администрация.

Источник (с)

(29)

Youtube
Youtube
Email
Twitter
Visit Us
Follow Me
RSS