Искусственный интеллект широко распространен в школах, но специалисты в области образования не учат студентов важности этического использования. Проблема в том, что это сложная тема, и у педагогов просто нет времени или ресурсов, чтобы заняться ею.
Где они берут соответствующие материалы? Как они вписывают их в свои существующие планы уроков? Вот как подобные вопросы сдерживают занятия по этике ИИ — и что делают лица, принимающие решения, чтобы решить эту проблему.
Этика ИИ — это набор принципов, которые управляют разработкой, развертыванием и использованием инструментов на основе алгоритмов. Они призваны направлять заинтересованные стороны, минимизируя ущерб, который такие технологии могут нанести окружающей среде, обществу или экономике. В меньшем масштабе они сосредоточены на предотвращении предвзятости, дискриминации, дезинформации и злоупотреблений.
Обучение этике ИИ в школе может показаться ненужным, но его важность нельзя переоценить. ИИ уже стал неотъемлемой частью многих отраслей. Согласно отчету McKinsey & Company,
Избегание разговоров об ИИ в классе из-за его новизны — это ненужное повторение истории. Это то же самое, что и много лет назад, когда ученикам говорили, что они не всегда будут носить калькулятор в заднем кармане сразу после изобретения смартфона.
Популярность этой технологии растет как в личной, так и в профессиональной сфере. Студенты должны быть готовы использовать ее ответственно, когда они выходят на работу, чтобы обеспечить лучшие результаты для своей отрасли и общества.
ИИ — мощный инструмент. Продвинутые алгоритмы могут анализировать огромные наборы данных экспоненциально быстрее, чем люди. Они преуспевают в распознавании образов, прогнозировании тенденций и создании контента. Нравится это педагогам или нет, но ИИ, скорее всего, изменит мир. Если они соответствующим образом подготовят своих учеников, они смогут гарантировать, что изменения будут позитивными.
Типичные этические риски, с которыми сталкиваются студенты при использовании ИИ, включают злоупотребление технологиями, преследование и плагиат. Последнее является одним из наиболее распространенных. Благодаря генеративным инструментам академическая нечестность легко сходит с рук. Google Trends показывает, что поисковые запросы «написание эссе с использованием ИИ»
К сожалению, плагиат — не самое тяжкое преступление. В последнее время студенты университетов, старших и даже средних школ были пойманы на использовании генеративных инструментов для участия в сексуальных преступлениях, связанных с дипфейками. В Южной Корее один журналист
Даже если дети не используют обычные фотографии своих одноклассников для создания откровенного материала, использование ИИ все равно вращается вокруг согласия. Эта концепция пересматривает принципы конфиденциальности и безопасности данных — все данные, которые вводят конечные пользователи, больше не являются конфиденциальными. Платформа или поставщик услуг могут использовать их для обучения своей модели или улучшения своих маркетинговых стратегий.
Многие из сегодняшних студентов рассматривают генеративные и машинные модели обучения как развлекательные, безвредные инструменты — даже когда они активно вредят другим. Учителя имеют уникальную возможность на раннем этапе информировать их о последствиях таких действий, пресекая неприемлемое поведение, подобное этому, на корню.
Стандарты школьных советов, политика в отношении классов и законы штатов существенно различаются, поэтому внедрение ИИ в лучшем случае было нестабильным. Этот раскол между теми, кто его принимает, и теми, кто нет, затормозил стандартизацию. Однако некоторые все еще рискуют на курсах этики.
Хотя различные ученые и отраслевые эксперты утверждают, что этические дискуссии должны начинаться в начальной школе, относительно немногие учреждения используют алгоритмические инструменты на таком раннем этапе. Фактически нет государственных ресурсов, доступных администраторам начальных школ.
Во многих средних и старших школах не обсуждают тонкости этического ИИ. Вместо этого они борются с использованием ИИ. Исследования показывают, что точность инструментов обнаружения ИИ
Обнадёживает то, что некоторые лица, принимающие решения, увидели необходимость этики ИИ. Например, губернатор Калифорнии Гэвин Ньюсом
Не все педагоги получают руководства от экспертов. Некоторые, как Джефф Саймон, учитель математики в старшей школе Sage Creek, самостоятельно ориентируются в этой новой области. Саймон сказал, что он
Большинство занятий по этике ИИ предлагаются в высших учебных заведениях, поскольку легче перенести эти обсуждения в курсы по науке о данных или компьютерной инженерии. По крайней мере, многие разработали политику для использования генеративного ИИ.
ИИ не просто присутствует в образовании — он процветает. Для справки, в 2024 году
Время является одним из основных ограничений — педагоги сталкиваются с невыполнимой задачей делать больше с меньшими затратами. Они уже
Область ИИ сложна и быстро развивается. Даже при поддержке всего округа учебные материалы могут быстро устареть. Во многих школах до сих пор используются учебники десятилетней давности, поэтому любое решение потребует масштабной модернизации.
Более того, как они будут отправлять домой домашнее задание по этике? Как будут выглядеть тесты? Как они будут выставлять справедливые оценки?
Педагоги, возможно, захотят принять концепцию этических занятий по ИИ, если им предоставят ресурсы, но нет четкой структуры того, как это можно сделать. Стоит ли им начинать преподавать это в начальной школе? Заменит ли это занятие, будет ли оно предложено в качестве факультатива или будет интегрировано в существующую учебную программу? Универсального решения не существует.
Многие учителя приняли политику «не в моем классе» в ответ на эти опасения. В результате ученики, скорее всего, не научатся правильно пользоваться этими инструментами. Многие будут воспринимать любые неточные, нерегулируемые знания, которые они насобирают из сверстников, родителей и интернета, как истину — что может иметь далеко идущие последствия.
Специалисты в области образования могут несколькими способами объяснить, почему этика ИИ не преподается в школах.
Интеграция этики ИИ в класс может означать создание нового факультатива или втискивание его в конец периода. Лучше всего разместить его там, где он естественным образом появляется. Например, когда ученикам задают эссе на восемь страниц, они могут услышать об ответственном использовании генеративного ИИ.
Преподаватели и администраторы должны адаптировать эти новые курсы к уровню знаний, технической компетентности и уровню знаний учащихся, чтобы сделать предмет соответствующим возрасту и интересным. Задания должны быть относительно открытыми, но следовать четким этическим рамкам.
Обычно разговоры об этичном ИИ фокусируются на конфиденциальности данных и предвзятости вывода, концентрируясь вокруг людей, которые разрабатывают, внедряют или управляют этими инструментами. Конечные пользователи взаимодействуют с пользовательским интерфейсом, а не с бэкэндом, поэтому их подход должен немного отличаться.
Основными принципами должны быть подотчетность, соответствие ценностям, объяснимость, справедливость и честность. Учащиеся должны научиться критическому мышлению для борьбы с предвзятостью, рассуждению для предотвращения чрезмерной зависимости и объективному анализу для смягчения распространения дезинформации.
Если законы штата или политика школьного совета затрудняют преподавание этики ИИ в классе, педагогам следует воспользоваться обходными путями. Моделирование ответственного, достойного поведения имеет большое значение. В качестве альтернативы они могут пригласить приглашенного докладчика.
Содействие дискуссиям, дебатам и групповой работе в классе позволяет учителям старших классов и профессорам колледжей выступать в качестве модераторов. Постановка вопросов о деидентификации данных, нарушении авторских прав и обобщении в связи с ИИ может инициировать продуктивные беседы.
Популярность цифровизации растет экспоненциально. Вскоре ИИ может стать частью каждой отрасли в мире. Если педагоги модернизируют свои уроки для этой современной эпохи, они могут гарантировать сегодняшней молодежи фору, как только она выйдет на рынок труда.