paint-brush
ЕС останавливает нерегулируемый искусственный интеллектк@konkiewicz
2,445 чтения
2,445 чтения

ЕС останавливает нерегулируемый искусственный интеллект

к Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

Слишком долго; Читать

Европейский закон об искусственном интеллекте вступит в силу в конце 2024 года. Закон классифицирует системы искусственного интеллекта по уровням риска. Системы высокого риска должны будут следовать требованиям прозрачности. Компании будут нести ответственность за ведение учета данных обучения. Это заставит компании уважать конфиденциальность данных и улучшить отслеживаемость.
featured image - ЕС останавливает нерегулируемый искусственный интеллект
Magdalena Konkiewicz HackerNoon profile picture

Глобальное воздействие и как быть готовым

Введение

За последний год европейские стартапы в сфере искусственного интеллекта догнали своих зарубежных конкурентов и представили продукты, сравнимые с популярным ChatGPT. Поскольку основное внимание уделяется быстрому прогрессу и развитию, вопросы, касающиеся прозрачности, этики и влияния на пользователей, иногда отодвигаются на второй план. Однако ситуация, вероятно, изменится с вступлением в силу Закона ЕС об искусственном интеллекте, который должен начать действовать в конце 2024 года.


Закон ЕС об искусственном интеллекте одобренный Европейским парламентом в марте 2024 года, вводит строгие правила в отношении ИИ, разработанные в ЕС. Однако его влияние выходит за пределы Европы, напрямую затрагивая не только европейские фирмы, занимающиеся искусственным интеллектом, но и международные компании, в том числе из США, которые предлагают свою продукцию на рынке ЕС.

Кто пострадает?

Закон ЕС об искусственном интеллекте классифицирует системы искусственного интеллекта по уровням риска. Системы, отнесенные к категории высокого риска, должны будут следовать требованиям прозрачности с обязательной оценкой потенциального воздействия на общественное здоровье, безопасность, права человека и общественное благосостояние. Их будут проверять на предмет предвзятости, чтобы гарантировать отсутствие дискриминации и уважение основных прав человека.


Кроме того, разработчики систем высокого риска будут обязаны вести подробную документацию, включая методы обучения и наборы данных, чтобы продемонстрировать соответствие.


Модели Foundation, сравнимые с GPT-3.5, будут регулироваться, если для их обучения потребуется не менее 10²⁵ флопов вычислительной мощности. И наоборот, в отношении моделей с открытым исходным кодом будут сделаны значительные уступки, что создаст стимул для разработки этого типа продукта.


Кроме того, Закон ЕС об искусственном интеллекте перечисляет запрещенные системы искусственного интеллекта. Это включает в себя биометрическую категоризацию с использованием чувствительных характеристик (например, расы, религии и т. д.), сбор изображений лиц, распознавание эмоций на рабочем месте и в процессе обучения, социальный рейтинг, манипулирование человеческим поведением и системы, предназначенные для использования уязвимостей человека.


Закон также налагает санкции за несоблюдение требований: штрафы варьируются от 7,5 миллионов евро или 1,5% глобального оборота компании до 35 миллионов евро или 7% оборота, в зависимости от нарушения и размера компании.

Как подготовиться?

Поскольку Европейский закон об искусственном интеллекте, вероятно, вступит в силу в конце 2024 года, важно начать подготовку уже сейчас, особенно если ваша система классифицируется как высокий риск или вы разрабатываете модели искусственного интеллекта общего назначения. Даже если ваша система не подпадает под строгое регулирование, возможно, стоит инвестировать в ответственную разработку ИИ, чтобы избежать негативных последствий для пользователей.


Мы рекомендуем сосредоточиться на всех аспектах построения системы, начиная от подготовки данных и заканчивая углубленной оценкой системы.

Пристальное внимание к данным обучения

Как указано в Законе ЕС об искусственном интеллекте, компании будут нести ответственность за ведение подробного учета наборов данных. Это заставит компании уважать конфиденциальность данных и улучшить отслеживаемость. Например, если система создает вредоносный контент, это можно отследить по неуместным данным или предвзятым текстам в наборе данных, на котором она обучалась.


Это означает, что при подготовке к новым правилам следует тщательно учитывать наборы обучающих данных. Это может включать в себя фильтрацию и очистку частей данных, используемых для обучения, или даже создание пользовательских наборов данных, которые курируются предметной областью и специально создаются, чтобы избежать распространенных ошибок, присутствующих в очищенных данных.

Методы согласования с обратной связью с человеком

Чтобы соответствовать новым правилам, компании, создающие LLM, должны инвестировать в приведение своих моделей в соответствие с человеческими ожиданиями, уделяя особое внимание правдивости, полезности и безвредности. Основными методами, используемыми для выравнивания LLM, являются: Подкрепление обучения на основе обратной связи с людьми (РЛХФ) и Прямая оптимизация предпочтений (ДПО).


Оба метода собирают предпочтения человека в отношении выходных данных модели и используют эти данные, чтобы научить модель тому, как должен выглядеть желаемый результат. Мы можем весьма эффективно остановить создание большей части вредоносного контента на этом этапе, если предоставим модели правильные примеры.

Углубленная оценка

Оценка систем искусственного интеллекта будет главным приоритетом и должна стать частью цикла разработки продукта. Ощущение наличия хорошей модели должно быть заменено тщательной и глубокой стратегией оценки.


Генеративные системы искусственного интеллекта особенно сложно оценить, поскольку результаты не являются детерминированными. Сгенерированный текст нельзя автоматически сравнить с «правильным» ответом. Оценка таких систем включает обратную связь с людьми, фокусирующуюся на различных аспектах, таких как правильность, полезность и безвредность.


Чаще всего системы необходимо оценивать дальше базовых уровней, упомянутых выше. Например, при оценке вредности мы могли бы дополнительно разделить ее на такие категории, как предвзятость, разжигание ненависти, расизм и т. д. Таким образом, мы могли бы на детальном уровне обнаружить, что необходимо исправить в системе, чтобы минимизировать ее негативное воздействие.

Краткое содержание

Без сомнения, Закон ЕС об искусственном интеллекте является важным шагом в регулировании искусственного интеллекта и знаменует собой новую эру искусственного интеллекта, когда ответственное развитие искусственного интеллекта больше не является вариантом и теперь будет соблюдаться по закону.


Готова ли ваша компания соблюдать новые правила в области искусственного интеллекта?