За последний год европейские стартапы в сфере искусственного интеллекта догнали своих зарубежных конкурентов и представили продукты, сравнимые с популярным ChatGPT. Поскольку основное внимание уделяется быстрому прогрессу и развитию, вопросы, касающиеся прозрачности, этики и влияния на пользователей, иногда отодвигаются на второй план. Однако ситуация, вероятно, изменится с вступлением в силу Закона ЕС об искусственном интеллекте, который должен начать действовать в конце 2024 года.
Закон ЕС об искусственном интеллекте классифицирует системы искусственного интеллекта по уровням риска. Системы, отнесенные к категории высокого риска, должны будут следовать требованиям прозрачности с обязательной оценкой потенциального воздействия на общественное здоровье, безопасность, права человека и общественное благосостояние. Их будут проверять на предмет предвзятости, чтобы гарантировать отсутствие дискриминации и уважение основных прав человека.
Кроме того, разработчики систем высокого риска будут обязаны вести подробную документацию, включая методы обучения и наборы данных, чтобы продемонстрировать соответствие.
Модели Foundation, сравнимые с GPT-3.5, будут регулироваться, если для их обучения потребуется не менее 10²⁵ флопов вычислительной мощности. И наоборот, в отношении моделей с открытым исходным кодом будут сделаны значительные уступки, что создаст стимул для разработки этого типа продукта.
Кроме того, Закон ЕС об искусственном интеллекте перечисляет запрещенные системы искусственного интеллекта. Это включает в себя биометрическую категоризацию с использованием чувствительных характеристик (например, расы, религии и т. д.), сбор изображений лиц, распознавание эмоций на рабочем месте и в процессе обучения, социальный рейтинг, манипулирование человеческим поведением и системы, предназначенные для использования уязвимостей человека.
Закон также налагает санкции за несоблюдение требований: штрафы варьируются от 7,5 миллионов евро или 1,5% глобального оборота компании до 35 миллионов евро или 7% оборота, в зависимости от нарушения и размера компании.
Поскольку Европейский закон об искусственном интеллекте, вероятно, вступит в силу в конце 2024 года, важно начать подготовку уже сейчас, особенно если ваша система классифицируется как
Мы рекомендуем сосредоточиться на всех аспектах построения системы, начиная от подготовки данных и заканчивая углубленной оценкой системы.
Как указано в Законе ЕС об искусственном интеллекте, компании будут нести ответственность за ведение подробного учета наборов данных. Это заставит компании уважать конфиденциальность данных и улучшить отслеживаемость. Например, если система создает вредоносный контент, это можно отследить по неуместным данным или предвзятым текстам в наборе данных, на котором она обучалась.
Это означает, что при подготовке к новым правилам следует тщательно учитывать наборы обучающих данных. Это может включать в себя фильтрацию и очистку частей данных, используемых для обучения, или даже создание пользовательских наборов данных, которые курируются предметной областью и специально создаются, чтобы избежать распространенных ошибок, присутствующих в очищенных данных.
Чтобы соответствовать новым правилам, компании, создающие LLM, должны инвестировать в приведение своих моделей в соответствие с человеческими ожиданиями, уделяя особое внимание правдивости, полезности и безвредности. Основными методами, используемыми для выравнивания LLM, являются:
Оба метода собирают предпочтения человека в отношении выходных данных модели и используют эти данные, чтобы научить модель тому, как должен выглядеть желаемый результат. Мы можем весьма эффективно остановить создание большей части вредоносного контента на этом этапе, если предоставим модели правильные примеры.
Оценка систем искусственного интеллекта будет главным приоритетом и должна стать частью цикла разработки продукта. Ощущение наличия хорошей модели должно быть заменено тщательной и глубокой стратегией оценки.
Генеративные системы искусственного интеллекта особенно сложно оценить, поскольку результаты не являются детерминированными. Сгенерированный текст нельзя автоматически сравнить с «правильным» ответом. Оценка таких систем включает обратную связь с людьми, фокусирующуюся на различных аспектах, таких как правильность, полезность и безвредность.
Чаще всего системы необходимо оценивать дальше базовых уровней, упомянутых выше. Например, при оценке вредности мы могли бы дополнительно разделить ее на такие категории, как предвзятость, разжигание ненависти, расизм и т. д. Таким образом, мы могли бы на детальном уровне обнаружить, что необходимо исправить в системе, чтобы минимизировать ее негативное воздействие.
Без сомнения, Закон ЕС об искусственном интеллекте является важным шагом в регулировании искусственного интеллекта и знаменует собой новую эру искусственного интеллекта, когда ответственное развитие искусственного интеллекта больше не является вариантом и теперь будет соблюдаться по закону.
Готова ли ваша компания соблюдать новые правила в области искусственного интеллекта?