Недостающее звено в европейской ИИ-стратегии

Недостающее звено в европейской ИИ-стратегии

БРЮССЕЛЬ – В своей стратегии развития искусственного интеллекта (ИИ) Еврокомиссия делает акцент на необходимости формировать «доверие» и «превосходство». По мнению комиссии, предложенный недавно регламент для ИИ создаст доверие к этой новой технологии, устраняя связанные с нею риски, а превосходство сформирует инвестиции и инновации стран ЕС. Благодаря этим двум факторам внедрение ИИ в Европе, как предполагается, будет ускоряться.

К сожалению, защита фундаментальных прав граждан ЕС (а это должно быть главной целью любого регулирования ИИ), судя по всему, отходит на второй план, а защита прав работников, похоже, не учитывается вообще никак.

ИИ – это флагманский компонент цифровой повестки Европы, а законодательный пакет Еврокомиссии имеет фундаментальное значение для предполагаемого единого рынка данных. В проекте регламента устанавливаются правила, касающиеся внедрения, работы и использования ИИ-систем. В нём применяется подход, основанный на управлении рисками, которые могут быть неприемлемыми, высокими, ограниченными или низкими.

Согласно предложению комиссии, ИИ-системы, признанные «высокорискованными» (то есть создающими значительный риск для здоровья и безопасности или для фундаментальных прав человека), подвергаются оценке ожидаемого (ex ante) соответствия. Эту оценку проводит провайдер системы, и она не требует предварительного подтверждения компетентным внешним органом. В числе требований – высококачественные наборы данных (датасеты), надёжное качество управления данными, ведение обширных реестров, адекватный риск-менеджмент, детальная техническая документация, прозрачные инструкции для пользователей, надлежащих надзор со стороны человека, объяснимость результатов, высокий уровень точности, надёжности и кибербезопасности.

Еврокомиссия заявляет, что её определение ИИ, а также выбранный подход на основе управления рисками, исходя из которого составлен проект регламента, опирается на итоги общественных консультаций. Однако тот факт, что отраслевые и технологические компании составляют подавляющее большинство респондентов в её «Белой книге ИИ» 2020 года, означает, что консультации были далеко не демократическими. Компании утверждают, будто продвигают вперёд знание, науку и технологии, однако они направили процесс регулирования в таком направлении, которое отвечает их интересам. А голос общества, в особенности профсоюзов, был заглушен.

У проекта регламента есть несколько недостатков. В их числе узость выбранного комиссией подхода на основе управления рисками; отсутствие механизма компенсаций; игнорирование проблемы ответственности за ущерб, связанный с ИИ-системами; опора на идею «песочниц» регулирования, которые создают «безопасную» среду для тестирования новых бизнес-моделей. Кроме того, этот проект не оправдывает надежд с точки зрения защиты работников.

Возможным шагом вперёд в устранении этих недостатков стала бы специальная ad hoc директива, рассматривающая ИИ в контексте занятости. Она позволила бы защитить работников (включая тех, кто занят в экономике интернет-платформ) и дать им возможность реализовать свои права и свободы на индивидуальной и коллективной основе.

Такая директива должна решить несколько ключевых вопросов. Прежде всего, она должна установить обязанность работодателей предотвращать риски ИИ точно так же, как они обязаны следить за соблюдением норм охраны труда и производственной гигиеной. Риски ИИ простираются намного дальше, потому что они включают возможные злоупотребления менеджерами своей властью, вытекающей из природы трудовых отношений, а также ряд других угроз – конфиденциальности жизни работников, их фундаментальным правам, защите данных, общему здоровью.

Защита конфиденциальности жизни работников и защита данных одинаково важны, потому что искусственный интеллект жаждет данных, а работники представляют собой важный источник этих данных. Принятый в ЕС «Общий регламент по защите данных» (GDPR) является мощным инструментом, который в теории применим и к данным работников в трудовом контексте, в том числе, к их использованию ИИ-системами. Однако на практике работники практически никак не могут реализовать установленные регламентом GDPR права в своих отношениях с работодателями. Чтобы они смогли это сделать, ЕС следует ввести дополнительные нормы.

Не менее важно требовать объяснения целей алгоритмов ИИ. Корпоративные правила прозрачности на рабочем месте не защитят работников. Вместо этого, работодателям, как пользователям алгоритмов, необходимо учитывать возможный вред, который может нанести их внедрение на рабочих местах. Использование предвзятых параметров или переменных может привести к профилированию работников, таргетированию конкретных людей, к их категоризации в соответствии с оценкой «уровня риска».

Другой приоритет – гарантировать, что работники могут воспользоваться «правом на объяснение». Смысл в том, чтобы работодатели были обязаны проконсультироваться с работниками до внедрения алгоритмов, а не информировали их об этом внедрении постфактум. Предоставляемая информация должна позволить работникам понять последствия автоматизированных решений.

Новая специальная ad hoc директива должна также гарантировать соблюдение принципа «командуют люди» в любых взаимодействиях людей и машин на работе. Это означает, что последнее слово всегда должно быть за людьми и что надо объяснять, какие источники данных влияют на итоговые решения в тех случаях, когда люди и машины действуют вместе. Профсоюзы должны рассматриваться как часть «человеческого» компонента и играть активную роль, наряду с менеджерами, командами IT-поддержки и внешними консультантами.

Законодатели ЕС должны также запретить алгоритмическую слежку за работниками. Сегодня мониторинг работников регулируется национальными законами, которые зачастую были приняты до утверждения GDPR и не охватывают современные, навязчивые методы анализа людей. Инструменты на основе ИИ, такие как биометрия, машинное обучение, семантический анализ, анализ настроений, технологии улавливания чувств, способны измерять биологию, поведение, концентрацию и эмоции людей.

Алгоритмическое слежение не просто пассивно сканирует работников, оно «собирает» всю их персональную жизнь, активно выстраивает имидж, а затем принимает решения.

Наконец, работникам нужно иметь возможность проявлять свою агентность, а для этого им надо быть ИИ-грамотными. Недостаточно обучения техническим цифровым навыкам для того, чтобы они могли управлять той или иной системой. Для понимания роли ИИ и его влияния на рабочую среду работники должны быть информированными и образованными, критически взаимодействуя с технологиями.

Регулирование ИИ-систем, а особенно тех из них, которые признаны высокорискованными, не должно опираться на оценки, данные самими провайдерами этих систем. Европа может стать глобальным лидером в этой сфере и сформировать подлинное общественное доверие и принятие новой технологии. Однако это будет возможно лишь в том случае, если она будет эффективно защищать и вовлекать граждан и работников. Не будет никакого «человеко-центричного» искусственного интеллекта, если работники и их представители не смогут выделять специфические риски ИИ-технологий, связанные с трудовой деятельностью.

В этом смысле предложенный Еврокомиссией проект регламента ИИ оставляет желать много лучшего. Европарламент и страны-члены ЕС должны немедленно начать действовать, в частности, интегрировав защиту работников в финальную версию этого важнейшего регламента.

 

Аида Понсе Дель Кастильо
— старший научный сотрудник
Брюссельского отдела
прогнозирования Европейского
института профсоюзов

 

 

Источник.


 

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий