Как не дать искусственному интеллекту испортить вам жизнь

 Как не дать искусственному интеллекту испортить вам жизнь

12 законов робототехники — и как их применять.

В течение многих лет термин «искусственный интеллект» (ИИ) был обобщенным и характеризовал принятие решений на основе машинных алгоритмов.

Но по мере развития прогресса и популяризации технологии результаты работы ИИ стали все большее влиять на жизни людей — от получения кредитов и работы до назначения уголовных наказаний.

Однако зачастую эти решения принимаются с использованием патентованных и скрытых алгоритмов, поэтому почти невозможно узнать, действительно ли они справедливы или оправданы.

Поэтому специальные комиссии занялись разработкой набора руководящих принципов, направленных на защиту человечества от целого ряда угроз, создаваемых искусственным интеллектом.

Недавно такой свод из 12 универсальных правил был оглашен на совещании в Брюсселе. Эти правила предназначены для интегрирования в ИИ с целью обеспечения защиты прав человека. Благодаря им люди смогут получать информацию о логике и методах принятия решения искусственным интеллектом. Этот свод также обеспечит обязательную беспристрастность, которая устранит риск дискриминационных решений; и обязательную защиту системы от киберугроз. Более 200 экспертов и 50 организаций выступили за введение правил, в том числе Федерация американских ученых и одна из ведущих организаций по защите информаторов Government Accountability Project. Однако, скорее всего, это займет много месяцев.

Давайте посмотрим на полный свод этих правил:

1. Право на прозрачность.

Все люди имеют право знать подоплеку решений ИИ, которые имеют к ним отношение. Это включает в себя доступ к факторам, логике и методам, которые привели к конечному результату.

2. Право на принятие решения человеком.

Каждый имеет право привлечь человеческий фактор к окончательному решению.

3. Обязательная идентификация.

Организация, ответственная за систему искусственного интеллекта, должна быть представлена общественности.

4. Обязательство по обеспечению беспристрастности.

Организации должны убедиться, что в системах ИИ не отражено несправедливое предвзятое отношение и невозможны недопустимые дискриминационные решения.

5. Обязательство по оценке и учету.

Система ИИ должна быть введена в работу только после адекватной оценки ее целей и задач, преимуществ и рисков. Организации должны нести ответственность за решения, принятые системой ИИ.

6. Обязательство по обеспечению точности, надежности и обоснованности.

Организации должны обеспечивать точность, надежность и обоснованность принимаемых решений.

7. Обязательство по контролю качества данных.

Организации должны устанавливать происхождение данных, а также следить за их качеством и актуальностью перед вводом данных в алгоритмы.

8. Обязательство по обеспечению общественной безопасности.

Организации должны оценивать риски для общественной безопасности, возникающие при внедрении систем ИИ, которые направляют или контролируют физические устройства, и осуществлять контроль безопасности.

9. Обязательство по обеспечению кибербезопасности.

Организации должны защищать системы ИИ от угроз кибератаки.

10. Запрет на скрытое профилирование.

Ни одна организация не должна создавать или использовать систему скрытого профилирования.

11. Запрет на проведение оценки граждан по определенным параметрам.

Ни одно правительство не должно проводить общую оценку своих граждан или жителей.

12. Обязательство по отключению системы.

У организации, разработавшей систему ИИ, есть прямое обязательство прекратить действие системы, если над ней невозможно обеспечить должный контроль.

 

Евгения Сидорова

 

 

Источник.


 

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий